Google分享了其旗舰人工智能模型Gemini 2.5 Pro的安全文件。专家说,这使关键风险无法解释。
在向客户发布Gemini 2.5 Pro几周后,周四发布了技术论文该文档列出了Google在模型上进行的内部测试,但几乎没有关于系统在超载或滥用下的行为的事实。TechCrunch的研究人员缺少细节,因此很难判断Gemini 2.5 Pro是否确实可以安全地使用。
技术报告是公众了解高级AI系统可以做和不能做什么的主要方式之一。一份详尽的报告通常显示模型在哪里失败以及可能被滥用的地方。许多人工智能研究人员将这些论文视为诚实的努力,以支持公司的安全要求。
Google仅在模型不再被标记为“实验”之后才会发布报告,并且它将某些“危险能力”调查结果移至一个单独的审核中,该发现立即发布。结果,公共文件并未涵盖Google测试的所有威胁。
几位分析师说,新的Gemini 2.5 Pro文件是一个有限披露的鲜明案例。他们还注意到,该报告从未提到Google的边境安全框架或FSF,该政策去年宣布,以发现可能造成“严重伤害”的未来AI权力。
AI政策与战略研究所的联合创始人Peter Wildeford说:“该报告非常稀疏,包含最少的信息,并且在模型公开后几周就到达。” “不可能确认Google是否符合自己的承诺,因此无法判断其模型的安全性。”
安全AI项目的联合创始人托马斯·伍德赛德(Thomas Woodside)说,他很高兴任何报纸都出现了,但他怀疑Google计划发布稳定的关注效果。他指出,该公司上次分享危险性测试的结果是2024年6月,该论文涵盖了同年2月宣布的模型。
当观察者看不到Gemini 2.5 Flash的安全纸时,信心进一步滑落,Google上周透露的一个更苗条,更快的模型。公司发言人说,闪光纸即将推出。
伍德赛德说:“我希望这是一个真正的承诺,可以开始提供更频繁的更新。” “这些更新应包括尚未公开的模型的结果,因为这些模型也可能带来严重的风险。”
Meta的新Llama 4型号的安全说明仅运行几页,而Openai则选择不发布任何GPT −4.1系列的报告。
细节短缺是在紧张的时间出现的。两年前,Google告诉美国政府,它将为每个“重要的” AI模型发布安全文件。”该公司向其他国家的官员做出了类似的承诺,称其将提供有关其AI产品的“公共透明度”。
民主与技术中心AI治理高级顾问Kevin Bankston称来自领先实验室的发行版是安全性的“竞赛”。
他补充说:“结合报道说,像OpenAI这样的竞争对手实验室在释放之前从几个月到几天发布之前就缩短了安全测试时间,这本针对Google的顶级模特的文档讲述了一个令人不安的故事,即当公司将其模型赶到市场上时,就会在AI安全性和透明度上进行竞争。”
Google说,其大部分安全工作都发生在闭门造车后面。该公司指出,在任何公开发布之前,每个模型都经过严格的测试,包括“对抗红色团队”。
2025年DeFi赚取被动收入的新方法。了解更多