Google分享了其旗艦人工智能模型Gemini 2.5 Pro的安全文件。專家說,這使關鍵風險無法解釋。
在向客戶發佈Gemini 2.5 Pro幾周後,週四發佈了技術論文該文檔列出了Google在模型上進行的內部測試,但幾乎沒有關於系統在超載或濫用下的行爲的事實。TechCrunch的研究人員缺少細節,因此很難判斷Gemini 2.5 Pro是否確實可以安全地使用。
技術報告是公衆瞭解高級AI系統可以做和不能做什麼的主要方式之一。一份詳盡的報告通常顯示模型在哪裏失敗以及可能被濫用的地方。許多人工智能研究人員將這些論文視爲誠實的努力,以支持公司的安全要求。
Google僅在模型不再被標記爲“實驗”之後纔會發佈報告,並且它將某些“危險能力”調查結果移至一個單獨的審覈中,該發現立即發佈。結果,公共文件並未涵蓋Google測試的所有威脅。
幾位分析師說,新的Gemini 2.5 Pro文件是一個有限披露的鮮明案例。他們還注意到,該報告從未提到Google的邊境安全框架或FSF,該政策去年宣佈,以發現可能造成“嚴重傷害”的未來AI權力。
AI政策與戰略研究所的聯合創始人Peter Wildeford說:“該報告非常稀疏,包含最少的信息,並且在模型公開後幾周就到達。” “不可能確認Google是否符合自己的承諾,因此無法判斷其模型的安全性。”
安全AI項目的聯合創始人托馬斯·伍德賽德(Thomas Woodside)說,他很高興任何報紙都出現了,但他懷疑Google計劃發佈穩定的關注效果。他指出,該公司上次分享危險性測試的結果是2024年6月,該論文涵蓋了同年2月宣佈的模型。
當觀察者看不到Gemini 2.5 Flash的安全紙時,信心進一步滑落,Google上週透露的一個更苗條,更快的模型。公司發言人說,閃光紙即將推出。
伍德賽德說:“我希望這是一個真正的承諾,可以開始提供更頻繁的更新。” “這些更新應包括尚未公開的模型的結果,因爲這些模型也可能帶來嚴重的風險。”
Meta的新Llama 4型號的安全說明僅運行幾頁,而Openai則選擇不發佈任何GPT −4.1系列的報告。
細節短缺是在緊張的時間出現的。兩年前,Google告訴美國政府,它將爲每個“重要的” AI模型發佈安全文件。”該公司向其他國家的官員做出了類似的承諾,稱其將提供有關其AI產品的“公共透明度”。
民主與技術中心AI治理高級顧問Kevin Bankston稱來自領先實驗室的發行版是安全性的“競賽”。
他補充說:“結合報道說,像OpenAI這樣的競爭對手實驗室在釋放之前從幾個月到幾天發佈之前就縮短了安全測試時間,這本針對Google的頂級模特的文檔講述了一個令人不安的故事,即當公司將其模型趕到市場上時,就會在AI安全性和透明度上進行競爭。”
Google說,其大部分安全工作都發生在閉門造車後面。該公司指出,在任何公開發布之前,每個模型都經過嚴格的測試,包括“對抗紅色團隊”。
2025年DeFi賺取被動收入的新方法。瞭解更多