據報道,蘋果公司無視工程師對其有缺陷的蘋果智能的警告,並繼續發佈了該技術,但市場評價卻平淡無奇。
這家 iPhone 製造商的 Apple Intelligence 因錯誤原因成爲頭條新聞,並受到廣泛批評,尤其是捏造虛假信息和搞砸新聞頭條。
雖然大型語言模型產生幻覺是很常見的,這是人工智能行業尚未解決的挑戰(如果有的話),但蘋果的情況有點不同。工程師在發佈之前注意到該模型存在一些嚴重缺陷。然而,該公司忽視了這些警告。
分析師表示,在對其人工智能的巨大缺陷發出警告後,這家科技巨頭繼續發佈該模型是魯莽defi。這些警告來自去年十月發佈的研究
儘管尚未經過同行評審,但在測試了人工智能行業一些頂級法學碩士的matic“推理”能力後,該研究還得出結論,這些模型無法推理。
爲了測試這些模型,工程師讓他們從廣泛使用的GSM8K 數據,該數據集是行業的基準。
根據 Futurism 的說法,數據集中的一個典型問題是:“詹姆斯買了 5 包牛肉,每包 4 磅。牛肉價格爲每磅 5.50 美元。他付了多少錢?”
工程師們通過簡單地更改問題中的一些數字來暴露人工智能模型中的差距,以避免數據污染。這導致了所檢查的 20 個法學碩士存在一些小但值得注意的錯誤。
然而,當研究人員更進一步,更改名稱並添加一些“不相關的細節”時,結果卻是“災難性的”,高達 65%。
研究人員寫道:“這揭示了模型識別解決問題相關信息的能力的一個關鍵缺陷,可能是因爲它們的推理在常識術語中並不正式,並且主要基於模式匹配。”
研究人員表示,每個模型的結果都不同。 OpenAI 01-preview 下降了 17.5%,其前身 GPT-4o 下降了 32%。研究人員指出,即使是“最聰明”的模型也會面臨問題並表現出一些嚴重的缺陷。
測試還證明,人工智能模型在解決問題方面可能看起來很聰明,但一旦它們不能逐字複製某人的作業,它們就會陷入困境。至於蘋果公司,據報道這家科技巨頭知道測試結果,但向市場發佈了其型號。
由於市場的強烈反對,包括英國廣播公司(BBC)對該模型泄露誤導性信息的擔憂,蘋果最終暫停了該計劃,直到能夠修復它。
蘋果的人工智能功能原本應該能夠總結新聞通知,但它有時會自己編造新聞,這讓讀者和新聞出版商非常不滿。
其中一條不準確的新聞提醒稱,拉斐爾·納達爾是同性戀,一名被指控殺害美國保險老闆的男子開槍自殺。蘋果的人工智能還錯誤地總結了 BBC 應用程序通知,聲稱盧克·利特勒 (Luke Littler) 在 PDC 世界飛鏢錦標賽開始前幾個小時就贏得了冠軍。
《紐約時報》報道的另一篇錯誤摘要似乎已於 1 月 6 日發表,與國會山騷亂四週年有關。
蘋果在給 BBC 的一份聲明中表示:“Apple Intelligence 功能尚處於測試階段,我們將在用戶反饋的幫助下不斷進行改進。” “未來幾周的軟件更新將進一步澄清顯示的文本何時是 Apple Intelligence 提供的摘要。我們鼓勵用戶在看到意外的通知摘要時報告問題。”聲明補充道。
蘋果的缺陷功能之一是去年 12 月向一些較新 iPhone 的用戶發佈的人工智能工具之一,包括 iPhone 16、15 Pro 和 15 Pro Max 手機,以及一些 iPad 和 Mac。
90 天內開啓您的 Web3 職業生涯並獲得高薪加密工作的分步系統