谷歌前首席執行官埃裏克·施密特警告人工智能開發者要控制他們的開發上限。他還強調了美國贏得與中國正在進行的人工智能(AI)競賽的重要性。
週日,施密特在美國廣播公司新聞節目喬治·斯特凡諾普洛斯的《本週新聞》中對人工智能系統dent運行甚至自我改進的潛力提出了警告。
“我們很快就能讓計算機自行運行,決定它們想要做什麼,”施密特說。
施密特重申了先進人工智能發展不受控制的風險,並指出能夠自我改進的系統存在重大危險。
“當系統能夠自我改進時,我們需要認真考慮拔掉它,”這位谷歌前首席執行官表示。
當斯蒂芬諾普洛斯問施密特,這樣的人工智能系統是否可以對抗關閉它們的努力時,施密特回答說:“好吧,從理論上講,我們最好有人把手放在插頭上——打個比方。”
儘管人們對人工智能存在風險的擔憂日益加劇,但一些專家認爲這種擔憂被誇大了。倫敦帝國理工學院研究副教務長尼克·詹寧斯教授是駁斥世界末日預言的人之一。
詹寧斯認爲,雖然人工智能可以在特定任務中表現出色,但在不同領域創建具有類人智能的系統仍然遠遠超出了科學家目前的能力。
“開發能夠很好地執行單一任務的人工智能是可以實現的, ”詹寧斯解釋道。 “但是,在不久的將來,我們無法期望構建能夠反映跨多個學科的人類智能的通用人工智能。”
與此同時,領先的人工智能研究人員仍然存在擔憂,他們警告目標定義不defi和安全措施不足帶來的危險。加州大學伯克利分校教授斯圖爾特·拉塞爾和博士後學者邁克爾·科恩認爲,如果不加以控制,強大的人工智能系統最終可能會對人類構成生存威脅。
在《科學雜誌》上發表的一篇見解論文中,拉塞爾和科恩呼籲對人工智能的發展進行更嚴格的監督。他們強調科技公司需要在將其人工智能系統投放市場之前證明其安全性。他們認爲,如果沒有明確的目標和強有力的保障措施,先進的人工智能系統可能會損害人類的利益。
“如果這些人工智能的目標與人類的目標相沖突,可能會帶來災難, ”拉塞爾和科恩寫道。他們認爲科技公司應該負責確保其系統的安全,並dent人工智能永遠不應跨越的關鍵“紅線”。
人工智能的快速發展已經帶來了挑戰,包括虛假信息的傳播、社會兩極分化和算法偏見。對安全和監管的擔憂尚未跟上技術發展的步伐。
施密特的言論反映出行業領導者應對這些挑戰的緊迫性日益增加。 埃隆·馬斯克等專家長期以來一直呼籲採取先發制人的監管措施來減輕人工智能風險。
馬斯克曾將人工智能描述爲“我們作爲一個文明所面臨的最大風險”, 他警告說,當局在解決其危險方面幾乎沒有採取任何措施。同樣,物理學家史蒂芬·霍金擔心,實現奇點(即機器超越人類智能的點)可能會讓人類無法控制先進的人工智能系統。
霍金在接受採訪時表示,如果沒有監管,人工智能可能會成爲“人類發生的最好或最壞的事情”。
施密特指出,雖然美國此前在人工智能發展方面領先於中國,但在過去六個月中,差距已顯着縮小。他說:“中國以一種引人注目的方式迎頭趕上。 ”他將當前局勢描述爲兩個超級大國之間的一場高風險競賽。
“也許在未來一兩年內,系統可以開始進行自己的研究。他們被稱爲人工智能科學家,而不是人類科學家。所以你從 1000 名人類科學家變成了 100 萬人工智能科學家。我認爲這會增加坡度,當你以這種速度前進時,你的競爭對手很難趕上, ”他評論道。
施密特認爲,即將上任的特朗普政府將優先考慮美國在人工智能領域的競爭力,他認爲這是積極的一步。 “只要人類價值觀得以保留,”他說,“我們應該沒問題。”
90 天內開啓您的 Web3 職業生涯並獲得高薪加密工作的分步系統。