OpenAI 的報告稱,其模型正被用來影響選舉。它還表示,它已經取締了 20 多個依靠其 AI 模型進行此類惡意活動的操作。 OpenAI 報告《關於破壞人工智能欺騙性使用的最新信息》還強調,在涉及政治內容時需要保持警惕。
該文件顯示了 OpenAI 模型成爲擾亂選舉和傳播政治錯誤信息的主要工具的趨勢。不良行爲者通常由國家資助,他們將這些人工智能模型用於各種活動,包括在社交媒體上生成虛假角色的內容和惡意軟件逆向工程。
OpenAI 在人工智能選舉和政治中的影響力與日俱增
8 月下旬,OpenAI 擾亂了伊朗的一場活動,該活動正在製作社交媒體內容,以影響美國大選、委內瑞拉政治、加沙衝突和以色列的觀點。據報道,一些隨後被禁止的賬戶也發佈了有關盧旺達選舉的信息。
它還發現一家以色列公司也參與試圖操縱印度的民調結果。
然而,OpenAI 指出,這些活動並沒有像病毒一樣傳播開來,也沒有培養出大量的受衆。與這些活動相關的社交媒體帖子獲得的trac度微乎其微。這可能表明通過人工智能驅動的錯誤信息活動來影響公衆輿論是困難的。
從歷史上看,政治運動通常是由競選方的錯誤信息推動的。然而,人工智能的出現對政治體系的完整性帶來了不同的威脅。 世界經濟論壇(WEF)表示,2024年是歷史性的選舉年,有50個國家舉行選舉。
日常使用的法學碩士已經有能力更快、更有說服力地製造和傳播錯誤信息。
監管和協作努力
針對這一潛在威脅,OpenAI 表示正在與相關利益相關者合作,共享威脅情報。它預計這種協作方法足以監管錯誤信息渠道並促進道德的人工智能使用,特別是在政治背景下。
OpenAI 報告稱,“儘管此次行動缺乏有意義的受衆參與,但我們認真對待任何在外國影響力行動中使用我們的服務的努力。”
該人工智能公司還強調,必須建立強大的安全防禦措施,以防止國家支持的網絡攻擊者利用人工智能發起欺騙性和破壞性的在線活動。
世界經濟論壇還強調了制定人工智能法規的必要性,並表示:“關於可互操作標準和基線監管要求的國際協議將在促進創新和提高人工智能安全方面發揮重要作用。”
開發有效的框架需要 OpenAI 等科技公司、公共部門和私人利益相關者之間建立戰略伙伴關係,這將有助於實施符合道德的人工智能系統。
* 本文內容僅代表作者個人觀點,讀者不應以本文作為任何投資依據。在做出任何投資決定之前,您應該尋求獨立財務顧問的建議,以確保您了解風險。差價合約(CFD)是槓桿性產品,有可能導致您損失全部資金。這些產品並不適合所有人,請謹慎投資。查閱詳情