歐盟隱私機構對有關 GenAI 合法性的新問題進行了權衡。該委員會探討了人工智能開發人員可能利用的漏洞,在不違反現行立法的情況下處理個人數據。
歐洲數據保護委員會對人工智能開發者處理用戶個人數據的合法依據提出質疑。在 12 月 17 日發佈的意見中,委員會根據 GDPR 第 64(2) 條解決了各種普遍適用的問題。
歐洲數據保護委員會(EDPB)應愛爾蘭監管機構的要求發佈了該意見。該委員會指出,根據《 通用數據保護條例》(GDPR),它擁有法定授權,可以就影響歐盟多個成員國的事項發表意見。
該機構指出了愛爾蘭機構提出的有關在人工智能(AI)開發和部署階段處理個人數據的要求。它將意見範圍縮小到與歐盟內部數據保護相關的四個問題。
這些問題包括何時以及如何將人工智能模型視爲匿名,以及控制者如何說明部署中合法利益的必要性。委員會還探討了人工智能模型開發階段的非法數據處理對人工智能模型後續運行的影響。
關於何時以及如何確定人工智能模型的匿名性問題,該機構表示,地方主管部門應根據具體情況做出這樣的決定。該委員會表示,它並不考慮所有使用匿名個人數據訓練的人工智能模型。
該機構建議國家監管機構評估控制者提供的相關文件,以確定模型的匿名性。它補充說,控制者還應採取相關措施來限制訓練期間的個人數據收集並減輕潛在的攻擊。
關於合法利益作爲人工智能模型部署期間處理個人數據的適當法律依據的問題,董事會將其留給控制者來確定處理此類數據的適當法律依據。
EDPB 強調監管機構確定合法利益的三步測試。這些步驟包括dent實際合法利益並分析其必要性。控制者還必須評估合法利益是否與數據主體的權利和自由相平衡。
在評估後果時,該機構將酌情權提交給各州的監管機構。它補充說,SA 應根據每種情況的事實選擇適當的後果。
愛爾蘭數據保護委員會在一份聲明中做出回應,指出該意見將促進歐盟有效且一致的人工智能模型監管。戴爾·桑德蘭專員評論道:
它還將支持 DPC 在新人工智能模型在歐盟市場上推出之前與開發新人工智能模型的公司進行接觸,以及處理已提交給 DPC 的許多與人工智能相關的投訴。
戴爾桑德蘭
據報道,在過去的幾個月裏,針對 ChatGPT 製造商 OpenAI 的投訴已經出現在該框架上。波蘭數據保護局去年對人工智能開發商遵守 GDPR 的情況提出了質疑。
當局聲稱 OpenAI 忽視了一些要求,例如在存在個人數據泄露風險時事先諮詢監管機構。監管機構指出,OpenAI 在未諮詢當地監管機構的情況下推出了 ChatGPT,違反了 GDPR 準則。
意大利的 Garante還命令 OpenAI 在 2023 年停止處理個人數據,然後再解決該公司平臺dent的問題。它強調,這家總部位於舊金山的公司缺乏法律要求的措施來防止未成年人使用該技術。
監管機構警告說,不遵守指導方針將受到trac處罰,包括年營業額的 4% 或 2000 萬歐元,以較高者爲準。
90 天內找到一份高薪 Web3 工作: 終極路線圖