欧盟隐私机构对有关 GenAI 合法性的新问题进行了权衡。该委员会探讨了人工智能开发人员可能利用的漏洞,在不违反现行立法的情况下处理个人数据。
欧洲数据保护委员会对人工智能开发者处理用户个人数据的合法依据提出质疑。在 12 月 17 日发布的意见中,委员会根据 GDPR 第 64(2) 条解决了各种普遍适用的问题。
欧洲数据保护委员会(EDPB)应爱尔兰监管机构的要求发布了该意见。该委员会指出,根据《 通用数据保护条例》(GDPR),它拥有法定授权,可以就影响欧盟多个成员国的事项发表意见。
该机构指出了爱尔兰机构提出的有关在人工智能(AI)开发和部署阶段处理个人数据的要求。它将意见范围缩小到与欧盟内部数据保护相关的四个问题。
这些问题包括何时以及如何将人工智能模型视为匿名,以及控制者如何说明部署中合法利益的必要性。委员会还探讨了人工智能模型开发阶段的非法数据处理对人工智能模型后续运行的影响。
关于何时以及如何确定人工智能模型的匿名性问题,该机构表示,地方主管部门应根据具体情况做出这样的决定。该委员会表示,它并不考虑所有使用匿名个人数据训练的人工智能模型。
该机构建议国家监管机构评估控制者提供的相关文件,以确定模型的匿名性。它补充说,控制者还应采取相关措施来限制训练期间的个人数据收集并减轻潜在的攻击。
关于合法利益作为人工智能模型部署期间处理个人数据的适当法律依据的问题,董事会将其留给控制者来确定处理此类数据的适当法律依据。
EDPB 强调监管机构确定合法利益的三步测试。这些步骤包括dent实际合法利益并分析其必要性。控制者还必须评估合法利益是否与数据主体的权利和自由相平衡。
在评估后果时,该机构将酌情权提交给各州的监管机构。它补充说,SA 应根据每种情况的事实选择适当的后果。
爱尔兰数据保护委员会在一份声明中做出回应,指出该意见将促进欧盟有效且一致的人工智能模型监管。戴尔·桑德兰专员评论道:
它还将支持 DPC 在新人工智能模型在欧盟市场上推出之前与开发新人工智能模型的公司进行接触,以及处理已提交给 DPC 的许多与人工智能相关的投诉。
戴尔桑德兰
据报道,在过去的几个月里,针对 ChatGPT 制造商 OpenAI 的投诉已经出现在该框架上。波兰数据保护局去年对人工智能开发商遵守 GDPR 的情况提出了质疑。
当局声称 OpenAI 忽视了一些要求,例如在存在个人数据泄露风险时事先咨询监管机构。监管机构指出,OpenAI 在未咨询当地监管机构的情况下推出了 ChatGPT,违反了 GDPR 准则。
意大利的 Garante还命令 OpenAI 在 2023 年停止处理个人数据,然后再解决该公司平台dent的问题。它强调,这家总部位于旧金山的公司缺乏法律要求的措施来防止未成年人使用该技术。
监管机构警告说,不遵守指导方针将受到trac处罚,包括年营业额的 4% 或 2000 万欧元,以较高者为准。
90 天内找到一份高薪 Web3 工作: 终极路线图