O órgão de privacidade da União Europeia opinou sobre questões emergentes relativas à legalidade da GenAI. O conselho explorou lacunas que os desenvolvedores de IA podem explorar para processar dados pessoais sem infringir a legislação atual .
O Conselho Europeu para a Proteção de Dados levantou questões sobre a base legal para os desenvolvedores de IA processarem dados pessoais dos usuários. Num parecer publicado em 17 de dezembro, o conselho abordou diversos assuntos de aplicação geral em conformidade com o artigo 64.º, n.º 2, do RGPD.
O Comité Europeu para a Proteção de Dados (CEPD) emitiu o parecer a pedido da autoridade de controlo irlandesa. O conselho observou que tinha um mandato legal ao abrigo do Regulamento Geral de Proteção de Dados (GDPR) para emitir um parecer sobre questões que afetam mais de um estado membro na União Europeia.
A agência destacou as solicitações apresentadas pelo órgão irlandês relacionadas ao tratamento de dados pessoais durante as fases de desenvolvimento e implantação da Inteligência Artificial (IA). Limitou a opinião a quatro questões relacionadas com a protecção de dados na União Europeia.
As questões incluíam quando e como um modelo de IA pode ser considerado anónimo e como os responsáveis pelo tratamento podem ilustrar a necessidade de interesse legítimo na implantação. O conselho também explorou as consequências do processamento ilegal de dados durante a fase de desenvolvimento de um modelo de IA na operação subsequente do modelo de IA.
Quanto à questão de quando e como o anonimato de um modelo de IA pode ser determinado, o órgão afirmou que uma autoridade local competente deveria fazer tal determinação caso a caso. O conselho expressou que não considerou todos os modelos de IA treinados com dados pessoais anonimamente.
O órgão recomendou que as autoridades supervisoras nacionais avaliassem a documentação relevante fornecida pelo controlador para determinar o anonimato de um modelo. Acrescentou que os responsáveis pelo tratamento também devem tomar as medidas relevantes para limitar a recolha de dados pessoais durante a formação e mitigar potenciais ataques.
Quanto à questão do interesse legítimo como base jurídica adequada para o tratamento de dados pessoais durante a implantação de modelos de IA, o conselho deixou aos responsáveis pelo tratamento a tarefa de determinar a base jurídica adequada para o tratamento de tais dados.
O CEPD enfatizou o teste de três etapas para determinar o interesse legítimo dos órgãos de supervisão. As etapas incluíram a dent do real interesse legítimo e a análise de sua necessidade. Os responsáveis pelo tratamento devem também avaliar se o interesse legítimo está em equilíbrio com os direitos e liberdades dos titulares dos dados.
Na avaliação das consequências, o órgão remeteu a discricionariedade às autoridades fiscalizadoras dos respectivos estados. Acrescentou que as SAs devem escolher as consequências apropriadas em função dos factos de cada cenário.
A Comissão de Proteção de Dados da Irlanda respondeu numa declaração observando que o parecer promoveria uma regulamentação eficaz e consistente do modelo de IA na UE. O Comissário Dale Sunderland comentou:
Apoiará também o envolvimento da DPC com empresas que desenvolvem novos modelos de IA antes dos seus lançamentos no mercado da UE, bem como o tratamento das muitas reclamações relacionadas com a IA que foram apresentadas à DPC.
Dale Sunderland
Reclamações sobre o OpenAI, fabricante de ChatGPTs, foram supostamente colocadas em questão nos últimos meses. A Autoridade Polonesa de Proteção de Dados levantou questões no ano passado sobre a conformidade do desenvolvedor de IA com o GDPR.
A autoridade alegou que a OpenAI ignorou requisitos como a consulta prévia aos reguladores onde havia risco de violação de dados pessoais. O regulador observou que a OpenAI lançou o ChatGPT sem consultar os reguladores locais, em violação das diretrizes do GDPR.
A Garante da Itália também ordenou que a OpenAI cessasse o processamento de dados pessoais em 2023 antes de resolver problemas que havia dent na plataforma da empresa. Salientou que a empresa sediada em São Francisco carecia de medidas para impedir o acesso de menores à tecnologia, conforme exigido por lei.
A autoridade reguladora alertou que o não cumprimento das diretrizes trac penalidades, incluindo um volume de negócios anual de quatro por cento ou vinte milhões de euros, o que fosse maior.
Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo