El organismo de privacidad de la Unión Europea intervino en las cuestiones emergentes relacionadas con la legalidad de GenAI. La junta exploró las lagunas que los desarrolladores de IA pueden aprovechar para procesar datos personales sin contravenir la legislación actual .
La Junta Europea de Protección de Datos planteó dudas sobre la base legal para que los desarrolladores de IA procesen datos personales de los usuarios. En un dictamen publicado el 17 de diciembre, el consejo abordó diversas cuestiones de alcance general de conformidad con el artículo 64, apartado 2, del RGPD.
El Consejo Europeo de Protección de Datos (EDPB) emitió el dictamen a petición de la autoridad supervisora irlandesa. La junta señaló que tenía un mandato legal según el Reglamento General de Protección de Datos (GDPR) para emitir una opinión sobre asuntos que afectan a más de un estado miembro dentro de la Unión Europea.
La agencia destacó las solicitudes presentadas por el organismo irlandés relacionadas con el procesamiento de datos personales durante las fases de desarrollo y despliegue de la Inteligencia Artificial (IA). Redujo la opinión a cuatro cuestiones relacionadas con la protección de datos dentro de la Unión Europea.
Las cuestiones incluyeron cuándo y cómo un modelo de IA puede considerarse anónimo y cómo los controladores pueden ilustrar la necesidad de un interés legítimo en su implementación. La junta también exploró las consecuencias del procesamiento ilegal de datos durante la fase de desarrollo de un modelo de IA en el funcionamiento posterior del modelo de IA.
En cuanto a la cuestión de cuándo y cómo se puede determinar el anonimato de un modelo de IA, el organismo afirmó que una autoridad local competente debería tomar esa determinación caso por caso. La junta expresó que no consideró todos los modelos de IA entrenados utilizando datos personales de forma anónima.
El organismo recomendó que las autoridades nacionales de supervisión evalúen la documentación relevante que proporciona el controlador para determinar el anonimato de un modelo. Añadió que los responsables del tratamiento también deberían tomar las medidas pertinentes para limitar la recopilación de datos personales durante la formación y mitigar posibles ataques.
Sobre la cuestión del interés legítimo como base jurídica adecuada para el procesamiento de datos personales durante el despliegue de modelos de IA, la junta dejó en manos de los controladores determinar la base jurídica adecuada para el procesamiento de dichos datos.
El CEPD hizo hincapié en la prueba de tres pasos para determinar el interés legítimo de los órganos de control. Los pasos incluyeron dent el interés legítimo real y analizar su necesidad. Los responsables del tratamiento también deben evaluar si el interés legítimo guarda equilibrio con los derechos y libertades de los interesados.
Al evaluar las consecuencias, el organismo dejó la discrecionalidad a las autoridades supervisoras de los respectivos estados federados. Añadió que las SA deberían elegir las consecuencias apropiadas dependiendo de los hechos de cada escenario.
La Comisión de Protección de Datos de Irlanda respondió en una declaración señalando que la opinión promovería una regulación modelo de IA eficaz y consistente en la UE. El comisionado Dale Sunderland comentó:
También apoyará el compromiso de la DPC con las empresas que desarrollan nuevos modelos de IA antes de su lanzamiento en el mercado de la UE, así como la gestión de las numerosas quejas relacionadas con la IA que se han presentado a la DPC.
Dale Sunderland
Según se informa, las quejas sobre el fabricante de ChatGPT, OpenAI, se han puesto en escena en los últimos meses. La Autoridad Polaca de Protección de Datos planteó dudas el año pasado sobre el cumplimiento del RGPD por parte del desarrollador de IA.
La autoridad alegó que OpenAI pasó por alto requisitos como la consulta previa con los reguladores cuando existía riesgo de violación de datos personales. El regulador señaló que OpenAI lanzó ChatGPT sin consultar a los reguladores locales, en contravención de las directrices del RGPD.
Garante de Italia también ordenó a OpenAI que dejara de procesar datos personales en 2023 antes de abordar los problemas que había dent con la plataforma de la empresa. Destacó que la empresa con sede en San Francisco carecía de medidas para evitar que los menores accedieran a la tecnología como exige la ley.
La autoridad reguladora advirtió que el incumplimiento de las directrices trac sanciones, incluido un cuatro por ciento de facturación anual o veinte millones de euros, lo que fuera mayor.
Consiga un trabajo Web3 bien remunerado en 90 días: la hoja de ruta definitiva