OpenAI enfrenta un obstáculo regulatorio en Italia según los comentarios de la autoridad de protección de datos del país, Garante per la Protezione dei Dati Personali (GPDP). El regulador emitió una advertencia a GEDI, un editor del país, contra compartir sus archivos de datos con OpenAI, citando una posible violación del Reglamento General de Protección de Datos (GDPR) de la Unión Europea (UE).
Esto sigue a una asociación entre GEDI y OpenAI, que permitiría a OpenAI entrenar sus modelos ChatGPT en contenido en italiano.
GEDI es una empresa de medios propiedad de la familia Agnelli. Publica los diarios La Repubblica y La Stampa, y anunció una asociación con OpenAI en septiembre. La asociación implica la entrega de contenido en italiano del portafolio de noticias del editor para ayudar a capacitar y mejorar los productos de OpenAI.
John Elkann, presidente de GEDI, dijo: "La asociación firmada con OpenAI es parte del viaje de transformación digital de GEDI y reconoce su liderazgo en la producción de contenido de alta calidad dentro del panorama de los medios italianos".
Sin embargo, el GPDP advierte que esta asociación podría conducir potencialmente a una violación del GDPR de la UE.
El RGPD establece un estándar global para las leyes de privacidad, enfatizando el consentimiento, la transparencia y la responsabilidad del usuario. También fue el primero en proponer un marco regulatorio de IA , que, según afirma, promoverá el uso seguro y responsable de la IA.
“Si GEDI, sobre la base del acuerdo firmado con OpenAI, divulgara los datos personales contenidos en su archivo, podría violar la normativa de la UE, con todas las consecuencias, incluidas las de carácter sancionador”, afirmó el GPDP.
Las violaciones del RGPD pueden costar a las empresas infractoras hasta 20 millones de euros o el 4% de su facturación global anual.
Este último episodio con GEDI intensifica aún más las tensiones entre el avance tecnológico y el cumplimiento de las regulaciones de privacidad en la UE.
Clearview AI , una empresa estadounidense, fue multada con unos 30 millones de euros por la Autoridad de Protección de Datos de Holanda, alegando violación de la privacidad y de los derechos de los usuarios según el RGPD. A principios de este año, el GPDP prohibió temporalmente ChatGPT por preocupaciones sobre la recopilación y el procesamiento ilegal de datos de los usuarios.
Estados Unidos ha adoptado un enfoque relajado e impulsado por el mercado respecto de la IA, favoreciendo la innovación y enfatizando la autorregulación dentro del espacio. A ello alude la “Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial”, emitida en octubre de 2023.
La falta de una legislación clara, especialmente a nivel federal, ha llevado a los estados a liderar el camino en la regulación de la industria. La Ley de Privacidad del Consumidor de California ( CCPA ) es un ejemplo de legislación sobre IA a nivel estatal.
China también ha establecido un marco regulatorio. En julio de 2023, la Administración del Ciberespacio de China emitió regulaciones sobre el uso de IA generativa. También planea formular más de 50 estándares para la IA para 2026 . Estas regulaciones se aplicarían tanto a los proveedores locales como internacionales de servicios de IA.
Consiga un trabajo Web3 bien remunerado en 90 días: la hoja de ruta definitiva