A partir de hoy, la Unión Europea ha cerrado la puerta en los sistemas de IA que han etiquetado como "inaceptablemente arriesgados". Eso no está en debate.
Los reguladores ahora tienen el poder de borrar líneas completas de productos durante la noche. La primera fecha límite de cumplimiento bajo la Ley de IA de la UE siempre comenzará el 2 de febrero, y el mensaje del bloque es que si rompes estas reglas, toserás 35 millones de euros (alrededor de $ 36 millones) o el 7% de tus ingresos globales —Allo duele más.
El Parlamento Europeo aprobó la Ley AI en marzo pasado después de años de presunto ajuste. Para el 1 de agosto, la ley ya estaba en vivo. Ahora, las empresas de todas las industrias simplemente deben lidiar con eso.
La lista negra de la UE cubre algunas esquinas oscuras de IA. Olvídese de los sistemas que obtienen personas en función del comportamiento o la reputación, como ese sistema de crédito social distópico que dirige China. Eso se ha ido. La IA diseñada para atornillar las elecciones de las personas a través de trucos astutos o mensajes subliminales también está prohibido.
Además, la IA que perfila las vulnerabilidades, por ejemplo, aprovechando la edad o la discapacidad de alguien para manipularlas, está fuera de la mesa. Y aquí hay uno para los libros de historia: la UE hizo ilegal predecir si alguien cometerá un delito basado en sus características faciales.
Si su IA está minando datos biométricos para hacer suposiciones sobre el género, la orientación sexual o las creencias políticas, empacar y salir. El monitoreo biométrico en tiempo real para la aplicación de la ley también está prohibido a menos que cumpla con condiciones altamente específicas, de acuerdo con la Ley de AI de la UE.
Eso significa que no hay escaneos faciales en las estaciones de metro o eventos públicos solo para atrapar "sospechosos potenciales". El reytracla emoción AI en escuelas y lugares de trabajo también se cortó, excepto en casos raros vinculados al tratamiento médico o la seguridad.
Estas prohibiciones se aplican a todas las empresas que operan dentro de las fronteras de la UE. La sede no importa: los gigantes del valle de Silicon, las startups asiáticas de IA, los laboratorios europeos, lo que sea. Si usa un sistema restringido, la UE dice que va a pagar la multa.
En septiembre de 2024, más de 100 compañías tecnológicas (incluidas Google, Openai y Amazon) firmaron una promesa voluntaria llamada Pacto de AI de la UE, donde, según los informes, prometieron limpiar sus proyectos de IA temprano, antes de los plazos del ACT, y también mapear qué sistemas podría caer en las categorías de alto riesgo o prohibidas.
Curiosamente, la compañía de AI de Meta, Apple y francés, Mistral, se negó, diciendo que las regulaciones son demasiado rígidas y sofocarían la innovación en octubre de 2024.
Aún así, omitir el pacto no exime a nadie de seguir la ley, a pesar de que la mayoría de estas compañías tecnológicas ni siquiera están tocando las categorías prohibidas, de manera realista.
Pero de acuerdo con la Ley de AI de la UE, las agencias de aplicación de la ley aún pueden usar sistemas de IA que recopilan datos biométricos en público, aunque necesitarán la aprobación de los órganos de gobierno de antemano. La exención se aplica a emergencias como trac King por personas desaparecidas o detener ataques inminentes, y AI detectando la emoción en las escuelas y oficinas, pero solo cuando se justifica las preocupaciones médicas o de seguridad.
Pero la Ley AI no funciona de forma aislada. El Reglamento General de Protección de Datos (GDPR), la Directiva de Seguridad de la Red y la Información (NIS2) y la Ley de Resiliencia Operativa Digital (DORA) tienen requisitos superpuestos para el manejo y la seguridad de los datos.
Academia Cryptopolitan: ¿Estás cometiendo estos errores de currículum de Web3? - Descúbrelo aquí