A partir de hoje, a União Europeia atingiu a porta fechada nos sistemas de IA que eles marcaram como "inaceitavelmente arriscados". Isso não está em debate.
Os reguladores agora têm o poder de apagar linhas de produtos inteiras durante a noite. O primeiro prazo de conformidade sob a Lei da AI da UE sempre começaria em 2 de fevereiro, e a mensagem do bloco é que, se você quebrar essas regras, terá um aumento de 35 milhões de euros (cerca de US $ 36 milhões) ou 7% de sua receita global - O que machuca mais.
O Parlamento Europeu aprovou a Lei da IA em março passado, depois de anos de suposto ajuste. Em 1º de agosto, a lei já estava ao vivo. Agora, as empresas de todas as indústrias devem simplesmente lidar com isso.
A lista negra da UE cobre alguns cantos escuros da IA. Esqueça os sistemas que pontuam pessoas com base em comportamento ou reputação, como o sistema de crédito social distópico da China. Isso se foi. A IA projetada para ferrar com as escolhas das pessoas através de truques sorrateiros ou mensagens subliminares também é proibida.
Além disso, a IA que perfina as vulnerabilidades - digamos, atacando a idade ou a deficiência de alguém para manipulá -las - está fora da mesa. E aqui está um para os livros de história: a UE tornou ilegal prever se alguém cometerá um crime com base em suas características faciais.
Se sua IA estiver minerando dados biométricos para fazer suposições sobre gênero, orientação sexual ou crenças políticas, empacote e saia. O monitoramento biométrico em tempo real para aplicação da lei também é proibido, a menos que atenda a condições altamente específicas, de acordo com a Lei da UE da AI.
Isso significa que não há exames faciais nas estações de metrô ou eventos públicos apenas para capturar "suspeitos em potencial". A IA da Emoção-tracnas escolas e os locais de trabalho também foi cortada, exceto em casos raros vinculados a tratamento médico ou segurança.
Essas proibições se aplicam a todas as empresas que operam dentro das fronteiras da UE. A sede não importa - os gigantes do vale de Silicon, as startups asiáticas da IA, os laboratórios europeus, você escolhe. Se você usa um sistema restrito, a UE diz que vai pagar a multa.
Em setembro de 2024, mais de 100 empresas de tecnologia (incluindo Google, Openai e Amazon) assinaram uma promessa voluntária chamada o Pacto da UE, onde eles prometeram limpar seus projetos de IA cedo, antes dos prazos da lei e também mapearem quais sistemas pode se enquadrar nas categorias de alto risco ou proibidas.
Curiosamente, a Meta, a Apple e a empresa francesa Ai Mistral se recusou, dizendo que os regulamentos são muito rígidos e sufocariam a inovação em outubro de 2024.
Ainda assim, pular o pacto não isenta ninguém de seguir a lei, mesmo que a maioria dessas empresas de tecnologia nem sequer tocasse nas categorias proibidas, realisticamente falando.
Mas, de acordo com a Lei da AI da UE, as agências policiais ainda podem usar sistemas de IA que coletam dados biométricos em público, embora precisem de aprovação de órgãos que governam com antecedência. A isenção se aplica a emergências como trac rei ou para interromper ataques iminentes e a IA que detecta emoções nas escolas e escritórios, mas apenas quando justificada por preocupações médicas ou de segurança.
Mas a Lei da AI não opera isoladamente. O Regulamento Geral de Proteção de Dados (GDPR), Diretiva de Segurança de Rede e Informação (NIS2) e Lei de Resiliência Operacional Digital (DORA) têm requisitos sobrepostos para manuseio e segurança de dados.
Academia Cryptopolitan: Você está cometendo esses erros de currículo da Web3? - Descubra aqui