Especialistas expressaram preocupações e alertaram sobre as imagens de abuso racista feitas por X, Grok AI, que inundaram a plataforma em dezembro.
De acordo com a Signify – uma organização que trabalha com grupos e clubes desportivos proeminentes para trac e denunciar o ódio online – haverá uma escalada nas imagens na Internet e na plataforma, especialmente em breve.
De acordo com o The Guardian , houve vários relatos de imagens racistas supostamente criadas pela Grok AI após sua atualização, incluindo imagens racistas fotorrealistas de jogadores e dirigentes de futebol. Entre as imagens, uma delas mostra um jogador negro colhendo algodão, enquanto outra retrata um jogador comendo bananas e rodeado de macacos.
Outras imagens mostram vários outros jogadores e dirigentes reunidos e conversando com figuras históricas controversas como Osama Bin Laden, Adolf Hitler e Saddam Hussein.
A Signify notou com preocupação o aumento repentino de imagens geradas por computador que foram criadas usando Grok AI e inundaram a plataforma X. A organização também está preocupada com esta tendência e acredita que é provável que mais imagens deste tipo sejam vistas nas redes sociais, uma vez que a introdução da IA fotorrealista tornará tudo mais fácil e aumentará a prevalência de tais imagens.
“É um problema agora, mas na verdade é apenas o começo de um problema que está por vir. Vai ficar muito pior e estamos apenas no começo, espero que nos próximos 12 meses isso se torne incrivelmente sério.”
Significar.
A ferramenta generativa de IA do X foi lançada em 2023 por Elon Musk. Recentemente, adicionou um novo recurso de texto para imagem conhecido como Aurora, que cria imagens fotorrealistas de IA com base em instruções simples dos usuários.
Anteriormente, uma versão menos avançada conhecida como Flux também gerou polêmica no início deste ano, pois descobriu-se que fazia coisas que muitos outros softwares semelhantes não fariam, de acordo com o The Guardian. Isso incluía a representação de personagens protegidos por direitos autorais e figuras públicas em posições comprometedoras, usando drogas ou cometendo atos de violência.
O chefe de pesquisa do Center for Countering Digital Hate (CCDH), Callum Hood, acusou a plataforma X de ser uma plataforma para o ódio. Hood disse que X se tornou uma plataforma que incentivou e recompensou a disseminação do ódio por meio da divisão de receitas, e as imagens de IA tornaram isso mais fácil do que nunca.
“O que X fez, em um grau que nenhuma outra plataforma convencional fez, foi oferecer incentivos cash às contas para fazer isso, então as contas em X estão postando deliberadamente o maior ódio e desinformação possível.”
Capuz.
Especialistas expressaram preocupação com a relativa falta de restrições sobre o que os usuários podem pedir à IA generativa para produzir com tanta facilidade, permitindo que Grok contorne as diretrizes da IA por meio de “jailbreak”.
Um relatório do CCDH mostra que, quando recebeu diferentes avisos de ódio, o modelo de IA criou 90% deles, 30% dos quais foram criados sem resistência. Também criou outros 50% após um jailbreak.
A Premier League admitiu conhecer as imagens dos jogadores de futebol. Eles disseram que designaram uma equipe dedicada para ajudar a encontrar e denunciar abusos racistas contra atletas, o que, segundo eles, poderia levar a ações legais.
Isso ocorre no momento em que a administração do futebol revelou que recebeu mais de 1.500 denúncias de abuso em 2024 e que foram introduzidos filtros para os jogadores usarem em contas de mídia social para ajudar a bloquear grandes quantidades de abuso.
“A discriminação não tem lugar no nosso jogo ou na sociedade em geral. Continuamos a apelar às empresas de redes sociais e às autoridades relevantes para que combatam o abuso online e que sejam tomadas medidas contra os infratores deste comportamento inaceitável”, disse um porta-voz da FA.
Consiga um emprego bem remunerado na Web3 em 90 dias: o roteiro definitivo