O Google removeu uma promessa de seus princípios de inteligência artificial (AI), que anteriormente se comprometeram a evitar o desenvolvimento da IA para armas e vigilância. A mudança, relatada pela primeira vez pelo Washington Post em 4 de fevereiro, sinaliza a abordagem da empresa às parcerias de segurança nacional à medida que a IA se torna mais integrada às operações militares e de inteligência.
Em uma postagem de blog publicada na terça -feira, os executivos do Google declararam que a atualização era necessária devido à crescente prevalência da IA e à necessidade de empresas de tecnologia baseadas nas nações democráticas para apoiar os clientes do governo e de defesa.
Acreditamos que as democracias devem liderar o desenvolvimento da IA, guiadas por valores essenciais como liberdade, igualdade e respeito pelos direitos humanos. E acreditamos que empresas, governos e organizações que compartilham esses valores devem trabalhar juntos para criar IA que proteja as pessoas, promove o crescimento global e apoia a segurança nacional.
O ethos anterior da IA da Companhia, promulgado em 2018, rejeitou explicitamente “armas ou outras tecnologias cujo principal objetivo ou implementação é causar ou diretamente“ pessoas de lesão ”e“ tecnologias que reúnem ou usam informações para vigilância violando normas internacionalmente aceitas ”, agora foram removido do site de princípios da IA.
Os princípios revisados do Google agora afirmam que a empresa prosseguirá com o desenvolvimento da IA, onde "os benefícios gerais provavelmente excedem substancialmente os riscos e desvantagens previsíveis". A atualização marca uma saída notável de sua postura anterior, que enfatizou amplas considerações éticas e a prevenção de aplicativos de IA que podem causar danos.
Além disso, os líderes da indústria de tecnologia dos EUA estão aparentemente trabalhando para melhorar as capacidades de IA do país, a fim de cobrar adiante na “guerra fria” tecnológica entre os Estados Unidos e a China.
Na segunda-feira, o diretor de tecnologia da Palantir, Shyam Sankar, descreveu a raça de IA como um esforço de "todo o país" que precisa passar pelas paredes do Departamento de Defesa, para que "a América ganhe".
Durante anos, as restrições do Google sobre as aplicações de segurança nacional da IA tornaram -se um outlier entre as principais empresas de IA. Outros gigantes da tecnologia, incluindo a Microsoft e a Amazon, mantiveram parcerias de longa data com o Pentágono, mas as empresas de IA mais novas estão se aquecendo com laços militares.
No final do ano passado, o Openai, criador do ChatGPT, anunciou uma colaboração com a defesa contra trac Anduril para desenvolver a tecnologia de IA para os militares dos EUA. Da mesma forma, a Anthropic, a empresa por trás do Claude Chatbot, fez uma parceria com a Palantir para fornecer serviços de IA às agências de inteligência dos EUA por meio da Amazon Web Services.
Michael Horowitz, professor de ciências políticas da Universidade da Pensilvânia e ex-oficial do Pentágono, versado em tecnologias emergentes, disse ao WP que a mudança de política do Google faz parte de uma tendência mais ampla.
" O anúncio do Google é mais evidência de que o relacionamento entre o setor de tecnologia dos EUA e o Departamento de Defesa continua se aproximando, incluindo as principais empresas de IA ", disse ele. " Faz sentido que o Google tenha atualizado sua política para refletir a nova realidade ".
Em 2023, conforme relatado pela CNN, o Google deixou mais de 50 funcionários após uma série de protestos contra o Project Nimbus, uma computação em nuvem de US $ 1,2 bilhão e a AI contratou trac Amazon para fornecer serviços ao governo e militar israelense. Os executivos defenderam repetidamente o acordo, declarando que não violou os princípios da IA do Google.
No entanto, os documentos revelados pelo New York Times em dezembro sugeriram que o acordo do Google com Israel incluía recursos de IA, como categorização de imagens e trac , bem como possíveis disposições para fabricantes de armas estatais.
De acordo com o The Times , quatro meses antes de assinar no Projeto Nimbus, os executivos do Google levantaram preocupações em particular de que o acordo pudesse prejudicar a reputação da empresa e que seus serviços em nuvem podem estar vinculados a violações dos direitos humanos.
Ao mesmo tempo, o Google enfrentou críticas por restringir discussões internas sobre conflitos geopolíticos, incluindo a guerra em Gaza. Alguns funcionários acusaram a Companhia de suprimir o debate, ao mesmo tempo em que aprofundava seu envolvimento no AItracTS relacionado a defesa e vigilância.
Nas mídias sociais, após os princípios atualizados da IA do Google, os internautas estão debatendo se o plano da startup de tecnologia é proteger os interesses dos americanos, ou é apenas uma manobra para pegar o maior pedaço de cake no governo detracdo governo.
"Sooooo .... Um X usuário perguntou .
Academia Cryptopolitan: como escrever um currículo Web3 que lança entrevistas - folha de dicas grátis