Google ha eliminado una promesa de sus principios de inteligencia artificial (IA), que anteriormente se comprometió a evitar el desarrollo de IA para armas y vigilancia. El cambio, informado por primera vez por el Washington Post el 4 de febrero, señala el enfoque de la compañía para las asociaciones de seguridad nacional a medida que la IA se integra más en las operaciones militares e inteligencia.
En una publicación de blog publicada el martes, los ejecutivos de Google declararon que la actualización era necesaria debido a la creciente prevalencia de IA y la necesidad de empresas de tecnología con sede en naciones democráticas para apoyar a los clientes gubernamentales y de defensa.
Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntas para crear IA que proteja a las personas, promueve el crecimiento global y apoya la seguridad nacional.
El espíritu de IA anterior de la compañía, promulgado en 2018, rechazó explícitamente "armas u otras tecnologías cuyo propósito o implementación principal es causar o directamente" a las personas "y" tecnologías que recopilan o usan información para la vigilancia que violan las normas aceptadas internacionalmente ", ahora se han sido ahora. eliminado de su sitio web de principios de IA.
Los principios revisados de Google ahora afirman que la compañía procederá con el desarrollo de la IA, donde "los beneficios generales en general superan sustancialmente los riesgos y desventajas previsibles". La actualización marca una notable desviación de su postura anterior, que enfatizó las amplias consideraciones éticas y la evitación de aplicaciones de IA que podrían causar daño.
Además, los líderes de la industria de la tecnología estadounidense aparentemente están trabajando para mejorar las capacidades de IA del país, para cobrar por delante en la "Guerra Fría" tecnológica entre Estados Unidos y China.
El lunes, el director de tecnología de Palantir, Shyam Sankar, describió la carrera de IA como un esfuerzo de "toda la nación" que necesita pasar los muros del Departamento de Defensa, para que "Estados Unidos gane".
Durante años, las restricciones de Google en las aplicaciones de seguridad nacional de IA lo convirtieron en un caso atípico entre las principales empresas de IA. Otros gigantes tecnológicos, incluidos Microsoft y Amazon, han mantenido asociaciones de larga data con el Pentágono, pero las nuevas compañías de IA se están calentando con los lazos militares.
A fines del año pasado, Openai, el creador de ChatGPT, anunció una colaboración con la defensa Con trac Tor Anduril para desarrollar tecnología de IA para el ejército de los Estados Unidos. Del mismo modo, Anthrope, la compañía detrás del Claude Chatbot, se asoció con Palantir para proporcionar servicios de IA a las agencias de inteligencia de EE. UU. A través de Amazon Web Services.
Michael Horowitz, profesor de ciencias políticas en la Universidad de Pensilvania y ex funcionario del Pentágono bien versado en tecnologías emergentes, dijo al WP que el cambio de política de Google es parte de una tendencia más amplia.
" El anuncio de Google es más evidencia de que la relación entre el sector de la tecnología de EE. UU. Y el departamento de defensa continúa acercándose, incluidas las principales compañías de inteligencia artificial ", dijo. " Tiene sentido que Google haya actualizado su política para reflejar la nueva realidad ".
En 2023, según lo informado por CNN, Google dejó ir a más de 50 empleados después de una serie de protestas contra Project Nimbus, un control de la nube conjunta de $ 1.2 mil millones y la IA trac Amazon para proporcionar servicios al gobierno y militares israelíes. Los ejecutivos defendieron repetidamente el acuerdo, y avanzó que no violaba los principios de IA de Google.
Sin embargo, los documentos revelados por el New York Times en diciembre sugirieron que el acuerdo de Google con Israel incluía capacidades de IA como la categorización de imágenes y trac , así como posibles disposiciones para los fabricantes de armas de propiedad estatal.
Según el Times , cuatro meses antes de firmar en el Proyecto Nimbus, los ejecutivos de Google habían expresado su preocupación en privado de que el acuerdo podría dañar la reputación de la compañía y que sus servicios en la nube podrían estar vinculados a las violaciones de los derechos humanos.
Al mismo tiempo, Google ha enfrentado críticas por restringir las discusiones internas sobre los conflictos geopolíticos, incluida la guerra en Gaza. Algunos empleados acusaron a la compañía de suprimir el debate al tiempo que profundizan simultáneamente su participación en la defensa ytracde IA relacionados con la vigilancia.
En las redes sociales, después de los principios de IA actualizados de Google, los internautas están debatiendo si el plan de la startup de tecnología es proteger los intereses de los estadounidenses, o es solo una estratagema tomar el cake más grande en lostracde defensa del gobierno.
"Sooooo ... ¿se utilizará AI para las armas y la vigilancia estadounidenses o se vende al mejor postor?" Un usuario x preguntó .
Academia Cryptopolitan: Hoja de trucos de currículum Web3 gratis - Descargar ahora