En Resumen

  • Google firmó un acuerdo que permite al Pentágono usar su IA para "cualquier propósito gubernamental legal", según NYT.
  • Cientos de empleados firmaron una carta a Sundar Pichai rechazando poner sistemas de IA a disposición del Departamento de Defensa.
  • El acuerdo se suma a contratos similares que el Pentágono firmó con OpenAI y xAI para uso de IA en redes clasificadas.

Google ha firmado un acuerdo para proporcionar al Pentágono sus modelos de inteligencia artificial para trabajo clasificado, según un reporte de The Information.

El acuerdo permite al Departamento de Defensa de Estados Unidos utilizar la IA de Google para "cualquier propósito gubernamental legal", según indicaron personas familiarizadas con el acuerdo al diario The New York Times. El lenguaje refleja los contratos que el Pentágono firmó el mes pasado con OpenAI y xAI para usar sus modelos de IA en redes clasificadas.

"Nos enorgullece ser parte de un amplio consorcio de destacados laboratorios de IA y empresas de tecnología y nube que proveen servicios de IA e infraestructura en apoyo a la seguridad nacional", señaló un portavoz de Google al The New York Times. "Seguimos comprometidos con el consenso del sector público y privado de que la IA no debe utilizarse para vigilancia masiva doméstica ni para armamento autónomo sin la supervisión humana adecuada".

Google no respondió de inmediato a una solicitud de comentarios de Decrypt.

Aunque los detalles no han sido divulgados, el acuerdo se produce mientras cientos de empleados de Google firmaron una carta abierta al CEO Sundar Pichai instando a la compañía a no poner sus sistemas de IA a disposición del Pentágono.

"Queremos que la IA beneficie a la humanidad; no verla utilizada de maneras inhumanas o extremadamente dañinas", expresó la carta. "Actualmente, la única forma de garantizar que Google no se asocie con ese tipo de daño es rechazar cualquier carga de trabajo clasificada. De lo contrario, dichos usos podrían ocurrir sin nuestro conocimiento ni la capacidad de detenerlos".

La carta argumenta que los sistemas de IA "cometen errores" y pueden "centralizar el poder", y sostiene que Google tiene la responsabilidad de prevenir "sus usos más antiéticos y peligrosos", como "armas letales autónomas y vigilancia masiva".

Los empleados advierten que tomar "la decisión equivocada en este momento causaría un daño irreparable a la reputación, los negocios y el papel de Google en el mundo".

El Pentágono ha acelerado sus esfuerzos por cerrar acuerdos con las principales empresas de IA desde enero, cuando el Secretario de Defensa Pete Hegseth afirmó que la tecnología debía integrarse en todo el ámbito militar.

La carta pone de relieve una creciente división entre el ámbito militar y algunos desarrolladores de IA sobre cómo debe emplearse la tecnología en la guerra.

En marzo, el Pentágono designó a Anthropic como un "riesgo en la cadena de suministro", lo que efectivamente impidió a la startup de San Francisco trabajar con el gobierno federal, tras la negativa del CEO Dario Amodei a permitir el uso irrestricto de sus modelos de IA. Desde entonces, Anthropic demandó al Pentágono por dicha designación, mientras busca continuar colaborando con otras áreas del gobierno.

Sin embargo, a pesar de la resistencia de sus empleados, Google parece avanzar con su acuerdo con el Pentágono mientras el Departamento de Defensa expande el uso de la inteligencia artificial en operaciones clasificadas.

"En pocas palabras, Estados Unidos debe ganar la competencia estratégica por la supremacía tecnológica del siglo XXI", afirmó Hegseth en un discurso en Starbase de Elon Musk en enero, calificándolo como "largo tiempo esperado".

"Muy pronto, tendremos los principales modelos de IA del mundo en cada red no clasificada y clasificada de nuestro departamento", añadió.

Daily Debrief Newsletter

Start every day with the top news stories right now, plus original features, a podcast, videos and more.