Ejército de Estados Unidos Entrena Inteligencia Artificial Para Dar Órdenes y Manejar Secretos de Estado

¿Qué tan cerca está la IA de tomar decisiones en el campo de batalla? Un coronel de la Fuerza Aérea de los Estados Unidos dice que las pruebas hasta ahora han sido "altamente exitosas".

Por Jason Nelson

4 min lectura

El Departamento de Defensa de los Estados Unidos (DOD) está llevando a cabo pruebas en vivo en un intento de aprovechar la inteligencia artificial generativa en su proceso de toma de decisiones, según un informe de Bloomberg.

La inteligencia artificial generativa es un tipo de inteligencia artificial que puede crear nuevo contenido, como texto, imágenes o música, utilizando indicaciones. Strohmeyer dijo que los ejercicios militares que se llevan a cabo hasta finales de julio tienen como objetivo determinar el uso de la IA en la toma de decisiones y en relación con los sensores y la potencia de fuego.

"Fue muy exitoso. Fue muy rápido", dijo el coronel de la Fuerza Aérea de los Estados Unidos, Matthew Strohmeyer, a Bloomberg. "Estamos aprendiendo que esto es posible para nosotros".

Las herramientas de IA, según Strohmeyer, podrían manejar en 10 minutos una solicitud que incluyera el procesamiento de datos de nivel secreto y clasificados, mientras que a los humanos les llevaría horas o días completar una tarea así. Si bien el ejército de los Estados Unidos no está a punto de entregar el control a un chatbot de IA, dijo al medio que su uso a corto plazo es posible.

"Eso no significa que esté listo para el horario estelar en este momento", dijo Strohmeyer. "Pero lo hicimos en vivo. Lo hicimos con datos de nivel secreto".

Los expertos en pruebas militares dicen que los ejercicios a los que se someten los modelos de lenguaje de IA de gran tamaño incluyen respuestas a una variedad de crisis globales, como una invasión china a Taiwán. Además de las amenazas externas, Strohmeyer dice que el ejército también está trabajando con desarrolladores para probar la confiabilidad de la IA debido a su tendencia a "alucinar".

Las alucinaciones se refieren a casos en los que una IA genera resultados falsos que no están respaldados por datos del mundo real. Las alucinaciones de la IA pueden generar contenidos falsos, noticias o información sobre personas, eventos o hechos.

Bloomberg dice que el ejército de Estados Unidos utilizó una herramienta llamada Donovan desarrollada por Scale AI para determinar el resultado de una guerra hipotética entre Estados Unidos y China por Taiwán. En mayo, el ejército de Estados Unidos eligió a Scale AI para su programa de Vehículo de Combate Robótico (RCV, por sus siglas en inglés). Según el medio, esta prueba se basó en más de 60.000 páginas de documentos militares estadounidenses y chinos, así como en información de código abierto.

La inteligencia artificial respondió que Estados Unidos necesitaría llevar a cabo un ataque a gran escala, que incluiría fuerzas terrestres, aéreas y navales, pero incluso después de hacer esto, tendría dificultades para inmovilizar rápidamente al ejército chino.

En junio, el Departamento de Defensa publicó una lista de empresas que recibieron contratos gubernamentales lucrativos, incluyendo varias que trabajan con inteligencia artificial, como AI Signal Research, Booz Allen Hamilton y Lockheed Martin.

La idea de que el ejército de Estados Unidos trabaje con IA puede evocar imágenes de Skynet de la película de acción de 1984, "The Terminator", donde un sistema de IA creado para el Departamento de Defensa de Estados Unidos lanza un holocausto nuclear. Otro ejemplo cinematográfico es la IA militar Joshua de la película de tecnología y suspenso de 1983 "WarGames".

Sin embargo, el DOD dice que prioriza las consideraciones éticas y la transparencia en su enfoque de la inteligencia artificial.

"Ambos queremos hacerlo de manera segura y responsable, pero también queremos hacerlo de una manera que pueda impulsar el avance tecnológico y garantizar que el departamento tenga acceso a las tecnologías emergentes que necesita para mantenerse a la vanguardia", dijo Michael C. Horowitz, director de la política de capacidades emergentes en el DOD, en julio.

El Departamento de Defensa no respondió a la solicitud de comentarios de Decrypt.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados