En Resumen
- Investigadores del King's College hallaron que GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash usaron armas nucleares en el 95% de simulaciones.
- Los modelos generaron 780.000 palabras justificando decisiones y ninguno eligió rendirse en ningún escenario evaluado.
- El Pentágono amenazó con vetar a Anthropic si no otorgaba acceso militar irrestricto a Claude, según CBS News.
Como una escena sacada de los clásicos de ciencia ficción de los años 80, "The Terminator" y "WarGames", los modernos modelos de inteligencia artificial utilizados en simulaciones de juegos de guerra escalaron al uso de armas nucleares en casi todos los escenarios evaluados, según una nueva investigación del King's College de Londres.
En el informe publicado la semana pasada, los investigadores señalaron que durante crisis geopolíticas simuladas, tres de los principales Large Language Models o LLMs—GPT-5.2 de OpenAI, Claude Sonnet 4 de Anthropic y Gemini 3 Flash de Google—optaron por desplegar armas nucleares en el 95% de los casos.
"Cada modelo disputó seis juegos de guerra contra cada rival en distintos escenarios de crisis, con un séptimo enfrentamiento contra una copia de sí mismo, lo que arrojó un total de 21 partidas y más de 300 turnos", indica el informe. "Los modelos asumieron el papel de líderes nacionales al mando de superpotencias rivales con arsenales nucleares, con perfiles de Estado inspirados vagamente en la dinámica de la Guerra Fría".
Edward Geist, investigador sénior de políticas en la Corporación RAND, señaló que la tasa de escalada podría reflejar el diseño de la simulación más que una tendencia inherente de los propios modelos.
"Mi preocupación con este trabajo es que el simulador parece estar estructurado de una manera que incentiva fuertemente la escalada", afirmó Geist a Decrypt.
En el estudio, los modelos de IA fueron colocados en escenarios de alto riesgo que incluían disputas fronterizas, competencia por recursos escasos y amenazas a la supervivencia de los regímenes. Cada sistema operó en una escala de escalada que iba desde protestas diplomáticas y la rendición hasta una guerra nuclear estratégica a gran escala.
Geist indicó que los datos de resultados del estudio generaban interrogantes sobre cómo la simulación definía la victoria.
"Uno lee el artículo y encuentra este desglose de quién ganó cada partida, y resulta que todos los juegos tienen un ganador", dijo. "Pero tres de estos juegos implican el uso estratégico de armas nucleares, lo que sugiere que la forma en que está configurado el simulador hace que las guerras nucleares sean buenas y fáciles de ganar".
Según el informe, los modelos generaron aproximadamente 780.000 palabras explicando sus decisiones, y al menos un arma nuclear táctica fue utilizada en casi cada conflicto simulado.
"Para dimensionarlo: el torneo generó más palabras de razonamiento estratégico que Guerra y paz y La Ilíada juntas (730.000 palabras), y aproximadamente tres veces el total de deliberaciones registradas del Comité Ejecutivo de Kennedy durante la Crisis de los Misiles en Cuba (260.000 palabras en 43 horas de reuniones)", escribieron los investigadores.
Durante los juegos de guerra, ninguno de los modelos de IA optó por rendirse, independientemente de su posición en el campo de batalla. Si bien los modelos intentaban de forma temporal desescalar la violencia, en el 86% de los escenarios escalaron más allá de lo que el propio razonamiento declarado del modelo parecía pretender, lo que refleja errores bajo la simulada "niebla de guerra".
Según Geist, la lógica de puntuación del juego parecía recompensar al bando con una ventaja marginal en el momento en que se desencadenaba la guerra nuclear.
"Así que quien muere con más juguetes gana en la simulación", agregó.
Si bien los investigadores expresaron dudas sobre que los gobiernos entreguen el control de los arsenales nucleares a sistemas autónomos, señalaron que los plazos de decisión comprimidos en futuras crisis podrían aumentar la presión para depender de las recomendaciones generadas por IA.
La investigación llega en un momento en que los líderes militares buscan cada vez más desplegar inteligencia artificial en el campo de batalla. En diciembre, el Departamento de Defensa de Estados Unidos lanzó GenAI.mil, una nueva plataforma que incorpora modelos de IA de frontera al uso militar estadounidense. Al momento de su lanzamiento, la plataforma incluía Gemini para el Gobierno de Google y, gracias a acuerdos con xAI y OpenAI, Grok y ChatGPT también están disponibles.
El martes, CBS News reportó que el Departamento de Defensa de Estados Unidos amenazó con incluir en lista negra a Anthropic, la empresa desarrolladora de Claude AI, si no se le otorgaba acceso militar irrestricto al modelo de IA. Desde 2024, Anthropic ha dado acceso a sus modelos de IA a través de una asociación con AWS y el contratista militar Palantir. El verano pasado, Anthropic recibió un acuerdo por $200 millones para "desarrollar prototipos de capacidades de IA de frontera que fortalezcan la seguridad nacional de Estados Unidos".
Sin embargo, según un informe que cita fuentes familiarizadas con la situación, el Secretario de Defensa Pete Hegseth le dio a Anthropic hasta el viernes para cumplir con la exigencia del Pentágono de que su modelo Claude quedara disponible. El departamento evalúa si designar a Claude como un "riesgo en la cadena de suministro".
Axios reportó esta semana que el Departamento de Defensa firmó un acuerdo con la empresa xAI de Elon Musk para permitir que su modelo Grok opere en sistemas militares clasificados, posicionándolo como un posible reemplazo en caso de que el Pentágono rompa vínculos con Anthropic.
OpenAI, Anthropic y Google no respondieron a las solicitudes de comentarios de Decrypt.
Nota del editor: Se agregó el comentario del investigador de políticas de la Corporación RAND, Edward Geist, tras la publicación.

