En Resumen
- Anthropic se unió a Palantir y AWS para proporcionar acceso a Claude 3 y 3.5 al Pentágono, mejorando la toma de decisiones militares.
- Expertos advierten que la IA no debe tomar decisiones críticas en guerra debido a su falta de confiabilidad y potenciales errores.
- A pesar del auge de la IA, expertos como Gary Marcus destacan que los sistemas actuales tienen limitaciones y no son adecuados para la estrategia militar autónoma.
La guerra es más rentable que la paz, y los desarrolladores de inteligencia artificial están ansiosos por capitalizar ofreciendo al Departamento de Defensa de EE. UU. diversas herramientas de inteligencia artificial generativa para los campos de batalla del futuro.
La última evidencia de esta tendencia llegó la semana pasada cuando Anthropic, el desarrollador de inteligencia artificial Claude AI, anunció que estaba colaborando con el contratista militar Palantir y Amazon Web Services (AWS) para proporcionar acceso a Claude 3 y 3.5 a la inteligencia de EE. UU. y al Pentágono.
Anthropic dijo que Claude proporcionará a las agencias de defensa e inteligencia de EE. UU. herramientas potentes para el procesamiento y análisis rápido de datos, lo que permitirá a los militares realizar operaciones más rápidas.
Los expertos dicen que estas colaboraciones permiten al Departamento de Defensa adoptar rápidamente tecnologías avanzadas de inteligencia artificial sin necesidad de desarrollarlas internamente.
"Al igual que con muchas otras tecnologías, el mercado comercial siempre avanza más rápido y se integra más rápidamente de lo que el gobierno puede," dijo el almirante retirado de la Marina de los EE. UU., Chris ‘Boris’ Becker, Miembro de la Junta Directiva de Atombeam Technologies, a Decrypt en una entrevista. "Si observamos cómo SpaceX pasó de una idea a implementar un lanzamiento y recuperación de un propulsor en el mar, el gobierno aún podría estar considerando revisiones de diseño inicial en ese mismo período."
Becker, ex Comandante del Comando de Sistemas de Guerra de la Información Naval, señaló que la integración de tecnología avanzada inicialmente diseñada para fines gubernamentales y militares en uso público no es algo nuevo.
"Internet comenzó como una iniciativa de investigación de defensa antes de estar disponible para el público, donde ahora es una expectativa básica," dijo Becker.
Anthropic es el último desarrollador de IA en ofrecer su tecnología al gobierno de EE. UU.
Siguiendo el memorándum de la Administración Biden en octubre sobre el avance del liderazgo de EE. UU. en IA, el desarrollador de ChatGPT OpenAI expresó su apoyo a los esfuerzos de EE. UU. y sus aliados para desarrollar IA alineada con "valores democráticos". Más recientemente, Meta también anunció que pondría su IA de código abierto Llama AI a disposición del Departamento de Defensa y otras agencias de EE. UU. para apoyar la seguridad nacional.
Durante el evento Future of Defense de Axios en julio, el General del Ejército retirado Mark Milley señaló que los avances en inteligencia artificial y robótica probablemente harán que los robots impulsados por IA sean una parte más importante de las operaciones militares futuras.
“Dentro de diez a quince años, mi suposición es que un tercio, quizás entre el 25% y un tercio del ejército de EE. UU. será robótico”, dijo Milley.
Anticipando el papel crucial de la IA en futuros conflictos, el presupuesto del DoD para 2025 solicita $143.200 millones para Investigación, Desarrollo, Pruebas y Evaluación, incluidos $1.800 millones específicamente asignados a proyectos de IA y aprendizaje automático.
Proteger a EE. UU. y a sus aliados es una prioridad. Sin embargo, el Dr. Benjamin Harvey, CEO de AI Squared, señaló que las asociaciones gubernamentales también brindan a las empresas de IA ingresos estables, resolución temprana de problemas y un papel en la configuración de futuras regulaciones.
"Los desarrolladores de IA quieren aprovechar los casos de uso del gobierno federal como oportunidades de aprendizaje para comprender los desafíos del mundo real únicos en este sector", dijo Harvey a Decrypt. "Esta experiencia les brinda una ventaja para anticipar problemas que podrían surgir en el sector privado en los próximos cinco a diez años.
Agregó que: "También les posiciona para dar forma proactivamente a la gobernanza, políticas de cumplimiento y procedimientos, ayudándoles a mantenerse a la vanguardia en el desarrollo de políticas y la alineación regulatoria."
Harvey, quien anteriormente se desempeñó como jefe de ciencia de datos de operaciones para la Agencia de Seguridad Nacional de EE. UU., también dijo que otra razón por la que los desarrolladores buscan hacer acuerdos con entidades gubernamentales es para establecerse como esenciales para las crecientes necesidades de IA del gobierno.
Con miles de millones de dólares asignados para IA y machine learning, el Pentágono está invirtiendo fuertemente en el avance de las capacidades militares de Estados Unidos, con el objetivo de utilizar el rápido desarrollo de tecnologías de IA a su favor.
Mientras que el público puede imaginar el papel de la IA en el ámbito militar como la participación de robots autónomos y armados avanzando en campos de batalla futuristas, los expertos dicen que la realidad es mucho menos dramática y se centra más en los datos.
"En el contexto militar, principalmente vemos una autonomía altamente avanzada y elementos de machine learning clásico, donde las máquinas ayudan en la toma de decisiones, pero esto no implica típicamente decisiones para liberar armas", dijo Steve Finley, Presidente de la División de Sistemas No Tripulados de Kratos Defense, a Decrypt. "La IA acelera sustancialmente la recopilación y análisis de datos para formar decisiones y conclusiones".
Fundada en 1994, Kratos Defense con sede en San Diego, ha colaborado extensamente con el ejército de EE. UU., especialmente con la Fuerza Aérea y los Marines, para desarrollar sistemas no tripulados avanzados como el avión de combate Valkyrie. Según Finley, mantener a los humanos en el ciclo de toma de decisiones es fundamental para evitar que se produzca el temido escenario de "Terminator".
"Si un arma está involucrada o una maniobra pone en riesgo la vida humana, siempre hay un humano encargado de tomar las decisiones en el proceso", dijo Finley. "Siempre hay un salvaguarda, un 'alto' o 'detener', para cualquier liberación de arma o maniobra crítica."
A pesar de lo lejos que ha llegado la inteligencia artificial generativa desde el lanzamiento de ChatGPT, expertos, incluido el autor y científico Gary Marcus, afirman que las limitaciones actuales de los modelos de IA ponen en duda la efectividad real de la tecnología.
"Las empresas han descubierto que los Large Language Models o LLMs no son particularmente confiables", dijo Marcus a Decrypt. "Alucinan, cometen errores tontos y eso limita su aplicabilidad real. No querrías que algo que alucina esté planeando tu estrategia militar".
Marcus es un científico cognitivo, investigador de IA y autor de seis libros sobre inteligencia artificial, conocido por criticar las afirmaciones exageradas sobre la IA. En relación con el temido escenario del "Terminator" y siguiendo los pasos del ejecutivo de Kratos Defense, Marcus también enfatizó que los robots totalmente autónomos impulsados por IA serían un error.
“Sería estúpido conectarlos para la guerra sin humanos en el ciclo, especialmente considerando su actual clara falta de confiabilidad”, dijo Marcus. “Me preocupa que muchas personas hayan sido seducidas por este tipo de sistemas de IA y no hayan comprendido la realidad de su confiabilidad”.
Como explicó Marcus, muchos en el campo de la IA sostienen la creencia de que simplemente alimentar a los sistemas de IA con más datos y poder computacional mejoraría continuamente sus capacidades, una noción que describió como una "fantasía".
“En las últimas semanas, ha habido rumores de múltiples empresas de que las llamadas leyes de escalado se han agotado, y hay un período de rendimientos decrecientes”, agregó Marcus. “Así que no creo que el ejército deba esperar realmente que todos estos problemas se resuelvan. Estos sistemas probablemente no serán confiables, y no querrás usar sistemas no confiables en la guerra.”
Editado por Josh Quittner y Sebastian Sinclair