Anthropic Rechaza Ultimátum del Pentágono Sobre Uso Militar de Claude Sin Restricciones

El CEO de Anthropic dijo que la empresa no cumplirá con las demandas del Departamento de Defensa mientras el Pentágono considera si etiquetar a la empresa como un "riesgo para la cadena de suministro".

Por Jason Nelson

5 min lectura

El CEO de Anthropic, Dario Amodei, afirmó el jueves que la empresa no eliminará las medidas de seguridad de su modelo de IA Claude, escalando un conflicto con el Departamento de Defensa de Estados Unidos sobre cómo puede utilizarse la tecnología en sistemas militares clasificados.

El comunicado llega mientras el Departamento de Defensa revisa su relación con Anthropic y evalúa posibles consecuencias, entre ellas la cancelación del contrato de $200 millones de la empresa y la posible invocación de la Ley de Producción de Defensa.

"No podemos en buena conciencia acceder a su solicitud", escribió Amodei, refiriéndose a la exigencia del Pentágono en enero de que los contratistas de IA permitieran el uso de sus sistemas para "cualquier uso legal".

Sin embargo, mientras el Pentágono ha exigido a los proveedores de IA adoptar el lenguaje estándar de "cualquier uso legal" en futuros acuerdos, Anthropic se mantuvo como la única empresa de IA de frontera que se resistió a ceder el control de su IA al ejército.

El miércoles, Axios reportó por primera vez que el Pentágono había emitido un ultimátum exigiendo el uso militar sin restricciones de Claude. Según se informó, el plazo vence este viernes.

"Es prerrogativa del Departamento seleccionar a los contratistas más alineados con su visión", continuó Amodei. "Pero dado el valor sustancial que la tecnología de Anthropic aporta a nuestras fuerzas armadas, esperamos que reconsideren".

En su comunicado, Amodei enmarcó la postura de la empresa como alineada con los objetivos de seguridad nacional de Estados Unidos.

"Creo profundamente en la importancia existencial de utilizar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos", señaló.

Agregó que Claude "está ampliamente desplegado en el Departamento de Guerra y otras agencias de seguridad nacional para análisis de inteligencia, modelado y simulación, planificación operativa, operaciones cibernéticas y más".

Guerra contra la IA

La disputa se desarrolla en medio de preocupaciones más amplias sobre cómo se comportan los sistemas de IA avanzados en escenarios militares de alto riesgo. En un reciente estudio del King's College de Londres, el GPT-5.2 de OpenAI, el Claude Sonnet 4 de Anthropic y el Gemini 3 Flash de Google desplegaron armas nucleares en el 95% de las crisis geopolíticas simuladas.

Durante un discurso en la base Starbase de SpaceX en Texas en enero, el secretario de Defensa Pete Hegseth afirmó que el ejército estadounidense planea desplegar los modelos de IA más avanzados.

Ese mismo mes, surgieron reportes de que Claude fue utilizado durante una operación estadounidense para capturar al expresidente venezolano Nicolás Maduro. Amodei refutó las afirmaciones de que Anthropic cuestionó alguna operación militar específica.

"Anthropic entiende que el Departamento de Guerra, no las empresas privadas, toma las decisiones militares", dijo. "Nunca hemos objetado operaciones militares particulares ni intentado limitar el uso de nuestra tecnología de manera improvisada".

Sin embargo, Amodei afirmó que utilizar estos sistemas para vigilancia masiva interna o armas autónomas es incompatible con los valores democráticos y presenta serios riesgos.

"Hoy en día, los sistemas de IA de frontera simplemente no son lo suficientemente confiables para impulsar armas totalmente autónomas", señaló. "No proporcionaremos a sabiendas un producto que ponga en riesgo a los combatientes y civiles de Estados Unidos".

También abordó la amenaza del Pentágono de designar a Anthropic como un "riesgo en la cadena de suministro" y la posible invocación de la Ley de Producción de Defensa.

"Estas dos últimas amenazas son inherentemente contradictorias: una nos etiqueta como un riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional", afirmó.

Si bien Amodei ha dicho que la empresa no cumplirá con la solicitud del Pentágono, al mismo tiempo Anthropic ha revisado su Política de Escalado Responsable, eliminando el compromiso de detener el entrenamiento de sistemas avanzados sin garantías de seguridad establecidas.

Robert Weissman, copresidente de Public Citizen, dijo que la postura del Pentágono es una señal de presión más amplia sobre la industria tecnológica.

"El Pentágono está intimidando públicamente a Anthropic, y la parte pública es intencional, porque quieren presionar a esta empresa en particular y enviar un mensaje a toda la gran tecnología y a todas las corporaciones de que pretenden hacer y tomar lo que quieran sin que nadie se interponga", dijo Weissman a Decrypt.

Weissman describió las salvaguardas de Anthropic como "modestas" y orientadas a prevenir "la vigilancia indebida del pueblo estadounidense o facilitar el desarrollo y despliegue de robots asesinos, armamento con IA que podría lanzar ataques letales sin autorización humana".

"Esas son las salvaguardas más sensatas y modestas que se pueden establecer cuando se trata de esta poderosa nueva tecnología".

Respecto a la amenaza del Pentágono de designar a Anthropic como un "riesgo en la cadena de suministro", Weissman la calificó como una sanción potencialmente devastadora por parte del gobierno, y argumentó que presionaría a otras empresas de IA a evitar imponer límites similares.

"Las personas pueden usar Claude, pero ninguna de las empresas de IA, en particular Anthropic, tiene modelos de negocio basados en el uso individual; buscan el uso empresarial", señaló. "Esta es una sanción potencialmente devastadora del gobierno".

Sin embargo, mientras el Pentágono aún no ha confirmado si procederá con su amenaza de rescindir el contrato o invocar la Ley de Producción de Defensa, Weissman dijo que el Pentágono está enviando una señal a las empresas de IA de que espera acceso irrestricto a su tecnología una vez que se implemente en sistemas gubernamentales.

"El mensaje del Pentágono es: 'No vamos a tolerar esto, y esperamos poder usar la tecnología tal como fue creada para cualquier propósito que queramos'", afirmó Weissman.

El Departamento de Defensa y Anthropic no respondieron de inmediato a las solicitudes de comentarios de Decrypt.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados