En Resumen
- Una jueza federal bloqueó al Pentágono de etiquetar a Anthropic como riesgo para la cadena de suministro, fallando a favor de la empresa.
- La disputa surgió tras un contrato de $200M que colapsó porque Anthropic se negó a permitir que Claude fuera usado en vigilancia o guerra autónoma.
- El fallo podría sentar precedente para que empresas de IA formalicen salvaguardas éticas al trabajar con gobiernos, según expertos.
Un juez federal bloqueó al Pentágono de etiquetar a Anthropic como un riesgo para la cadena de suministro, al dictaminar el jueves que la campaña del gobierno contra la empresa de IA violó sus derechos de la Primera Enmienda y el debido proceso.
La jueza Rita Lin del Tribunal de Distrito de EE. UU. emitió una medida cautelar preliminar desde el Distrito Norte de California, dos días después de escuchar los argumentos orales de ambas partes, en un caso que los observadores señalan que fue hecho inevitable por la propia documentación del gobierno.
"Nada en el estatuto vigente respalda la noción orwelliana de que una empresa estadounidense puede ser catalogada como una posible adversaria y saboteadora de EE. UU. por expresar desacuerdo con el gobierno", escribió la jueza Lin.
El expediente interno resultó fatal para el caso del gobierno, según Andrew Rossow, abogado de asuntos públicos y CEO de AR Media Consulting, quien dijo a Decrypt que la designación fue "desencadenada por la cobertura de prensa, no por un análisis de seguridad".
"El gobierno esencialmente escribió su propio motivo, y fue una represalia", agregó Rossow.
La disputa gira en torno a un contrato de dos años por $200 millones adjudicado a Anthropic en julio de 2025 por la Oficina Principal Digital e Inteligencia Artificial del Departamento de Guerra.
Las negociaciones para implementar Claude en la plataforma GenAI.Mil del departamento se interrumpieron después de que ambas partes no lograran acordar las restricciones de uso.
Anthropic insistió en dos condiciones: que Claude no se utilizara para la vigilancia masiva de estadounidenses ni para uso letal en guerra autónoma, argumentando que el modelo aún no era seguro para ninguno de los dos propósitos.
En una reunión del 24 de febrero, el Secretario de Guerra Pete Hegseth le dijo a los representantes de Anthropic que si la empresa no eliminaba sus restricciones antes del 27 de febrero, el departamento la designaría de inmediato como un riesgo para la cadena de suministro.
Anthropic se negó a cumplir.
El mismo día, el presidente Trump publicó una directiva en Truth Social ordenando a todas las agencias federales "cesar de inmediato" el uso de la tecnología de la empresa, calificando a Anthropic como una "empresa radical de izquierda y woke".
Poco más de una hora después, Hegseth describió la postura de Anthropic como una "clase magistral de arrogancia y traición", ordenando que ningún contratista que hiciera negocios con el ejército pudiera realizar actividad comercial con la firma. La designación formal de riesgo en la cadena de suministro llegó mediante una carta el 3 de marzo.
Anthropic demandó al gobierno el 9 de marzo, alegando violaciones a la Primera Enmienda, el debido proceso y la Ley de Procedimiento Administrativo.
"Castigar a Anthropic por exponer públicamente la posición del gobierno en materia de contratación es una represalia ilegal clásica a la Primera Enmienda", escribió la jueza Lin en la orden del jueves.
La orden, suspendida por siete días, bloquea las tres acciones del gobierno, exige un informe de cumplimiento antes del 6 de abril y restablece el estado de las cosas previo a los eventos del 27 de febrero.
La designación de "riesgo para la cadena de suministro" ha sido históricamente reservada para agencias de inteligencia extranjeras, terroristas y otros actores hostiles.
Nunca había sido aplicada a una empresa nacional antes de Anthropic. Los contratistas de defensa comenzaron a evaluar y, en muchos casos, a poner fin a su dependencia de Anthropic en las semanas siguientes, según señaló la orden de la jueza Lin.
Y la postura del gobierno podría tener consecuencias imprevistas, argumentan los expertos.
De hecho, el fallo del jueves podría llevar a las empresas de IA "a formalizar salvaguardas éticas al trabajar con gobiernos", dijo a Decrypt Pichapen Prateepavanich, estratega de políticas y fundadora de la firma de infraestructura Gather Beyond.
En cierta medida, el fallo también sugiere que las empresas "pueden establecer límites claros de uso sin desencadenar automáticamente acciones regulatorias punitivas", señaló.
Sin embargo, señaló que esto "no elimina la tensión". Lo que el fallo limita es "la capacidad de escalar ese desacuerdo hacia una exclusión más amplia o un etiquetado que parezca una represalia".
Aun así, la aplicación de la autoridad estatutaria vigente para designar a una empresa como riesgo para la cadena de suministro "porque se negó a eliminar sus salvaguardas de seguridad" no es una extensión del estatuto de riesgo en la cadena de suministro, explicó Rossow. En cambio, opera como una "weaponización" de la ley.
"Esto es parte de un patrón de conducta continuo de la Casa Blanca cada vez que se le desafía, que resulta en amenazas desproporcionadas, impulsadas emocionalmente y sesgadas, así como en extorsión gubernamental", agregó.
Si la "teoría" del gobierno es aceptada, crearía un precedente "peligroso" en el que las empresas de IA podrían ser vetadas por políticas de seguridad que el gobierno no aprueba, "antes de que ocurra daño alguno", sin el debido proceso y bajo el amparo de la seguridad nacional, afirmó Rossow.

