OpenAI Firma Acuerdo con el Pentágono Tras Veto de Trump a Anthropic por Riesgo de Seguridad Nacional

El acuerdo con el Pentágono desencadenó una salida masiva de ChatGPT y llevó a Claude de Anthropic a la cima de la App Store. Pero la historia más grande está en el lenguaje del contrato.

Por Jose Antonio Lanz

8 min lectura

OpenAI anunció este fin de semana que llegó a un acuerdo con el Pentágono para implementar sistemas avanzados de inteligencia artificial en entornos clasificados, lo que marca una expansión significativa del trabajo de la empresa con las fuerzas militares de Estados Unidos.

El anuncio se produjo menos de 24 horas después de que la administración Trump pusiera en lista negra a Anthropic, designando a la firma rival de IA como un "riesgo en la cadena de suministro para la seguridad nacional", tras una disputa sobre el lenguaje contractual relacionado con la vigilancia y las armas autónomas.

El presidente Donald Trump también ordenó a las agencias federales que dejaran de usar de inmediato la tecnología de Anthropic, y el secretario del Tesoro Scott Bessent escribió el lunes en X que la agencia "está poniendo fin a todo uso de los productos de Anthropic, incluyendo el uso de su plataforma Claude, dentro de nuestro departamento."

El momento en que se anunciaron los acuerdos de IA sometió el trato de OpenAI a un intenso escrutinio. En una detallada publicación de blog, la empresa delineó lo que describió como "líneas rojas" firmes y salvaguardas escalonadas que rigen su asociación con el Pentágono.

El acuerdo, según lo presentado por OpenAI, plantea preguntas más amplias sobre cómo se gobernarán los sistemas de IA en contextos de seguridad nacional, y cómo se interpretarán y aplicarán en la práctica las restricciones declaradas por la empresa.

Cuando lo "legal" no es suficiente

La publicación de blog de OpenAI comienza con tres compromisos presentados como no negociables: no usar su tecnología para vigilancia masiva doméstica, para dirigir de forma independiente sistemas de armas autónomas, ni para decisiones automatizadas de alto riesgo como la puntuación de crédito social.

Luego viene el lenguaje contractual real, al que OpenAI notablemente llama "el lenguaje relevante", no "el acuerdo completo".

"El Departamento de Guerra puede usar el sistema de IA para todos los propósitos legales, de acuerdo con la legislación aplicable, los requisitos operacionales y los protocolos de seguridad y supervisión bien establecidos", señaló OpenAI.

Esa es exactamente la frase que Anthropic dijo que el gobierno había exigido durante las negociaciones. La misma frase que Anthropic se negó a aceptar. OpenAI la firmó, pero argumenta que sus líneas rojas siguen completamente intactas.

Sin embargo, "legal" en contextos de seguridad nacional no es un límite fijo: vive dentro de un entramado de estatutos, órdenes ejecutivas, directivas internas e interpretaciones legales frecuentemente clasificadas. Cuando un contrato otorga "todos los propósitos legales", el límite práctico pasa a ser el marco legal vigente del gobierno, no un estándar independiente establecido por el proveedor.

Un conjunto de cláusulas

La disposición sobre armas establece que el sistema de IA "no se utilizará para dirigir de forma independiente armas autónomas en ningún caso en que la ley, la regulación o la política del departamento exija control humano."

La prohibición solo aplica donde alguna otra autoridad ya exige control humano; toma su fuerza enteramente de la política existente, específicamente la Directiva 3000.09 del DoD. Dicha directiva exige que los sistemas autónomos permitan a los comandantes ejercer "niveles apropiados de juicio humano sobre el uso de la fuerza."

Y "apropiado" es tan subjetivo como puede ser.

El juicio humano no es control humano. Esta distinción no fue accidental. Académicos de defensa han señalado que omitir el lenguaje de "humano en el circuito" fue deliberado, precisamente para preservar la flexibilidad operacional.

El argumento más sólido de OpenAI es su arquitectura de implementación solo en la nube: los circuitos de decisión letal completamente autónomos requerirían implementación en dispositivos de campo de batalla, lo cual este contrato no permite. Esa es una restricción técnica real.

Sin embargo, la IA basada en la nube puede realizar identificación de objetivos, análisis de patrones de vida y planificación de misiones. Esas son actividades de la cadena de eliminación independientemente de dónde se encuentre el gatillo final. El resultado para un objetivo no difiere según en qué servidor corra el modelo.

La cláusula de vigilancia sigue un patrón similar. La línea roja declarada por OpenAI: ninguna vigilancia masiva doméstica. El lenguaje contractual: el sistema "no deberá utilizarse para el monitoreo sin restricciones de información privada de personas de EE. UU., de acuerdo con estas autoridades", y luego lista la Cuarta Enmienda, la FISA y la Orden Ejecutiva 12333.

La palabra "sin restricciones" implica que una versión restringida de vigilancia masiva sería permisible. Y la OE 12333 es la orden ejecutiva que la NSA ha utilizado para justificar la interceptación de comunicaciones de estadounidenses cuando se realiza fuera de las fronteras de EE. UU.

Y aquí es donde las preocupaciones de Anthropic sobre la redacción durante las negociaciones se vuelven evidentes. El argumento de Anthropic era que la legislación vigente no ha alcanzado lo que la IA hace posible. El gobierno puede legalmente adquirir vastas cantidades de datos comerciales agregados sobre estadounidenses sin una orden judicial, y ya lo ha hecho.

El lenguaje contractual de OpenAI, al anclar sus protecciones a los marcos legales existentes, puede no cerrar la brecha que Anthropic realmente buscaba resolver.

Altman responde

El sábado por la noche, Altman realizó una sesión de preguntas y respuestas respondiendo a miles de consultas sobre el acuerdo. Cuando se le preguntó qué llevaría a OpenAI a retirarse de una asociación con el gobierno, respondió: "Si nos pidieran hacer algo inconstitucional o ilegal, nos retiraremos".

Ese planteamiento sitúa el límite de OpenAI en la legalidad, no en un juicio ético independiente sobre lo que la empresa permitirá o no si resulta ser legal, que es lo que Anthropic defiende. Cuando se le preguntó si le preocupaban futuros desacuerdos sobre qué cuenta como "legal", reconoció el riesgo: "Si tenemos que enfrentar esa batalla, lo haremos, pero claramente nos expone a cierto riesgo".

Sobre por qué OpenAI llegó a un acuerdo donde Anthropic no pudo, Altman ofreció esto: "Anthropic parecía más enfocada en prohibiciones específicas en el contrato, en lugar de citar las leyes aplicables, con las que nosotros nos sentimos cómodos. Claramente preferiría confiar en salvaguardas técnicas si solo pudiera elegir una. Creo que Anthropic pudo haber querido más control operacional del que nosotros queríamos".

Es una diferencia filosófica sustancial. Anthropic argumentó que, dado que los modelos de frontera pueden ser reutilizados para flujos de trabajo de inteligencia y militares de formas difíciles de anticipar, los límites deben ser explícitos y vinculantes por escrito, incluso a costa del acuerdo. La posición de OpenAI es que la arquitectura técnica, el personal integrado y la legislación existente en conjunto constituyen una salvaguarda más sólida que el texto contractual por sí solo.

El público toma partido

La reacción negativa fue inmediata. Para el lunes, el movimiento "QuitGPT" afirmó que más de 1,5 millones de personas habían tomado alguna acción: cancelando suscripciones, compartiendo publicaciones de boicot o registrándose en quitgpt.org.

La campaña enmarcó el movimiento de OpenAI como priorizar contratos militares sobre la seguridad de los usuarios, acusando a la empresa de aceptar que el Pentágono use su tecnología para "cualquier propósito legal, incluyendo robots asesinos y vigilancia masiva".

OpenAI podría rebatir esa caracterización. Sin embargo, el mercado se movió de todas formas.

Claude de Anthropic superó a ChatGPT y se convirtió en la aplicación gratuita más descargada en Estados Unidos en la App Store de Apple, y la empresa le dijo a Decrypt que registró un número récord de registros diarios durante el fin de semana.

La estrella de pop Katy Perry compartió una captura de pantalla de la página de precios de Claude en X. Cientos de usuarios documentaron públicamente sus cancelaciones de suscripción en Reddit. Graffitis elogiando a Anthropic aparecieron frente a sus oficinas en San Francisco, mientras que ataques con tiza cubrieron las aceras de OpenAI. Incluso cientos de empleados de la propia OpenAI habían firmado previamente una carta abierta apoyando la negativa de Anthropic a ceder ante las exigencias del Pentágono.

El encuadre de QuitGPT es emocionalmente convincente, pero no del todo preciso. La propia Anthropic tiene una asociación con Palantir y Amazon Web Services que otorga a las agencias de inteligencia y departamentos de defensa de EE. UU. acceso a los modelos de Claude, y supuestamente ha sido utilizada en operaciones militares para derrocar a los gobiernos de Venezuela e Irán. La ética de la IA y la contratación de seguridad nacional nunca fue limpia en ninguno de los dos lados.

Lo que la campaña captó con precisión es que un gran segmento de usuarios creyó que había una diferencia significativa en cómo las dos empresas trazaron sus límites, y votaron con sus suscripciones.

Si esa diferencia es tan significativa como parece, requiere leer el contrato con detenimiento.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados