Por Decrypt Agent
4 min lectura
Algunos de los principales actores del mundo de la IA han acordado dar al gobierno de Estados Unidos acceso anticipado a sus modelos de frontera para evaluarlos antes de su lanzamiento público, con el anuncio llegando un día después de un reporte que indica que la administración del presidente Donald Trump está considerando una orden ejecutiva al respecto.
El martes, el Centro de Estándares e Innovación en IA del Departamento de Comercio anunció que Google, Microsoft y xAI ya acordaron proporcionar al gobierno acceso previo al lanzamiento para evaluar las capacidades de los sistemas.
"La ciencia de medición independiente y rigurosa es esencial para comprender la IA de frontera y sus implicaciones para la seguridad nacional", señaló Chris Fall, director del centro, en un comunicado. "Estas colaboraciones ampliadas con la industria nos ayudan a escalar nuestro trabajo en beneficio del público en un momento crítico".
El lunes, el New York Times reportó que la administración Trump está considerando una orden ejecutiva para crear un grupo de trabajo que revisaría los modelos avanzados de IA antes de su lanzamiento público. Según el reporte, funcionarios de la Casa Blanca discutieron los planes de supervisión con ejecutivos de Anthropic, Google y OpenAI en reuniones la semana pasada.
Las conversaciones sobre la orden ejecutiva fueron impulsadas en parte por el anuncio de Anthropic el mes pasado de que su modelo Claude Mythos era hábil para encontrar puntos débiles en las defensas de ciberseguridad, lo que generó preocupaciones entre los funcionarios sobre las implicaciones para la seguridad nacional.
En lugar de lanzar Claude Mythos al público y potencialmente desatar una frenética ola de intentos por vulnerar y corregir software como navegadores web y sistemas operativos, Anthropic ha proporcionado acceso a un número limitado de startups y organizaciones. Mozilla afirmó que pudo encontrar y corregir 271 vulnerabilidades en su navegador web Firefox utilizando Mythos.
Los usuarios de Myriad —una plataforma de mercados de predicción operada por la empresa matriz de Decrypt, Dastan— no creen que Anthropic lanzará Claude Mythos de forma masiva antes del 30 de junio, estimando apenas un 13% de probabilidad al momento de escribir este artículo.
Por otra parte, la administración ha tenido roces con Anthropic en torno al acceso a los modelos. La administración Trump y Anthropic entraron en una disputa contractual en febrero tras negarse Anthropic a una solicitud de acceso sin restricciones a sus modelos de IA.
El secretario de Defensa Pete Hegseth afirmó posteriormente que designaría a Anthropic como un riesgo para la cadena de suministro de la seguridad nacional. Un tribunal federal de apelaciones se negó a pausar temporalmente la designación mientras avanza la demanda. Sin embargo, la semana pasada, Axios reportó que la Casa Blanca está evaluando si dar marcha atrás y retomar su asociación con Anthropic.
La posible orden ejecutiva representa un giro radical respecto a la postura anterior de Trump sobre la regulación de la IA, ya que ha defendido una supervisión mínima de la industria.
"Vamos a hacer que esta industria sea absolutamente la mejor, porque ahora mismo es un hermoso bebé que acaba de nacer", afirmó en julio pasado. "Tenemos que hacer crecer a ese bebé y dejar que prospere. No podemos detenerlo. No podemos detenerlo con política. No podemos detenerlo con reglas absurdas ni con reglas estúpidas".
Desde que regresó al cargo en 2025, Trump eliminó los requisitos regulatorios de la era Biden que pedían a los desarrolladores de IA realizar evaluaciones de seguridad e informar sobre modelos con posibles aplicaciones militares. En su primer día en el cargo, revocó una orden ejecutiva firmada en 2023 por el expresidente Joe Biden que exigía a los desarrolladores de sistemas de IA que representaran riesgos compartir los resultados de las pruebas de seguridad con el gobierno antes del lanzamiento público.
Recientemente, la administración Trump propuso un marco nacional para la regulación de la IA, que establecería estándares nacionales para la tecnología sin crear un nuevo regulador. El impulso federal llega en medio de esfuerzos liderados por los estados para regular la IA, algunos de los cuales han recibido críticas de las agencias de Trump —notablemente una ley de Colorado sobre "discriminación algorítmica".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.