4 min lectura
OpenAI está desarrollando actualmente un producto de ciberseguridad que planea lanzar exclusivamente a través de su programa "Trusted Access for Cyber", según Axios. El programa fue anunciado previamente en febrero, y está diseñado como un lanzamiento controlado que mantiene ciertos productos fuera del alcance del público general y en manos únicamente de operadores de seguridad defensiva.
OpenAI lanzó el programa tras publicar GPT-5.3-Codex, actualmente su oferta de ciberseguridad más avanzada, y respalda el acceso de los participantes con $10 millones en créditos de API.
La noticia llega en medio de una creciente preocupación entre los expertos en ciberseguridad por el potencial de los productos de IA cada vez más poderosos para sobrepasar los sistemas existentes. A principios de esta semana, Anthropic se alarmó con su propia creación, Claude Mythos.
Anthropic señaló que Mythos es el modelo de IA más avanzado de la compañía, y resultó ser tan efectivo para encontrar vulnerabilidades de seguridad —zero-days en todos los principales sistemas operativos y navegadores— que decidió que solo un grupo selecto de organizaciones debería tener acceso a él.
Ahora OpenAI estaría, según se reporta, haciendo algo similar.
Anthropic enfrenta actualmente una batalla legal luego de que el Pentágono la designara como un riesgo en la cadena de suministro tras la negativa de la compañía a levantar las restricciones de uso de Claude para aplicaciones de vigilancia y armas autónomas. Las agencias federales han intensificado el escrutinio sobre los protocolos de seguridad de las empresas de IA desde principios de abril.
Por el momento, OpenAI no ha compartido ninguna información pública que confirme o desmienta oficialmente los reportes.
El motivo de las restricciones no es sutil. Mythos Preview de Anthropic, que se filtró antes de su lanzamiento oficial, demostró ser capaz de identificar "decenas de miles de vulnerabilidades" que incluso los cazadores de bugs más avanzados tendrían dificultades para encontrar. El modelo es descrito como "extremadamente autónomo" y razona con la sofisticación de un investigador de seguridad senior. Ese tipo de capacidad, disponible para cualquiera con una clave de API, es precisamente lo que desvela a los equipos de seguridad.
La respuesta de Anthropic fue el Proyecto Glasswing —una iniciativa de acceso controlado que otorga Mythos Preview únicamente a organizaciones verificadas: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia, Palo Alto Networks, y aproximadamente otras 40 organizaciones vinculadas al mantenimiento de infraestructura crítica.
La decisión de OpenAI de restringir el acceso a productos como este parece ser un intento de anticiparse a esa presión regulatoria. Al limitar el acceso voluntariamente antes de que una agencia gubernamental lo ordene, OpenAI se posiciona como el actor responsable en un espacio donde Anthropic está recibiendo fuertes críticas.
Las restricciones también reflejan algo más profundo que la precaución ante un modelo específico. El propio informe de seguridad de Anthropic reconoció que Cybench, el benchmark utilizado para evaluar si una IA representa un riesgo cibernético grave, "ya no es suficientemente informativo sobre las capacidades actuales de los modelos de frontera", dado que Mythos lo superó por completo. La herramienta creada para medir el peligro ya no es adecuada para lo que se está construyendo. Anthropic agregó que su determinación general de seguridad "implica juicios de valor" y que muchas evaluaciones dejan "una incertidumbre más fundamental".
Anthropic comprometió hasta $100 millones en créditos de uso y $4 millones en donaciones directas a organizaciones de seguridad de código abierto como parte de su lanzamiento. OpenAI no ha anunciado un compromiso comparable junto a su programa de acceso, aunque ambas empresas presentan sus programas restringidos como un beneficio neto para la seguridad defensiva —la idea es que proporcionar mejores herramientas a los defensores antes de que los atacantes las obtengan vale el costo de limitar el acceso general.
Los modelos de IA más poderosos están dejando de llegar como grandes lanzamientos para el público general. Ahora se distribuyen de forma selectiva, solo a organizaciones verificadas que demuestren tener la infraestructura y la responsabilidad para usarlos sin causar daño.
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.