En Resumen
- Altman afirmó en el podcast Core Memory que Anthropic usa "marketing basado en el miedo" para mantener control de la IA.
- Claude Mythos identificó cientos de vulnerabilidades en Firefox y fue restringido mediante el Proyecto Glasswing a Amazon, Apple y Microsoft.
- La NSA comenzó a probar Mythos en redes clasificadas, pese a llamados gubernamentales a frenar su uso por riesgos bélicos.
El CEO de OpenAI, Sam Altman, rechazó la creciente alarma en torno al poderoso nuevo modelo de IA de su rival Anthropic, Claude Mythos, y sugirió que la empresa está usando el "miedo" para comercializar el producto.
En el podcast Core Memory conducido por la periodista tecnológica Ashlee Vance, Altman argumentó que el uso del "marketing basado en el miedo" estaba orientado a mantener la IA en manos de un "grupo más pequeño de personas".
"Puedes justificarlo de muchas maneras distintas, y parte de ello es real, ya que habrá preocupaciones legítimas sobre la seguridad", señaló Altman.
"Pero si lo que quieres es: 'necesitamos el control de la IA, solo nosotros, porque somos la gente de confianza', creo que el marketing basado en el miedo es probablemente la forma más efectiva de justificar eso".
Altman agregó que, si bien existen preocupaciones válidas sobre la seguridad de la IA, "claramente es un marketing increíble decir: 'Hemos construido una bomba. Estamos a punto de lanzarla sobre tu cabeza. Te venderemos un refugio antibomba por $100 millones. Lo necesitas para todo lo tuyo, pero solo si te elegimos como cliente'".
Señaló que "no siempre es fácil" equilibrar las nuevas capacidades de la IA con la creencia de OpenAI de que la tecnología debería ser accesible.
Claude Mythos de Anthropic
El modelo Claude Mythos de Anthropic, presentado el mes pasado, ha generado una intensa atención por parte de investigadores, gobiernos y la industria de la ciberseguridad, especialmente tras pruebas que sugieren que puede identificar de forma autónoma vulnerabilidades de software y ejecutar operaciones cibernéticas complejas. El modelo se distribuye únicamente a un conjunto limitado de organizaciones a través de un programa restringido.
El lanzamiento refleja una división más amplia en la industria de la IA sobre cómo deben implementarse los sistemas más poderosos, con algunas empresas que enfatizan el acceso controlado y otras que abogan por una distribución más amplia para acelerar la innovación y la comprensión de la tecnología.
Mythos se ha convertido en el centro de ese debate. Las capacidades del modelo han sido presentadas por Anthropic tanto como un avance defensivo —que permite una detección más rápida de fallas críticas en el software— como un riesgo ofensivo potencial si se usa indebidamente. A principios de este mes, identificó cientos de vulnerabilidades en el navegador Firefox de Mozilla durante las pruebas, y también ha demostrado la capacidad de llevar a cabo simulaciones de ciberataques de múltiples etapas.
Anthropic ha restringido el acceso al sistema mediante el Proyecto Glasswing, otorgando a empresas seleccionadas como Amazon, Apple y Microsoft la posibilidad de probar sus capacidades. La empresa también ha comprometido recursos significativos para apoyar los esfuerzos de seguridad de código abierto, argumentando que los defensores deberían beneficiarse de la tecnología antes de que esté disponible de manera más amplia.
Los expertos en seguridad advierten que las mismas capacidades que permiten a Mythos identificar vulnerabilidades también podrían usarse para explotarlas a escala. Pruebas realizadas por el Instituto de Seguridad de IA del Reino Unido encontraron que el modelo podía completar de forma autónoma operaciones cibernéticas complejas.
El modelo también ha expuesto las limitaciones de los sistemas de evaluación de IA existentes, con Anthropic reconociendo que muchos de los benchmarks actuales de ciberseguridad ya no son suficientes para medir las capacidades de su último sistema.
Sin embargo, un grupo de investigadores afirmó la semana pasada que logró reproducir los hallazgos de Mythos utilizando modelos disponibles públicamente.
A pesar de los llamados dentro de sectores del gobierno de Estados Unidos para detener el uso de la tecnología por las preocupaciones sobre sus posibles aplicaciones en la guerra y la vigilancia, la Agencia de Seguridad Nacional (NSA) ha comenzado, según se informó, a probar una versión preliminar del modelo en redes clasificadas. En el mercado de predicciones Myriad, propiedad de la empresa matriz de Decrypt, Dastan, los usuarios asignan un 49% de probabilidad a que Claude Mythos sea lanzado al público en general antes del 30 de junio.
Altman sugirió que la retórica en torno a los sistemas de IA altamente peligrosos podría aumentar a medida que mejoren las capacidades, pero argumentó que no todas esas afirmaciones deben tomarse al pie de la letra.
"Habrá mucha más retórica sobre modelos que son demasiado peligrosos para lanzarse. También habrá modelos muy peligrosos que tendrán que lanzarse de maneras distintas", afirmó. "Estoy seguro de que Mythos es un gran modelo para la ciberseguridad, pero creo que tenemos un plan con el que nos sentimos bien sobre cómo lanzamos este tipo de capacidad al mundo".
Altman también descartó las sugerencias de que OpenAI está reduciendo su gasto en infraestructura, y señaló que la empresa seguirá expandiendo su capacidad de cómputo a pesar de los discursos cambiantes.
"No sé de dónde viene eso… la gente realmente quiere escribir la historia de un retroceso", dijo. "Pero muy pronto será nuevamente: 'OpenAI es tan imprudente. ¿Cómo pueden estar gastando esta cantidad tan desmedida?'"

