Bessent y Powell Alertan a CEOs de Wall Street Sobre Riesgos de Ciberseguridad del Nuevo Modelo de IA Mythos de Anthropic

Funcionarios del Tesoro y de la Reserva Federal alertaron supuestamente a los bancos sobre los riesgos de ciberseguridad vinculados al avanzado nuevo modelo de IA Mythos de Anthropic.

Por Jason Nelson

3 min lectura

El Secretario del Tesoro de EE.UU., Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, convocaron esta semana una reunión con los CEO de los principales bancos de Wall Street para advertir sobre los riesgos de ciberseguridad vinculados a un nuevo modelo de inteligencia artificial de Anthropic.

Según un reporte de Bloomberg, la reunión incluyó a ejecutivos de Citigroup, Bank of America, Wells Fargo, Morgan Stanley y Goldman Sachs. Los funcionarios discutieron el nuevo modelo de IA de Anthropic, Mythos, que recientemente ha generado una amplia preocupación por sus aparentes capacidades avanzadas en ciberseguridad.

La reunión fue convocada para asegurarse de que los bancos comprendan los riesgos que representan los sistemas capaces de identificar y explotar vulnerabilidades de software en sistemas operativos y navegadores web, y para alentar a las instituciones a reforzar sus defensas ante posibles ciberataques asistidos por IA dirigidos a la infraestructura financiera.

Investigadores de seguridad han advertido que las herramientas capaces de descubrir vulnerabilidades de forma automática podrían acelerar tanto el trabajo de seguridad defensiva como los ataques maliciosos si se usan de forma indebida.

El modelo Mythos de Anthropic surgió por primera vez en línea en marzo, tras la filtración de materiales preliminares sobre el sistema, que revelaban lo que la empresa describió como su modelo de IA más capaz hasta la fecha. En las pruebas, el sistema supuestamente encontró miles de vulnerabilidades de software previamente desconocidas, incluyendo fallas de día cero en los principales sistemas operativos y navegadores web.

Investigadores de Anthropic señalaron en un reporte a inicios de esta semana que las capacidades de descubrimiento de vulnerabilidades de Mythos Preview no fueron entrenadas intencionalmente, sino que surgieron de mejoras más amplias en la codificación, el razonamiento y la autonomía del modelo.

"Las mismas mejoras que hacen al modelo sustancialmente más eficaz para parchear vulnerabilidades también lo hacen sustancialmente más eficaz para explotarlas", escribió la firma.

Debido a esas capacidades, Anthropic ha restringido el acceso a un pequeño grupo de organizaciones de ciberseguridad.

"Dada la solidez de sus capacidades, estamos siendo deliberados en cuanto a cómo lo lanzamos", afirmó Anthropic en un comunicado. "Como es práctica estándar en la industria, estamos trabajando con un pequeño grupo de clientes de acceso anticipado para probar el modelo. Consideramos que este modelo representa un cambio de nivel y es el más capaz que hemos desarrollado hasta la fecha".

Para abordar ese riesgo, Anthropic está probando Mythos a través del Proyecto Glasswing, una colaboración con importantes empresas de tecnología y ciberseguridad que utiliza el modelo para identificar y parchear vulnerabilidades en software crítico antes de que los atacantes puedan explotarlas.

"El Proyecto Glasswing es un punto de partida. Ninguna organización puede resolver sola estos problemas de ciberseguridad", indicó la compañía en un comunicado. "Los desarrolladores de IA de frontera, otras empresas de software, investigadores de seguridad, mantenedores de código abierto y gobiernos de todo el mundo tienen roles esenciales que desempeñar".

Anthropic no respondió de inmediato a la solicitud de comentarios de Decrypt.

Get crypto news straight to your inbox--

sign up for the Decrypt Daily below. (It’s free).

Noticias recomendados