En Resumen
- OpenMythos, repositorio publicado por el desarrollador Kye Gomez, acumuló más de 10.000 estrellas en GitHub en pocas semanas.
- El proyecto propone que Mythos usa arquitectura Recurrent-Depth Transformer, combinando bucles iterativos, Mixture-of-Experts y Multi-Latent Attention de DeepSeek.
- Vidoc Security replicó hallazgos clave de Mythos con GPT-5.4 y Claude Opus 4.6 por menos de $30, sugiriendo que su ventaja es menor a lo anunciado.
Si Anthropic no te mostrará lo que hay dentro de su IA más peligrosa, alguien en GitHub lo adivinará.
Un desarrollador llamado Kye Gomez ha publicado OpenMythos, una reconstrucción de código abierto de lo que él cree que es Claude Mythos por dentro. El repositorio acumuló más de 10.000 estrellas en GitHub en pocas semanas desde su lanzamiento, e incluye un exhaustivo archivo "readme" repleto de ecuaciones, citas y un amable descargo de responsabilidad que aclara que no tiene ningún vínculo con Anthropic.
Es especulación. Pero es especulación estructurada, en código.
Un breve repaso sobre qué es Mythos: Mythos salió a la luz pública a finales de marzo, cuando Anthropic publicó accidentalmente materiales preliminares que lo describían como el modelo más capaz de la compañía hasta la fecha, un nivel por encima de Opus. La versión posterior, Mythos Preview, resultó ser tan eficaz en ciberseguridad que no podía lanzarse al público.
Según Anthropic, Mythos encontró 271 vulnerabilidades en Firefox durante las pruebas realizadas con Mozilla. Se convirtió en el primer modelo de IA en completar una simulación de ataque a una red corporativa de 32 pasos. Anthropic lo confinó dentro del Proyecto Glasswing, una coalición verificada de aproximadamente 40 socios, entre ellos Microsoft, Apple, Amazon y la NSA.
El público nunca podrá utilizarlo. Por eso Gomez intentó descifrar cómo funciona.
La hipótesis central de OpenMythos es que Mythos es un Recurrent-Depth Transformer, también conocido como transformador en bucle. Los modelos estándar apilan cientos de capas únicas. Los modelos en bucle toman una pila más pequeña y la ejecutan varias veces por cada pasada hacia adelante.
En otras palabras, son los mismos pesos pasando por más iteraciones. Un razonamiento más profundo, en un espacio latente continuo, antes de que se emita cualquier token.
El repositorio argumenta que esto explicaría las dos cualidades más llamativas de Mythos: resuelve problemas novedosos que ningún otro modelo puede resolver, pero su memorización bruta es irregular. Esa es la huella arquitectónica del bucle: composición por encima del almacenamiento.
OpenMythos cita a Parcae, un paper de abril de 2026 elaborado por la Universidad de California en San Diego y Together AI, que resolvió el histórico problema de inestabilidad en los modelos en bucle. Un modelo Parcae de 770 millones de parámetros iguala en calidad a un transformador de profundidad fija de 1.300 millones, con leyes de escala predecibles para definir cuántos bucles ejecutar. El repositorio también incorpora la Multi-Latent Attention de DeepSeek para comprimir la memoria, y una configuración de Mixture-of-Experts para manejar la amplitud entre distintos dominios.
Lo que no tiene son pesos, por lo que básicamente es una técnica sin ejecutor.
OpenMythos es teórico. El código define variantes del modelo desde 1.000 millones hasta 1 billón de parámetros, pero hay que entrenarlos desde cero. El archivo readme apunta a un script de entrenamiento de 3.000 millones de parámetros sobre FineWeb-Edu y un objetivo de 30.000 millones de tokens ajustado con Chinchilla, el tipo de factura computacional que puede alcanzar cientos de miles de dólares en H100. Nadie lo ha hecho aún.
¿Por qué es importante?
Porque es la segunda vez en un mes que alguien intenta derribar el muro alrededor de Mythos. La primera fue un estudio de Vidoc Security, que reprodujo varios de los hallazgos de vulnerabilidades más alarmantes de Mythos usando GPT-5.4 y Claude Opus 4.6 dentro de un agente de código abierto. Sin acceso a Glasswing y por menos de $30 por análisis. Distintos enfoques, misma conclusión: el foso alrededor de Mythos puede ser más estrecho de lo que el marketing sugería.
OpenMythos y la replicación de Vidoc cumplen funciones diferentes. Vidoc reprodujo los resultados de Mythos —los propios descubrimientos de vulnerabilidades— usando modelos existentes. OpenMythos intenta reproducir la arquitectura: la máquina real que genera esos resultados. Uno afirma que no se necesita Mythos para encontrar los errores que Mythos encontró. El otro dice que, eventualmente, quizás sea posible construir algo similar a Mythos por cuenta propia.
Anthropic casi con certeza no comparte públicamente las suposiciones arquitectónicas de Gomez, y varias de las decisiones de diseño en OpenMythos son coberturas explícitas. El archivo readme se asegura de ser lo suficientemente vago para que los usuarios sepan que se trata solo de un enfoque posible. Utiliza repetidamente términos como "probablemente", "se sospecha" y "casi con certeza". El Mythos real puede no ser un transformador en bucle en absoluto. O podría serlo, pero con detalles que Gomez aún no ha logrado descifrar.
Lo que OpenMythos demuestra es que la literatura de investigación ya contiene la mayoría de las piezas. Los transformadores en bucle, Mixture of Experts, Multi-Latent Attention, Adaptive Computation Time, la corrección de estabilidad de Parcae: nada de esto es propietario. El repositorio es, más que cualquier otra cosa, un inventario de lo que se conoce públicamente sobre cómo construir un modelo de la clase de Mythos.
El repositorio está licenciado bajo MIT y ya acumula 2.700 forks. El script de entrenamiento está ahí, esperando a alguien con un clúster de GPUs y una tesis que demostrar.

