
Si Anthropic no te muestra lo que hay dentro de su IA más peligrosa, alguien en GitHub lo adivinará.
Un desarrollador llamado Kye Gomez ha publicado OpenMythos, una reconstrucción de código abierto de lo que él cree que es Claude Mythos bajo el capó. El repositorio ha acumulado más de 10.000 estrellas de GitHub en pocas semanas desde su lanzamiento, y viene con un exhaustivo archivo "readme" lleno de ecuaciones, citas y un cortés descargo de responsabilidad de que no tiene nada que ver con Anthropic.
Es especulación. Pero es especulación estructurada, en código.
Aquí un breve recordatorio de qué es Mythos: Mythos se filtró al público a finales de marzo, cuando Anthropic publicó accidentalmente borradores de materiales que lo describían como el modelo más capaz de la compañía hasta la fecha, un nivel por encima de Opus. El seguimiento, Mythos Preview, resultó ser increíblemente bueno en ciberseguridad, hasta el punto de no poder ser lanzado.
Según Anthropic, Mythos encontró 271 vulnerabilidades en Firefox durante las pruebas de Mozilla. Se convirtió en el primer modelo de IA en completar una simulación de ataque a una red corporativa de 32 pasos. Anthropic lo confinó dentro del Proyecto Glasswing, una coalición verificada de unos 40 socios, incluyendo Microsoft, Apple, Amazon y la NSA.
El público nunca llega a tocarlo. Así que Gomez intentó averiguar cómo funciona.
La suposición central de OpenMythos es que Mythos es un Transformer de Profundidad Recurrente, también llamado transformer en bucle. Los modelos estándar apilan cientos de capas únicas. Los modelos en bucle toman una pila más pequeña y la ejecutan a través de sí misma muchas veces por cada paso de avance.
En otras palabras, son los mismos pesos pasando por más iteraciones. Un pensamiento más profundo, en un espacio latente continuo, antes de que se emita cualquier token.
El repositorio argumenta que esto explicaría las dos cualidades más extrañas de Mythos: razona sobre problemas novedosos que ningún otro modelo puede resolver, pero su memorización bruta es irregular. Esa es la huella arquitectónica del bucle: composición sobre almacenamiento.
OpenMythos cita a Parcae, un artículo de abril de 2026 de la Universidad de California en San Diego y Together AI que resolvió el problema de inestabilidad de larga data en los modelos en bucle: un modelo Parcae de 770 millones de parámetros iguala en calidad a un transformer de profundidad fija de 1.3 mil millones, con leyes de escalado predecibles sobre cuántos bucles ejecutar. El repositorio también toma prestada la Atención Multi-Latente de DeepSeek para comprimir la memoria, y una configuración de Mezcla de Expertos para manejar la amplitud en diversos dominios.
Lo que no tiene son pesos, así que básicamente es una técnica sin un ejecutor.
OpenMythos es teórico. El código define variantes del modelo de mil millones a un billón de parámetros, pero tienes que entrenarlos tú mismo: el archivo readme apunta a un script de entrenamiento de 3 mil millones de parámetros en FineWeb-Edu y un objetivo de 30 mil millones de tokens ajustado por Chinchilla, que es el tipo de factura de cómputo que asciende a cientos de miles de dólares en H100s. Nadie lo ha hecho todavía.
Entonces, ¿por qué importa?
Porque es la segunda vez en un mes que alguien ha debilitado el muro alrededor de Mythos. El primero fue un estudio de Vidoc Security, que reprodujo varios de los hallazgos de vulnerabilidades más alarmantes de Mythos utilizando GPT-5.4 y Claude Opus 4.6 dentro de un agente de código abierto. Sin acceso a Glasswing, y por menos de 30 dólares por escaneo. Diferente ángulo, misma conclusión: el foso alrededor de Mythos puede ser más delgado de lo que sugería el marketing.
OpenMythos y la replicación de Vidoc están haciendo trabajos diferentes. Vidoc reprodujo las salidas de Mythos —los descubrimientos de vulnerabilidades en sí— utilizando modelos existentes. OpenMythos está tratando de reproducir la arquitectura —la máquina real que produce esas salidas. Uno dice que no necesitas Mythos para encontrar los errores que Mythos encontró. El otro dice que, eventualmente, podrías construir algo como Mythos tú mismo.
Es casi seguro que Anthropic no comparte públicamente las suposiciones arquitectónicas de Gomez, y varias de las decisiones de diseño en OpenMythos son precisiones explícitas: el archivo readme se asegura de ser lo suficientemente vago para que los usuarios sepan que esto es solo un enfoque. Repetidamente dice "probablemente", "se sospecha" y "casi con certeza". El Mythos real puede no ser un transformer en bucle en absoluto. O podría ser uno con detalles que Gomez aún no ha hecho ingeniería inversa.
Lo que demuestra OpenMythos es que la literatura de investigación ya contiene la mayoría de las piezas. Los transformers en bucle, la Mezcla de Expertos, la Atención Multi-Latente, el Tiempo de Computación Adaptativo, la solución de estabilidad de Parcae, nada de esto es propietario. El repositorio es, más que nada, un inventario de lo que se conoce públicamente sobre cómo construir un modelo de clase Mythos.
El repositorio tiene licencia MIT y ya tiene 2.700 bifurcaciones. El script de entrenamiento está ahí, esperando a alguien con un clúster de GPU y una tesis que demostrar.