El AISI prueba Mythos y publica lo que encontró: un modelo que completa ataques corporativos en red de 32 pasos de forma autónoma
El Instituto de Seguridad de la IA del Reino Unido publica la primera evaluación independiente de las capacidades ofensivas de Claude Mythos. Los resultados son más concretos y más preocupantes de lo que Anthropic dijo.

Hace dos años, los mejores modelos de IA apenas superaban tareas de nivel principiante en ciberseguridad. Esta semana, el Instituto de Seguridad de la IA del Reino Unido publicó los resultados de sus pruebas sobre Mythos Preview de Anthropic. El modelo completó de forma autónoma, en tres de cada diez intentos, una simulación de ataque corporativo de 32 pasos que un experto humano tardaría unas 20 horas en ejecutar. De principio a fin: reconocimiento, escalada de privilegios, movimiento lateral entre redes y toma de control completa del sistema.
Eso no es especulación. Es lo que midió el AISI con metodología documentada y publicada.
Los números concretos, sin adornos
En los ejercicios de tipo capture-the-flag —donde el modelo debe identificar y explotar vulnerabilidades para recuperar datos ocultos— Mythos Preview alcanzó un 73% de éxito en tareas de nivel experto. Ningún modelo había completado ninguna de esas tareas antes de abril de 2025. Yahoo! En un solo año, se pasó de cero a tres cuartos.
La prueba más severa fue «The Last Ones», una simulación corporativa de 32 pasos que el AISI estima lleva a un experto humano alrededor de 20 horas. Mythos Preview la completó íntegramente en 3 de los 10 intentos. El siguiente modelo más capaz, Claude Opus 4.6, promedió 16 de los 32 pasos. Resultsense La brecha entre el modelo nuevo y el anterior es la mitad de un ataque corporativo completo.
Lo que el informe también dice, y que importa tanto como los números
El AISI es cuidadoso con sus afirmaciones. El informe señala explícitamente que los entornos de prueba carecían de defensores activos, detección de intrusiones en tiempo real y respuesta a incidentes. Los resultados demuestran que Mythos puede atacar sistemas con una postura de seguridad débil, no que pueda comprometer redes corporativas bien protegidas. Help Net Security Es una distinción importante: no estamos ante un modelo que rompe cualquier infraestructura, sino ante uno que puede explotar de forma autónoma la enorme deuda técnica acumulada en sistemas sin parchear, con controles de acceso laxos o con configuraciones antiguas.
Y eso, para ser precisos, describe la mayoría de los sistemas reales.
El informe también midió el «uplift» —la capacidad del modelo para amplificar las habilidades de atacantes humanos de nivel medio. Los resultados fueron matizados: para alguien con conocimientos básicos de pentesting, Mythos puede actuar como multiplicador de fuerza, explicando conceptos de ataque, generando código funcional de explotación y ayudando a depurar intentos fallidos. Web and IT News El perfil de amenaza más relevante no es el de un agente de IA operando solo. Es el de un atacante con conocimientos básicos que ahora tiene a su disposición un asistente que cierra la brecha con un profesional experto.
La consecuencia práctica para las organizaciones
El AISI concluye con una recomendación operativa: los fundamentos de ciberseguridad —aplicar parches con regularidad, controles de acceso robustos, configuración segura y registro exhaustivo de actividad— siguen siendo relevantes. Lo que cambia es el perfil del atacante: las operaciones de reconocimiento que antes requerían días de trabajo humano ahora son factibles sin supervisión humana en cada paso. Aisi
Hay una implicación financiera que varios analistas ya están señalando esta semana: si un modelo puede encontrar vulnerabilidades de forma continua mientras se le asigna más presupuesto de cómputo, la seguridad informática empieza a parecerse a una subasta. Los atacantes gastan tokens hasta encontrar el fallo; los defensores gastan tokens hasta cerrarlo. Quien tenga más presupuesto gana. Esa dinámica favorece a los actores con más recursos —Estados, grupos organizados, empresas con financiación— y complica enormemente la posición de las organizaciones medianas que no pueden permitirse el mismo nivel de inversión en IA defensiva. El informe del AISI no dice esto. Pero sus datos lo implican con claridad.