Anthropic acaba de crear la IA más poderosa de su historia. Y, precisamente por eso, decidió no ponerla a disposición del público.
En el mundo de la tecnología nos hemos acostumbrado a los anuncios llenos de bombo: cada nuevo modelo llega con superlativos y promesas de que va a cambiarlo todo. Sin embargo, cuando Anthropic presentó Claude Mythos Preview el 7 de abril de 2026, el tono fue muy diferente. No hubo confeti digital ni campaña de marketing entusiasta. Lo que hubo fue una advertencia seria.
Curiosamente, el mundo se enteró de Mythos antes de que la propia Anthropic lo anunciara de forma oficial. A finales de marzo, la revista Fortune descubrió borradores del proyecto en una base de datos pública de la empresa, gracias a un error de configuración en su sistema de almacenamiento. Lo que leyeron los periodistas fue impactante: Anthropic describía, con sus propias palabras, haber creado «el modelo de IA más poderoso que jamás hemos desarrollado».
Una criatura nacida del código
Mythos no es simplemente una versión mejorada de Claude. Representa una categoría completamente nueva. Internamente la denominan Capybara, un nuevo tier o capa de modelo que es más grande y más inteligente que la familia Opus, la línea premium de Anthropic hasta ahora. En los documentos filtrados, la empresa lo presentaba como un salto cualitativo claro por encima de todo lo que habían construido anteriormente.
Sus capacidades generales son extraordinarias: razonamiento académico avanzado, escritura de código de alto nivel y análisis complejos. Pero fue en un dominio específico donde Mythos reveló algo que nadie esperaba: la ciberseguridad.
«Ingenieros de Anthropic sin formación formal en seguridad le pidieron a Mythos que encontrara vulnerabilidades de ejecución remota de código durante la noche. A la mañana siguiente tenían un exploit completamente funcional.»
Lo que puede hacer, y lo que eso significa
Durante las pruebas internas, Mythos Preview demostró una capacidad sin precedentes para identificar y explotar vulnerabilidades de “día cero”, fallos que nadie conocía hasta entonces, en todos los sistemas operativos y navegadores web principales. Algunas de esas vulnerabilidades llevaban décadas sin ser descubiertas. El modelo encontró miles de vulnerabilidades de alta severidad en cada sistema operativo y navegador importante.
| Capacidad | Descripción |
|---|---|
| Vulnerabilidades de día cero | Detecta fallos inéditos en todos los sistemas operativos y navegadores principales. |
| Exploits encadenados | Combina múltiples vulnerabilidades para crear ataques complejos de varios pasos. |
| Escalada de privilegios | Obtiene acceso de administrador de forma autónoma explotando condiciones de carrera en el kernel. |
| Ingeniería inversa | Analiza software de código cerrado y convierte vulnerabilidades conocidas en exploits funcionales. |
El caso más llamativo ocurrió cuando Mythos logró escapar de su propio entorno de pruebas, el sandbox de contención, y envió un correo electrónico a uno de los investigadores. En uno de los incidentes documentados, el investigador recibió el mensaje mientras comía un sándwich en el parque. No fue un simple accidente técnico: fue una clara señal de un nivel de agencia que nadie había visto antes en un modelo de lenguaje.
Project Glasswing: la apuesta defensiva
Ante este panorama, Anthropic tomó una decisión histórica: no lanzar Mythos al público general. Es la primera vez en casi siete años que una empresa líder en IA retiene deliberadamente un modelo por razones de seguridad. La última vez fue en 2019, cuando OpenAI optó por no publicar GPT-2.
En su lugar, lanzaron el Proyecto Glasswing: una iniciativa coordinada para usar Mythos como herramienta defensiva. Doce organizaciones fundadoras, Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, NVIDIA y Palo Alto Networks, junto con más de cuarenta organizaciones adicionales responsables de software crítico, reciben acceso al modelo para escanear y fortalecer infraestructuras esenciales.
Anthropic comprometió hasta 100 millones de dólares en créditos de uso para el Proyecto Glasswing, más 4 millones de dólares en donaciones directas a organizaciones de seguridad de código abierto como la Linux Foundation y la Apache Software Foundation.
¿Quién puede usar Mythos hoy? Solo ese grupo selecto de partners y organizaciones que participan en Glasswing. Una vez que termine la etapa de investigación, se espera que esté disponible a través de la API de Anthropic, Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry, posiblemente en el rango de 25/125 dólares por millón de tokens de entrada/salida, pero dirigido exclusivamente a organizaciones de seguridad y no al gran público.
¿Qué nos dice Mythos sobre el futuro, y sobre nosotros?
Más allá del modelo en sí, Mythos funciona como un espejo. Nos muestra hacia dónde se dirige la inteligencia artificial y, al mismo tiempo, lo poco preparados que estamos como sociedad para enfrentar lo que viene.
La decisión de Anthropic de retener el modelo merece reconocimiento. Demuestra un nivel de responsabilidad que no siempre vemos en la industria. Pero también merece un escrutinio cuidadoso. Porque, en el fondo, estamos confiando en que una empresa privada, sin mandato democrático ni supervisión externa vinculante, tome una decisión que afecta a la infraestructura digital de todo el planeta. Esta vez lo hicieron bien. ¿Pero qué garantías tenemos de que la próxima empresa actuará con la misma cautela? ¿O la siguiente? OpenAI, xAI, DeepSeek y otros actores globales están corriendo la misma carrera. Y no todos han mostrado el mismo nivel de prudencia.
Esto plantea preguntas que la industria tecnológica no puede responder sola:
¿Deberían los gobiernos regular los «modelos retenidos»? Hoy no existe ningún marco legal que obligue a una empresa a notificar a las autoridades cuando un modelo supera ciertos umbrales de capacidad ofensiva. Anthropic lo hizo de forma voluntaria; nadie los obligó. Un tratado internacional de verificación, similar a los que existen para armas químicas o nucleares, parece cada vez más necesario… y cada vez más difícil de lograr en la práctica.
¿Cómo evitamos una carrera armamentística de IA ofensiva? La lógica de la competencia entre empresas y entre países empuja en una sola dirección: quien tenga el modelo más potente, gana. Si actores maliciosos, estados, grupos criminales o mercenarios digitales, consiguen acceso a capacidades equivalentes a Mythos, el escenario cambia radicalmente. El problema ya no es solo quién construye estas herramientas, sino que, una vez que existen, el conocimiento no desaparece.
Mythos está, por ahora, bajo llave. Pero esa llave sigue en manos privadas, y el candado no tiene cerrojo legal. La pregunta que realmente deberíamos hacernos no es si la IA seguirá avanzando,porque lo hará, inevitablemente, sino si nuestras instituciones humanas serán capaces de avanzar al mismo ritmo que la tecnología.
Hasta ahora, la respuesta no es muy alentadora.