Alarma global ante la llegada de Mythos, la nueva IA de Anthropic

Mythos inquieta a gobiernos y reguladores por su capacidad para detectar y explotar vulnerabilidades en infraestructuras críticas

Dario Amodei - Economía
Una fotografía de archivo de Dario Amodei, director ejecutivo de Anthropic.
The New York Times

La aparición de Mythos, el nuevo modelo de inteligencia artificial de Anthropic, ha abierto una crisis que va mucho más allá del debate tecnológico. La compañía estadounidense no lo ha lanzado al público porque considera que sus capacidades pueden ser demasiado peligrosas si caen en malas manos. El motivo es sencillo y perturbador: la IA sería capaz de encontrar y explotar vulnerabilidades ocultas en el software que sostiene bancos, redes eléctricas, sistemas públicos e infraestructuras críticas.

El problema no es solo técnico. Es geopolítico. Anthropic ha decidido compartir el acceso de forma muy limitada, principalmente con organizaciones estadounidenses y con el Instituto de Seguridad de la IA del Reino Unido. Esa selección ha encendido las alarmas en gobiernos, reguladores y empresas de otros países, que temen quedarse fuera justo cuando la inteligencia artificial empieza a funcionar como una ventaja estratégica comparable a una nueva generación de armamento digital. Según la compañía, Mythos Preview ya ha encontrado miles de vulnerabilidades graves, incluidas algunas en grandes sistemas operativos y navegadores, dentro de un programa defensivo llamado Project Glasswing.

Qué es Mythos y por qué preocupa tanto

Mythos no es un chatbot convencional. Anthropic lo presenta como un modelo de frontera especialmente potente en tareas de ciberseguridad. Su valor está en la capacidad para analizar código, detectar fallos, encadenar pasos complejos y convertir una debilidad técnica en un posible ataque. Es decir, no se limita a señalar dónde puede haber un problema: también puede ayudar a recorrer el camino necesario para explotarlo.

La evaluación del Instituto de Seguridad de la IA del Reino Unido confirmó que Mythos Preview supone un salto relevante respecto a modelos anteriores en pruebas de ciberseguridad. El organismo británico señaló que el modelo podía ejecutar ataques de varias fases en entornos vulnerables y descubrir y explotar fallos de manera autónoma en condiciones controladas.

Ahí está el núcleo de la alarma. Una herramienta así puede ser extraordinariamente útil para defender sistemas antes de que los delincuentes los ataquen. Pero también puede acelerar el trabajo de actores maliciosos si termina filtrándose, copiándose o siendo usada sin controles adecuados.

Anthropic cierra el acceso y abre una crisis política

Alarma global ante la llegada de Mythos, la nueva IA de Anthropic
Una persona sostiene un teléfono con el logotipo de la inteligencia artificial.
EFE

La decisión de Anthropic ha sido restringir el acceso a Mythos. La empresa lo está compartiendo con un grupo limitado de organizaciones tecnológicas y de infraestructuras críticas para identificar vulnerabilidades y corregirlas antes de que esas capacidades se generalicen. La compañía sostiene que el objetivo es defensivo: ganar tiempo antes de que modelos similares aparezcan en manos de otros actores.

Sin embargo, esa estrategia plantea una pregunta incómoda: ¿quién decide qué países, bancos, compañías eléctricas o gobiernos pueden prepararse ante una amenaza de este tamaño? En la práctica, una empresa privada de San Francisco ha quedado situada en el centro de una cuestión de seguridad global.

El Reino Unido ha sido el único país, fuera de Estados Unidos, con acceso institucional relevante al modelo. Su Gobierno ha llegado a advertir a líderes empresariales de que las capacidades cibernéticas de la IA avanzan más rápido de lo previsto y que Mythos es sustancialmente más capaz en ciberofensiva que cualquier modelo evaluado previamente por su Instituto de Seguridad de la IA.

Europa, China y Rusia miran desde fuera

La inquietud se ha extendido con rapidez. En Europa, la Comisión Europea ha mantenido contactos con Anthropic, pero el acceso al modelo sigue siendo limitado. Reguladores financieros y agencias de ciberseguridad observan el caso con preocupación porque buena parte de la infraestructura bancaria, energética y administrativa del mundo utiliza software compartido o dependencias comunes. Si Mythos puede encontrar fallos en esos sistemas, el riesgo no se limita a un país.

Para China y Rusia, la aparición de Mythos tiene otra lectura. El modelo muestra que quedarse atrás en la carrera de la IA no solo implica perder productividad o negocio. También puede significar depender de una potencia rival para entender las vulnerabilidades del propio sistema digital. En ese contexto, la inteligencia artificial deja de ser un producto y se parece cada vez más a una capacidad estratégica.

Esa es la gran transformación que revela el caso. Los modelos de IA más avanzados ya no se reciben como simples lanzamientos tecnológicos. Empiezan a interpretarse como pruebas de poder. Quien construye primero el modelo más capaz puede detectar antes las debilidades del resto, proteger sus propios sistemas y decidir con quién comparte esa ventaja.

El temor a una filtración

Alarma global ante la llegada de Mythos, la nueva IA de Anthropic
Imagen promocional de la IA.
Anthropic

La preocupación aumentó después de que Anthropic investigara informaciones sobre un posible acceso no autorizado a una versión de Mythos. Bloomberg reveló que un pequeño grupo de usuarios habría accedido al modelo a través del entorno de un proveedor externo, aunque aparentemente no lo habría usado con fines de ciberseguridad.

El episodio refuerza una de las grandes dudas del caso: si un modelo es demasiado peligroso para lanzarse al público, también debe estar protegido con un nivel de seguridad extraordinario. Cualquier brecha, aunque sea limitada, puede aumentar el riesgo de proliferación. Y en ciberseguridad, la diferencia entre defensa y ataque depende muchas veces de quién utiliza la herramienta y con qué intención.

Una llamada de atención para los gobiernos

Mythos llega en un momento de cooperación internacional mínima en materia de inteligencia artificial. No existe un tratado global que regule los modelos capaces de ejecutar tareas cibernéticas avanzadas. No hay inspecciones compartidas, reglas comunes ni protocolos claros para decidir cuándo una IA debe distribuirse, restringirse o someterse a supervisión internacional.

Esa ausencia de normas convierte a Anthropic en juez provisional de una cuestión que afecta a todos. La empresa puede actuar con prudencia, pero el debate de fondo sigue abierto: una tecnología con impacto en bancos, hospitales, redes eléctricas y gobiernos no puede depender solo de decisiones privadas.

La alarma global ante Mythos nace precisamente de ahí. No porque el modelo sea necesariamente una amenaza en sí mismo, sino porque demuestra que la IA ya ha cruzado una frontera. La próxima gran vulnerabilidad mundial quizá no la encuentre un grupo de hackers, sino un sistema capaz de trabajar durante horas, sin descanso, sobre millones de líneas de código. Y cuando eso ocurra, la pregunta decisiva será quién lo sabe primero.

TAGS DE ESTA NOTICIA