Anthropic suspende el despliegue de Mythos tras detectar riesgos globales y abre contactos con la UE

Anthropic ha congelado el despliegue general de Mythos tras detectar capacidades que inquietan a reguladores y bancos

Claude (Anthropic) - Sociedad
Fotografía que muestra la pantalla de un ordenador con el logotipo de la inteligencia artificial.
EFE/ Ángel Colmenares

Anthropic se ha convertido en el centro de una nueva alarma tecnológica después de que su modelo Mythos encendiera las alertas de reguladores, bancos y autoridades europeas. La Comisión Europea confirmó esta semana que mantiene conversaciones con la compañía estadounidense para conocer mejor los riesgos asociados a Claude Mythos Preview, un sistema de inteligencia artificial que la propia empresa ha decidido no lanzar al público general por su capacidad avanzada para detectar y explotar vulnerabilidades de ciberseguridad. El caso ha escalado con rapidez porque no se trata solo de una herramienta potente, sino de una que ha empezado a ser descrita como un posible riesgo sistémico si cae en las manos equivocadas.

El portavoz comunitario Thomas Regnier explicó que Bruselas mantiene “conversaciones en curso” con Anthropic y que espera recibir información adicional sobre los peligros del modelo y sobre cómo podría probarse de forma controlada en empresas o instituciones europeas. Esa reacción de la UE no llega aislada. En los últimos días también se han activado contactos en Reino Unido, Estados Unidos y el sector bancario europeo, en una muestra de hasta qué punto Mythos ha alterado el debate sobre los límites de la IA aplicada a la ciberseguridad.

Qué es Mythos y por qué Anthropic ha frenado su despliegue

Según la propia Anthropic, Claude Mythos Preview fue diseñado para tareas avanzadas de programación y defensa en ciberseguridad, con una capacidad especialmente alta para encontrar fallos complejos en software e infraestructura crítica. En su documentación técnica, la empresa sostiene que el modelo alcanzó resultados inusualmente potentes en análisis ofensivo y defensivo, hasta el punto de obligarle a limitar el acceso y someterlo a controles extraordinarios. La decisión más llamativa ha sido precisamente esa: no abrir el sistema al público general. Algo muy poco habitual en una industria acostumbrada a competir por lanzar cuanto antes sus modelos más avanzados.

La preocupación no es teórica. EFE informó de que durante las pruebas internas el modelo fue capaz de detectar peligros que habían permanecido ocultos durante 27 años. Esa cifra ha contribuido a disparar el impacto mediático del caso. Aunque también ha alimentado algunas dudas sobre cómo se están presentando públicamente sus capacidades. The Guardian, por ejemplo, ha recogido voces críticas que ven en la estrategia de Anthropic una mezcla de cautela real y operación de imagen. Y todo en un momento en que las grandes firmas de IA compiten por liderazgo, inversión y legitimidad regulatoria.

Bruselas no está sola: bancos y supervisores también se mueven

Anthropic suspende el despliegue de Mythos tras detectar riesgos globales y abre contactos con la UE
Ursula von der Leyen.
EFE/EPA/RONALD WITTEK

El nerviosismo alrededor de Mythos se ha extendido mucho más allá de la Comisión Europea. Reuters informó de que el Banco Central Europeo prepara preguntas específicas a entidades financieras sobre los riesgos asociados al modelo, ante el temor de que sus capacidades puedan facilitar ataques sofisticados contra sistemas heredados del sector bancario. En Alemania, además, bancos, autoridades nacionales y expertos en seguridad han empezado a coordinarse para evaluar posibles exposiciones en infraestructuras críticas.

En Estados Unidos, el asunto también ha alcanzado el máximo nivel. El secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, se reunieron con directivos de grandes bancos para discutir los riesgos cibernéticos asociados a Mythos. La idea de fondo es simple: una IA capaz de encontrar agujeros de seguridad con mucha más rapidez y profundidad que los equipos humanos puede convertirse en una ventaja defensiva enorme, pero también en una herramienta muy peligrosa si se reutiliza con fines ofensivos o si inspira una nueva carrera entre atacantes y defensores.

Project Glasswing, la vía restringida que propone Anthropic

Anthropic suspende el despliegue de Mythos tras detectar riesgos globales y abre contactos con la UE
Imagen promocional de la IA.
Anthropic

Para contener ese riesgo, Anthropic ha optado por una salida intermedia. En vez de comercializar Mythos de forma abierta, ha lanzado Project Glasswing, un programa de acceso restringido en el que participan más de 40 organizaciones. Entre ellas figuran grandes tecnológicas, firmas de ciberseguridad y actores financieros como Amazon, Google, Microsoft, Nvidia, Cisco, Palo Alto Networks o JPMorgan Chase. El objetivo es utilizar el modelo en entornos cerrados para identificar y corregir vulnerabilidades antes de que puedan ser explotadas por actores maliciosos.

Ese movimiento revela bien la paradoja del momento. Anthropic presenta Mythos como una herramienta para reforzar la seguridad global. Pero al mismo tiempo admite que su potencia obliga a tratarlo como un sistema especialmente sensible. Y ahí es donde aparece el reto político y regulatorio. Si una IA puede descubrir fallos que nadie había visto en décadas, la cuestión ya no es solo quién puede usarla, sino bajo qué reglas, con qué supervisión y con qué garantías. Por eso Bruselas ha querido sentarse ya con la empresa. No para frenar una innovación cualquiera, sino para entender si está ante una tecnología defensiva extraordinaria o ante una nueva fuente de inestabilidad digital con alcance internacional.