Las guerras siempre han estado marcada por la tecnología. La pólvora transformó los campos de batalla medievales, el ferrocarril y la industria permitieron las grandes movilizaciones de militares, las armas nucleares redefinieron el panorama estratégico del siglo XX… Mientras que en 2026 y en Irán, se está produciendo una nueva transformación en tiempo real: la llegada de la inteligencia artificial como actor central en la guerra moderna.
Para muchos analistas de defensa, el conflicto actual supone la demostración más dramática hasta la fecha de cómo la IA está redefiniendo la forma de hacer la guerra. En las primeras 24 horas de la Operación Furia Épica, Estados Unidos atacó más de 1.000 objetivos en todo Irán, apoyándose en gran medida en sistemas de inteligencia artificial capaces de procesar enormes cantidades de datos de inteligencia.

Estos sistemas combinan información procedente de satélites, aviones de vigilancia, sensores y fuentes humanas, generando listas de posibles objetivos a un ritmo que ningún equipo humano podría igualar. Los expertos afirman que algunos sistemas son capaces de proponer más de 40 objetivos por hora.
La magnitud no tiene precedentes. Durante la campaña contra el Estado Islámico, la coalición liderada por Estados Unidos atacó aproximadamente 2.000 objetivos en los primeros seis meses de operaciones. En Irán, según se informa, se alcanzaron cifras similares en tan solo unos días.

La cadena de destrucción, en manos de la IA
Detrás de esta aceleración se esconde una nueva infraestructura digital para la guerra. El sistema inteligente Maven del Pentágono, desarrollado junto con la empresa de datos Palantir, actúa como una plataforma analítica central capaz de procesar enormes flujos de datos del campo de batalla. Puede identificar, priorizar y rastrear objetivos potenciales, respaldando toda la denominada “cadena de destrucción”: el proceso de localizar y atacar un objetivo enemigo.
Actualmente se están utilizando modelos de IA generativa de vanguardia para interpretar la información de inteligencia y ayudar en la planificación operativa en tiempo real. Los responsables de Defensa afirman que estos sistemas pueden procesar conjuntos de datos complejos, lo que permite a los comandantes tomar decisiones mucho más rápidamente que en los ciclos de planificación tradicionales.

Sin embargo, la misma rapidez que hace que la IA resulte atractiva para los ejércitos también está suscitando profundas preocupaciones.
Los errores de la IA
El bombardeo de una escuela primaria para niñas en la ciudad de Minab, al sur de Irán, se ha convertido en un símbolo de esos riesgos. El ataque causó la muerte de 110 niñas y de decenas de personas más. Los investigadores siguen tratando de determinar si la inteligencia artificial desempeñó algún papel en la identificación del lugar como objetivo.
Las imágenes de satélite muestran que la escuela primaria Shajareh Tayyebeh había formado parte en su día de un complejo vinculado a la Guardia Revolucionaria de Irán. Pero llevaba al menos nueve años separada de las instalaciones militares y funcionaba claramente como una escuela. Algunos analistas sospechan que la información obsoleta o el análisis automatizado pueden haber contribuido al error.
Decisiones de vida o muerte
Aún no está claro si el fallo fue humano o provocado por una máquina. Lo que es seguro es que la IA influye cada vez más en la información en la que se basan los mandos humanos a la hora de tomar decisiones de vida o muerte.
El fenómeno no es del todo nuevo. La inteligencia artificial ya ha aparecido en otros conflictos recientes.
“La primera guerra de la IA está en Ucrania”, afirma a Artículo14 Catherine Gegout, profesora asociada de Relaciones Internacionales de la Universidad de Nottingham. “Ambas partes, Rusia y Ucrania, utilizan la IA para la inteligencia geoespacial, las operaciones con sistemas no tripulados, el entrenamiento militar y la guerra cibernética“, contextualiza la experta.

Gegout señala otro precedente en Oriente Próximo. “La segunda guerra de la IA se libra en Gaza. Israel utilizó la IA para identificar 37.000 objetivos de Hamás. Estados Unidos está utilizando la IA en Irán para que su toma de decisiones sea más eficaz, recurriendo a datos para identificar objetivos”, indica la experta.
Lo que hace que el conflicto de Irán sea especialmente significativo es la escala a la que parecen estar operando estos sistemas. Los analistas afirman que el ritmo de las operaciones -miles de ataques en cuestión de días- sería imposible sin la ayuda de algoritmos. Pero la rápida expansión de la IA en el ámbito bélico también introduce nuevos peligros.
La sexta revolución en asuntos militares
“El mayor peligro de la IA en el campo de batalla es que máquinas como los drones se vuelvan autónomas y tomen decisiones de vida o muerte sin la intervención humana”, advierte Gegout. La profesora de la Universidad de Nottingham sitúa este avance en una perspectiva histórica más amplia.
“La IA es la sexta revolución en los asuntos militares. Sigue a la introducción de la pólvora, los ejércitos, infraestructuras como los ferrocarriles durante la revolución industrial, la tecnología industrial como los tanques y los submarinos, y las armas nucleares”, asevera la experta.
Los peligros del uso de la IA en el campo de batalla
En teoría, la inteligencia artificial podría permitir a los Estados identificar y atacar a sus enemigos con una eficiencia sin precedentes. En la práctica, sin embargo, la tecnología dista mucho de ser infalible.
Otro peligro, señala Gegout, radica en la posibilidad de que se produzcan errores.
“La IA en asuntos militares significa que el gobierno que la posee puede atacar a todos los oponentes a los que desee matar. Otro peligro son los errores que puede cometer la IA, como el ataque con misiles contra una escuela de niñas en Irán“, recalca Gegout.

Más allá de los riesgos inmediatos en el campo de batalla se esconde un dilema legal y ético más profundo: la responsabilidad. Si un sistema asistido por IA identifica un objetivo y un comandante humano autoriza el ataque basándose en esa información, ¿quién es responsable cuando algo sale mal? ¿A quién se puede sentar en el banquillo de los acusados?
Para la experta, el mundo está peligrosamente desprevenido ante esta cuestión. “Hace tiempo que se debería haber firmado un tratado internacional sobre la prohibición de las armas autónomas y sobre los límites del uso de la IA en asuntos militares”, argumenta. Sugiere que dicho acuerdo podría seguir el modelo de los regímenes globales existentes que regulan las armas nucleares, biológicas y químicas.
Sin embargo, las perspectivas de dicha regulación parecen sombrías. La Ley de IA de la Unión Europea, la primera ley integral que regula la inteligencia artificial, no abarca las aplicaciones militares. Mientras tanto, Estados Unidos, China y otras potencias están integrando rápidamente la IA en sus fuerzas armadas.
“Nos estamos dirigiendo directamente hacia un muro”, augura Gegout. De momento, el campo de batalla sobre Irán ofrece un atisbo de lo que ese futuro podría deparar.
