OpenAI se prepara para dar un paso que hasta hace poco habría parecido impensable para una compañía nacida en el ecosistema ‘tech’ de consumo: explorar un acuerdo con la OTAN para desplegar su inteligencia artificial en las redes no clasificadas de la organización. La posibilidad fue trasladada internamente por el consejero delegado, Sam Altman, durante una reunión general con empleados, según avanzó The Wall Street Journal y confirmó posteriormente Reuters a través de fuentes conocedoras de las conversaciones.
El movimiento llega en un momento especialmente delicado para la empresa. No solo por el impacto reputacional de su reciente acercamiento a Defensa en Estados Unidos, sino porque la discusión sobre el papel de la IA en entornos militares se ha convertido en una batalla cultural dentro y fuera de Silicon Valley. Y, en ese tablero, cualquier gesto se lee como una toma de posición.
De “clasificado” a “no clasificado”: la precisión que lo cambia todo
Según Reuters, Altman llegó a sugerir inicialmente que la compañía estaba “mirando un contrato” para desplegar su tecnología en redes clasificadas de la OTAN, pero después se produjo una corrección: un portavoz de OpenAI matizó que el planteamiento se limita a las redes no clasificadas.
Esa diferencia es esencial, porque define el tipo de datos a los que podrían acceder las herramientas. Operar en sistemas no clasificados implica, sobre el papel, quedar fuera de los repositorios más sensibles y, por tanto, reducir el riesgo de que la tecnología se alimente de información extremadamente delicada. Aun así, el debate no desaparece: una IA integrada en una organización militar puede terminar influyendo en procesos, decisiones y flujos de trabajo aunque no toque la capa más secreta.
El precedente del Pentágono y las “líneas rojas” tras la presión interna
La noticia sobre OpenAI y la OTAN aparece pocos días después de otro anuncio que encendió alarmas dentro de la empresa: el acuerdo con el Pentágono para que su tecnología funcione en redes clasificadas del Departamento estadounidense. Reuters informó de ese pacto a finales de febrero, y OpenAI publicó después un texto explicando los términos y los límites que dice haber incorporado.

La propia compañía ha intentado fijar un marco defensivo. En su comunicado, OpenAI describe “líneas rojas” y actualizaciones del acuerdo, en una respuesta directa a las críticas por un posible uso en vigilancia masiva o escenarios de armamento autónomo. En paralelo, The Guardian informó de que Altman reconoció internamente que el acuerdo con Defensa “parecía descuidado” y que se había tenido que enmendar tras el rechazo de parte de la plantilla.
El fondo del conflicto es bien conocido. Una parte de los trabajadores teme que la tecnología de OpenAI termine utilizándose para fines que la compañía dice no apoyar, como la vigilancia doméstica o la automatización letal. Y esa fractura interna explica por qué el posible paso hacia el acuerdo se interpreta como algo más que un contrato: es una señal de rumbo.
Por qué la OTAN y por qué ahora
La OTAN lleva tiempo modernizando su músculo tecnológico, y la IA se ha convertido en una pieza codiciada para tareas como análisis de información abierta, traducción, apoyo administrativo, planificación logística o detección de patrones en grandes volúmenes de datos no sensibles. En ese marco, un despliegue en redes no clasificadas sería el umbral políticamente más fácil de justificar.
Para OpenAI, el incentivo también es evidente: diversificar negocio hacia el sector público y la defensa en un momento en que la competencia se endurece y el debate regulatorio aprieta. Reuters señala además que el movimiento se produce tras la ruptura entre el Gobierno estadounidense y Anthropic, competidora directa, en una disputa sobre restricciones de uso de modelos en contextos militares.
El caso Anthropic y el efecto dominó en Washington
El choque con Anthropic se ha convertido en un punto de referencia. Según Reuters, un alto cargo del Pentágono criticó que ciertas restricciones contractuales en acuerdos de IA podían comprometer misiones militares, y describió tensiones sobre el uso en operaciones y el riesgo de que herramientas se desactiven si se violan términos.

En ese contexto, The Guardian informó de que el conflicto derivó en un veto federal contra Anthropic impulsado por la Administración Trump, tras desacuerdos sobre demandas gubernamentales que la empresa consideró incompatibles con valores democráticos. Es el tipo de episodio que presiona al resto del sector: si una compañía se resiste, otra puede ocupar su lugar.
