Google ha dado un paso decisivo en su relación con el estamento militar de Estados Unidos al cerrar un acuerdo con el Pentágono para que el Departamento de Defensa utilice sus modelos de inteligencia artificial (IA) en redes y entornos clasificados. Este movimiento, confirmado por diversos medios estadounidenses, supone el regreso definitivo de la firma de Mountain View a la primera línea de la infraestructura tecnológica bélica, un territorio del que se había distanciado públicamente tras las controversias del pasado.
La relevancia de este contrato es doble. En primer lugar, confirma la reintegración de Google en la arquitectura del Pentágono tras años de tensiones derivadas del Proyecto Maven de 2018. Aquel programa de análisis de imágenes para el Ejército provocó una insurrección interna sin precedentes que obligó a la empresa a retirarse. En segundo lugar, el nuevo acuerdo sitúa a Google en una fase mucho más sensible: el despliegue de IA en redes clasificadas. Según fuentes cercanas al pacto, estas operaciones incluyen restricciones estrictas destinadas a evitar la vigilancia masiva en el ámbito doméstico o el desarrollo de armas totalmente autónomas que operen sin supervisión humana.

Un contrato de “fines lícitos” y amplio alcance
Según informa Reuters, los términos del acuerdo permiten al Departamento de Defensa emplear la tecnología de Google para “cualquier fin gubernamental lícito“. En la práctica, esto implica que el Pentágono está ampliando el uso de Gemini, el modelo más avanzado de Google, para proyectos de alta sensibilidad, ocupando el vacío dejado tras romper relaciones con Anthropic.
Para el Pentágono, los beneficios son tangibles. La integración de Gemini en sus redes proporciona una mayor capacidad de procesamiento y permite incorporar herramientas comerciales punteras sin necesidad de desarrollarlas desde cero. Según The New York Times, esto abarca desde el análisis interno y el tratamiento de información sensible hasta el apoyo logístico en la planificación.

Google, consciente del impacto reputacional, ha intentado acotar el alcance ético del pacto. La dirección ha subrayado que su IA no está destinada a la creación de armamento letal autónomo, una precisión que busca alinearse con sus principios de “IA responsable” defendidos desde hace años.
La sombra del Proyecto Maven y la presión laboral
Sin embargo, el anuncio ha reabierto viejas heridas. Apenas un día antes de que se conociera el acuerdo, más de 600 empleados enviaron una carta a Sundar Pichai, CEO de la compañía, exigiendo el bloqueo de cualquier pacto militar clasificado. Los firmantes sostienen que esta tecnología debe beneficiar a la humanidad y no emplearse en tareas que puedan derivar en usos “inhumanos o extremadamente dañinos”.

Este clima de tensión recuerda inevitablemente a lo ocurrido en 2018. A pesar de aquella retirada histórica, Google ha ido reconstruyendo puentes con el sector de la defensa ante la creciente demanda de herramientas de análisis de datos y de administración federal. El panorama actual es distinto: Google compite ahora directamente con gigantes como OpenAI y XAI (de Elon Musk) por contratos que, desde 2025, han movido presupuestos de hasta 200 millones de dólares.
El desafío para Google será mayúsculo. Mientras el Pentágono busca preservar su flexibilidad operativa y evitar la dependencia de un único proveedor, la tecnológica deberá equilibrar su ambición comercial en el sector de la seguridad nacional con una narrativa de ética corporativa que sus propios trabajadores han puesto en entredicho. La frontera entre la IA comercial y el uso militar se difumina, y Google se encuentra hoy en el epicentro de ese debate global.
