
Han pasado poco más de dos semanas desde que OpenAI alcanzó un polémico acuerdo para permitir que el Pentágono utilice su IA en entornos clasificados. Siguen existiendo preguntas relevantes sobre qué permite exactamente el acuerdo. Sam Altman dijo que los militares no pueden usar la tecnología de su empresa para construir armas autónomas, pero el acuerdo en realidad solo exige que los militares sigan sus propias (bastante permisivas) directrices sobre este tipo de armas. La otra gran afirmación de OpenAI —que el acuerdo impedirá el uso de su tecnología para vigilancia doméstica— parece igualmente dudosa.
No está claro cuáles son las motivaciones de OpenAI. No es la primera gran empresa tecnológica que abraza contratos militares a los que antes había prometido no acceder, pero la velocidad del giro ha sido notable. Quizá sea simplemente cuestión de dinero: OpenAI está gastando mucho en entrenamiento de modelos de IA y busca más ingresos (procedentes, por ejemplo, de publicidad). O quizá Altman crea realmente en el marco ideológico que invoca a menudo: que las democracias liberales (y sus ejércitos) deben tener acceso a la IA más poderosa para competir con China.
La pregunta más trascendental es qué ocurrirá después. OpenAI ha decidido que se siente cómoda operando en medio de los combates, justo cuando Estados Unidos intensifica sus ataques contra Irán (con la IA desempeñando un papel cada vez mayor en ello). Entonces, ¿exactamente en qué ámbitos podría utlizarse la tecnología de OpenAI en este conflicto? ¿Y qué aplicaciones tolerarán sus clientes (y sus empleados)?
Objetivos y ataques
Aunque el acuerdo con el Pentágono ya está en vigor, no está claro cuándo estará lista la tecnología de OpenAI para entornos clasificados, ya que debe integrarse con otras herramientas que utilizan los militares (xAI de Elon Musk, que recientemente llegó a su propio acuerdo con el Pentágono, se espera que atraviese el mismo proceso con su modelo Grok). Pero hay presión para hacerlo rápido debido a la controversia en torno a la tecnología utilizada hasta ahora: después de que Anthropic se negara a permitir que su IA se empleara para “cualquier uso legal”, el presidente Trump ordenó a los militares dejar de usarla, y el Pentágono designó a Anthropic como riesgo en la cadena de suministro. (Anthropic está impugnando la designación en los tribunales.)
Si el conflicto con Irán continúa cuando la tecnología de OpenAI esté integrada, ¿para qué podría utilizarse? Una reciente conversación con un funcionario de defensa sugiere que podría funcionar así: un analista humano introduciría una lista de posibles objetivos en el modelo de IA y le pediría que analizara la información y priorizara cuáles atacar primero. El modelo podría tener en cuenta información logística, como dónde se encuentran determinados aviones o suministros. También podría analizar numerosos tipos de datos en forma de texto, imágenes y vídeo.
Un humano sería responsable de comprobar manualmente estos resultados, dijo el funcionario. Pero esto plantea una pregunta evidente: si una persona realmente está verificando los resultados de la IA, ¿cómo acelera eso la toma de decisiones sobre ataques y selección de objetivos?
Durante años, los militares han utilizado otro sistema de IA llamado Maven, que puede encargarse de tareas como analizar automáticamente imágenes de drones para identificar posibles objetivos. Es probable que los modelos de OpenAI, como Claude de Anthropic, ofrezcan una interfaz conversacional sobre ese sistema, permitiendo a los usuarios solicitar interpretaciones de inteligencia y recomendaciones sobre qué objetivos atacar primero.
Cuesta exagerar lo novedoso de esto: la IA lleva tiempo realizando análisis para el ejército, extrayendo información de enormes cantidades de datos. Pero usar los consejos de una IA generativa sobre qué acciones tomar en el terreno se está probando seriamente por primera vez en Irán.
Defensa contra drones
A finales de 2024, OpenAI anunció una colaboración con Anduril, que fabrica tanto drones como tecnologías antidrones para los militares. El acuerdo establecía que OpenAI trabajaría con Anduril para realizar análisis urgentes de drones que atacan a fuerzas estadounidenses y ayudar a derribarlos. Un portavoz de OpenAI me dijo entonces que esto no violaba las políticas de la empresa, que prohibían “sistemas diseñados para dañar a otros”, porque la tecnología se utilizaba para atacar drones y no personas.
Anduril proporciona un conjunto de tecnologías antidrones a bases militares en todo el mundo (aunque la empresa no quiso decir si sus sistemas están desplegados cerca de Irán). Ninguna de las dos compañías ha ofrecido actualizaciones sobre cómo ha avanzado el proyecto desde su anuncio. Sin embargo, Anduril lleva tiempo entrenando sus propios modelos de IA para analizar imágenes de cámaras y datos de sensores con el fin de identificar amenazas. Lo Anduril desarrolla menos son sistemas de IA conversacional que permitan a los soldados consultar directamente esos sistemas o recibir orientación en lenguaje natural, un área en la que los modelos de OpenAI podrían encajar.
La situación es grave. Seis militares estadounidenses murieron en Kuwait (Kuwait) el 1 de marzo tras un ataque iraní con drones que no fue interceptado por las defensas aéreas de Estados Unidos.
La interfaz de Anduril, llamada Lattice, es el sitio donde los soldados pueden controlar desde defensas antidrones hasta misiles y submarinos autónomos. Y la empresa está ganando contratos enormes —20 000 millones de dólares (unos 18 530 millones de euros) del Ejército estadounidense la semana pasada— para conectar sus sistemas con equipamiento militar heredado y superponer IA sobre ellos. Si los modelos de OpenAI resultan útiles para Anduril, Lattice está diseñada para incorporarlos rápidamente en este conjunto de capacidades de guerra.
IA para tareas administrativas
En diciembre, el secretario de Defensa Pete Hegseth comenzó a animar a millones de personas en roles más administrativos del ejército —contratos, logística, compras— a utilizar una nueva herramienta de IA. Llamada GenAI.mil, permitía al personal acceder de forma segura a modelos comerciales de IA y utilizarlos para las mismas tareas que realiza cualquier persona en el mundo empresarial.
Google Gemini fue uno de los primeros en estar disponible. En enero, el Pentágono anunció que Grok, de xAI, también se incorporaría a la plataforma GenAI.mil, a pesar de incidentes en los que el modelo había difundido contenido antisemita y generado deepfakes. OpenAI se sumó en febrero, anunciando que sus modelos se utilizarían para redactar documentos de políticas y contratos y para ayudar en el apoyo administrativo de misiones.
Quienes usen ChatGPT para tareas no clasificadas en esta plataforma probablemente no tendrán mucha influencia sobre decisiones sensibles en Irán, pero la posibilidad de que OpenAI se despliegue en la plataforma es importante por otra razón. Refleja la actitud decididamente entusiasta hacia la IA que Hegseth ha estado promoviendo incansablemente en todo el Pentágono (aunque muchos usuarios iniciales no tengan del todo claro para qué se supone que deben usarla). El mensaje es que la IA está transformando todos los aspectos del modo en que Estados Unidos libra la guerra, desde decisiones de selección de objetivos hasta el papeleo. Y OpenAI esta consiguiendo una importante parte del pastel.





