Esta historia apareció originalmente en The Algorithm, nuestro boletín semanal sobre IA. Para recibir primero historias como esta en tu bandeja de entrada, suscríbete aquí.
Han pasado poco más de dos semanas desde que OpenAI alcanzó un controvertido acuerdo para permitir al Pentágono usar su IA en ento os clasificados. Todavía quedan preguntas acuciantes sobre qué permite exactamente el acuerdo de OpenAI; Sam Altman afirmó que el ejército no puede usar la tecnología de su compañía para construir armas autónomas, pero el acuerdo en realidad solo exige que el ejército siga sus propias (bastante permisivas) directrices sobre dichas armas. La otra afirmación principal de OpenAI, de que el acuerdo evitará el uso de su tecnología para la vigilancia doméstica, parece igualmente dudosa.
No está claro cuáles son las motivaciones de OpenAI. No es el primer gigante tecnológico en aceptar contratos militares que una vez había prometido no firmar, pero la velocidad del giro fue notable. Quizás se trate solo de dinero; OpenAI está gastando mucho en entrenamiento de IA y está a la caza de más ingresos (de fuentes que incluyen anuncios). O quizás Altman cree realmente el encuadre ideológico que a menudo invoca: que las democracias liberales (y sus ejércitos) deben tener acceso a la IA más potente para competir con China.
La pregunta más trascendental es qué sucederá a continuación. OpenAI ha decidido que se siente cómoda operando en el mismísimo y turbulento corazón del combate, justo cuando EE. UU. intensifica sus ataques contra Irán (con la IA desempeñando un papel más importante en ello que nunca antes). Así pues, ¿dónde exactamente podría aparecer la tecnología de OpenAI en este conflicto? ¿Y qué aplicaciones tolerarán sus clientes (y empleados)?
Objetivos y ataques
Aunque su acuerdo con el Pentágono ya está en vigor, no está claro cuándo la tecnología de OpenAI estará lista para ento os clasificados, ya que debe integrarse con otras herramientas que utilizan los militares (se espera que xAI de Elon Musk, que recientemente llegó a su propio acuerdo con el Pentágono, pase por el mismo proceso con su modelo de IA Grok). Pero hay presión para hacer esto rápidamente debido a la controversia en to o a la tecnología utilizada hasta la fecha: Después de que Anthropic se negara a permitir que su IA se utilizara para "cualquier uso lícito", el presidente Trump ordenó al ejército que dejara de usarla, y Anthropic fue designada como riesgo para la cadena de suministro por el Pentágono. (Anthropic está impugnando esta designación en los tribunales).
Si el conflicto con Irán sigue en curso para cuando la tecnología de OpenAI esté implementada en el sistema, ¿para qué podría utilizarse? Una conversación reciente que mantuve con un alto cargo de defensa sugiere que podría funcionar de la siguiente manera: Un analista humano podría introducir una lista de posibles objetivos en el modelo de IA y pedirle que analice la información y priorice cuáles atacar primero. El modelo podría tener en cuenta información logística, como la ubicación de aviones o suministros específicos. Podría analizar una gran cantidad de entradas diferentes en forma de texto, imagen y vídeo.
Una persona sería entonces responsable de verificar manualmente estos resultados, dijo el alto cargo. Pero eso plantea una pregunta obvia: Si una persona está realmente comprobando dos veces los resultados de la IA, ¿cómo acelera las decisiones de selección de objetivos y ataque?
Durante años, el ejército ha estado utilizando otro sistema de IA, llamado Maven, capaz de, por ejemplo, analizar automáticamente imágenes de drones para identificar posibles objetivos. Es probable que los modelos de OpenAI, como Claude de Anthropic, ofrezcan una interfaz conversacional sobre esa base, permitiendo a los usuarios solicitar interpretaciones de inteligencia y recomendaciones sobre qué objetivos atacar primero.
Es difícil recalcar lo novedoso de esto: la IA lleva mucho tiempo realizando análisis para el ejército, extrayendo información clave de océanos de datos. Pero el uso del asesoramiento de la IA generativa sobre qué acciones tomar sobre el terreno se está probando en serio por primera vez en Irán.
Defensa antidrones
A finales de 2024, OpenAI anunció una asociación con Anduril, que fabrica tanto drones como tecnologías antidrones para el ejército. El acuerdo establecía que OpenAI trabajaría con Anduril para realizar análisis urgentes de los drones que atacan a las fuerzas estadounidenses y ayudar a derribarlos. Un portavoz de OpenAI me dijo en ese momento que esto no violaba las políticas de la compañía, que prohibían "sistemas diseñados para dañar a otros", porque la tecnología se estaba utilizando para atacar drones y no personas.
Anduril proporciona un conjunto de tecnologías antidrones a bases militares de todo el mundo (aunque la compañía se negó a decirme si sus sistemas están desplegados cerca de Irán). Ninguna de las compañías ha proporcionado actualizaciones sobre cómo ha evolucionado el proyecto desde su anuncio. Sin embargo, Anduril ha entrenado durante mucho tiempo sus propios modelos de IA para analizar grabaciones de cámara y datos de sensores con el fin de identificar amenazas; en lo que se enfoca menos es en sistemas de IA conversacional que permiten a los soldados consultar esos sistemas directamente o recibir orientación en lenguaje natural —un área donde los modelos de OpenAI podrían encajar.
Hay mucho en juego. Seis militares estadounidenses murieron en Kuwait el 1 de marzo a raíz de un ataque con drones iraníes que no fue interceptado por las defensas aéreas estadounidenses.
La interfaz de Anduril, denominada Lattice, es donde los soldados pueden controlar todo, desde defensas contra drones hasta misiles y submarinos autónomos. Y la empresa está obteniendo contratos multimillonarios—20.000 millones de dólares del Ejército de EE. UU. solo la semana pasada—para conectar sus sistemas con equipos militares heredados y superponerles IA. Si los modelos de OpenAI resultan útiles para Anduril, Lattice está diseñado para incorporarlos rápidamente en toda esta pila de guerra más amplia.
IA de back-office
En diciembre, el secretario de Defensa Pete Hegseth comenzó a instar a millones de personas en funciones más administrativas en el ejército —contratos, logística, compras— a utilizar una nueva herramienta de IA. Llamada GenAI.mil, permitía al personal acceder de forma segura a modelos de IA comerciales y utilizarlos para el mismo tipo de tareas que cualquier profesional en el ámbito empresarial.
Google Gemini fue uno de los primeros en estar disponible. En enero, el Pentágono anunció que Grok de xAI se añadiría también a la plataforma GenAI.mil, a pesar de incidentes en los que el modelo había difundido contenido antisemita y creado deepfakes no consensuados. OpenAI hizo lo propio en febrero, con la empresa anunciando que sus modelos se utilizarían para redactar documentos de política y contratos, y para asistir en el apoyo administrativo de misiones.
Cualquiera que use ChatGPT para tareas no clasificadas en esta plataforma difícilmente tendrá gran influencia en decisiones sensibles en Irán, pero la perspectiva de que OpenAI se implemente en la plataforma es importante por otro motivo. Sirve a la actitud de apuesta total por la IA que Hegseth ha promovido sin descanso en todo el Pentágono (incluso si muchos primeros usuarios no están del todo seguros para qué se supone que deben usarla). El mensaje es que la IA está transformando todos los aspectos de cómo lucha EE. UU., desde las decisiones de selección de objetivos hasta el papeleo. Y OpenAI está haciéndose cada vez más con una parte de todo ello.

