
El ejército estadounidense podría utilizar sistemas de IA generativa para clasificar listas de objetivos y hacer recomendaciones —que serían revisadas por humanos— sobre cuáles atacar primero, según un funcionario del Departamento de Defensa con conocimiento del tema. La revelación sobre cómo podría usar el ejército los chatbots de IA llega en un momento en que el Pentágono afronta un intenso escrutinio tras un ataque a una escuela iraní, que aún está investigando.
Una lista de posibles objetivos podría introducirse en un sistema de IA generativa que el Pentágono está desplegando en entornos clasificados. Luego, según explicó el funcionario —que pidió hablar sin ser identificado con MIT Technology Review para tratar asuntos sensibles—, los humanos podrían pedir al sistema que analice la información y priorice los objetivos teniendo en cuenta factores como la ubicación actual de los aviones. Después, los humanos serían responsables de comprobar y evaluar los resultados y las recomendaciones. En teoría, ChatGPT de OpenAI y Grok de xAI podrían ser los modelos utilizados en este tipo de escenarios en el futuro, ya que ambas compañías alcanzaron recientemente acuerdos para que sus modelos pudieran emplearse por el Pentágono en entornos clasificados.
El funcionario describió este ejemplo como una posible forma de funcionamiento, pero no confirmó ni desmintió si refleja cómo se usan actualmente los sistemas de IA.
Otros medios han informado de que Claude de Anthropic se ha integrado en sistemas militares de IA ya existentes y se ha utilizado en operaciones en Iran y Venezuela, pero los comentarios del funcionario aportan detalles sobre el papel concreto que pueden desempeñar los chatbots, especialmente en acelerar la búsqueda de objetivos. También arrojan luz sobre cómo el ejército está desplegando dos tecnologías de IA distintas, cada una con sus propias limitaciones.
Desde al menos 2017, el ejército estadounidense trabaja en una iniciativa de “big data” llamada Maven. Utiliza tipos más antiguos de IA, especialmente visión por computador, para analizar los enormes volúmenes de datos e imágenes recopilados por el Pentágono. Maven puede procesar miles de horas de grabaciones de drones, por ejemplo, e identificar objetivos mediante algoritmos. Un informe de la Universidad de Georgetown de 2024 mostraba a soldados usando el sistema para seleccionar y verificar objetivos y acelerar el proceso para obtener la aprobación contra esos objetivos. Los soldados interactuaban con Maven a través de una interfaz con un mapa del campo de batalla y un panel de control, que podía resaltar objetivos potenciales en un color y fuerzas propias en otro.
Los comentarios del funcionario sugieren que la IA generativa se está añadiendo ahora como una capa conversacional de chatbot —una que el ejército podría utilizar para localizar y analizar datos más rápidamente al tomar decisiones como qué objetivos priorizar.
Los sistemas de IA generativa, como los que sustentan ChatGPT, Claude y Grok, son una tecnología fundamentalmente distinta de la que ha impulsado principalmente Maven. Construidos sobre modelos de lenguaje de gran tamaño, están mucho menos probados en escenarios bélicos. Y mientras que la interfaz de Maven obligaba a los usuarios a inspeccionar e interpretar directamente los datos del mapa, los resultados producidos por los modelos generativos son más accesibles pero más difíciles de verificar.
El uso de IA generativa para este tipo de decisiones está reduciendo el tiempo necesario en el proceso de selección de objetivos, añadió el funcionario, que no ofreció detalles al ser preguntado sobre cuánta velocidad adicional puede lograrse si los humanos deben dedicar tiempo a comprobar las respuestas del modelo.
El uso de sistemas militares de IA está sometido a un escrutinio público creciente tras el reciente ataque a una escuela de niñas en Irán, en el que murieron más de 100 menores. Muchos medios de comunicación han informado de que el ataque provino de un misil estadounidense, aunque el Pentágono ha dicho que sigue investigándolo. Y aunque The Washington Post ha informado de que Claude y Maven participaron en decisiones de selección de objetivos en Irán, aún no hay pruebas que expliquen qué papel desempeñaron los sistemas generativos, si es que desempeñaron alguno. The New York Times informó el miércoles de que una investigación preliminar determinó que la existencia de datos desactualizados sobre objetivos fue en parte responsable del ataque.
El Pentágono ha intensificado el uso de IA en sus operaciones en los últimos meses. En diciembre empezó a ofrecer a millones de militares acceso no clasificado a modelos de IA generativa, para tareas como analizar contratos o redactar presentaciones, a través de una iniciativa llamada GenAI.mil. Pero solo unos pocos modelos de IA generativa han sido aprobados por el Pentágono para su uso en entornos clasificados.
El primero fue Claude de Anthropic, que además de su uso en Irán se empleó supuestamente en las operaciones para capturar al presidente de Venezuela, Nicolás Maduro en enero. Pero tras desacuerdos recientes entre el Pentágono y Anthropic sobre si la empresa podía restringir el uso militar de su IA, el Departamento de Defensa designó a la compañía como un riesgo para la cadena de suministro, y el presidente Trump exigió en redes sociales que el Gobierno dejara de usar sus productos de IA en un plazo de seis meses. Anthropic está impugnando la designación en los tribunales.
OpenAI anunció un acuerdo el 28 de febrero para que el ejército use sus tecnologías en entornos clasificados. La empresa de Elon Musk, xAI, también ha alcanzado un acuerdo para que el Pentágono emplee su modelo Grok en dichos entornos. OpenAI ha dicho que su acuerdo con el Pentágono incluye limitaciones, aunque no están claras cuáles son las limitaciones en la práctica.
Si tienes información sobre el uso militar de la IA, puedes compartirla de forma segura a través de Signal (usuario: jamesodonnell.22).





