El ejército estadounidense podría utilizar sistemas de IA generativa para clasificar listas de objetivos y hacer recomendaciones —que serían verificadas por humanos— sobre cuáles atacar primero, según un funcionario del Departamento de Defensa con conocimiento del asunto. La revelación sobre cómo el ejército podría usar chatbots de IA llega en un momento en que el Pentágono se enfrenta a un escrutinio por un ataque a una escuela iraní, el cual sigue investigando.
Una lista de posibles objetivos podría ser introducida en un sistema de IA generativa que el Pentágono está implementando para ento os clasificados. Entonces, dijo el funcionario, quien pidió hablar de forma anónima con MIT Technology Review para tratar temas delicados, los humanos podrían pedir al sistema que analizara la información y priorizara los objetivos, teniendo en cuenta factores como la ubicación actual de las aeronaves. Los humanos serían entonces responsables de verificar y evaluar los resultados y las recomendaciones. ChatGPT de OpenAI y Grok de xAI podrían, en teoría, ser los modelos utilizados para este tipo de escenario en el futuro, ya que ambas compañías llegaron recientemente a acuerdos para que sus modelos sean utilizados por el Pentágono en ento os clasificados.
El responsable describió esto como un ejemplo de cómo podrían funcionar las cosas, pero no quiso confirmar ni desmentir si representa cómo se están utilizando actualmente los sistemas de IA.
Otros medios han informado de que Claude de Anthropic ha sido integrado en sistemas militares de IA existentes y utilizado en operaciones en Irán y Venezuela, pero los comentarios del funcionario aportan información sobre el papel específico que pueden desempeñar los chatbots, particularmente al acelerar la búsqueda de objetivos. También arrojan luz sobre la forma en que el ejército está desplegando dos tecnologías de IA diferentes, cada una con limitaciones distintas.
Desde al menos 2017, el ejército estadounidense ha estado trabajando en una iniciativa de "big data" llamada Maven. Utiliza tipos de IA más antiguos, particularmente visión por computador, para analizar los océanos de datos e imágenes recopilados por el Pentágono. Maven podría tomar miles de horas de metraje de drones aéreos, por ejemplo, e identificar objetivos algorítmicamente. Un informe de 2024 de la Universidad de Georgetown mostró a los soldados utilizando el sistema para seleccionar objetivos y verificarlos, lo que aceleró el proceso para obtener la aprobación de estos objetivos. Los soldados interactuaron con Maven a través de una interfaz con un mapa del campo de batalla y un panel de control, que podría resaltar objetivos potenciales en un color y fuerzas amigas en otro.
Los comentarios del funcionario sugieren que la IA generativa se está añadiendo ahora como una capa de chatbot conversacional —una que el ejército podría utilizar para encontrar y analizar datos más rápidamente mientras toma decisiones como qué objetivos priorizar.
Los sistemas de IA generativa, como los que sustentan ChatGPT, Claude y Grok, son una tecnología fundamentalmente diferente de la IA que ha impulsado principalmente a Maven. Construidos sobre grandes modelos de lenguaje, están mucho menos probados. Y mientras que la interfaz de Maven obligaba a los usuarios a inspeccionar e interpretar directamente los datos en el mapa, los resultados producidos por los modelos de IA generativa son más fáciles de acceder pero más difíciles de verificar.
El uso de IA generativa para tales decisiones está reduciendo el tiempo necesario en el proceso de selección de objetivos, añadió el funcionario, quien no proporcionó detalles cuando se le preguntó cuánta velocidad adicional es posible si se requiere que los humanos dediquen tiempo a volver a verificar los resultados de un modelo.
El uso de sistemas militares de IA está bajo un mayor escrutinio público tras el reciente ataque a una escuela de niñas en Irán en el que murieron más de 100 niños. Múltiples medios de comunicación han informado de que el ataque provino de un misil estadounidense, aunque el Pentágono ha declarado que aún está bajo investigación. Y si bien el Washington Post ha informado de que Claude y Maven han participado en la toma de decisiones sobre objetivos en Irán, aún no hay pruebas que expliquen qué papel desempeñaron los sistemas de IA generativa, si es que desempeñaron alguno. El New York Times informó el miércoles de que una investigación preliminar halló que datos de selección de objetivos obsoletos eran parcialmente responsables del ataque.
El Pentágono ha estado intensificando su uso de la IA en todas sus operaciones en los últimos meses. Comenzó a ofrecer el uso no clasificado de modelos de IA generativa, para tareas como analizar contratos o redactar presentaciones, a millones de miembros del servicio ya en diciembre a través de una iniciativa llamada GenAI.mil. Pero solo unos pocos modelos de IA generativa han sido aprobados por el Pentágono para uso clasificado.
El primero fue Claude de Anthropic, que, además de su uso en Irán, habría sido empleado en las operaciones para capturar al líder venezolano Nicolás Maduro en enero. Sin embargo, tras recientes desacuerdos entre el Pentágono y Anthropic sobre si esta última podría restringir el uso militar de su IA, el Departamento de Defensa designó a la empresa como un riesgo para la cadena de suministro y el presidente Trump exigió en redes sociales que el gobie o dejara de utilizar sus productos de IA en un plazo de seis meses. Anthropic está impugnando esta designación en los tribunales.
OpenAI anunció un acuerdo el 28 de febrero para que el ejército utilice sus tecnologías en ento os clasificados. La empresa de Elon Musk, xAI, también ha llegado a un acuerdo para que el Pentágono utilice su modelo Grok en este tipo de ento os. OpenAI ha declarado que su acuerdo con el Pentágono incluye limitaciones, aunque la efectividad práctica de estas no está clara.
Si tiene información sobre el uso de la IA por parte de los militares, puede compartirla de forma segura a través de Signal (nombre de usuario jamesodonnell.22).

