Skip to main content

El Pentágono está debatiendo planes para crear entornos seguros en los que empresas de IA generativa puedan entrenar versiones específicas para uso militar de sus modelos con datos clasificados, según ha podido saber MIT Technology Review.

Los modelos de IA como Claude, de Anthropic, ya se utilizan para responder preguntas en entornos clasificados, con aplicaciones que incluyen el análisis de objetivos en Irán. Pero permitir que los modelos se entrenen y aprendan a partir de datos clasificados sería un nuevo avance que plantea riesgos de seguridad singulares. Implicaría que información sensible —como informes de vigilancia o evaluaciones de campo de batalla— podría quedar incorporada en los propios modelos, y acercaría a las empresas de IA al manejo de datos clasificados más que nunca.

Se espera que entrenar versiones de modelos de IA con datos clasificados los haga más precisos y eficaces en determinadas tareas, según un funcionario de defensa de EE UU que habló bajo condición de anonimato con MIT Technology Review. La noticia llega en un momento de fuerte demanda de modelos más potentes: el Pentágono ha alcanzado acuerdos con OpenAI y con xAI, de Elon Musk, para operar sus modelos en entornos clasificados, y está implementando una nueva agenda para convertirse en una “fuerza de combate ‘impulsada por la IA’” a medida que se intensifica el conflicto con Irán. (En el momento en el que se publicó esta noticia, el Pentágono no había comentado sus planes de entrenamiento con IA).

El entrenamiento se llevaría a cabo en un centro de datos seguro acreditado para albergar proyectos gubernamentales clasificados y donde una copia de un modelo de IA se emparejaría con datos clasificados, según dos personas familiarizadas con el funcionamiento de este tipo de operaciones. Aunque el Departamento de Defensa seguiría siendo el propietario de los datos, en casos excepcionales, el personal de las empresas de IA podría acceder a esa información si dispone de la habilitación de seguridad adecuada, según el funcionario.

Antes de permitir este nuevo entrenamiento, sin embargo, el funcionario indicó que el Pentágono pretende evaluar la precisión y eficacia de los modelos cuando se entrenan con datos no clasificados, como imágenes satelitales comerciales.

El ejército lleva tiempo utilizando modelos de visión por ordenador —una forma más antigua de IA— para identificar objetos en imágenes y grabaciones obtenidas mediante drones y aviones, y agencias federales han dado contratos a empresas para entrenar modelos de IA con ese tipo de contenidos. Y las empresas que desarrollan grandes modelos de lenguaje y chatbots han creado versiones ajustadas para trabajo gubernamental, como Claude Gov de Anthropic, diseñadas para operar en más idiomas y en entornos seguros. Pero los comentarios del funcionario son la primera señal de que compañías como OpenAI y xAI podrían entrenar versiones gubernamentales de sus modelos directamente con datos clasificados.

Aalok Mehta, director del Wadhwani AI Center en el Center for Strategic and International Studies y anteriormente responsable de responsabilidad de IA en Google y OpenAI, afirma que entrenar con datos clasificados —en lugar de simplemente responder preguntas sobre ellos— generaría riesgos nuevos.

El mayor de ellos es que la información clasificada con la que se entrene un modelo podría reaparecer ante cualquier usuario, señala. Eso sería problemático si distintos departamentos militares, cada uno con diferentes niveles de clasificación y necesidades de información, compartieran el mismo modelo de IA.

“Puedes imaginar, por ejemplo, que un modelo con acceso a cierto tipo de inteligencia humana sensible —como el nombre de un agente— filtrara esa información a una parte del Departamento de Defensa que no tiene permiso para acceder a ella”, afirma Mehta. Eso podría generar un riesgo de seguridad para el agente, difícil de mitigar si el mismo modelo se emplea en múltiples unidades militares.

Sin embargo, explica Mehta, no es tan difícil evitar que la información se filtre al exterior: “Si montas todo correctamente, el riesgo de que esos datos aparezcan en internet o regresen a OpenAI es muy bajo”. El Gobierno ya dispone de parte de la infraestructura necesaria; la empresa de seguridad Palantir ha ganado contratos importantes para construir entornos seguros desde los que los funcionarios pueden hacer consultas sobre temas clasificados a modelos de IA sin enviar la información de vuelta a las empresas tecnológicas. Pero utilizar estos sistemas para entrenamiento sigue siendo un desafío nuevo.

El Pentágono, impulsado por un memorando del secretario de Defensa, Pete Hegseth, en enero, se ha apresurado a . Ya se ha utilizado en combate, donde la IA generativa ha clasificado listas de objetivos y recomendado los primeros ataques, y en tareas administrativas como redactar contratos e informes.

Existen muchas tareas actualmente realizadas por analistas humanos que el ejército podría querer que los modelos de IA líderes ejecutaran, y que requerirían acceso a datos clasificados, apunta Mehta. Esto podría incluir aprender a identificar pistas sutiles en una imagen del mismo modo en que lo hace un analista, o conectar nueva información con contexto histórico. Los datos clasificados podrían proceder de cantidades ingentes de texto, audio, imágenes y vídeo en múltiples idiomas que recopilan los servicios de inteligencia.

Es muy difícil señalar qué tareas militares concretas requerirían entrenar modelos de IA con dichos datos, advierte Mehta, “porque obviamente el Departamento de Defensa tiene muchos incentivos para mantener esa información confidencial y no quiere que otros países sepan exactamente qué capacidades tenemos en ese ámbito”.