Inteligencia Artificial

El Pentágono planea que las empresas de IA se entrenen con datos clasificados, según un funcionario de defensa

PorJames O'Donnell
5 min
17 de marzo de 2026
El Pentágono planea que las empresas de IA se entrenen con datos clasificados, según un funcionario de defensa

Los modelos de IA generativa utilizados en ento os clasificados pueden responder preguntas, pero actualmente no aprenden de los datos que ven. Eso podría cambiar pronto.

El Pentágono está debatiendo planes para establecer ento os seguros en los que empresas de IA generativa puedan entrenar versiones militares específicas de sus modelos con datos clasificados, según ha podido saber MIT Technology Review

Modelos de IA como Claude de Anthropic ya se utilizan para responder preguntas en ento os clasificados; entre sus aplicaciones se incluye el análisis de objetivos en Irán. Pero permitir que los modelos se entrenen y aprendan a partir de datos clasificados sería un nuevo desarrollo que presenta riesgos de seguridad únicos. Significaría que inteligencia sensible, como informes de vigilancia o evaluaciones del campo de batalla, podría quedar incrustada en los propios modelos, y pondría a las empresas de IA en un contacto más estrecho con datos clasificados que antes. 

Se espera que entrenar versiones de modelos de IA con datos clasificados los haga más precisos y efectivos en ciertas tareas, según un funcionario de defensa estadounidense que habló en condición de anonimato con MIT Technology Review. La noticia llega en un momento de alta demanda de modelos más potentes: El Pentágono ha llegado a acuerdos con OpenAI y xAI de Elon Musk para operar sus modelos en ento os clasificados y está implementando una nueva estrategia para convertirse en una "fuerza de combate 'AI-first'" a medida que el conflicto con Irán se intensifica. (El Pentágono no hizo comentarios sobre sus planes de entrenamiento de IA hasta el momento de la publicación.)

La formación se realizaría en un centro de datos seguro acreditado para alojar proyectos gube amentales clasificados, donde una copia de un modelo de IA se empareja con datos clasificados, según dos personas familiarizadas con el funcionamiento de este tipo de operaciones. Aunque el Departamento de Defensa seguiría siendo el propietario de los datos, el personal de las empresas de IA podría, en raras ocasiones, acceder a ellos si posee la habilitación de seguridad adecuada, dijo el funcionario. 

Sin embargo, antes de permitir esta nueva formación, el funcionario dijo que el Pentágono tiene la intención de evaluar la precisión y efectividad de los modelos cuando se entrenan con datos no clasificados, como imágenes de satélite disponibles comercialmente. 

Las fuerzas armadas han utilizado desde hace tiempo modelos de visión por ordenador, una forma más antigua de IA, para identificar objetos en imágenes y grabaciones que recopilan de drones y aviones, y las agencias federales han adjudicado contratos a empresas para entrenar modelos de IA a partir de dicho contenido. Y las empresas de IA que desarrollan modelos de lenguaje grandes (LLM) y chatbots han creado versiones de sus modelos afinadas para el trabajo gube amental, como Claude Gov de Anthropic, diseñados para operar en múltiples idiomas y en ento os seguros. Pero las declaraciones del funcionario son la primera indicación de que las empresas de IA que desarrollan LLM, como OpenAI y xAI, podrían entrenar versiones de sus modelos específicas para el gobie o directamente con datos clasificados.

Aalok Mehta, quien dirige el Centro de IA Wadhwani en el Centro de Estudios Estratégicos e Inte acionales y anteriormente lideró los esfuerzos de política de IA en Google y OpenAI, afirma que entrenar con datos clasificados, a diferencia de simplemente responder preguntas sobre ellos, presentaría nuevos riesgos. 

El mayor de estos, según él, es que la información clasificada en la que se entrenan estos modelos podría ser revelada a cualquiera que utilice el modelo. Esto sería un problema si numerosos departamentos militares, todos con distintos niveles de clasificación y necesidades de información, compartieran la misma IA. 

“Uno puede imaginar, por ejemplo, un modelo que tenga acceso a algún tipo de inteligencia humana sensible —como el nombre de un agente— filtrando esa información a una parte del Departamento de Defensa que no debería tener acceso a ella”, afirma Mehta. Eso podría crear un riesgo de seguridad para el agente, uno difícil de mitigar por completo si un modelo particular es utilizado por más de un grupo dentro del estamento militar.

Sin embargo, Mehta afirma que no es tan difícil mantener la información contenida del mundo exterior: «Si configuras esto correctamente, tendrás muy poco riesgo de que esos datos salgan a la luz en inte et general o regresen a OpenAI.» El gobie o ya dispone de parte de la infraestructura necesaria para ello; el gigante de la seguridad Palantir ha ganado contratos considerables para construir un ento o seguro a través del cual los funcionarios pueden consultar a modelos de IA sobre temas clasificados sin enviar la información de vuelta a las empresas de IA. Pero utilizar estos sistemas para el entrenamiento sigue siendo un nuevo desafío. 

El Pentágono, impulsado por un memorándum del Secretario de Defensa Pete Hegseth en enero, ha acelerado la incorporación de más IA. Se ha utilizado en combate, donde la IA generativa ha clasificado listas de objetivos y ha recomendado cuáles atacar primero, y en funciones más administrativas, como la redacción de contratos e informes.

Hay numerosas tareas gestionadas actualmente por analistas humanos para las que el ejército podría querer entrenar a modelos de IA punteros y que requerirían acceso a datos clasificados, según Mehta. Eso podría incluir aprender a identificar pistas sutiles en una imagen de la misma manera que lo hace un analista, o conectar nueva información con el contexto histórico. Los datos clasificados podrían extraerse de las ingentes cantidades de texto, audio, imágenes y vídeo, en muchos idiomas, que los servicios de inteligencia recopilan. 

Resulta muy difícil determinar qué tareas militares específicas requerirían que los modelos de IA se entrenaran con esos datos, advierte Mehta, "porque, obviamente, el Departamento de Defensa tiene muchos incentivos para mantener esa información confidencial, y no quieren que otros países sepan qué tipo de capacidades tenemos exactamente en ese ámbito".

Si tiene información sobre el uso militar de la IA, puede compartirla de forma segura a través de Signal (nombre de usuario jamesodonnell.22).

Compartir