El enfrentamiento público actual entre el Departamento de Defensa y la empresa de IA Anthropic ha suscitado una pregunta profunda y aún sin respuesta: ¿Permite realmente la ley al gobie o de EE. UU. realizar vigilancia masiva sobre los ciudadanos estadounidenses?
Sorprendentemente, la respuesta no es sencilla. Más de una década después de que Edward Snowden expusiera la recopilación masiva de metadatos por parte de la NSA de los teléfonos de los ciudadanos estadounidenses, EE. UU. sigue navegando por la brecha entre lo que piensa la gente común y lo que permite la ley.
El detonante del pulso entre Anthropic y el Gobie o fue el deseo del Pentágono de utilizar la IA Claude de Anthropic para analizar grandes volúmenes de datos comerciales sobre ciudadanos estadounidenses. Anthropic exigió que su IA no se utilizara para vigilancia masiva inte a (ni para armas autónomas, que son máquinas capaces de eliminar objetivos sin supervisión humana). Una semana después de que las negociaciones fracasaran, el Pentágono clasificó a Anthropic como riesgo para la cadena de suministro, una etiqueta típicamente reservada para empresas extranjeras que suponen una amenaza para la seguridad nacional.
Mientras tanto, OpenAI, la compañía de IA rival detrás de ChatGPT, selló un acuerdo que permitía al Pentágono utilizar su IA para “todos los fines legítimos”—un lenguaje que, según los críticos, dejaba la puerta abierta a la vigilancia doméstica. Durante el fin de semana siguiente, los usuarios desinstalaron ChatGPT en masa. Manifestantes escribieron con tiza mensajes alrededor de la sede de OpenAI en San Francisco: “¿Cuáles son vuestras líneas rojas?”
OpenAI anunció el lunes que había reformado su acuerdo para asegurar que su IA no se utilizará para vigilancia doméstica. La compañía añadió que sus servicios no serán utilizados por agencias de inteligencia, como la NSA.
El CEO Sam Altman sugirió que la ley vigente prohíbe la vigilancia doméstica por parte del Departamento de Defensa (ahora a veces llamado Departamento de Guerra) y que el contrato de OpenAI simplemente necesitaba hacer referencia a esta ley. “El DoW está de acuerdo con estos principios, los refleja en la ley y la política, y los incluimos en nuestro acuerdo”, escribió en X. El CEO de Anthropic, Dario Amodei, argumentó lo contrario. “En la medida en que dicha vigilancia sea actualmente legal, esto se debe únicamente a que la ley aún no se ha puesto al día con las capacidades de la IA, que crecen rápidamente”, escribió en una declaración de política.
Entonces, ¿quién tiene razón? ¿Permite la ley al Pentágono vigilar a los ciudadanos estadounidenses usando IA?
Vigilancia potenciada
La respuesta depende de lo que consideremos vigilancia. «Muchas cosas que la gente normal consideraría una búsqueda o vigilancia... en realidad no son consideradas una búsqueda o vigilancia por la ley», afirma Alan Rozenshtein, profesor de derecho en la Facultad de Derecho de la Universidad de Minnesota. Eso significa que la información pública —como publicaciones en redes sociales, grabaciones de cámaras de vigilancia y registros de votantes— es de libre acceso. También lo es la información sobre ciudadanos estadounidenses obtenida de forma incidental de la vigilancia a extranjeros.
Cabe destacar que el gobie o puede adquirir datos comerciales de empresas, que pueden incluir información personal sensible como la ubicación móvil y los registros de navegación web. En los últimos años, agencias desde la ICE y la IRS hasta el FBI y la NSA han recurrido cada vez más a este mercado de datos, impulsado por una economía de inte et que recopila datos de usuarios para publicidad. Estos conjuntos de datos pueden permitir al gobie o acceder a información que quizás no estaría disponible sin una orden judicial o una citación, que normalmente son necesarias para obtener datos personales sensibles.
“Existe una enorme cantidad de información que el gobie o puede recopilar sobre los estadounidenses que no está regulada ni por la Constitución, en concreto por la Cuarta Enmienda, ni por ley”, afirma Rozenshtein. Y no existen límites significativos sobre lo que el gobie o puede hacer con todos estos datos.
Esto se debe a que hasta hace unas décadas la gente no generaba nubes de datos masivas que abrieron nuevas posibilidades para la vigilancia. La Cuarta Enmienda, que protege contra registros e incautaciones irrazonables, fue redactada cuando recabar información significaba entrar en los domicilios de las personas.
Leyes posteriores, como la Ley de Vigilancia de Inteligencia Extranjera de 1978 o la Ley de Privacidad de las Comunicaciones Electrónicas de 1986, se aprobaron cuando la vigilancia implicaba la escucha telefónica y la interceptación de correos electrónicos. La mayoría de las leyes que regulan la vigilancia ya estaban en vigor antes de que inte et despegara. No estábamos generando enormes rastros de datos en línea, y el gobie o no disponía de herramientas sofisticadas para analizar esos datos.
Ahora sí, y la IA potencia el tipo de vigilancia que se puede llevar a cabo. «Lo que la IA puede hacer es tomar mucha información, ninguna de la cual es sensible por sí misma y, por lo tanto, ninguna de la cual está regulada por sí misma, y puede otorgar al gobie o muchos poderes que no tenía antes», dice Rozenshtein.
La IA puede recopilar datos individuales para identificar patrones, extraer inferencias y construir perfiles detallados de personas—a escala masiva. Y siempre que el gobie o recopile la información legalmente, puede hacer lo que quiera con ella, incluyendo alimentarla a sistemas de IA. “La ley no se ha puesto al día con la realidad tecnológica”, dice Rozenshtein.
Aunque la vigilancia puede suscitar serias preocupaciones por la privacidad, el Pentágono puede tener intereses legítimos de seguridad nacional en la recopilación y el análisis de datos sobre ciudadanos estadounidenses. "Para recopilar información sobre ciudadanos estadounidenses, debe ser para un subconjunto muy específico de misiones", afirma Loren Voss, exoficial de inteligencia militar en el Pentágono.
Por ejemplo, una misión de contrainteligencia podría requerir información sobre un ciudadano estadounidense que esté trabajando para un país extranjero, o planeando participar en actividades terroristas inte acionales. Pero la inteligencia dirigida puede a veces extenderse a la recopilación de más datos. "Este tipo de recopilación sí que pone nerviosa a la gente", afirma Voss.
Uso lícito
OpenAI ha modificado su contrato para establecer que el sistema de IA de la compañía "no deberá ser utilizado intencionadamente para la vigilancia doméstica de personas y nacionales estadounidenses", de acuerdo con la legislación pertinente. La modificación aclara que esto prohíbe "el rastreo, la vigilancia o el seguimiento deliberados de personas o nacionales estadounidenses, incluido mediante la adquisición o el uso de información personal o identificable obtenida comercialmente".
Pero la redacción añadida podría no ser suficiente para anular la cláusula que permite al Pentágono utilizar el sistema de IA de la compañía para todos los fines lícitos, lo que podría incluir la recopilación y el análisis de información personal sensible. "OpenAI puede decir lo que quiera en su acuerdo... pero el Pentágono va a usar la tecnología para lo que considere lícito", afirma Jessica Tillipman, profesora de derecho en la Facultad de Derecho de la Universidad George Washington. Eso podría incluir la vigilancia doméstica. "La mayoría de las veces, las empresas no van a poder impedir que el Pentágono haga nada", señala.
El lenguaje también deja abiertas preguntas sobre la vigilancia "inadvertida" y la vigilancia de ciudadanos extranjeros o inmigrantes indocumentados que viven en EE. UU. «¿Qué ocurre cuando hay un desacuerdo sobre cuál es la ley, o cuando la ley cambia?», dice Tillipman.
OpenAI no respondió a una solicitud de comentarios. La empresa no ha compartido públicamente el texto completo de su nuevo contrato.
Más allá del contrato, OpenAI afirma que impondrá salvaguardas técnicas para hacer cumplir su línea roja contra la vigilancia, incluyendo una “safety stack” que monitoriza y bloquea usos prohibidos. La empresa también afirma que desplegará a sus propios empleados para trabajar con el Pentágono y mantenerse al tanto. Pero no está claro cómo una “safety stack” restringiría el uso de la IA por parte del Pentágono, y hasta qué punto los empleados de OpenAI tendrían visibilidad sobre cómo se utilizan sus sistemas de IA. Más importante aún, no está claro si el contrato otorga a OpenAI el poder de bloquear un uso legal de la tecnología.
Pero eso quizás no sea algo negativo. Conceder a una empresa de IA la potestad de desconectar su tecnología en medio de operaciones gube amentales también conlleva sus propios riesgos. “No se desearía que el ejército estadounidense se viese nunca en una situación en la que necesitara legítimamente tomar medidas para proteger la seguridad nacional de este país, y una empresa privada desconectara la tecnología”, afirma Voss. Pero eso no significa que el Congreso no deba establecer límites claros, añade.
Ninguna de estas preguntas es sencilla. Implican compromisos brutalmente difíciles entre la privacidad y la seguridad nacional. Y por eso, quizás, deberían ser decididas por el público —no en negociaciones secretas entre el poder ejecutivo y un puñado de empresas de IA. Por ahora, la IA militar se está regulando mediante contratos, no por legislación.
Algunos legisladores están empezando a pronunciarse. El lunes, el senador Ron Wyden de Oregón buscará apoyo bipartidista para una legislación que aborde la vigilancia masiva. Ha impulsado proyectos de ley que restringen la compra de datos comerciales por parte del gobie o, incluyendo la Ley La Cuarta Enmienda No Está a la Venta, que fue presentada por primera vez en 2021 pero que no ha sido aprobada como ley. “La creación de perfiles de IA de estadounidenses basados en esos datos representa una escalofriante expansión de la vigilancia masiva que no debería permitirse”, dijo en un comunicado reciente.

