
La discusión abierta entre el Department of Defense y Anthropic ha planteado una cuestión profunda que sigue sin respuesta: ¿permite realmente la ley que el Gobierno de EE UU lleve a cabo una vigilancia masiva de los estadounidenses?
Sorprendentemente, la respuesta no es sencilla. Más de una década después de que Edward Snowden revelara la recopilación masiva de metadatos telefónicos de estadounidenses por parte de la Agencia de Seguridad Nacional estadounidense (NSA), EE UU sigue navegando entre lo que la gente común piensa y lo que la ley permite.
El punto álgido en el enfrentamiento entre Anthropic y el Gobierno de EE UU fue el deseo del Pentágono de utilizar la Claude, la IA de Anthropic, para analizar datos comerciales masivos sobre estadounidenses. Anthropic exigió que su IA no se utilizara para vigilancia doméstica masiva (ni para armas autónomas, que son máquinas capaces de matar objetivos sin supervisión humana). Una semana después de que las negociaciones fracasaran, el Pentágono designó a Anthropic como un riesgo para la cadena de suministro, una etiqueta que normalmente se reserva para empresas extranjeras que suponen una amenaza para la seguridad nacional.
Mientras tanto, OpenAI, la empresa rival detrás de ChatGPT, cerró un acuerdo que permitía al Pentágono utilizar su IA para “todos los fines legales”, un lenguaje que dejaba la puerta abierta a la vigilancia doméstica, según los críticos. Durante el fin de semana siguiente, los usuarios desinstalaron ChatGPT en masa. Los manifestantes escribieron mensajes con tiza alrededor de la sede de OpenAI en San Francisco (California, EE UU): “¿Cuáles son vuestras líneas rojas?”.
OpenAI anunció el lunes 2 de marzo que había reformulado su acuerdo para asegurarse de que su IA no se utilizaría para vigilancia doméstica. La empresa añadió que sus servicios no serán usados por agencias de inteligencia como la NSA.
El CEO Sam Altman sugirió que la legislación vigente prohíbe la vigilancia doméstica por parte del Departmento de Defensa (ahora llamado Department of War o DoW) y que el contrato de OpenAI simplemente necesitaba hacer referencia a esta ley. “El DoW coincide con estos principios, los refleja en ley y política, y los incorporamos en nuestro acuerdo”, escribió en X. El CEO de Anthropic, Dario Amodei, argumentó lo contrario. “El hecho de que este tipo de vigilancia sea actualmente legal solo lo es en la medida en que la ley aún no ha alcanzado las capacidades en rápido crecimiento de la IA”, escribió en un comunicado.
Entonces, ¿quién tiene razón? ¿Permite la ley que el Pentágono vigile a estadounidenses usando IA?
Vigilancia sobreestimulada
La respuesta depende de lo que consideremos vigilancia. “Muchas cosas que la gente normal consideraría un registro o vigilancia… en realidad no se consideran un registro o vigilancia por la ley”, dice Alan Rozenshtein, profesor de Derecho en la Escuela de Derecho de la Universidad de Minesota (EE UU). Eso significa que la información pública —como publicaciones en redes sociales, imágenes de cámaras de seguridad y registros de inscripción de votantes— está disponible libremente. También lo está la información sobre estadounidenses obtenida incidentalmente durante la vigilancia de ciudadanos extranjeros.
Lo más notable es que el Gobierno puede comprar datos comerciales de empresas, que pueden incluir información personal sensible como ubicación móvil e historial de navegación. En los últimos años, agencias como ICE, IRS, FBI y NSA han recurrido cada vez más a este mercado de datos, impulsado por una economía digital que recopila información de usuarios para publicidad. Estos conjuntos de datos pueden permitir al Gobierno acceder a información que normalmente requeriría una orden judicial o citación para obtener datos sensibles.
“Hay una enorme cantidad de información que el Gobierno puede recopilar sobre los estadounidenses y que no está regulada ni por la Constitución —el Cuarto Enmienda— ni por estatutos”, afirma Rozenshtein. Y no existen límites significativos sobre lo que el Gobierno puede hacer con todos estos datos.
Esto se debe a que, hasta hace varias décadas, la gente no generaba nubes masivas de datos que abrieran nuevas posibilidades de vigilancia. La Cuarta Enmienda, que protege contra registros y confiscaciones irrazonables, se redactó cuando recopilar información implicaba entrar en los hogares de las personas.
Leyes posteriores, como la Ley de Vigilancia de Inteligencia Extranjera (FISA, por sus siglas en inglés) de 1978 o la Ley de Privacidad de las Comunicaciones Electrónicas (ECPA) de 1986, se aprobaron cuando la vigilancia implicaba intervenir llamadas telefónicas o interceptar correos electrónicos. La mayor parte del marco legal sobre vigilancia se escribió antes de que internet despegara. No generábamos enormes rastros de datos en línea, y el Gobierno no tenía herramientas sofisticadas para analizarlos.
Ahora sí las tiene, y la IA multiplica las capacidades de vigilancia. “Lo que puede hacer la IA es tomar mucha información, ninguna de la cual es sensible por sí sola —y por lo tanto no está regulada— y darle al Gobierno muchos poderes que antes no tenía”, señala Rozenshtein.
La IA puede agregar piezas individuales de información para detectar patrones, extraer inferencias y construir perfiles detallados de personas a gran escala. Y mientras el Gobierno recopile la información legalmente, puede hacer lo que quiera con ella, incluida su introducción en sistemas de IA. “La ley no ha alcanzado la realidad tecnológica”, afirma Rozenshtein.
Aunque la vigilancia pueda plantear graves preocupaciones de privacidad, el Pentágono puede tener intereses legítimos de seguridad nacional al recopilar y analizar datos sobre estadounidenses. “Para recopilar información sobre estadounidenses, tiene que ser por un subconjunto muy específico de misiones”, dice Loren Voss, exoficial de inteligencia militar en el Pentágono.
Por ejemplo, una misión de contrainteligencia podría requerir información sobre un estadounidense que esté trabajando para un país extranjero o planeando actividades terroristas internacionales. Pero la inteligencia dirigida puede ampliarse hasta recopilar más datos. “Este tipo de recopilación pone nerviosa a la gente”, reconoce Voss.
Uso legal
OpenAI ha modificado su contrato para establecer que el sistema de IA de la empresa “no deberá utilizarse intencionadamente para la vigilancia doméstica de personas y nacionales de EE UU”, en consonancia con las leyes pertinentes. La enmienda aclara que esto prohíbe “el rastreo, vigilancia o monitorización deliberados de personas o nacionales de EE. UU., incluida la adquisición o uso de información personal o identificable obtenida comercialmente”.
Pero el nuevo lenguaje podría no cambiar mucho la cláusula según la cual el Pentágono puede utilizar el sistema de IA de la empresa para todos los fines legales, lo que podría incluir recopilar y analizar información personal sensible. “OpenAI puede decir lo que quiera en su acuerdo, pero el Pentágono va a utilizar la tecnología para lo que considere legal”, afirma Jessica Tillipman, profesora de Derecho en la Universidad George Washington (EE UU). Eso podría incluir vigilancia doméstica. “La mayoría de las veces, las empresas no pueden impedir que el Pentágono haga nada”, añade.
El texto también deja abiertas preguntas sobre la vigilancia “inadvertida” (cámaras ocultas o dispositivos escondidos) y la vigilancia de extranjeros o inmigrantes indocumentados que vivan en EE UU “¿Qué ocurre cuando hay desacuerdos sobre lo que dice la ley o cuando la ley cambia?”, plantea Tillipman.
OpenAI no respondió a una solicitud de comentarios. La empresa no ha compartido públicamente el texto completo de su nuevo contrato.
Más allá del contrato, OpenAI afirma que impondrá medidas técnicas para hacer cumplir su línea roja contra la vigilancia, incluida una un mecanismo de seguridad que monitorea y bloquea usos prohibidos. La empresa también dice que desplegará empleados propios para trabajar con el Pentágono y mantenerse al tanto. Pero no está claro cómo este mecanismo de seguridad podría limitar el uso que el Pentágono haga de la IA, ni hasta qué punto los empleados de OpenAI tendrían visibilidad sobre cómo se utilizan sus sistemas. Más importante aún, no está claro si el contrato otorga a OpenAI el poder de bloquear un uso legal de la tecnología.
Pero eso podría no ser algo bueno. Dar a una empresa de IA el poder de cortar el funcionamiento de su tecnología en medio de operaciones gubernamentales también conlleva riesgos. “No querrías que las Fuerzas Armadas de EE UU se encontraran en una situación en la que necesitaran legítimamente actuar para proteger la seguridad nacional, y una empresa privada apagara la tecnología”, dice Voss. Aunque eso no significa que el Congreso no deba fijar líneas claras, añade.
Ninguna de estas cuestiones es sencilla. Implican decisiones muy difíciles entre privacidad y seguridad nacional. Y por eso, quizá, deberían ser decididas por la ciudadanía, no en negociaciones a puerta cerrada entre el poder ejecutivo y unas pocas empresas de IA. Por ahora, la IA militar se regula mediante contratos, no legislación.
Algunos legisladores están empezando a pronunciarse. El senador Ron Wyden, de Oregon (EE UU), está buscando apoyo de ambos partidos para una legislación que aborde la vigilancia masiva. Ha impulsado proyectos de ley que restringen la compra de datos comerciales por parte del Gobierno, incluido el proyecto de Ley conocido como La Cuarta Enmienda No Está en Venta, presentado por primera vez en 2021 pero aún sin aprobar. “Crear perfiles de estadounidenses mediante IA basados en esos datos representa una escalofriante expansión de la vigilancia masiva que no debería permitirse”, dijo recientemente en un comunicado.





