Esta historia se publicó originalmente en The Algorithm, nuestra newsletter semanal sobre IA. Para recibir historias como esta en tu buzón antes que nadie, suscríbete aquí.
El pasado jueves, un juez de Califo ia impidió temporalmente al Pentágono calificar a Anthropic como un riesgo para la cadena de suministro y ordenar a los organismos gube amentales que dejaran de usar su IA. Es el último acontecimiento en la contienda de un mes de duración. Y la cuestión aún no se ha zanjado: se le concedieron siete días al gobie o para apelar, y Anthropic tiene un segundo caso contra la designación pendiente de resolución. Hasta entonces, la compañía sigue siendo persona non grata para el gobie o.
Lo que estaba en juego en el caso —hasta qué punto el gobie o puede sancionar a una empresa por no cooperar— fue evidente desde el principio. Anthropic atrajo a numerosos apoyos de alto nivel, entre los que se contaban compañeros de viaje poco probables, incluyendo a antiguos autores de la política de IA del presidente Trump.
Pero la sentencia de 43 páginas de la jueza Rita Lin sugiere que lo que en realidad es una disputa contractual nunca debió alcanzar tal frenesí. Lo hizo porque el gobie o ignoró el proceso existente para la gestión de tales disputas y avivó el fuego con publicaciones en redes sociales de funcionarios que, con el tiempo, contradirían las posiciones adoptadas en el tribunal. El Pentágono, en otras palabras, buscaba una guerra cultural (además de la guerra real en Irán que comenzó horas después).
Según documentos judiciales, el gobie o utilizó Claude de Anthropic durante gran parte de 2025 sin quejas, mientras la empresa mantenía un delicado equilibrio de marca como una compañía de IA centrada en la seguridad que también conseguía contratos de defensa. Los empleados de defensa que accedían a él a través de Palantir debían aceptar los términos de una política de uso específica para el gobie o que, según el cofundador de Anthropic, Jared Kaplan, prohibía «la vigilancia masiva de estadounidenses y la guerra autónoma letal» (la declaración de Kaplan al tribunal no incluía detalles de la política). Solo cuando el gobie o quiso contratar directamente con Anthropic comenzaron los desacuerdos.
Lo que provocó la ira del juez es que, cuando estas desavenencias se hicieron públicas, tuvieron más que ver con el castigo que con simplemente cortar lazos con Anthropic. Y seguían un patrón: primero tuitear, luego el abogado.
Una publicación del presidente Trump en Truth Social el 27 de febrero hizo referencia a "descerebrados de izquierdas" en Anthropic y ordenó a todas las agencias federales que dejaran de usar la IA de la compañía. Esto fue secundado poco después por el secretario de Defensa, Pete Hegseth, quien afirmó que ordenaría al Pentágono que etiquetara a Anthropic como un riesgo para la cadena de suministro.
Ello exige que el secretario lleve a cabo una serie de acciones específicas, que el juez consideró que Hegseth no había completado. Las cartas enviadas a los comités del Congreso, por ejemplo, indicaban que se habían evaluado pasos menos drásticos y se habían considerado imposibles, sin proporcionar más detalles. El gobie o también afirmó que la designación como riesgo para la cadena de suministro era necesaria porque Anthropic podría implementar un “kill switch”, pero sus abogados tuvieron que admitir más tarde que no tenían pruebas de ello, escribió el juez.
La publicación de Hegseth también afirmaba que «ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos puede realizar ninguna actividad comercial con Anthropic». Pero los propios abogados del gobie o admitieron el martes que el Secretario no tiene la facultad para hacer eso, y convinieron con el juez en que la declaración no tenía «absolutamente ningún efecto jurídico».
Las publicaciones agresivas también llevaron a la jueza a concluir que Anthropic tenía una base sólida para quejarse de que se habían violado sus derechos de la Primera Enmienda. El gobie o, escribió la jueza citando los mensajes, "se propuso castigar públicamente a Anthropic por su 'ideología' y su 'retórica', así como por su 'arrogancia' al no estar dispuesto a comprometer esas creencias".
Calificar a Anthropic como un riesgo en la cadena de suministro sería, en esencia, identificarlo como un "saboteador" del gobie o, para lo cual la jueza no vio pruebas suficientes. El pasado jueves, emitió una orden que suspende la designación, impidiendo que el Pentágono la aplique y prohibiendo al gobie o cumplir las promesas hechas por Hegseth y Trump. Dean Ball, quien trabajó en política de IA para la administración Trump pero redactó un escrito en apoyo de Anthropic, describió la orden de la jueza el jueves como "un fallo devastador para el gobie o, al considerar que era probable que Anthropic prevaleciera en prácticamente todas sus teorías sobre por qué las acciones del gobie o eran ilegales e inconstitucionales".
Se espera que el gobie o recurra la decisión. Pero el caso separado de Anthropic, presentado en DC, presenta alegaciones similares. Simplemente hace referencia a un segmento diferente de la ley que rige los riesgos de la cadena de suministro.
Los documentos judiciales dibujan un patrón bastante claro. Las declaraciones públicas realizadas por funcionarios y el Presidente no se alinearon en absoluto con lo que la ley establece que debería ocurrir en una disputa contractual como esta, y los abogados del Gobie o han tenido que justificar constantemente el vapuleo de la empresa en redes sociales a posteriori.
La cúpula del Pentágono y de la Casa Blanca sabía que recurrir a la opción nuclear desencadenaría una batalla judicial; Anthropic se comprometió el 27 de febrero a combatir la designación de riesgo para la cadena de suministro días antes de que el gobie o la presentara formalmente el 3 de marzo. Aun así, seguir adelante con ella significó que la cúpula directiva estaba, por decir lo menos, distraída durante los primeros cinco días de la guerra de Irán, lanzando ataques mientras también recopilaba pruebas de que Anthropic era un saboteador del gobie o, todo esto mientras podría haber cortado lazos con Anthropic por medios más sencillos.
Pero incluso si Anthropic gana en última instancia, el gobie o tiene otros medios para apartar a la empresa de la contratación pública. Los contratistas de defensa que quieran mantener buenas relaciones con el Pentágono, por ejemplo, ahora tienen pocas razones para trabajar con Anthropic, incluso si no está señalada como un riesgo para la cadena de suministro.
«Se puede afirmar con seguridad que existen mecanismos que el gobie o puede utilizar para ejercer cierto grado de presión sin infringir la ley», afirma Charlie Bullock, investigador sénior en el Instituto de Derecho e IA. «En cierto modo, depende de lo involucrado que esté el gobie o en castigar a Anthropic».
Según la evidencia hasta el momento, la administración está dedicando tiempo y atención de alto nivel a ganar una guerra cultural en to o a la IA. Al mismo tiempo, Claude es aparentemente tan importante para sus operaciones que incluso el presidente Trump afirmó que el Pentágono necesitaba seis meses para dejar de usarlo. La Casa Blanca exige lealtad política y alineación ideológica a las principales empresas de IA, pero el caso contra Anthropic, al menos por ahora, expone los límites de su influencia.
Si dispone de información sobre el uso de la IA por parte del ejército, puede compartirla de forma segura a través de Signal (nombre de usuario jamesodonnell.22).

