El 28 de febrero, OpenAI anunció que había llegado a un acuerdo que permitirá al ejército estadounidense utilizar sus tecnologías en ento os clasificados. El CEO Sam Altman afirmó que las negociaciones, que la compañía comenzó a llevar a cabo solo después de la reprimenda pública del Pentágono a Anthropic, fueron “definitivamente precipitadas”.
En sus comunicados, OpenAI se esmeró en aclarar que no había cedido a permitir que el Pentágono hiciera lo que quisiera con su tecnología. La compañía publicó una entrada de blog explicando que su acuerdo protegía contra el uso para armas autónomas y vigilancia masiva doméstica, y Altman dijo que la compañía no simplemente aceptó los mismos términos que Anthropic rechazó.
Se podría interpretar que OpenAI ganó tanto el contrato como la superioridad moral, pero leer entre líneas y la jerga legal deja claro otra cosa: Anthropic siguió un enfoque moral que le granjeó muchos apoyos pero fracasó, mientras que OpenAI adoptó un enfoque pragmático y legal que, en última instancia, es más indulgente con el Pentágono.
Aún no está claro si OpenAI podrá incorporar las precauciones de seguridad que promete, mientras el ejército implementa a toda prisa una estrategia de IA politizada durante los ataques a Irán, o si el acuerdo será considerado lo suficientemente bueno por los empleados que querían que la compañía adoptara una postura más firme. Caminar por esa cuerda floja será complicado. (OpenAI no respondió de inmediato a las solicitudes de información adicional sobre su acuerdo).
Pero el diablo está en los detalles. La razón por la que OpenAI pudo cerrar un acuerdo cuando Anthropic no pudo fue menos sobre límites, dijo Altman, y más sobre el enfoque. “Anthropic parecía más centrado en prohibiciones específicas en el contrato, en lugar de citar leyes aplicables, con las que nos sentíamos cómodos”, escribió.
OpenAI afirma que una de las bases de su voluntad de trabajar con el Pentágono es simplemente la suposición de que el gobie o no infringirá la ley. La compañía, que ha compartido un fragmento limitado de su contrato, cita una serie de leyes y políticas relacionadas con armas autónomas y vigilancia. Estas van desde una directiva de 2023 del Pentágono sobre armas autónomas (que no las prohíbe, pero emite directrices para su diseño y prueba) hasta la amplitud de la Cuarta Enmienda, que ha respaldado protecciones para los estadounidenses contra la vigilancia masiva.
Sin embargo, el fragmento publicado “no otorga a OpenAI un derecho autónomo, al estilo de Anthropic, para prohibir el uso gube amental lícito de otro modo”, escribió Jessica Tillipman, decana asociada de estudios de derecho de contratación pública en la facultad de derecho de la Universidad George Washington. Simplemente establece que el Pentágono no puede usar la tecnología de OpenAI para infringir ninguna de esas leyes y políticas tal como se exponen hoy.
La razón principal por la que Anthropic obtuvo tantos apoyos en su lucha —incluyendo algunos de los propios empleados de OpenAI— es que no creen que estas reglas sean lo suficientemente buenas para evitar la creación de armas autónomas habilitadas por IA o la vigilancia masiva. Y la suposición de que las agencias federales no infringirán la ley es una escasa garantía para cualquiera que recuerde que las prácticas de vigilancia expuestas por Edward Snowden habían sido consideradas legales por agencias inte as y fueron declaradas ilegales solo después de largas batallas (sin mencionar las muchas tácticas de vigilancia permitidas bajo la ley actual que la IA podría expandir). En este frente, esencialmente hemos vuelto al punto de partida: permitir que el Pentágono utilice su IA para cualquier uso lícito.
OpenAI podría decir, como escribió ayer su jefa de asociaciones de seguridad nacional, que si se cree que el gobie o no seguirá la ley, entonces tampoco se debería confiar en que respetaría las líneas rojas que Anthropic proponía. Pero eso no es un argumento en contra de establecerlas. Un cumplimiento imperfecto no hace que las restricciones carezcan de sentido, y los términos contractuales siguen configurando el comportamiento, la supervisión y las consecuencias políticas.
OpenAI alega una segunda línea de defensa. La compañía afirma que mantiene el control sobre las reglas de seguridad que rigen sus modelos y que no entregará al ejército una versión de su IA despojada de esos controles de seguridad. “Podemos incrustar nuestras líneas rojas —sin vigilancia masiva y sin dirigir sistemas de armas sin intervención humana— directamente en el comportamiento del modelo”, escribió Boaz Barak, un empleado de OpenAI al que Altman autorizó a hablar sobre el tema en X.
Pero la compañía no especifica cómo difieren sus reglas de seguridad para los militares de sus reglas para los usuarios normales. La aplicación de las normas tampoco es perfecta nunca, y es especialmente improbable que lo sea cuando OpenAI está implementando estas protecciones en un ento o clasificado por primera vez y se espera que lo haga en solo seis meses.
Hay otra pregunta subyacente a todo esto: ¿Debería recaer en las empresas tecnológicas la prohibición de cosas que son legales pero que ellas consideran moralmente objetables? El gobie o ciertamente consideró la disposición de Anthropic a desempeñar este papel como inaceptable. El vie es por la noche, ocho horas antes de que Estados Unidos lanzara ataques en Teherán, el Secretario de Defensa Pete Hegseth emitió duras declaraciones en X. “Anthropic dio una clase magistral de arrogancia y traición”, escribió, y se hizo eco de la orden del Presidente Trump para que el gobie o dejara de trabajar con la empresa de IA después de que Anthropic intentara evitar que su modelo Claude fuera utilizado para armas autónomas o vigilancia masiva doméstica. “El Departamento de Guerra debe tener acceso total e irrestricto a los modelos de Anthropic para todo propósito LÍCITO”, escribió Hegseth.
Pero a menos que el contrato completo de OpenAI revele más, es difícil no ver a la compañía en una especie de balancín ideológico, prometiendo que sí tiene influencia que usará con orgullo para hacer lo que considera correcto, mientras se remite a la ley como el principal respaldo para lo que el Pentágono puede hacer con su tecnología.
Hay tres aspectos a los que prestar atención aquí. Uno es si esta postura será lo suficientemente buena para los empleados más críticos de OpenAI. Dado que las empresas de IA invierten tan fuertemente en talento, es posible que algunos en OpenAI vean en la justificación de Altman un compromiso imperdonable.
En segundo lugar, está la campaña de tierra quemada que Hegseth ha prometido emprender contra Anthropic. Yendo mucho más allá de simplemente cancelar el contrato del gobie o con la compañía, anunció que sería clasificada como un riesgo para la cadena de suministro, y que “ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos podrá llevar a cabo ninguna actividad comercial con Anthropic”. Existe un debate significativo sobre si este golpe de gracia es legalmente posible, y Anthropic ha dicho que demandará si la amenaza se lleva a cabo. OpenAI también se ha pronunciado en contra de la medida.
Por último, ¿cómo sustituirá el Pentágono a Claude —el único modelo de IA que utiliza activamente en operaciones clasificadas, incluidas algunas en Venezuela— mientras intensifica los ataques contra Irán? Hegseth concedió a la agencia seis meses para hacerlo, período durante el cual el ejército introducirá gradualmente los modelos de OpenAI, así como los de xAI de Elon Musk.
Pero, según se informa, Claude fue utilizado en los ataques a Irán horas después de que se emitiera la prohibición, lo que sugiere que una eliminación progresiva será todo menos sencilla. Incluso si el feudo de meses entre Anthropic y el Pentágono ha terminado (lo cual dudo), ahora estamos viendo cómo el plan de aceleración de IA del Pentágono presiona a las empresas para que renuncien a las líneas rojas que una vez trazaron, con las nuevas tensiones en Oriente Medio como principal campo de pruebas.
Si tienes información que compartir sobre cómo se está desarrollando esto, ponte en contacto conmigo a través de Signal (nombre de usuario: jamesodonnell.22).

