Skip to main content

El 28 de febrero, OpenAI anunció que había alcanzado un acuerdo que permitirá al ejército de Estados Unidos utilizar sus tecnologías en entornos clasificados. El director ejecutivo Sam Altman declaró que las negociaciones, que la compañía solo comenzó a perseguir después de la reprimenda pública del Pentágono a Anthropic, fueron “definitivamente apresuradas”. 

En sus comunicados, OpenAI se esforzó en recalcar que no había cedido para permitir al Departamento de Defensa hacer lo que quisiera con su tecnología. La empresa publicó una entrada en su blog explicando que su acuerdo protege frente al uso en armas autónomas y vigilancia masiva doméstica, y Altman afirmó que la compañía no aceptó simplemente los mismos términos que Anthropic había rechazado. 

Esto podría interpretarse como que OpenAI ganó tanto el contrato como la superioridad moral, pero leer entre líneas y entre el lenguaje jurídico revela algo distinto: Anthropic siguió un enfoque ético que le granjeó muchos seguidores, pero fracasó; mientras que OpenAI adoptó una estrategia pragmática y legal que, en última instancia, resulta más permisiva con el Pentágono. 

Aún no está claro si OpenAI puede incorporar las precauciones de seguridad que promete, en un momento en que el ejército acelera el lanzamiento de una estrategia de IA fuertemente politizada durante ataques contra Irán, ni si el acuerdo será considerado suficiente por los empleados que querían que la empresa mantuviera una postura más firme. Caminar por esa cuerda floja será complicado. (OpenAI no respondió de inmediato a las solicitudes de información adicional sobre su acuerdo). 

Pero el diablo también está en los detalles. La razón por la que OpenAI pudo llegar a un acuerdo cuando Anthropic no lo consiguió tuvo menos que ver con los límites, explicó Altman, y más con el enfoque. “Anthropic parecía más centrada en prohibiciones concretas dentro del contrato, en lugar de remitirse a las leyes aplicables, con lo cual nosotros nos sentíamos más cómodos”, escribió. 

OpenAI afirma que uno de los motivos de su disposición a colaborar con el Pentágono se basa simplemente en asumir que el gobierno no infringirá la ley. La compañía, que ha publicado un extracto limitado de su contrato, cita diversas leyes y políticas relacionadas con las armas autónomas y la vigilancia. Estas normas van desde disposiciones tan concretas como una directiva del Pentágono de 2023 sobre armas autónomas (que no las prohíbe, pero establece pautas para su diseño y pruebas), hasta otras tan amplias como la Cuarta Enmienda, que ha respaldado protecciones para los estadounidenses frente a la vigilancia masiva. 

Sin embargo, el extracto publicado “no otorga a OpenAI un derecho independiente, al estilo de Anthropic, para prohibir usos gubernamentales que de otro modo serían legales”, escribió Jessica Tillipman, decana asociada de estudios sobre derecho de contratación pública en la facultad de derecho de la Universidad George Washington (Washington D. C., EE UU). Simplemente establece que el Pentágono no puede utilizar la tecnología de OpenAI para infringir ninguna de esas leyes y políticas tal y como están redactadas actualmente. 

La razón por la que Anthropic consiguió tantos apoyos en su postura (incluidos los de algunos empleados de OpenAI) es que muchos no creen que estas normas sean suficientes para evitar la creación de armas autónomas habilitadas por IA o sistemas de vigilancia masiva. Y asumir que las agencias federales no violarán la ley aporta pocas garantías a quienes recuerdan que las prácticas de vigilancia reveladas por Edward Snowden fueron consideradas legales por organismos internos y se declararon ilícitas solo tras largos litigios (por no mencionar las numerosas tácticas de vigilancia permitidas por la legislación actual que la IA podría ampliar). En este sentido, esencialmente hemos vuelto al punto de partida: permitir al Pentágono utilizar su IA para cualquier uso legal. 

OpenAI podría decir, como escribió el domingo su responsable de alianzas de seguridad nacional, que si uno cree que el gobierno no cumplirá la ley, entonces tampoco debería confiar en que respetaría las líneas rojas que proponía Anthropic. Pero ese no es un argumento en contra de establecerlas. Una aplicación imperfecta no vuelve irrelevantes las restricciones, y los términos contractuales siguen influyendo en el comportamiento, la supervisión y las consecuencias políticas. 

OpenAI sostiene una segunda línea de defensa. La empresa afirma que mantiene el control sobre las reglas de seguridad que rigen sus modelos y que no proporcionará al ejército una versión de su IA despojada de esos sistemas de seguridad. “Podemos integrar nuestras líneas rojas (no a la vigilancia masiva y no a dirigir sistemas de armas sin intervención humana) directamente en el comportamiento del modelo”, escribió Boaz Barak, un empleado de OpenAI a quien Altman delegó para hablar del asunto en X. 

Pero la compañía no especifica en qué difieren sus reglas de seguridad para el ejército respecto a las de los usuarios normales. La aplicación tampoco es nunca perfecta, y es especialmente poco probable que lo sea cuando OpenAI está implementando estas protecciones por primera vez en un entorno clasificado y se espera que lo haga en tan solo seis meses. 

Hay otra cuestión subyacente a todo esto: ¿debería recaer en las empresas tecnológicas la responsabilidad de prohibir actividades que son legales, pero que consideran moralmente objetables? El gobierno, desde luego, consideró inaceptable la disposición de Anthropic a asumir ese papel. El viernes por la noche, ocho horas antes de que Estados Unidos lanzara ataques en Teherán (Irán), el secretario de Defensa, Pete Hegseth, publicó unas duras declaraciones en X. “Anthropic impartió una clase magistral de arrogancia y traición”, escribió, y repitió la orden del presidente Trump de que el gobierno dejara de trabajar con la empresa de IA después de que Anthropic intentara impedir que su modelo Claude se utilizara para armas autónomas o vigilancia masiva en territorio estadounidense. “El Departamento de Guerra debe tener acceso pleno e irrestricto a los modelos de Anthropic para todo propósito LEGAL”, escribió Hegseth. 

Pero salvo que el contrato completo de OpenAI revele algo más, es difícil no ver a la compañía en un balancín ideológico: promete que tiene influencia y que la utilizará con orgullo para hacer lo que considera correcto, mientras al mismo tiempo se remite a la ley como freno principal de lo que el Pentágono puede hacer con su tecnología. 

Hay tres aspectos que conviene vigilar. El primero es si esta postura será suficiente para los empleados más críticos de OpenAI. Con las empresas de IA gastando tanto para atraer talento, es posible que algunos en OpenAI vean en la justificación de Altman un compromiso imperdonable. 

En segundo lugar, está la campaña de “tierra quemada” que Hegseth ha prometido emprender contra Anthropic. Yendo mucho más allá de cancelar el contrato gubernamental con la empresa, anunció que sería clasificada como un riesgo para la cadena de suministro, y que “ningún contratista, proveedor o socio que haga negocios con las fuerzas armadas de Estados Unidos podrá realizar actividad comercial alguna con Anthropic”. Existe un importante debate sobre si este golpe mortal es viable desde el punto de vista legal, y Anthropic ha afirmado que demandará si se intenta llevar a cabo. OpenAI también se ha pronunciado en contra de esta medida. 

Por último, ¿cómo sustituirá el Pentágono a Claude, el único modelo de IA que utiliza activamente en operaciones clasificadas (incluidas algunas en Venezuela), mientras intensifica los ataques contra Irán? Hegseth concedió a la agencia seis meses para hacerlo, durante los cuales las fuerzas armadas irán incorporando de forma progresiva los modelos de OpenAI y también los de xAI, la empresa de Elon Musk. 

Pero, según los informes, Claude fue utilizado en los ataques contra Irán apenas unas horas después de que se emitiera la prohibición, lo que sugiere que la retirada no será en absoluto sencilla. Incluso si la disputa de meses entre Anthropic y el Pentágono hubiese terminado (cosa que dudo), ahora estamos viendo cómo el plan de aceleración de la IA del Pentágono presiona a las empresas para que renuncien a las líneas rojas que habían trazado en el pasado, con las nuevas tensiones en Oriente Medio como principal campo de pruebas. 

Si tienes información que compartir sobre cómo se está desarrollando esto, ponte en contacto conmigo a través de Signal (usuario: jamesodonnell.22).