Inteligencia Artificial Global
El contrato de OpenAI con la empresa de defensa Anduril certifica su giro militarista
La asociación con Anduril desplegará la IA en el campo de batalla. Representa un cambio de la posición de la empresa en solo un año.
A principios de 2024, las normas de OpenAI sobre cómo las fuerzas armadas podrían utilizar su tecnología eran claras.
La empresa prohibía a cualquiera utilizar sus modelos para el "desarrollo de armas" o "para uso militar y bélico". Esto cambió el 10 de enero, cuando The Intercept informó de que OpenAI había suavizado esas restricciones, prohibiendo a cualquiera usar la tecnología para "hacerse daño a sí mismo o a otros" ya sea mediante el desarrollo o uso de armas, hiriendo a terceros o destruyendo propiedades. OpenAI dijo poco después que trabajaría con el Pentágono en software de ciberseguridad, pero no en armamento. Más adelante, en una entrada de blog publicada en octubre, la empresa compartió que está trabajando en el espacio de la seguridad nacional, argumentando la IA podría "ayudar a proteger a las personas, disuadir a los adversarios, e incluso prevenir futuros conflictos" siempre que esté en las manos correctas.
Recientemente, OpenAI ha anunciado que su tecnología se desplegará directamente en el campo de batalla.
La empresa hace pública la asociación con la compañía de tecnología de defensa Anduril, fabricante de drones, sistemas de radar y misiles con IA, para ayudar a las fuerzas estadounidenses y aliadas a defenderse contra ataques de drones. OpenAI ayudará a construir modelos de IA que "sinteticen rápidamente datos sensibles, reduzcan la carga de los operadores humanos y mejoren el conocimiento de la situación" para derribar drones enemigos, según el anuncio. No se han dado a conocer detalles concretos, pero el programa se centrará exclusivamente en la defensa del personal y las instalaciones estadounidenses frente a amenazas aéreas no tripuladas, según Liz Bourgeois, portavoz de OpenAI. "Esta asociación es coherente con nuestras políticas y no implica el aprovechamiento de nuestra tecnología para desarrollar sistemas diseñados para dañar a otros", dijo. Un portavoz de Anduril no quiso dar detalles sobre las bases de todo el mundo donde se desplegarán estos modelos, pero dijo que la tecnología ayudará a detectar y rastrear aviones no tripulados y reducir el tiempo que los miembros del servicio dedican a tareas aburridas.
La política de OpenAI de prohibir el uso militar de su tecnología se ha desmoronado en menos de un año. Según un portavoz de OpenAI, cuando la empresa suavizó su norma a principios de este año, lo hizo para permitir la colaboración con el ejército en contextos limitados, como la ciberseguridad, la prevención del suicidio y la ayuda en caso de catástrofe.
Ahora, OpenAI adopta abiertamente su trabajo en seguridad nacional. Si trabajar con ejércitos o empresas de tecnología de defensa puede ayudar a garantizar que los países democráticos dominen la carrera de la IA, ha escrito la empresa, entonces hacerlo no contradice la misión de OpenAI de garantizar que los beneficios de la IA se compartan ampliamente. De hecho, argumenta que ayudará a cumplir esa misión. Pero no nos equivoquemos: se trata de un gran cambio con respecto a su postura de hace tan solo un año.
Para entender la rapidez con la que se produjo este giro, hay que señalar que, mientras la empresa vacilaba en su enfoque del espacio de seguridad nacional, otros sectores tecnológicos corrían hacia él.
Las empresas de capital riesgo duplicaron con creces su inversión en tecnología de defensa en 2021, hasta 40.000 millones de dólares (unos 38.000 millones de euros), después de que empresas como Anduril y Palantir demostraran que, con algo de persuasión (y litigios), el Pentágono pagaría generosamente por las nuevas tecnologías. La oposición de los empleados a trabajar en la guerra (más palpable durante las huelgas en Google en 2018) se suavizó para algunos cuando Rusia invadió Ucrania en 2022 (varios ejecutivos de tecnología de defensa me dijeron que la "falta de ambigüedad" de esa guerra les ha ayudado a atraer tanto inversiones como talento).
Así que, en cierto modo, al sumarse a la industria de defensa, OpenAI se está poniendo al día. La diferencia es que las empresas de tecnología de defensa son conscientes de que están en el negocio de la guerra y no han tenido que renegar rápidamente de su legado como empresa de investigación de IA sin ánimo de lucro. Desde su carta fundacional, OpenAI se ha posicionado como una organización con la misión de garantizar que la inteligencia artificial general beneficie a toda la humanidad. Había prometido públicamente que trabajar con el ejército contradeciría esa misión.
La entrada de su blog del 24 de octubre trazó un nuevo camino, intentando cuadrar la voluntad de OpenAI de trabajar en defensa con sus valores declarados. OpenAI's approach to AI and national security (El enfoque de OpenAI sobre IA y seguridad nacional), se publicó el mismo día que la Casa Blanca hacía público su Memorando de Seguridad Nacional sobre IA, en el que ordenaba al Pentágono y a otras agencias que aumentaran el uso de la IA, en parte para frustrar la competencia de China.
"Creemos que una visión democrática de la IA es esencial para liberar todo su potencial y garantizar que sus beneficios sean ampliamente compartidos", escribió OpenAI, haciéndose eco de un lenguaje similar al del memorando de la Casa Blanca. "Creemos que las democracias deben seguir liderando el desarrollo de la IA, guiadas por valores como la libertad, la equidad y el respeto a los derechos humanos".
Ofreció una serie de formas en que OpenAI podría ayudar a perseguir ese objetivo, incluidos los esfuerzos para "agilizar las tareas de traducción y resumen, y estudiar y mitigar el daño civil", al tiempo que prohíbe que su tecnología se utilice para "dañar a las personas, destruir la propiedad o desarrollar armas". Por encima de todo, fue un mensaje de OpenAI de que está implicada con el trabajo de seguridad nacional.
Las nuevas políticas hacen hincapié en "la flexibilidad y el cumplimiento de la ley", afirma Heidy Khlaaf, científico jefe de IA en el AI Now Institute e investigador en materia de seguridad, autor de un artículo con OpenAI en 2022 sobre los posibles peligros de su tecnología en diferentes contextos, incluidos el militar. El giro de la empresa "indica en última instancia que acepta llevar a cabo actividades relacionadas con el ejército y la guerra como el Pentágono y el ejército estadounidense consideren oportuno", afirma.
Amazon, Google y Microsoft, socio e inversor de OpenAI, llevan años compitiendo por los contratos de computación en la nube del Pentágono. Estas empresas han aprendido que trabajar en la industria de defensa puede ser increíblemente lucrativo, y el giro de OpenAI, que se produce cuando la empresa prevé pérdidas de 5.000 millones de dólares (4.760 millones de euros) y está explorando nuevas fuentes de ingresos como la publicidad, podría indicar que quiere una parte de esos contratos. Las relaciones de las grandes empresas tecnológicas con el ejército ya no suscitan la indignación y el escrutinio de antaño. Pero OpenAI no es un proveedor de servicios en la nube, y la tecnología que está desarrollando puede hacer mucho más que simplemente almacenar y recuperar datos. Con esta nueva asociación, OpenAI promete ayudar a clasificar los datos en el campo de batalla, proporcionar información sobre las amenazas y ayudar a que el proceso de toma de decisiones en la guerra sea más rápido y eficiente.
Las declaraciones de OpenAI sobre seguridad nacional quizá planteen más preguntas de las que responden. La empresa quiere mitigar el daño a los civiles, pero ¿a qué civiles? ¿Contribuir con modelos de IA a un programa que derriba drones no cuenta como desarrollo de armas que podrían dañar a las personas?
"Las armas defensivas siguen siendo armas", afirma Khlaaf, que añade: "A menudo pueden posicionarse ofensivamente en función del lugar y el objetivo de una misión".
Más allá de estas cuestiones, trabajar en defensa significa que la empresa de IA más importante del mundo, que ha tenido una increíble influencia en el sector y ha pontificado durante mucho tiempo sobre cómo gestionar la IA de forma responsable, trabajará ahora en un sector tecnológico de defensa que se rige por unas reglas totalmente distintas. En ese sistema, cuando tu cliente es el ejército estadounidense, las empresas tecnológicas no pueden decidir cómo se utilizan sus productos.