Inteligencia Artificial
'Start-ups' de IA y aplicaciones militares, a la caza del botín de la guerra
Las empresas emergentes avisan que la adopción de la IA por parte de los ejércitos es inevitable, mientras los críticos señalan que se trata de una elección donde es necesario estudiar las grandes complejidades morales y compensaciones que reporta
Exactamente dos semanas después de que Rusia invadiera Ucrania en febrero, el CEO de la empresa de análisis de datos Palantir, Alexander Karp, se dirigió a los líderes europeos. Con la guerra a la vuelta de la esquina, Europa debía modernizar sus arsenales con la ayuda de Silicon Valley, argumentó Karp en su carta abierta.
Para que Europa "siga siendo lo suficientemente fuerte para vencer la amenaza de la ocupación extranjera", escribió Karp, los países deben adoptar "la relación entre la tecnología y el Estado, entre las empresas disruptivas que buscan desplazar el control de los proveedores consolidados y los ministerios del Gobierno federal con fondos".
Los órganos militares han empezado a responder a ese llamamiento. La OTAN anunció el 30 de junio que estaba creando un fondo de innovación de 1.000 millones de dólares (996 millones de euros) que invertirá en las start-ups de etapa inicial y en los fondos de capital de riesgo que desarrollen tecnologías "prioritarias" como inteligencia artificial (IA), procesamiento de big data y automatización.
Desde el inicio de la guerra, Reino Unido ha lanzado una nueva estrategia de inteligencia artificial específicamente para la defensa, y los alemanes han destinado poco menos de 500 millones de dólares (498 millones de euros) para la investigación e inteligencia artificial dentro de una inyección de 100.000 millones de dólares (99.630 millones de euros) para el ejército.
"La guerra es un catalizador para el cambio", señala el director de investigación de los Estudios de la Defensa del King's College de Londres (Reino Unido) y el autor del libro I, Warbot: The Dawn of Artificially Intelligent Conflict, Kenneth Payne.
La guerra en Ucrania ha añadido urgencia para fomentar más herramientas de inteligencia artificial en el campo de batalla. En este contexto, las que tienen más que ganar son start-ups como Palantir, que esperan sacar provecho de esta carrera militar para modernizar los arsenales con las últimas tecnologías. Pero las preocupaciones éticas sobre el uso de la IA en la guerra se han vuelto más apremiantes a medida que la tecnología es cada vez más avanzada, mientras que la perspectiva de las restricciones y regulaciones que rijan su uso parece tan remota como siempre.
La relación entre la tecnología y el ejército no siempre ha sido tan amistosa. En 2018, tras las protestas y la indignación de los empleados, Google se retiró del Proyecto Maven del Pentágono, del intento de construir sistemas de reconocimiento de imágenes para mejorar los ataques con drones. Eso provocó un acalorado debate sobre los derechos humanos y el aspecto moral de desarrollar la IA para armas autónomas.
También llevó a los investigadores de IA de alto perfil como el ganador del Premio Turing Yoshua Bengio y los fundadores del laboratorio líder de IA DeepMind, Demis Hassabis, Shane Legg y Mustafa Suleyman, a comprometerse a no trabajar en IA letal.
Sin embargo, cuatro años después, Silicon Valley está más cerca que nunca de los ejércitos del mundo. Y no se trata solo de las grandes empresas. Las start-ups por fin tienen una oportunidad, según el exdirector ejecutivo de la Comisión de Seguridad Nacional sobre IA de EE UU (NSCAI, por sus siglas en inglés) Yll Bajraktari, que actualmente trabaja para el Proyecto de Estudios Competitivos Especiales, el grupo de lobby para una mayor adopción de la IA en EE. UU.
¿Por qué IA?
Las empresas que venden IA militar realizan vastas afirmaciones sobre lo que puede hacer su tecnología. Aseguran que puede ayudar en todo, desde lo más mundano hasta lo más letal, pasando por la revisión de currículos, el procesamiento de datos de satélites o el reconocimiento de patrones en los datos para ayudar a los soldados a tomar decisiones más rápidas en el campo de batalla. El software de reconocimiento de imágenes puede ayudar a identificar objetivos. Los drones autónomos se pueden usar para la vigilancia o ataques en tierra, aire o agua, o para ayudar a los soldados a entregar los suministros de manera más segura que por tierra.
Estas tecnologías todavía se encuentran en una fase inicial en el campo de batalla, mientras que los ejércitos están atravesando un período de experimentación, a veces sin mucho éxito, según indica Payne. Hay innumerables ejemplos de la tendencia de las empresas de IA a hacer grandes promesas sobre las tecnologías que luego resultan que no funcionan tal y como se anuncian, mientras que las zonas de combate se encuentran quizás entre las áreas técnicamente más desafiantes en las que implementar la IA porque hay pocos datos relevantes de entrenamiento. Esto podría causar que los sistemas autónomos fallen de una "manera compleja e impredecible", argumentó el experto en drones y otras tecnologías de vigilancia Arthur Holland Michel, en un estudio para el Instituto de las Naciones Unidas de Investigación sobre el Desarme.
Sin embargo, muchos órganos militares están presionando para seguir hacia adelante. En un comunicado de prensa redactado de forma vaga en 2021, el ejército británico anunció con orgullo que había utilizado la IA por primera vez en una operación militar, para proporcionar información sobre el entorno y el terreno cercano. Estados Unidos trabaja con start-ups para desarrollar los vehículos militares autónomos. En el futuro, los enjambres de cientos o incluso miles de drones autónomos que están desarrollando los ejércitos estadounidenses y británicos podrían resultar armas poderosas y letales.
Muchos expertos están preocupados. La asesora principal sobre IA en la Comisión Federal de Comercio de EE. UU. y directora del equipo docente en el Instituto AI Now, Meredith Whittaker, cree que este impulso tiene más que ver con enriquecer a las empresas tecnológicas que con mejorar las operaciones militares.
En un artículo para la revista Prospect coescrito con la profesora de sociología de la Universidad de Lancaster (Reino Unido) Lucy Suchman, Whittaker argumentó que los impulsores de la IA avivaban la retórica de la Guerra Fría intentando crear una narrativa que posicionaba a las Big Tech como una "infraestructura nacional crítica", demasiado grande e importante para dividir o regular. Advierten que la adopción de la IA por parte de los ejércitos se presenta como algo inevitable en vez de lo que realmente es: una elección activa que implica complejidades éticas y compensaciones.
Las arcas de la guerra de IA
Con la controversia en torno a Maven desvaneciéndose al pasado, las voces que piden más IA en defensa se han vuelto cada vez más fuertes en los últimos años.
Uno de los más destacados ha sido el ex-CEO de Google, Eric Schmidt, quien presidía la NSCAI y pedía un enfoque más agresivo de EE UU para adoptar la IA militar.
En un informe del año pasado, que describía los pasos que Estados Unidos debería tomar para estar al día en IA para 2025, la NSCAI pidió al ejército de EE UU invertir 8.000 millones de dólares (7.970 millones de euros) al año en estas tecnologías o se arriesgaría a quedarse atrás de China.
Es probable que el ejército chino gaste al menos 1.600 millones de dólares (1.594 millones de euros) al año en IA, según el informe del Centro de Seguridad y Tecnologías Emergentes de Georgetown (EE.UU.), y en EE UU ya existe un impulso significativo en marcha para alcanzar la paridad, según la investigadora del Consejo de Relaciones Exteriores Lauren Kahn. El Departamento de Defensa de EE UU solicitó 874 millones de dólares (870 millones de euros) para inteligencia artificial para 2022, aunque esa cifra no refleja el total de las inversiones en IA del Departamento, según lo señalado en un informe de marzo de 2022.
No es solo el ejército estadounidense el que está convencido de esta necesidad. Los países europeos, que tienden a ser más cautelosos a la hora de adoptar nuevas tecnologías, también están gastando más dinero en IA, afirma el codirector del Observatorio de IA de Defensa de la Universidad Helmut Schmidt en Hamburgo (Alemania) Heiko Borchert.
Los franceses y los británicos han definido a la IA como una tecnología de defensa clave, y la Comisión Europea, el brazo ejecutivo de la UE, ha destinado 1.000 millones de dólares (996 millones de euros) para desarrollar nuevas tecnologías de defensa.
Buenos y malos desafíos
Crear demanda de IA es una cosa, pero lograr que los militares la adopten es otra completamente diferente.
Muchos países están impulsando la narrativa a favor de la IA, pero tienen dificultades para pasar del concepto a la implementación, explica el CEO de la start-up francesa Preligens, Arnaud Guérin, que vende sistemas de vigilancia de IA. Eso se debe en parte a que la industria de la defensa, en la mayoría de los países, todavía está dominada por un puñado de grandes proveedores, que tienden a tener más experiencia en hardware militar que en software de inteligencia artificial, señala Guérin.
También se debe a que los anticuados procesos de investigación militar avanzan lentamente en comparación con la velocidad vertiginosa que estamos acostumbrados a ver en el desarrollo de IA: los contratos militares pueden suponer décadas, pero en el acelerado ciclo de las start-ups, las empresas tienen solo un año más o menos para ponerse en marcha.
Las start-ups e inversores de capital riesgo han expresado su frustración por los lentos avances del proceso. Según argumenta la socia general de la empresa de capital de riesgo Andreessen Horowitz, Katherine Boyle, existe el riesgo de que los ingenieros talentosos se vayan frustrados a los puestos de trabajos en Facebook y Google, y que las start-ups quiebren esperando los contratos de defensa.
"Algunos de esos desafíos son totalmente críticos, especialmente en este sector donde las preocupaciones de seguridad son muy reales", resalta el fundador de la empresa de análisis de datos FacultyAI, Mark Warner, que trabaja con el ejército británico. "Pero otros no lo son y de alguna manera han consagrado la posición de los titulares".
Las empresas de IA con ambiciones militares tienen que "permanecer en ese negocio durante mucho tiempo", destaca la analista de investigación que ha estudiado las tendencias de inversión en IA en el Centro de Seguridad y Tecnologías Emergentes de Georgetown Ngor Luong.
Los ejércitos están en una situación complicada, según Kahn: avanzar demasiado rápido y correr el riesgo de implementar sistemas peligrosos y malos, o ir demasiado lento y perder el avance tecnológico. EE UU quiere ir más rápido, y el Departamento de Defensa ha solicitado la ayuda del exjefe de inteligencia artificial de la empresa de transporte privado Lyft Craig Martell.
En junio de 2022, Martell asumió el mando de la nueva Oficina Principal de Inteligencia Artificial Digital del Pentágono, cuyo objetivo es coordinar los esfuerzos de IA del ejército de Estados Unidos. La misión de Martell, lo explicó a Bloomberg, es cambiar la cultura del Departamento e impulsar el uso militar de la IA a pesar de la "inercia burocrática".
Es posible que Martell esté empujando una puerta ya abierta, porque las empresas de inteligencia artificial ya han empezado a obtener lucrativos contratos militares. En febrero, Anduril, la start-up que se lanzó hace cinco años y que desarrolla sistemas de defensa autónomos, como sofisticados drones submarinos, ganó un contrato de defensa de 1.000 millones de dólares (995 millones de euros) con Estados Unidos. En enero, ScaleAI, la start-up que ofrece los servicios de etiquetado de datos para IA, ganó un contrato de 250 millones de dólares (249 millones de euros) con el Departamento de Defensa del EE UU.
Cuidado con el bombo
A pesar del creciente avance de la IA en el campo de batalla, las preocupaciones éticas que provocaron las protestas en torno al Proyecto Maven no han desaparecido.
Ha habido algunos esfuerzos para mitigar esas preocupaciones. El Departamento de Defensa de EE UU, consciente de que tiene un problema de confianza, ha implementado pautas de "inteligencia artificial responsable" para los desarrolladores de IA, y tiene sus propias normas éticas para el uso de IA. La OTAN tiene una estrategia de IA que establece orientaciones éticas voluntarias para sus países miembros.
Todas estas recomendaciones hacen un llamamiento a los órganos militares para usar la IA de una manera legal, responsable, fiable e identificable e intentar mitigar los sesgos incrustados en los algoritmos.
Uno de los conceptos clave es que los humanos siempre deben mantener el control de los sistemas de IA. Pero a medida que se desarrolle la tecnología, eso no será realmente posible, opina Payne.
"El objetivo real de un sistema autónomo es permitirle tomar una decisión más rápido y con más precisión de lo que sería capaz un humano y a una escala que una persona no podría", explica. "Nos frenamos realmente si decimos 'no, vamos a abogar por todas y cada una de las decisiones'", asegura.
Aun así, los críticos opinan que se necesitan reglas más estrictas. Existe una campaña mundial denominada Stop Killer Robots que busca prohibir las armas autónomas letales, como los enjambres de drones. Los activistas, algunos funcionarios de alto perfil como el jefe de la ONU, António Guterres, y varios gobiernos como el de Nueva Zelanda argumentan que las armas autónomas son muy poco éticas, porque dan a las máquinas el control sobre las decisiones de vida o muerte y podrían dañar desproporcionadamente a las comunidades marginadas a través de los sesgos algorítmicos.
Los enjambres de miles de drones autónomos, por ejemplo, se podrían convertir básicamente en armas de destrucción masiva. Restringir estas tecnologías será una batalla complicada porque la idea de una prohibición global se ha encontrado con la oposición de los grandes inversores militares, como Estados Unidos, Francia y Reino Unido.
Finalmente, la nueva era de la IA militar plantea una serie de dudas éticas difíciles para las que aún no tenemos respuestas.
Una de esas preguntas es lo automatizadas que queremos que sean las fuerzas armadas en primer lugar, resalta Payne. Por un lado, los sistemas de IA pueden reducir el número de víctimas al hacer que la guerra sea más precisa, pero por el otro, se está "creando en efecto una fuerza mercenaria de robots para luchar en nuestro nombre", señala. "Aleja a la sociedad de las consecuencias de la violencia", concluye.