Tras la carta de científicos en contra de los robots asesinos, varios expertos debaten sobre si la IA aplicada a la guerra es tan peligrosa
La semana pasada miles de científicos y tecnólogos firmaron una carta abierta pidiendo la prohibición de las armas letales controladas por máquinas con inteligencia artificial (IA), lo que refleja una preocupación creciente porque los rápidos avances en IA se puedan aprovechar para hacer que la maquinaria sea más eficaz y menos responsable, tanto en el campo de batalla como fuera de él. Sin embargo, los expertos se encuentran más divididos respecto al tema de los robots asesinos de lo que cabría esperar.
La carta, que se presentó en la Conferencia Internacional Conjunta sobre Inteligencia Artificial celebrada en Buenos Aires (Argentina) estaba firmada por muchos de los principales investigadores en IA además de destacados científicos y emprendedores, entre ellos Elon Musk, Stephen Hawking y Steve Wozniak. La carta afirma:
"La tecnología de (IA) ha llegado a un punto en el que el despliegue de estos sistemas será –en la práctica, aunque no legalmente- factible dentro de unos años, no décadas y hay mucho en juego: las armas autónomas se han descrito como la tercera revolución en la guerra, después de la pólvora y las armas nucleares".
Efectivamente, se han logrado rápidos avances en IA en los últimos años, sobre todo en el campo del aprendizaje automático, que implica enseñar a los ordenadores a reconocer los patrones a menudo complejos y sutiles que hay en grandes cantidades de datos. Y esto está dando pie a preguntas éticas sobre las aplicaciones de la tecnología en el mundo real.
Mientras, la tecnología militar ha avanzado de tal forma que ahora ya es posible llevar a cabo acciones a distancia, por ejemplo usando drones o robots para el lanzamiento de bombas, lo que abre la perspectiva de que esas acciones se automaticen.
La cuestión de la automatización de las armas letales ha sido una preocupación tanto para los científicos como para los expertos militares y los políticos desde hace tiempo. En 2012 el Departamento de Defensa de Estados Unidos emitió una directiva que prohibía el desarrollo y el uso de armas "autónomas y semiautónomas" durante 10 años. Este mismo año, Naciones Unidas convocó una reunión para debatir el tema de las armas autónomas letales y la posibilidad de una prohibición similar.
Pero, aunque existe la posibilidad de que los drones o robots militares sean más autónomos, hay quien sostiene que la idea de máquinas plenamente independientes capaces de llevar a cabo misiones letales sin ayuda humana es más descabellada. Dados los desafíos fundamentales que faltan por resolver en el campo de la IA, no está nada claro cuándo se podría llegar la tecnología necesaria para la creación de armas completamente autónomas.
"Estamos haciendo avanzar las fronteras de la IA", explica el profesor de filosofía de la Universidad Politécnica del Estado de California (EEUU), Patrick Lin. "Y mucha gente es escéptica y con razón respecto a que estas puedan avanzar hasta el punto en el que sea algo que se pudiera denominar como autonomía plena. Nadie es un experto prediciendo el futuro".
Lin, que habló en la reciente reunión de la ONU, añade que la carta no entra en el complejo debate ético que hay detrás del uso de la automatización en los sistemas de armas. "La carta es útil para crear interés", afirma, "pero no tanto para establecer un debate. Lo que intenta es poner fin al debate diciendo: 'Nosotros ya lo hemos resuelto y los demás solo tenéis que aceptarlo'".
Un importante investigador en IA y profesor de la Universidad de California en Berkeley (EEUU), Stuart Russell, desecha esa idea. "Es absolutamente falso que no haya existido un debate", afirma. "Pero sí es cierto que las comunidades de la IA y la robótica se han mantenido felizmente ignorantes de este tema, quizá porque sus sociedades profesionales lo han ignorado".
Una parte del debate, reconocida por la carta, es que las armas automatizadas podrían servir para reducir las bajas no deseadas en algunas situaciones dado que tendrían menor tendencia al error, el cansancio o las emociones que los combatientes humanos.
Sin embargo, quienes firman la carta dedican poco tiempo a este argumento.
El físico del Instituto de Tecnología de Massachusetts (EEUU), Max Tegmark, fundador también del Instituto para el Futuro de la Vida, que ha coordinado la firma de la carta, afirma que la idea de que existan armas autónomas éticas es una maniobra de distracción. “Sinceramente me parece bastante irrelevante”, sostiene. “Pasa por alto la gran cuestión de adónde conducirá esto si se empieza con esta carrera de armas de IA. Si das por supuesto que solo EEUU construirá estas armas y el número de conflictos se mantiene estable, entonces sería relevante”.
El Instituto para el Futuro de la Vida ha emitido un aviso más general sobre los riesgos a largo plazo que supone una IA sin control, avisando de que podría suponer peligros más graves en el futuro.
“Es un tema muy distinto”. afirma Russell. “Aunque existe una conexión, en el sentido de que si estamos preocupados por perder el control sobre los sistemas de IA según vayan siendo más inteligentes, quizá no sea una buena idea entregarles nuestro sistema de defensa”.
Aunque hay muchos expertos que comparten esta preocupación en términos generales, otros creen que está un poco fuera de lugar. Por ejemplo, el científico cognitivo e investigador en inteligencia artificial de la Universidad de Nueva York (EEUU) Gary Marcus, ha argumentado que no hace falta que los ordenadores posean IA para suponer muchos otros riesgos graves a los mercados financieros o los sistemas de control del tráfico aéreo, por ejemplo.
Lin afirma que aunque la idea de tener robots asesinos descontrolados es preocupante, el tema de las armas autónomas merece un debate más detallado. “Emocionalmente, está bastante claro”, afirma Lin. “Intelectualmente, creo que les queda trabajo por hacer”.