Para 2030, se estima que la contribución de la inteligencia artificial (IA) a la economía mundial será de 15,7 billones de dólares. La IA ha irrumpido en sectores muy diversos, desde la industria farmacéutica hasta la sanidad, la fabricación, la logística y la agricultura de precisión; reduciendo costes, aumentando la precisión, la productividad, el crecimiento y la innovación, tanto en el sector público como el privado, contribuyendo también a la sostenibilidad medioambiental.
Su futuro se orienta principalmente hacia tres vertientes: la inteligencia artificial generativa; es decir, la IA que, por medio de algoritmos que utilizan contenido ya existente en textos, archivos de audio o imágenes, crea nuevos contenidos —esta es, según el Massachusetts Institute of Technology (MIT), una de las tendencias más prometedoras—; la ingenierización de la inteligencia artificial, que tiene un papel importante para que la eficacia de las soluciones de IA perdure en el tiempo y pueda actualizarse, y, por último, la inteligencia artificial para la toma de decisiones, que tiene la capacidad de modelar las decisiones de forma repetible, rastreable y evaluable.
No cabe duda de que los beneficios de esta tecnología tendrán importantes repercusiones para quienes tengan la previsión de invertir en competencias, capacidad informática e identificación de las necesidades de su sector, pero también existen riesgos para quienes no tengan en cuenta el respeto a los derechos humanos, la democracia y los valores éticos en sus políticas a la hora de desarrollar y utilizar la IA. De hecho, la historia reciente abunda en ejemplos de ello.
El 7 de marzo de 2022 se publicó en la revista Nature Machine Intelligence el artículo Dual use of artificial intelligence powered drug discovery en el que se explica cómo se invirtió un generador comercial de moléculas impulsado por modelos de aprendizaje automático, que normalmente penalizaba la toxicidad y premiaba la actividad correcta, para premiar, con la nueva lógica, la toxicidad. La IA se entrenaba, pues, utilizando compuestos como el agente nervioso VX, uno de los agentes químicos de guerra más tóxicos desarrollados durante el siglo XX. En menos de 6 horas desde la puesta en marcha del servidor interno, el modelo generó 40.000 moléculas tóxicas.
En el caso de Amazon de 2015, a pesar de que el sistema de IA estaba bien estructurado, discriminaba a las mujeres porque había sido entrenado con datos de los CV seleccionados por la empresa en los últimos 10 años y que, en su mayoría, pertenecían a hombres.
No es extraño que surjan problemas en el desarrollo de algoritmos, como en el caso del algoritmo COMPAS utilizado por los jueces de un condado de Florida para generar una puntuación —baja, media o alta— asociada al riesgo de que una persona pueda reincidir en los siguientes dos años desde su puesta en libertad. Un grupo de periodistas comparó miles de datos y verificó que había un número desproporcionado de valoraciones altas en el grupo de personas negras. Pese a ser clasificadas como personas de alto riesgo, no llegaron a cometer ningún delito en los dos años siguientes. Otro caso es el de la Apple Card, cuyo algoritmo definió límites de crédito hasta 20 veces más bajos para las clientas mujeres con respecto a los hombres, incluso dentro del mismo núcleo familiar.
Todos estos ejemplos ponen de manifiesto cómo la ausencia de un análisis de los derechos humanos en el diseño de la Inteligencia Artificial puede tener un impacto negativo en su uso, difusión y, en consecuencia, en su valor. Hace tiempo que Italia orienta el desarrollo de las tecnologías, y en particular de la inteligencia artificial, a poner al ser humano en el centro. Ejemplo de ello es la participación del Ministerio de Asuntos Exteriores y Cooperación Internacional en la elaboración de la Recomendación sobre la ética de la inteligencia artificial, adoptada por unanimidad por la 41ª Sesión de la Conferencia General de la UNESCO a finales de 2021. Y es gracias a la contribución de dicho Ministerio que ahora se prohíbe de forma explícita la vigilancia masiva en las recomendaciones: “AI systems should not be used for social scoring or mass surveillance purposes”.
La aplicación de dicha Recomendación queda bajo la responsabilidad de los Estados miembros, que deben informar al respecto a la UNESCO cada cuatro años.
Sobre esta base, Italia, junto con otros Estados miembros, se unió a la creación de una Red de “Early Adopters/Supporters”, posteriormente denominada “Group of Friends”, cuyo objetivo es ayudar a la Secretaría de la UNESCO actuando como foro para compartir las mejores prácticas y debatir los diferentes enfoques y metodologías relacionados con el desarrollo de la IA. Esto se combinará con una evaluación de la implementación de la Recomendación por parte de los miembros de la UNESCO (“readiness assessment”), y con actividades de desarrollo de capacidades en los países que aún no cuentan con legislación o conocimientos en este ámbito.
Cuando fui ministra de Innovación y Digitalización en el segundo gobierno del primer ministro Giuseppe Conte, trabajamos no solo para sentar las bases del uso de la inteligencia artificial en los servicios públicos —con la obligación de compartir datos entre las administraciones públicas y crear una plataforma para correlacionar y analizar datos—, sino también para basar el uso de la IA en los valores éticos de transparencia y respeto al ser humano que son propios de la Constitución italiana, y en los valores en los que se basa la Unión Europea.
Hemos empezado a establecer un grupo de indicadores útiles para elegir a los proveedores de servicios que utilizan la IA para la administración pública con una evaluación equilibrada no solo desde el punto de vista económico y tecnológico, sino también desde el ético. En nombre del Gobierno italiano, tuve el honor de firmar una carta ética, la “Rome call for AI Ethics”, promovida por la Accademia Pontificia per la Vita con el objetivo de involucrar a los estados, las empresas y los individuos interesados en la cuestión de la ética y la IA, y promover el desarrollo de algoritmos transparentes, evaluables e inclusivos en los que la tecnología sirva de apoyo para los humanos y no los sustituya. También, durante la segunda legislatura de Conte, apoyamos la participación de Italia en proyectos como la Global Partnership for AI (GPAI) donde, junto con la UE y otros 23 países, Italia trabaja para salvar la brecha entre la teoría aportada por los distintos documentos de la OCDE (OECD Principles on AI, OECD Recommendation of the Council on Artificial Intelligence y las actividades del OECD Observatory on AI) y la práctica.
Por último, en noviembre de 2021, Italia aprobó el Programa Estratégico de Inteligencia Artificial 2022-2024 para reforzar las competencias y atraer talento, aumentar la financiación de la investigación avanzada en IA e impulsar la adopción de la IA y sus aplicaciones, tanto en la Administración Pública (AP) como en los sectores productivos en general. El enfoque de Italia sobre la IA se inscribe en un marco más amplio de la intención de la UE de diseñar “una Europa resiliente para la década digital” en la que tanto personas como empresas puedan disfrutar de los beneficios de la IA.
Son dos los ámbitos: la excelencia en la IA y la fiabilidad de la IA. La Comisión Europea ha desarrollado una estrategia de IA para acompañar el enfoque de Europa hacia la IA, y publicó, en abril de 2021, su paquete de IA proponiendo nuevas normas y acciones para convertir a Europa en un centro mundial de Inteligencia Artificial de confianza. El Consejo de Europa no es menos importante, y bajo la presidencia italiana del Comité de Ministros del Consejo de Europa, está centrándose en el desarrollo de sistemas de Inteligencia Artificial que se centran en los derechos humanos y democráticos y el Estado de derecho. El Comité de Inteligencia Artificial (CAI) recibió el mandato del Comité de Ministros de “desarrollar un marco legal apropiado sobre el desarrollo, diseño y aplicación de sistemas de inteligencia artificial”.
El poder legislativo también deberá garantizar la complementariedad con las normas internacionales vigentes en materia de derechos humanos, democracia y Estado de derecho, y tendrá como objetivo esencial colmar las lagunas jurídicas que puedan haber surgido debido a los rápidos avances tecnológicos en este ámbito. Este esfuerzo será complementario a las negociaciones ya iniciadas en la UE.
Los esfuerzos de Italia y de la UE sobre la cuestión de la IA y el respeto de los derechos humanos, la ética y la democracia ponen de manifiesto la voluntad de eliminar uno de los mayores malentendidos del desarrollo tecnológico relacionado con los derechos: poner al hombre en el centro de la tecnología no significa frenar su desarrollo, sino todo lo contrario, significa aumentar su valor. Nadie confiará totalmente en una nueva tecnología que pueda tener consecuencias negativas para sí mismo o para sus hijos en términos de limitación de los derechos civiles, políticos, económicos, sociales y culturales. La falta de confianza solo puede limitar el progreso tecnológico, y la Europa actual no puede permitírselo. No solo por sí misma, sino también por los equilibrios geopolíticos que está encomendada a mantener tanto online como offline. Tenemos que mirar hacia nuestro futuro con valentía y dejarnos guiar, en cada elección, por nuestros valores democráticos.