El director del Instituto de Investigación en Inteligencia Artificial del CSIC (España), Ramón López de Mántaras, afirma que la inteligencia artificial ya nos rodea por completo, pero no como algunos la dibujan
Nada más bajarse del tren en Madrid (España), el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras, empieza su alegato contra los gurús y términos como la singularidad. Admite que aunque hablan de conceptos que seducen y embelesan, sobre todo a los medios, la realidad no tiene nada que ver. Ni máquinas que sustituyen a los médicos ni ciudades repletas de autómatas con forma humana. "No es el robot físico el que va a quitar el trabajo. La gente se piensa que habrá un robot con forma humana que estará allí haciendo su trabajo, pero no: será software", explica este investigador, que en 2011 se convirtió en el primer ganador no norteamericano del premio Robert S. Engelmore que otorga la Asociación Americana de Inteligencia Artificial.
Vivimos rodeados de inteligencia artificial, explica Mántaras. Sin embargo, "todos son ejemplos de inteligencia artificial específica o débil". Detalla que se trata de "sistemas diseñados para hacer muy bien algo muy concreto, pero que no pueden transferir sus conclusiones a otra cosa similar pero distinta". O, como él dice, Alpha Go, el software inteligente de Google que derrotó al campeón mundial del histórico juego de mesa Go, no podría ganar al parchís.
Watson, Libratus, Alpha Go… Últimamente hay tantas noticias sobre inteligencia artificial que uno no sabe qué mundo le espera al levantarse.
Es cierto es que el aprendizaje profundo ha logrado éxitos indiscutibles. Como detectores de patrones son casi inmejorables, tanto para el diagnóstico de imagen médica como para jugar al Go. Hace que parezca que toda la inteligencia artificial es eso, pero se sigue trabajando en todo. Cuando hablabas de inteligencia artificial hace unos años se decía "el conocimiento es poder". Ahora hemos pasado a "los datos son poder". Si tienes acceso a grandes cantidades de datos y hardware de altas prestaciones, ya tienes una máquina genial para un montón de cosas con aprendizaje profundo.
Pero los sistemas de aprendizaje profundo tienen un problema: son cajas negras. Te dan una predicción, un reconocimiento de un patrón, que puede ser correcto, pero no puedes ver qué proceso de razonamiento han seguido porque no hay un razonamiento como tal. Analiza grandes cantidades de datos y te da unas respuestas. Te las puedes creer o no. Pero no tienes manera de saber por qué ha llegado a una respuesta y no otra.
La historia de la inteligencia artificial es en parte una búsqueda constante para lograr un cerebro digital. Pero, ¿no podría ser que la solución no pasara necesariamente por emular lo humano?
Un avión vuela sin batir las alas. La solución no es la misma que la de la naturaleza. Y lo mismo pasa en la inteligencia artificial. No sigue un proceso biológico. Aunque la inteligencia humana es el referente y la inspiración, las soluciones no pasan por imitar fielmente al cerebro humano. Porque, aunque tuvieras un mapa del conectoma humano y lo reprodujeras, hay un salto entre esa actividad física al nivel de las neuronas, sean biológicas o artificiales, y cómo emerge la inteligencia. Eso nadie lo sabe todavía.
¿Cuáles son las líneas de trabajo más relevantes en este momento?
A corto plazo no creo que haya algo muy distinto de lo que estamos haciendo. Piensa que la inteligencia artificial se está aplicando a todo lo que uno se pueda imaginar. Desde la logística, el arte, el entretenimiento, el comercio electrónico... Se ha metido en todo lo que implica ayudar a la toma de decisiones: recomendarte libros, películas, concesión de créditos, medicina... Sí que habrá un salto cualitativo importante el día que todos los vehículos, o la inmensa mayoría, sean autónomos.
Muchas informaciones indican que esa es una realidad más cercana que lejana.
No estoy tan seguro. Tendrás que asegurar, por ejemplo, que el coche no tendrá más de un accidente por cada millón de kilómetros. Conseguir un error aceptable y mejor que el humano. Pero las técnicas de verificación y evaluación de software actuales están muy lejos de garantizar la robustez de los coches autónomos: tienes coches a muy pocos metros y las reacciones son en milisegundos.
Además, lo que un software de aprendizaje automático aprenda dependerá de las observaciones y datos con que se haya encontrado. Coches distintos tendrán experiencias distintas y sus algoritmos evolucionarán de forma distinta. ¿Qué significará validar y verificar? ¿De dónde sacas un test de pruebas? Es mucho más complejo cuando el software implica un algoritmo de aprendizaje.
La transferencia tecnológica siempre fue un obstáculo para que el mercado se beneficiara de los avances tecnológicos, pero ahora vemos que empresas privadas como IBM, Facebook, Amazon, Google, Microsoft y Baidu controlan la batuta de la inteligencia artificial.
Me preocupa enormemente y es uno de los peligros que tenemos. Ellas van a maximizar beneficios para sus accionistas, tienen una finalidad lucrativa. Eso puede llevar la inteligencia artificial hacia caminos que quizá no sean para el bien común. Algunas de estas empresas están involucradas en Estados Unidos en una organización que habla de asegurar una inteligencia artificial "buena". ¿Van a sacrificar grandes negocios? ¿Será prioritario esto antes que los beneficios? ¿Se transformarán de pronto en una ONG? Lo dudo. Creo que todo lo que dicen es para lavarse la cara. Saben que tienen un problema de imagen. Dudo que sean honradas y honestas cuando dicen que les preocupa tanto el uso adecuado de la inteligencia artificial.
¿Considera que la sociedad, los países, son conscientes del posible impacto de la inteligencia artificial?
Hay gobiernos que por lo menos están promoviendo debates. También el Parlamento Europeo. Sí que hay movimiento, pero la tecnología va más deprisa. A lo mejor es inevitable ir por detrás. ¿Cómo vas a anticipar algo que no ha ocurrido? Los políticos y abogados tendrían que ser tecnológicamente más visionarios que los propios tecnólogos e investigadores. Estar por delante lo veo imposible, aunque quizá se podría reaccionar más rápido. No me consta que el Gobierno español haya convocado a ningún experto para tratar estos temas. Hay cosas, pero globalmente no parece que le preocupe demasiado a la élite política.
¿Y las empresas son conscientes?
Muchas empresas se han dado cuenta de que o juegan al juego de la inteligencia artificial o lo van a pasar mal. Se están poniendo las pilas, y no sólo las grandes. También pequeñas empresas de cualquier sector. Hay miles de aplicaciones con inteligencia artificial que ya están funcionando. Pero estas empresas no tienen que desarrollar los algoritmos. No hay que confundirse. Serán usuarias y necesitarán la capacidad de adaptarse.
A usted no le gustan las predicciones, pero ¿de qué hablaríamos si repetimos esta conversación en diez años?
[Risas] Muchos de los temas actuales seguirían presentes. Lo que es muy probable es que veamos cosas muy muy impresionantes en el mundo de la medicina. Dentro de diez años nos parecerá mentira que los sistemas de inteligencia artificial la hayan mejorado tanto. Pero tampoco creo que tengamos robots domésticos con forma humana planchando en casa.
La ayuda a la toma de decisiones sí que será mucho más potente que la actual, pero me gustaría que el factor humano no desapareciera, que estuviera detrás validando, comprobando, diciendo "de acuerdo", "vale". Pero no todo el mundo opina igual. Hay quien piensa que cuando su decisión sea de alta calidad pasemos del humano que revisa. A mí me gustaría que el binomio persona-máquina trabajara junto, que sea mejor que cualquiera de los dos por separado.