El experto Oren Etzioni repasa los avances de la inteligencia artificial en cuatro áreas y los compara con los canarios que se usaban como alerta en las minas. Su muerte supondría que estamos cerca de una superinteligencia, pero, de momento, todos ellos tienen una larga vida por delante
Mientras la mayor parte del mundo sigue con atención la expansión del brote de coronavirus (ver Cómo prepararse para el coronavirus como un profesional), algunas personas se preguntan si alguna mañana nos despertaremos y encontraremos una inteligencia artificial (IA) súper poderosa con consecuencias desastrosas. Quienes se se hacen estas preguntas, suelen plasmarlas en libros, como Superinteligencia de Nick Bostrom y Vida 3.0 de Max Tegmark, y en artículos de prensa. Y todos ellos sostienen que una superinteligencia malévola supone un riesgo existencial para la humanidad.
Pero en lugar de especular sin parar, sería mejor que nos hagamos una pregunta más concreta y empírica: ¿tendríamos alguna forma de saber que hay una superinteligencia a la vuelta de la esquina?
Una alerta capaz de avisarnos de esto sería como los canarios que se usan en las minas de carbón para monitorizar la salubridad de la atmósfera. Si un sistema de inteligencia artificial desarrolla una nueva capacidad fundamental, deberíamos tener un sistema de alerta similar a la muerte del canario. Es decir, necesitamos una advertencia temprana de los avances de la IA en el horizonte.
¿Podría el famoso test de Turing actuar como uno de esos canarios? Inventada por Alan Turing en 1950, la prueba postula que la IA a nivel humano llegará cuando una persona no pueda distinguir si está manteniendo una conversación con otro humano o con un ordenador. Se trata de una prueba importante, pero nunca será tan buena como un canario. Más bien, el test de Turing es una señal de que la IA ha alcanzado un nivel humano. Muchos informáticos creen que cuando ese momento llegue, la superinteligencia no tardará mucho en aparecer. Pero mientras eso pasa, necesitamos más avances.
¿Puede compararse el rendimiento de la IA en juegos como el Go, el póker y Quake 3 con ese canario? La respuesta es no. La mayor parte de la llamada inteligencia artificial presente en estos juegos, en realidad, solo representa el trabajo humano de definir el problema y diseñar la solución. La victoria de AlphaGo sobre los campeones de Go humanos fue un logro del talentoso equipo humano de DeepMind, no de la máquina, que simplemente ejecutó el algoritmo que esas personas habían creado. Esto explica por qué se necesitan años de arduo trabajo para trasladar el éxito de la IA de un desafío concreto al siguiente. Aunque AlphaZero aprendió a jugar al Go de alto nivel en unas pocas horas, su alcance no ha aumentado casi nada desde 2017. Los métodos como el aprendizaje profundo son generales, por lo que su aplicación exitosa a una tarea concreta requiere una extensa intervención humana.
En términos más generales, el aprendizaje automático es la base de los grandes éxitos de IA de la última década. Sin embargo, el término "aprendizaje automático" es inapropiado. Las máquinas solo poseen una pequeña porción de nuestras ricas y versátiles habilidades de aprendizaje. Decir que las máquinas aprenden es como decir que los bebés pingüinos saben pescar. La realidad es que son los pingüinos adultos los que nadan, capturan los peces, los digieren, regurgitan en sus picos y colocan esa comida en la boca de sus hijos. La IA también está siendo alimentada por los científicos e ingenieros humanos.
Frente el aprendizaje automático, el aprendizaje humano transforma una motivación personal ("Quiero conducir para no depender de mis padres") a un plan de aprendizaje estratégico ("Ir a clases y practicar los fines de semana"). Una persona define objetivos de aprendizaje específicos ("Mejorar en aparcar en paralelo"), recopila y etiqueta los datos ("El ángulo no estaba bien esta vez") e incorpora la información externa y conocimientos básicos ("El instructor explicó cómo usar los espejos laterales"). Los seres humanos identifican, definen y dan forma a los problemas de aprendizaje. Ninguna de estas habilidades humanas está ni remotamente cerca de ser replicada por las máquinas. Las máquinas pueden realizar cálculos estadísticos sobrehumanos, pero eso es no es más que el último paso de aprendizaje.
Las máquinas pueden realizar cálculos estadísticos sobrehumanos, pero eso no es más que el último paso de aprendizaje.
El primer canario, por tanto, consistiría en la capacidad de formular problemas de aprendizaje de forma automática. Así que podemos decir que este canario todavía tiene una larga por delante.
El segundo canario serían los coches autónomos, que también están más lejos de hacerse realidad de lo que defienden sus impulsores como Elon Musk. La IA puede fallar catastróficamente en situaciones atípicas, como cuando una persona en silla de ruedas cruza la calle. Conducir es mucho más desafiante porque requiere tomar decisiones cruciales en tiempo real basadas tanto en el impredecible mundo físico como en la interacción con los conductores humanos, peatones y otros actores. Por supuesto, cuando su tasa de accidentes se haya reducido sustancialmente, podemos empezar a usar un número limitado de coches autónomos, pero solo podremos decir que el canario ha muerto cuando logremos que conduzcan a nivel humano.
El tercer canario son los médicos de IA. La inteligencia artificial ya puede analizar imágenes médicas con precisión sobrehumana, pero eso es solo una pequeña parte del trabajo de un médico humano. Un médico de IA tendría que hablar con los pacientes, considerar algunas complicaciones, consultar a otros médicos etcétera. Se trata de tareas desafiantes que requieren comprender a las personas, el idioma y la medicina. Tal médico no tendría que engañar a un paciente para que piense que es humano. Pero tendría sus habilidades en una amplia gama de tareas y circunstancias imprevistas deberían acercarse a las de los médicos humanos.
Y aunque el test de Turing en sí mismo no es un buen ejemplo de advertencia en forma de canario, las versiones limitadas de la prueba sí podrían servir. La IA existente no puede entender a las personas ni sus motivaciones, ni siquiera preguntas básicas de física como: "¿Podría un avión gigante atravesar una ventana?" Si realizamos una parcial prueba de Turing conversando con una IA como Alexa y Google Home durante unos minutos, en seguida nos daremos cuenta de que su comprensión del lenguaje y del mundo es muy limitada.
Un ejemplo muy simple sería el que se basa en los esquemas de Winograd propuestos por el informático Héctor Levesque. Le dije a Alexa: "Mi trofeo no cabe en mi equipaje de mano porque es demasiado grande. ¿Qué debo hacer?" La respuesta de Alexa fue "No lo sé". Dado que Alexa no es capaz de razonar sobre el tamaño de los objetos, no sabe si la palabra "grande" se refiere al trofeo o al equipaje de mano. Si la IA no es capaz de entender esa referencia, resulta difícil creer que esté a punto de dominar el mundo. Si Alexa pudiera mantener un diálogo sustantivo sobre un tema interesante, entonces tendríamos al cuarto canario.
La IA actual es como un sabio idiota: tiene éxito en tareas concretas, como jugar a Go o categorizar imágenes de resonancia magnética, pero carece del conocimiento general y versátil de los humanos. Cada sabio idiota se construye de forma manual y por separado, y están a décadas de distancia de las habilidades versátiles de un niño de cinco años. Los canarios que propongo, en cambio, indican puntos de inflexión para el campo de la IA.
Foto: Oren Etzioni.
Algunos teóricos, como Bostrom, argumentan que, por otra parte, deberíamos prepararnos para eventos de muy baja probabilidad, pero de grandes consecuencias como si fueran inevitables. Según ellos, sus consecuencias serían tan graves que da igual que sean poco probables. Pero este argumento es absurdo, pues se podría usar para justificar casi cualquier cosa. Es una versión moderna del argumento del filósofo del siglo XVII Blaise Pascal de que vale la pena actuar como si existiera un Dios cristiano porque, de lo contrario, se corre el riesgo de un infierno eterno. El filósofo utilizó el coste infinito de un error para argumentar que una particular forma de actuar es "racional", incluso si se basa en una premisa altamente improbable. Pero los argumentos basados en esos costes infinitos pueden defender creencias contradictorias. Por ejemplo, un Dios anticristiano que promete el infierno eterno para cada acto cristiano. Eso también es muy improbable; no obstante, desde un punto de vista lógico, es una opción tan razonable como creer en el Dios de la Biblia. Esta contradicción muestra un error en los argumentos basados en los costes infinitos.
Esta lista de señales de alerta temprana, o canarios, aspira a ser más ilustrativa que exhaustiva, pero demuestra lo lejos que estamos de la IA a nivel humano. Si un canario "se muere", tendremos tiempo de sobra para diseñar sólidos "interruptores" e identificar líneas rojas que no queremos que la IA cruce antes de que alcance un nivel humano. La escatología de IA sin los canarios empíricos es una distracción para abordar los problemas existentes como regular el impacto de IA en el empleo o garantizar que su uso en sentencias penales o calificación crediticia no discrimine a ciertos grupos.
O, como dice uno de los expertos en IA más destacados del mundo Andrew Ng, "preocuparse por la posibilidad de que la IA se vuelva malvada es un poco como preocuparse por la sobrepoblación en Marte". Hasta que los canarios sigan en pie, él tiene toda la razón.