Inteligencia Artificial
Luces y muchas sombras de que el lenguaje natural sustituya a los buscadores
Los modelos basados en el lenguaje natural son imitadores irracionales que no entienden lo que dicen, así que, ¿por qué tratarlos como expertos?
El año pasado, durante la presentación anual de nuevos widgets y tecnología en desarrollo de Google I/O, su CEO, Sundar Pichai, reveló el "último avance en la comprensión del lenguaje natural" que había logrado empresa: el chatbot LaMDA, diseñado para conversar sobre cualquier tema.
A continuación, Pichai hizo una demostración en la que LaMDA respondió a unas preguntas sobre Plutón en lenguaje natural, mostrando esa sencilla forma de obtener información como una alternativa al buscador. En vez de enumerar unos resultados después de escribir las preguntas en un cuadro de búsqueda, LaMDA participó en una conversación sobre el planeta enano.
PICHAI: Dime qué vería si me fuera ahí.
LAMDA: Verías un enorme cañón, unos icebergs congelados, géiseres y algunos cráteres.
P: Parece bonito.
L: Te aseguro que vale la pena el viaje. Sin embargo, deberás llevar ropa de abrigo, porque hace mucho frío.
La conversación fue simpática, aunque LaMDA cometió algunos errores. El modelo lingüístico de inteligencia artificial (IA) que lo hace funcionar está aún en desarrollo, según explicó Pichai. Google asegura que de momento no tiene planes de usar LaMDA en sus productos, pero la empresa lo está utilizando para explorar nuevas formas de interactuar con los ordenadores y de buscar información. "LaMDA ya sabe bastante sobre Plutón y sobre otros millones de asuntos", resaltó Pichai.
Esta visión de una IA sabelotodo que ofrece información relevante y precisa en fragmentos pequeños y fáciles de entender está influyendo en la forma en la que las empresas tecnológicas se imaginan cómo será el futuro de los motores de búsqueda. Además, dado el auge de asistentes de voz como Siri o Alexa, los modelos basados en lenguaje natural se están convirtiendo en un referente tecnológico para los buscadores.
Pero las críticas no se han hecho esperar y algunas voces argumentan que ese enfoque es erróneo. Hacer una pregunta a un ordenador y obtener una respuesta en lenguaje natural puede ocultar la complejidad detrás de una apariencia de autoridad que no se merece. "Nos hemos centrado demasiado en lo que podemos hacer y no hemos analizado lo que deberíamos hacer", opina el profesor de la Universidad de Washington (EE UU) Chirag Shah, especializado en buscadores.
El 14 de marzo, Shah y Emily M. Bender, profesora de la Universidad de Washington especializada en lingüística computacional y cuestiones éticas relativas al procesamiento del lenguaje natural, publicaron un artículo que critica lo que consideran como demasiada prisa por adoptar los chatbots para tareas para las que no están diseñados. En particular, temen que el uso de modelos basados en lenguaje natural para la búsqueda pueda generar más desinformación y un debate más polarizado.
"La fantasía de Star Trek, con ese ordenador que lo sabe todo, al que se pueden hacer preguntas y simplemente las responde, no es ni lo que podemos proporcionar ni lo que necesitamos", señala Bender, quien además fue coautora del artículo que provocó la salida de Timnit Gebru de Google, en el cual se habían destacado los peligros de los grandes modelos basados en lenguaje natural.
Para Bender no es solo que la tecnología actual no esté a la altura, sino que considera que "hay algo malo en esa visión": "Es infantil decir que la forma en la que obtenemos información es preguntándole a un experto que nos la facilita".
Google ya usa los modelos de lenguaje para mejorar su actual tecnología de búsqueda, como ayuda para interpretar las consultas de los usuarios con mayor precisión. Pero algunos investigadores creen que los modelos de lenguaje se podrían usar para reformar cómo se realizan las búsquedas. LaMDA es solo un ejemplo.
El año pasado, el investigador de Google Don Metzler y sus colegas propusieron reinventar el motor de búsqueda como una conversación bidireccional entre el usuario y la máquina, con ordenadores respondiendo a las preguntas como lo haría un experto humano. Google también está desarrollando una tecnología llamada modelo unificado multitarea (MUM), construida sobre un modelo de lenguaje natural y diseñada para responder las consultas de los usuarios recopilando información de diferentes fuentes.
"Estamos profundamente comprometidos con el avance de la comprensión del lenguaje porque hace que los productos como la Búsqueda de Google sean más útiles para la gente", asegura Jane Park, directora de comunicación del equipo de Buscadores de Google, quien añade, que, sin embargo, Google aún no tiene planes para convertir este nuevo ámbito de investigación en productos: "Sabemos que hay una serie de desafíos abiertos en la comprensión del lenguaje y por eso estamos adoptando un enfoque muy cauteloso".
Imitaciones irracionales
Los chatbots y la IA pueden imitar el lenguaje natural con un realismo impresionante. Entrenados con cientos de libros y una enorme cantidad de páginas web, absorben enormes cantidades de información. ¿Por qué no usarlos como una especie de motor de búsqueda, capaz de sintetizar las respuestas de múltiples fuentes y empaquetarlas en frases fáciles de entender?
El problema es que los modelos de lenguaje son imitadores irracionales. Pueden llegar a ser sorprendentemente precisos al predecir las palabras o expresiones con más probabilidades de aparecer en una frase o conversación. Pero, a pesar de la afirmación de Pichai, quien aseguraba que su IA "sabe" sobre muchos temas, los modelos de lenguaje no entienden lo que dicen y no pueden razonar sobre lo que transmiten sus palabras.
Esto es importante, porque la IA conversacional puede cambiar nuestra forma de pensar sobre la interactuación con una máquina. Según Bender, escribir una consulta de búsqueda en un cuadro y obtener una lista de respuestas es interactuar con un ordenador, pero con lo que se hace con los modelos de lenguaje natural es otra cosa.
"Si mantengo una conversación con una máquina, extrapolo que la máquina entiende lo que le digo. Las respuestas de la máquina se interpretan en ese contexto", señala la experta.
Los usuarios depositan una confianza incondicional en los resultados de los buscadores y "con las interacciones en lenguaje natural, esto se manifiesta aún más", añade Shah.
La idea de usar IA para sintetizar y empaquetar las respuestas a las consultas del motor de búsqueda es parte de una tendencia que comenzó con el uso de lo que se conoce como respuestas directas o snippets: respuestas únicas o explicaciones breves que se muestran por encima de los enlaces a documentos en los resultados de búsqueda. En teoría, pueden brindarnos la información que buscamos de un solo vistazo, ahorrándonos la molestia de leer documentos más largos para encontrarla por nuestra cuenta.
Bender no está en contra de usar los modelos de lenguaje para todos los intercambios de preguntas y respuestas y ella misma tiene un Asistente de Google en su cocina, que utiliza para ayudarse a convertir las unidades de medida en recetas. "Hay momentos en los que es muy útil poder usar la voz para acceder a la información", admite.
Pero tanto ella como Shah recuerdan, a modo de ejemplo, un caso preocupante que tuvo lugar el año pasado, cuando el buscador Google generó un snippet que llevaba por título la pregunta "¿Cuál es el idioma más feo de la India?" e incluía debajo: "La respuesta es kannada, un idioma que hablan alrededor de 40 millones de personas en el sur de la India".
Sin respuestas fáciles
Este es el dilema. Las respuestas directas pueden ser convenientes, pero también suelen ser incorrectas, irrelevantes u ofensivas. Pueden ocultar la complejidad del mundo real, advierte Benno Stein, profesor de la Universidad Bauhaus en Weimar (Alemania).
En 2020, Stein y sus colegas Martin Potthast, de la Universidad de Leipzig, y Matthias Hagen, de la Universidad Martin Luther en Halle-Wittenberg (ambas en Alemania), publicaron un artículo destacando los problemas con las respuestas directas. "La respuesta a la mayoría de las preguntas es depende", indica Matthias. "Algo que es difícil de explicar a alguien que busca algo".
Stein y sus colegas consideran que las tecnologías de búsqueda han pasado de organizar y filtrar la información (mediante distintas técnicas como proporcionar una lista de documentos que coincidan con una consulta de búsqueda) a hacer recomendaciones en forma de una sola respuesta a una pregunta y piensan que es un paso demasiado desproporcionado.
Una vez más, el problema no lo constituyen las limitaciones de la tecnología existente, sino que, ni siquiera con una tecnología perfecta, obtendríamos respuestas perfectas. "Nunca sabemos cuál es la mejor respuesta porque el mundo es complejo, pero se nos olvida cuando vemos estas respuestas directas", explica Stein.
Shah está de acuerdo. Proporcionar a las personas una sola respuesta puede ser problemático, porque las fuentes de esa información y cualquier discrepancia quedan oculta. "Se trata de confiar completamente en estos sistemas".
Shah y Bender sugieren una serie de soluciones a los problemas que anticipan. En general, creen las nuevas tecnologías de búsqueda deberían seguir permitiendo los diferentes usos que se les da a los motores de búsqueda hoy en día y que, en muchos casos, no pasan por obtener respuestas directas. “A menudo la gente usa los buscadores para explorar temas sobre los que no tienen preguntas cerradas. En este caso, sería más útil simplemente ofrecer una lista de documentos”, explica Shah.
Debe quedar claro de dónde proviene la información, especialmente si una IA la extrae de más de una fuente. Algunos asistentes de voz ya lo mencionan, por ejemplo, anteponiendo a la respuesta algo así como "esto es lo que encontré en Wikipedia". Las próximas herramientas de búsqueda también deberían añadir la capacidad de decir "esa es una pregunta tonta", según opina Shah, lo que ayudaría a la tecnología a evitar premisas ofensivas o sesgadas en una consulta.
Stein sugiere que los motores de búsqueda basados en IA enumeren las razones para sus respuestas, con pros y contras de diferentes puntos de vista.
Pero muchas de estas sugerencias ponen de relieve el dilema que identificaron Stein y sus colegas. Cualquier cosa que reduzca la comodidad será menos atractiva para la mayoría de los usuarios. "Si no vamos a la segunda página de los resultados de Google, no querremos leer diferentes argumentos", señala Stein.
Google admite que es consciente de muchos de los problemas que plantean estos investigadores y trabaja arduamente para desarrollar la tecnología que la gente encuentre útil. Pero Google es el desarrollador de un servicio multimillonario. Al final, creará las herramientas que atraigan a la mayor cantidad de personas.
Stein espera que no todo dependa de la comodidad, y concluye: "La búsqueda de información se ha convertido en algo muy importante para nosotros como la sociedad".