Peter Norvig, director de investigación de Google, y Eric Horvitz, distinguido científico de Microsoft Research, se muestran optimistas sobre el futuro de la inteligencia artificial.
Google y Microsoft no comparten escenario a menudo. La competencia entre ambas empresas es cada vez más feroz en áreas como las búsquedas en Internet, los dispositivos móviles y la computación en nube. Sin embargo, los rivales se ponen de acuerdo en algunas cosas, como por ejemplo la importancia de la inteligencia artificial en el futuro de la tecnología.
Peter Norvig, director de investigación de Google, y Eric Horvitz, distinguido científico de Microsoft Research, hablaron recientemente en el Computer History Museum de Palo Alto, California (EE.UU.), sobre lo que promete la IA (inteligencia artificial). Después, ambos hablaron con Technology Review acerca de lo que la IA es capaz de hacer hoy y lo que creen que será capaz de hacer mañana.
Technology Review: Ambos habéis hablado del avance de la IA en los últimos años a través del uso de técnicas de aprendizaje de máquinas que toman grandes volúmenes de datos y descubren cosas como la forma de traducir textos o transcribir la voz hablada. ¿Qué pasa con las áreas en las que queremos que la IA nos ayude pero donde no existe una gran cantidad de datos de los que aprender?
Peter Norvig: Lo que estamos haciendo es similar a buscar nuestras llaves debajo de la farola porque es ahí donde hay luz. Nos ha ido muy bien con el texto y el habla porque existen muchísimos datos a nuestra disposición. El análisis [la separación de los elementos gramaticales de las oraciones] no ocurre de forma natural por lo que tenemos que aprenderlo sin datos [etiquetados]. Uno de mis colegas está tratando de solucionar este problema fijándose en qué partes de un texto online se han hecho enlaces, lo que puede indicar la localización de una parte determinada de una oración.
Eric Horvitz: A menudo he pensado que si hubiera un servicio en nube en el cielo que registrara todas las solicitudes de habla y lo que sucede a continuación, todas las conversaciones en todos los taxis en Pekín, por ejemplo, podría ser posible que la IA aprendiese a hacerlo todo.
Más en serio, si logramos encontrar formas de capturar una gran cantidad de datos de una manera que preserve la privacidad, podemos hacer que sea posible.
¿No es difícil usar el aprendizaje de máquinas si los datos de entrenamiento no están ya etiquetados y explicados, para darle a la IA una "verdad" que tomar como punto de partida?
Horvitz: No es necesario que esté completamente etiquetado. Una zona conocida como aprendizaje semisupervisado nos muestra que incluso si el 1 por ciento o menos de los datos están marcados, podemos utilizarlos para comprender el resto.
Sin embargo, la falta de etiquetas es un reto. Una solución es pagar a varias personas una pequeña cantidad para ayudar a un sistema con los datos que no puede entender, haciendo microtareas como el etiquetado de imágenes u otras cosas pequeñas. Creo que usar la computación humana para aumentar la IA es un área de gran riqueza.
Otra posibilidad es construir sistemas que comprendan el valor de la información, lo que significa que puedan calcular automáticamente cuál es la mejor pregunta que deben hacer, o cómo obtener el máximo valor de una etiqueta o pieza de información adicional proporcionada por un ser humano.
Norvig: No hay que decirle todo a un sistema de aprendizaje. Existe un tipo de aprendizaje llamado 'aprendizaje por refuerzo' en el que simplemente se da un premio o castigo al final de una tarea. Por ejemplo, perdemos un juego de damas y nadie nos dice dónde nos hemos equivocado, y tenemos que aprender qué hacer para obtener la recompensa la próxima vez.
Todo esto resulta muy diferente de los primeros días de la IA, en los años 50 y 60, cuando los investigadores hacían audaces predicciones sobre la correspondencia de la capacidad humana y trataban de utilizar normas de alto nivel para crear inteligencia. ¿Vuestros sistemas de aprendizaje de máquinas funcionan con las mismas normas de alto nivel?
Horvitz: Los sistemas de aprendizaje pueden derivar normas situacionales de alto nivel para acciones, como por ejemplo, tomar un conjunto de síntomas y resultados de pruebas [fisiológicas] y emitir un diagnóstico. Pero eso no es lo mismo que las reglas generales de inteligencia.
Puede que el trabajo de más bajo nivel que hacemos en la actualidad se una a las ideas jerárquicamente superiores algún día. La revolución de la que Peter y yo formábamos parte dentro de la IA tenía que ver con la importancia de la toma de decisiones bajo incertidumbre, y se podía hacer con métodos probabilísticos. Junto a la revolución probabilística en la IA tenemos la perspectiva: somos agentes muy limitados y todo es incompleto.
Norvig: Al principio, la lógica era lo que diferenciaba a la IA, y la cuestión era cómo usarla. El estudio se convirtió en el análisis de los puntos fuertes de estas herramientas, como por ejemplo el ajedrez. Sin embargo, de ese modo solo podemos trabajar con cosas que sean verdaderas o falsas y no se puede hacer todo lo que nos gustaría, así que optamos por la probabilidad. Al campo le llevó un tiempo reconocer que aquellos otros campos, como la probabilidad y la teoría de la decisión, estaban presentes. Unir esos dos enfoques es un desafío.
A medida que vemos evidencias más directas de la IA en la vida real, por ejemplo Siri, parece haberse creado una especie de problema de diseño. Aquellos dedicados a crear IA tienen que hacerla apetecible para nuestra propia inteligencia.
Norvig: Eso es en realidad un conjunto de problemas a varios niveles. Conocemos el sistema de visión humana y el significado de, por ejemplo, crear botones con colores diferentes. A un nivel superior, las expectativas que tenemos sobre algo y cómo debería comportarse se basan en lo que creemos que es y en nuestra idea de su relación con nosotros.
Horvitz: La IA se está cruzando cada vez más con el campo de la interacción persona-ordenador [el estudio de la psicología y cómo usamos y pensamos acerca de los ordenadores]. La idea de que vamos a tener sistemas más inteligentes que trabajarán de cerca con la gente centra la atención en la necesidad de desarrollar nuevos métodos en la intersección entre la inteligencia humana y la inteligencia artificial.
¿Qué necesitamos conocer más en profundidad para hacer que la IA sea más compatible con los humanos?
Horvitz: Algo en lo que mi grupo de investigación ha estado trabajando para incluirlo en los ordenadores es una comprensión del sistema de atención humana, para saber cuál es el mejor momento para interrumpir a una persona. Ha sido un tema de investigación entre los investigadores y los equipos de producto.
Norvig: Creo que también tenemos que comprender el cuerpo humano mucho más, y usar el Kinect de Microsoft es una manera de hacerlo. Hay mucho potencial en el hecho de que los sistemas entiendan nuestro comportamiento y lenguaje corporal.
¿Hay algo de IA en Kinect?
Horvitz: Hay una gran cantidad de aprendizaje de máquinas en su núcleo. Creo que la idea de que podemos tomar IA de vanguardia y desarrollar un dispositivo de consumo que se ha vendido más rápido que ningún otro antes en la historia dice algo sobre el campo de la IA. El aprendizaje de máquinas también juega un papel central en las búsquedas de Bing, y presumo que también es importante en la oferta de búsqueda de Google. Por lo tanto, cuando hacemos búsquedas por Internet estamos usando IA.
Una última pregunta: ¿Podéis hablarme sobre alguna demostración reciente de IA que os haya impresionado?
Norvig: Leí un artículo recientemente escrito por alguien en Google a punto de regresar a Stanford (EE.UU.) sobre el aprendizaje no supervisado, una área donde no hemos logrado mejorar mucho a lo largo del tiempo. Sin embargo él está consiguiendo unos resultados realmente buenos, y parece que el aprendizaje cuando no se sabe nada de antemano podría estar a punto de hacerse mucho mejor.
Horvitz: Me ha impresionado mucho el aprendizaje de aprendiz, donde el sistema aprende con ejemplos. Tiene muchas aplicaciones. Tanto Berkeley como Stanford tienen grupos que están realizando grandes avances: por ejemplo, helicópteros que aprenden a volar sobre su espalda [al revés] tras observar a un experto humano.