Al imitar las acciones no verbales, los robots podrían ser mejores asistentes.
Si los robots se van a convertir en algo común en los hogares y en los espacios públicos, tendrán que responder de forma más intuitiva a las acciones humanas y comportarse de un modo más comprensible para los seres humanos. Esta semana, en la conferencia IEEE Human-Robot Interaction (HRI) 2009, en California (Estados Unidos), los investigadores presentarán los últimos avances hacia estos dos objetivos simultáneos.
Varios equipos de investigación están explorando modos para que los robots imiten y reconozcan la parte sutil, no verbal de la comunicación humana: los movimientos oculares, el contacto físico y los gestos. Dominar estas sutilezas sociales podría ayudar a las máquinas a transmitir significados para complementar el discurso y responder mejor a las necesidades y órdenes humanas. Esto podría ser crucial si algún día los robots llegan a cumplir su potencial como asistentes personales, asistentes de enseñanza y ayudantes de atención sanitaria, según aseguran los investigadores implicados.
Científicos de la Universidad Carnegie Mellon presentarán los detalles de experimentos que manejan un robot que utiliza movimiento de los ojos para ayudar a orientar el flujo de una conversación con más de una persona. Desarrollado en colaboración con investigadores de la Universidad de Osaka de Japón y del ATR Intelligent Robotics and Communication Laboratory, esta estrategia podría resultar particularmente útil para los robots que actúen como recepcionistas en los edificios o centros comerciales, o como guías para los museos o parques, explican los científicos.
"El objetivo es utilizar mecanismos de comunicación humana en los robots para que los humanos interpreten los comportamientos correctamente y respondan a ellos de manera apropiada", afirma Bilge Mutlu, miembro del equipo de Carnegie Mellon. Después de todo, hace notar Mutlu, "no queremos crear un robot antisocial, tímido".
El robot utilizado para los experimentos, llamado Robovie, fue desarrollado previamente en ATR. Para darle a Robovie la capacidad de combinar la mirada con el habla, los investigadores desarrollaron en primer lugar un modelo sobre la forma en que la gente usa los ojos durante una conversación o un debate. Ellos estudiaron la literatura de cognición social para desarrollar modelos de predicción y, a continuación, estos modelos se refinaron mediante la recopilación de datos de las observaciones de laboratorio. Por último, el grupo incorporó estos datos al software que controla a Robovie durante la conversación en situaciones diferentes.
Durante los experimentos, Robovie desempeñó el papel de un agente de viajes, saludó a los participantes, se presentó y luego realizó una serie de preguntas para determinar a qué lugar querían viajar los participantes. También se probaron tres situaciones de conversación: dirigirse a uno de los participantes haciendo caso omiso del otro; dirigirse a uno de los participantes al tiempo que reconoce al otro como un espectador mediante miradas rápidas, y dirigirse a los dos por igual, con cantidades iguales de contacto visual.
El equipo descubrió que Robovie fue capaz de orientar el flujo de una conversación de modo eficaz. Aquellos a quienes el robot miró más tiempo hablaron más veces, aquellos a quienes Robovie envió miradas de reconocimiento hablaron menos, y los que fueron ignorados por completo fueron los que menos hablaron. Este patrón se repitió alrededor del 97% de las ocasiones. Los investigadores aseguran que el trabajo futuro combinará la mirada del robot con otros indicadores no verbales, incluso gestos.
Otro equipo en la conferencia se está centrando en el simple contacto físico. Usando un robot humanoide pequeño con control remoto, científicos de los Países Bajos, realizaron experimentos en los que a los voluntarios les mostraron al robot intentando ayudar a una persona a utilizar un ordenador. Los voluntarios describieron que el robot era más parecido a los humanos y más fiable cuando hubo contacto físico, por ejemplo, mediante una palmada en el hombro o un choque de palmas. "Demostramos que existen efectos como resultado de la combinación de la anticipación y el tacto", expresa Henriette Cramer, investigadora y candidata al doctorado de la Universidad de Amsterdam. Ella destaca que el objetivo de la investigación de su equipo es hacer que esto ocurra de la forma más natural posible: "No conocemos del todo cuáles serán los efectos del contacto, especialmente en combinación con otros comportamientos sociales", añade.
"Nuestra aspiración es incorporar habilidades sociales muy humanas a estos robots", explica Brian Scassellati, un profesor que estudia la interacción humano-robot en la Universidad de Yale (Estados Unidos) y es copresidente del programa HRI 2009. El campo de la interacción humano-robot es joven pero está creciendo rápidamente, afirma Scassellati, y está revelando mucho acerca de la psicología social humana. "Sólo en los últimos 10 años, aproximadamente, hemos tenido la capacidad de cálculo y percepción sobre estas máquinas para cambiar las cosas realmente", concluye Scassellati.