FACE reconoce los gestos humanos y reacciona en función del contexto social en el que se encuentre
Los asistentes virtuales como Siri aparentan cierta empatía (ver “Cuando la máquina hizo exclamar a su creador: "¡Está viva!”). Si una persona tiene hambre, la personalidad robótica detectará la necesidad y ofrecerá soluciones en forma de restaurantes y comida para llevar. Sin embargo, ni el ayudante de Apple ni ningún otro de su especie sabe lo que se siente al pasar hambre. Las inteligencias virtuales aún no son capaces de entender las emociones humanas y eso es, precisamente, lo que el ingeniero biomédico y doctor en robótica automática de la Universidad de Pisa (Italia), Daniele Mazzei, quiere cambiar.
Pie de foto: el androide FACE interpreta los gestos y posturas de las personas a su alrededor para dar respuestas no verbales acordes al contexto social. Crédito: FACE Team.
Junto a su equipo, Mazzei ha desarrollado FACE (Facial Automaton for Conveying Emotions), un androide capaz de interpretar situaciones sociales y mostrar expresiones faciales acordes con el contexto. El objetivo de FACE es mejorar la comprensión del entorno en el que se encuentre y responder con un comportamiento apropiado para facilitar la inclusión de los robots en la vida cotidiana de las personas (ver “Cada vez habrá más robots compañeros de trabajo”).
“No se puede pretender que los robots formen parte de la sociedad si no son capaces de entender su comportamiento”, asevera Mazzei. Por ello, su avance está especialmente destinado a los autómatas que más se relacionan con los humanos, como androides asistentes para niños y ancianos, compañeros laborales robóticos e incluso para “la aspiradora inteligente que ya toma decisiones por sí sola en el salón”, añade. El investigador ha presentado las conclusiones de su investigación en FACE en el evento de robots humanoides Humanoids 2014 celebrado esta semana en Madrid (España).
La mejor arma de este androide es su cerebro, un software que le permite escanear la habitación en la que se encuentra e identificar los elementos con los que puede y debe interactuar en cada momento. Es decir, diferencia humanos de no humanos y, además, distingue cómo responderles en función de la situación social que esté teniendo lugar. FACE alcanza este nivel de comprensión robótica a través de variables como la posición de las personas en la habitación, sus gestos, posturas y la orientación de sus rostros. También identifica los gestos faciales, las modulaciones de la voz e incluso se aprende los nombres propios de los individuos.
El sistema procesa toda esta información en tiempo real y genera respuestas acordes con la situación: cruza las manos, sonríe, frunce el ceño o se encoje de hombros en función del ambiente percibido. “Aún no habla”, explica el investigador, aunque afirma en un futuro podrá hacerlo. Por ahora están enseñando al sistema para que reconozca las señales sociales, y lo han incorporado en un cuerpo robótico “que además puede gesticular en base a esta información”, añade.
El cuerpo robótico en el que han introducido FACE es similar al de un maniquí, pero en su interior incorpora una serie de motores que recrean el movimiento de los músculos de la cara para emular la expresión de emociones. Al igual que los humanos, este androide no sólo tiene las opciones “feliz” o “triste”, sino que muestra una amplia gama de gestos y micromovimientos que aportan realismo a sus expresiones, algo fundamental para regular su comportamiento en la interacción social.
Mazzei recuerda lo poco natural que resulta interactuar con robots domésticos que se mueven y hablan como un robot: “Llega a producir inquietud en las personas”. Esto supone una barrera en la integración que los humanos hacen de los robots en sus actividades. Mucho más fácil sería interactuar con un robot que trabaja en la oficina o que cuida de una persona mayor, si este fuese capaz de “detectar los signos de la comunicación verbal y no verbal y expresar los suyos propios”, explica Mazzei.
Un terapeuta infantil
Este maniquí con aspecto humano en el que se ha incorporado el software de FACE ya había sido empleado en investigaciones con niños autistas. En ellas, sin embargo, era un operador en otra sala el que dirigía los gestos del robot. En este caso, FACE toma sus propias decisiones para gesticular de forma apropiada en función de la información que recoge del ambiente.
Al enseñar a un robot a interpretar las emociones y los comportamientos humanos, sus respuestas “serán menos mecánicas y más comprensibles para las personas”, explica Mazzei. Hasta ahora, los robots domésticos reaccionan a órdenes basadas en parámetros técnicos, como “dirígete a la posición X”, “mira hacia Y”, pero FACE puede entender órdenes como “saluda a Mario” o “muéstrate contento”, según explica el investigador.
Estas funcionalidades no solo serían útiles en un robot con aspecto humano. Mazzei está convencido de que incorporar un software de este tipo en cualquier dispositivo inteligente serviría para mejorar aplicaciones del internet de las cosas. El investigador lo describe así: “Imagina que la aspiradora inteligente sabe cuando una persona llega a casa, reconoce su voz y entiende que está cenando en el salón, entonces entrará a limpiar en otro momento”.
Este concepto ha inspirado a Mazzei para crear una spin-off de su universidad llamada Things Onto the Internet, una start-up que desarrolla dispositivos basados en Arduino (una plataforma electrónica de código abierto) que dota a cualquier objeto de la capacidad para escanear la actividad humana de su entorno. Obviamente, en el caso de una cafetera o de un microondas, estos no gesticularían ni responderían mostrando emociones, pero sí serían más permeables al contexto social que tenga lugar a su alrededor y podrían interactuar más fácilmente con los usuarios. “Esto haría que realmente puedan pasar a formar parte de nuestro mundo”, afirma.
Otros proyectos presentados en Humanoids 2014 también tienen como objetivo mejorar las facetas sociales de los robots para facilitar su inclusión en actividades humanas. El equipo de investigadores de Ciencias Cognitivas, Robótica y Cerebro del Instituto Italiano de Tecnología de Génova (Italia) ha creado Icub, un robot con aspecto de niño que se muestra contento o enfadado al mover sus cejas y boca dibujadas en el rostro con luces LED. Icub es de código abierto, y ya está presente en más de 30 laboratorios, en los que sirve a los científicos para investigar aplicaciones de robótica, pero también en interacción con humanos y en inteligencia artificial.
Cuando ve una pelota roja, Icub frunce el ceño y cuando consigue agarrarla, vuelve a relajar las cejas y esboza una leve sonrisa. El mecanismo es simple y sencillo, pero según el ingeniero mecánico Alessandro Roncone, que ha participado en su desarrollo, “esos pequeños detalles familiares hacen más fácil la interacción con los científicos”.
Para Roncone, la interacción humano-máquina será más intuitiva y mejor aceptada por el público cuanto más similares sean sus gestos a los humanos, sea cual sea el uso del robot. Además de ser enternecedor, este robot siente el contacto cuando alguien le toca e incluye hasta nueve niveles de movimiento en sus manos robóticas. Sin embargo, y aunque su sonrisa diga lo contrario, aún es incapaz de alegrarse por ti.