Mark Sagar crea rostros y expresiones humanas para bots de conversación. Su falsa expresividad y su capacidad de reconocer los gestos de su interlocutor pueden mejorar la experiencia de usuario
Foto: Soul Machines desarrolló este bot de conversación para el Gobierno australiano para ayudar a informar a la gente sobre servicios para discapacitados. Crédito: Cortesía de Soul Machines.
¿Cree que sus gestiones bancarias serían más sencillas y agradables si pudiese mirar a los ojos a un bot de conversación de atención al cliente del banco y supiera que alguien percibe la mala cara que se le está poniendo por las tasas que le aplican? El profesor y emprendedor Mark Sagar cree que sí.
Sagar ha ganado dos Premios Oscar por sus técnicas de animación digital faciales que aparecieron en películas como Avatar y King Kong. Ahora es profesor adjunto de la Universidad de Auckland (Nueva Zelanda) y CEO de una start-up llamada Soul Machines, especializada en crear expresiones faciales digitales para bots de conversación de atención al cliente.
El responsable está convencido que su trabajo conseguirá que los bots sean más útiles y potentes, al igual que conocer a alguien en persona genera una conversación más rica que por escrito. "Interactuar con un sistema complejo resulta mucho más fácil en una conversación cara a cara", señala Sagar.
Soul Machines ya ha creado un avatar llamado Nadia para el Gobierno australiano. Su voz es la de la actriz Cate Blanchett y funciona gracias al software Watson de IBM. Nadia ofrece ayuda a la gente que necesita información sobre servicios gubernamentales para discapacitados. IBM ha prototipado otro avatar, Rachel, que ayuda con los servicios bancarios.
Foto: Las caras simuladas de Soul Machine están diseñadas para lograr que los bots de conversación resulten más cercanos. Crédito: Cortesía de Soul Machines.
Los movimientos de las caras digitales proceden de simulaciones de la anatomía y la mecánica de los músculos y otros tejidos de la cara humana. Los avatares pueden leer las expresiones faciales de la persona con la que hablan gracias a una cámara delantera. Sagar afirma que esta apariencia humana aumenta las probabilidades de que la gente sea más receptiva y expresiva con su propia cara, lo que permite a la empresa recopilar datos sobre lo que irrita o confunde a los clientes.
Los avatares de la empresa también pueden ser programados para reaccionar a las expresiones faciales de una persona con sus propios movimientos faciales simulados en un intento de generar una sensación de empatía.
Otras empresas han intentado detectar las emociones de la gente mediante su voz, sus palabras o sus expresiones. Amazon está explorando la idea para mejorar su asistente por voz, Alexa.