.

Inteligencia Artificial

Siri y Alexa intentan parecer más humanas para conseguir que compre más

1

Además de entender lo que se les dice, los asistentes virtuales están evolucionando para captar las emociones y modular su discurso para ser más persuasivos y estimular las ventas de las empresas

  • por Will Knight | traducido por Teresa Woods
  • 28 Octubre, 2016

Los descendientes de Alexa y Siri podrían tener habilidades comerciales sorprendentemente buenas.

Conocí la versión temprana de un bot de conversación persuasiva en una conferencia tecnológica celebrada recientemente en Pittsburgh (EEUU). Después de charlar un rato sobre cosas insustanciales e intercambiar alguna broma, el bot, llamado Sara, me recomendó conocer a algunas otras personas. Las sugerencias fueron excelentes, y si no las hubiese conocido ya, habría seguido su consejo.

Sara fue desarrollado por la directora de interacciones humano-máquina de la Universidad de Carnegie Mellon (EEUU), Justine Cassell, que estudia cómo los que los agentes virtuales podrían emplear pistas sutiles dentro de las conversaciones para construir relaciones con las personas y volverse más eficaces a la hora de transmitir datos o persuadirles para que hagan algo.

Foto: Sara, un bot de conversación, emplea varios micrófonos y cámaras de vídeo para rastrear las comunicaciones no verbales de una persona. Crédito: ArticuLab.

El trabajo sugiere el potencial de unos bots de conversación más útiles. La mayoría sigue siendo horriblemente torpe y se confunde con facilidad, y llevará tiempo lograr un entendimiento más profundo del lenguaje. Pero las pistas conversacionales podrían ayudar a que sean menos irritantes y más eficaces. Algunas grandes empresas ya están empleando este enfoque para mejorar sus asistentes virtuales.

Hablar con Sara desde luego me resultó menos antinatural que hablar con el típico bot de conversación. El sistema estudia las palabras que pronuncia una persona durante una conversación además del tono de su voz, y emplea varias cámaras para estudiar las expresiones faciales y movimientos de cabeza del locutor. Gracias a esta información, un programa intenta determinar la respuesta más apropiada diseñada para aumentar la sensación de empatía con esa persona. En un momento dado de nuestra conversación, por ejemplo, Sara me vio sonreir y asentir con la cabeza, y al instante hizo un comentario autocrítico.

Cassell explica: "Hay muchos bots de conversación que emplean expresiones sociales, pero las usan al azar y eso no es muy útil. En los humanos de verdad, las expresiones sociales tienen un objetivo".

Por ejemplo, según Cassell, la gente a menudo utiliza la conversación superficial para preparar el terreno para una pregunta incómoda, lo que ayuda a suavizar el golpe. Si un ordenador emplea la conversación superficial en el contexto equivocado, no sólo será menos eficaz sino resultará extraño. Cassell y sus alumnos han estudiado muchos tipos distintos de interacciones humanas para entender los componentes que podrían ser captados y codificados dentro de las máquinas, anotando más recientemente el comportamiento de alumnos de instituto que se enseñan algebra entre sí.

Aunque Cassell lleva más de una década estudiando cómo podrían las máquinas imitar el entendimiento conversacional, afirma que los investigadores corporativos sólo han empezado a mostrar su interés por su trabajo recientemente. De hecho, afirma que una gran empresa que rehusó nombrar se ofreció a comprar las patentes de Sara.

Las técnicas que están perfeccionando podrían resultar especialmente importantes a medida que los asistentes virtuales asuman más responsabilidades a la hora de guiarnos para encontrar datos y dar forma a nuestros hábitos de compra. Facebook, Microsoft y Google entre otras ven en los bots de conversación una prometedora interfaz nueva para llegar a los clientes (ver El marketing en redes sociales abraza los bots).

Foto: Sara fue expuesto en una conferencia patrocinada por el Foro Económico Mundial y celebrada en Tianjín (China) recientemente. Crédito: ArticuLab.

Algunos de los asistentes virtuales más pulidos, como Siri, ya usan algunas sutiles pistas sociales. Este año, Apple compró una empresa llamada Emotient, que está desarrollando tecnología para detectar las emociones de las personas. Eso podría señalar su intención de mejorar la inteligencia emocional de Siri.

Mientras tanto, fuentes cercanas a las investigaciones de Amazon dicen que la empresa está estudiando formas para que Alexa, el asistente virtual de su dispositivo Echo controlado por voz, se compenetre más con los estados emocionales de los usuarios tal y como expresan su tono de voz y manera de hablar (ver El asistente de Amazon derrotará a Siri detectando las emociones del usuario). Obviamente, el dispositivo de Amazon también está diseñado con un ojo puesto en permitir las compras en línea, por lo que no resulta difícil de imaginar que Alexa desarrollara una habilidosa labia comercial.

Existen retos para que funcione de una manera práctica. El profesor de la Universidad Northeastern (EEUU) Timothy Bickmore cree que uno de los mayores consiste en captar todas las diversas pistas que pueden resultar relevantes para una interacción, incluidas las expresiones faciales y el lenguaje corporal. Esto podría resultar especialmente peliagudo desde dispositivos móviles, aunque en teoría un smartphone podría captar la información empleada para hacer funcionar a programas como Sara. Y afirma que el enfoque no será de gran ayuda si una interfaz sólo está diseñada para ejecutar un comando tan rápida y eficientemente como sea posible. El experto detalla: "Esas pistas son más útiles dentro de las conversaciones naturales. A veces la conversación social sólo entorpece".

Sara, al menos, parecía bastante útil como ayudante de conferencia. Este año Cassell y sus alumnos se la llevaron a un evento organizado por el Foro Económico Mundial en Tianjín (China), donde ayudó a los asistentes a conocer a gente. Y dice que un estudio aún sin publicar demuestra que Sara es más eficaz a la hora de lograr que alguien haga clic sobre un vínculo cuando aplica sus estrategias conversacionales. Ese tipo de construcción de relaciones humano-máquina podría señalar las cosas que están por venir.

Cassell detalla: "Mi objetivo es desarrollar un dispositivo que pueda acompañarte durante toda la vida, y cuyo comportamiento evolucione con el transcurso del tiempo. Si al cabo de cinco años te habla igual que el día que lo compraste, entonces sentirás que tienes un dispositivo con amnesia, o, incluso peor, uno al que no le importas".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La "sustancia" del algoritmo: la IA cada vez está más cerca de actuar por nosotros

    En un futuro cercano, la IA no solo será capaz de imitar nuestra personalidad, sino también de actuar en nuestro nombre para llevar a cabo tareas humanas. Sin embargo, esto da lugar a nuevos dilemas éticos que aún deben ser resueltos

    Agentes de IA, hacia un futuro con algoritmos humanos y dilemas éticos complejos
  2. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  3. Qué es el 'red teaming' híbrido, el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos