Para algunos expertos humanos, nuestras caras son como libros abiertos. Un tipo de tecnología informática acaba de automatizar esa habilidad para leer rostros.
A finales de los años 60, Paul Ekman—por aquel entonces un joven profesor de psicología en la Universidad de California, San Francisco, en la Escuela de Medicina, y en las primeras etapas de lo que sería su legado de trabajo—llenó una casa victoriana de San Francisco con una biblioteca de películas que mostraban las caras de 40 pacientes psiquiátricos mientras eran entrevistados. Ekman, que hoy día es una figura líder en su profesión, quería saber si era capaz de aislar las expresiones faciales para ayudar al diagnóstico de enfermedades mentales. Una mujer llamada Mary, que había intentado suicidarse tres veces, sonreía y hablaba con alegría en la película. Mientras lo hacía, lo que tenía en mente era poder obtener un permiso de fin de semana—para poder ir a su casa y suicidarse.
“Gracias a Mary fue como descubrí por primera vez las microexpresiones,” me contó Ekman cuando hablé con él en el set de ‘Lie to Me’, una serie dramática de la Fox inspirada en sus décadas de investigación acerca de las expresiones faciales, los gestos, y otros comportamientos no verbales que revelan nuestras emociones y—de forma más pertinente—nuestros engaños. “Algunos psiquiatras jóvenes a los que yo les daba clase me preguntaron si les podía ayudar a identificar cuándo los pacientes suicidas decían la verdad o mentían acerca de sus progresos,” afirma. “Algunos de sus pacientes habían abandonado el hospital para luego suicidarse en menos de una hora. Mary, no obstante, había confesado antes de dejar el hospital que había estado mintiendo durante una entrevista anterior que yo había filmado. Después de ver la película, no pude ver ninguna evidencia. Así que la pasé fotograma a fotograma durante una semana entera, y de pronto pude ver estas microexpresiones—dos veces, cada una de un cuarto de segundo, en un periodo de 12 minutos.”
En el caso de Mary, sus rasgos faciales mostraron una fugaz desesperación cuando el entrevistador le preguntó acerca de sus planes. Ekman descubrió que los sujetos humanos que estudió traicionaban sus estados emocionales a través de microexpresiones, a pesar del esfuerzo que ponían en suprimirlas. Identificó 46 movimientos de músculos faciales que, a lo largo de las distintas culturas, señalan emociones humanas básicas tales como miedo, desconfianza o sufrimiento.
“Lo que no sabía en un principio,” me comentó Ekman, “era que es posible aprender a reconocer estas microexpresiones en tiempo real.” Desarrolló el FACS (Facial Action Coding System, o Sistema de Codificación de Acciones Faciales) en los años 70 como ejemplo detallado de todas las expresiones faciales, incluyendo a este tipo de comportamiento muscular tan revelador. Desde entonces, los usuarios que han aprendido el FACS normalmente demuestran unas cuotas de éxito a la hora de leer caras de más de un 75 por ciento. ‘Lie to Me’—protagonizada por Tim Roth como el Doctor Cal Lightman, el personaje basado en Ekman—es un tipo de entretenimiento ligero en la misma línea que ‘House’, el gran éxito de la Fox, serie en la que un experto inconformista resuelve los casos que otros profesionales ya establecidos son incapaces de resolver. En la realidad, sin embargo, muchos de los usuarios de FACS son profesionales establecidos—policías, agentes del FBI, o miembros del Servicio Secreto de EE.UU.
No hace falta poseer un don innato para poner las investigaciones de Ekman en la práctica. “Puedes meterte en internet [www.mettonline.com] y aprender a reconocer las microexpresiones en una hora,” afirma Ekman. Con la práctica, la mayoría de nosotros podría reconocer estas expresiones fugaces en tiempo real. “Al principio, la mayoría piensa que no van a poder hacerlo,” afirma. “Al final acaban preguntando, ‘¿estás haciendo que las expresiones sucedan a una velocidad menor?’ No, simplemente es que el ojo se ha acostumbrado a verlas.”
Hay otros estudios que dan la razón a Ekman. En una investigación llevada a cabo en 2006, la neurocientífica Tamara Russell, de la Universidad del London’s King’s Collage, demostró que tras una hora de entrenamiento en microexpresiones las personas con esquizofrenia eran capaces de identificar las expresiones faciales con la misma facilidad que las personas sin problemas mentales.
Sin embargo, hay personas a las que el reconocimiento de las microexpresiones se les da mejor. La colega de Ekman en la Universidad de San Francisco, Maureen O’Sullivan, ha realizado pruebas a más de 20,000 personas durante más de dos décadas, y ha indentificado a 50 individuos que constantemente demostraron un nivel de precisión del 80 por ciento o más a la hora de detectar las mentiras. Hay quien estuvo a punto de conseguir un 100 por cien de precisión. Está claro que detrás de este tipo de éxito se esconde una serie de capacidades óptimas y específicas que hacen que estos individuos sean únicos.
Puesto que los expertos de FACS ven las cintas de video durante tres horas para analizar sólo un minuto de tics y parpadeos de un individuo, era lógico preguntarse si se podría crear un sistema informático que automatizase este proceso de análisis de microexpresiones y se acercase al grado de éxito de los “hechiceros” humanos de O’Sullivan. Ekman valoró este reto por primera vez en los años 80. Durante una temporada sabática en Londres visitó el Brunel College, donde un ingeniero que acababa de desarrollar uno de los primeros ordenadores de procesamiento paralelo estaba entrenando a una red neuronal artificial para que pudiera identificar terroristas. El problema que se encontró el ingeniero es que las distintas expresiones faciales del sujeto dificultaban que el sistema reconociera sus identidades, mientras que la dificultad de Ekman solía ser la contraria: necesitaba no tener en cuenta la fisionomía individual de sus sujetos para así reconocer las emociones que revelaban sus expresiones. Esto hizo que los dos hombres se pusieran a trabajar juntos. “En tres días fuimos capaces de enseñar a la máquina a reconocer tres emociones distintas en gente diversa,” afirma. “De vuelta en los EE.UU. pedí una beca al NIH, que fue rechazada porque decían que los ordenadores con procesamiento paralelo no existían.” Ekman compartió su frustración con un amigo que en su día fue Premio Nobel de Física; este amigo contactó a Ferry Sejnowski, cuyo laboratorio poseía los tipos de ordenadores que se necesitaban. Ekman y Sejnowski se unieron y consiguieron la beca.
Mark Frank, un antigüo estudiante de postdoctorado de Ekman y hoy día profesor en la Universidad de Buffalo, en Nueva York, ha conseguido la mayor cuota de éxito a la hora de automatizar el FACS. Frank, trabajando desde el Centro de Biométrica y Sensores Unificados de Buffalo, ha colaborado con un grupo de científicos informáticos en la Universidad de California, en San Diego—la mayoría de ellos son ex-alumnos de Sejnowski—para convertir a FACS en una tecnología denominada CERT (Computer Expression Recongition Toolbox, o Caja de Herramientas para el Reconocimiento de Expresiones por Ordenador). Le pregunté cómo iba el proyecto.
“Ya lo hemos acabado,” me dijo Frank. “Tenemos un sistema que opera en tiempo real. En términos de aprendizaje, tuvimos que enseñarle a las máquinas una buena clase de material audiovisua con emociones y expresiones reales. A partir de ahí es sólo una cuestión de entrenamiento, de pruebas, entrenamiento y más pruebas.” CERT funciona igual de bien que un experto humano, afirma, pero es ligeramente más rápido.
Un tipo de tecnología que pudiera detectar las emociones verdaderas de la gente tendría un enorme potencial a nivel político, social y comercial. ¿Qué ocurriría si los analistas políticos aplicaran esta tecnología a los videos de los debates presidenciales del año pasado para, por ejemplo, revelar si McCain u Obama estaban mintiendo? ¿O si los abogados lo usaran para analizar deposiciones en video durante un juicio para determinar si un testigo acaba de mentir, y utilizar dicho hallazgo como una evidencia? De hecho, y puesto que esta tecnología se basa en el sistema de video normal, se podría convertir en un servicio web económico que todo el mundo podría utilizar: los usuarios podrían grabar las entrevistas de trabajo, negociaciones entre compañías, firmas de acuerdos pre-nupciales, bodas o cualquier otro tipo de transacción civil, con el ojo puesto en la posibilidad de reproducir lo grabado para ver si los participantes lo hicieron de buena fe. “Te preguntas qué ocurre cuando se descubre el pastel,” afirma Frank. “¿Es posible volver a cubrir el pastel?”
Resulta sencillo determinar si este tipo de evidencia se admitiría a juicio o no. Para que sea admisible, cualquier tecnología debe satisfacer al menos uno de dos estándares legales: el test de Daubert (del caso de la Corte Suprema de EE.UU. de 1993 entre Daubert y Merrell Dow Pharmaceuticals) es el que más se usa en la mayoría de jurisdicciones. “El test de Daubert requiere que el testimonio científico pueda ser calificado como ‘conocimiento científico’ fiable,” afirma Edgard Imwinkelried, profesor de derecho en la Universidad de California, Davis, y que es experto en la admisibilidad de evidencias científicas. “La Corte Suprema define ‘conocimiento científico’ como un tipo de conocimiento validado por una metodología específica, que se describe en términos clásicos como, primeramente, la formulación de una hipótesis y, en segundo lugar, la experimentación controlada subsiguiente de una observación de campo sistematica para verificar o falsificar al hipótesis.” Si tenemos en cuenta las tres décadas de aceptación del FACS y los niveles de precisión de CERT, el análisis automatizado de las expresiones faciales puede que acabe cumpliendo con esos requisitos.
No obstante, para utilizar esto como argumento en un juicio sería necesaria la colaboración y apoyo de un testigo experto como Frank o Ekman, y eso no tiene posibilidades de que vaya a ocurrir. Frank, por ejempo, apoya el uso del CERT por el gobierno de EE.UU. para propósitos de seguridad nacional—él supone que esto empezará a suceder en 2011—pero no quiere que este tipo de tecnología se extienda mucho más allá: “Aunque recibimos llamadas cada dos semanas de gente que quiere ganar mucho dinero mediante la comercialización de este sistema como detector de mentiras, me enorgullece decir que nadie de los que están involucrados en este tipo de ciencia ha permitido que vaya más allá de los campos en los que actualmente se utiliza y que tienen todo nuestro apoyo.”
Lo que la ciencia viene a confirmar es que tanto el FACS como el CERT pueden revelar muchas de las emociones reales de un sujeto, pero esos resultados deben ser interpretados con inteligencia—especialmente si se utilizan para detectar engaños. De otro modo, y como nos resume Ekman, los usuarios se arriesgan a lo que se denomina el “Error de Othello”: “Othello leyó correctamente el miedo en el rostro de Desdémona. Pero no supo reconocer que el miedo a no ser creído es igual que el miedo a ser descubierto. Ciertamente, nuestros rostros desvelan las emociones que experimentamos, si somos capaces de leer esos signos. Lo que nuestros rostros no revelan es aquello que provocó esas emociones.” Si desconocemos ese dato, nuestra interpretación puede ir por mal camino. “Hay que descartar todas las otras posibles explicaciones antes de llegar a la conclusión de que lo que estamos viendo es a alguien mentir acerca de un acto criminal,” advierte Ekman. “Porque, muchas veces, no es así.”
Mark Williams es editor colaborador de Technology Review.