Skip to main content

Una animación más inteligente reduce la distancia entre el mundo físico y el digital.

Hao Li recuerda haber visto Jurassic Park cuando era niño:

 

“Ese momento en el que ves algo que no existe en la realidad, pero parece totalmente real… sin duda fue lo que me hizo pensar en dedicarme a esto”, dice.

 

Me cuenta esta historia una tarde mientras comemos en la cafetería de Industrial Light & Magic, el famoso estudio de efectos visuales de San Francisco, donde ha estado trabajando en una tecnología para capturar digitalmente las expresiones faciales de los actores en las próximas películas de Star Wars.

 

Cuando se estrenó Jurassic Park, Li tenía 12 años y vivía en lo que él llama el «pueblucho» de Saarbrücken, Alemania, a donde se habían mudado sus padres taiwaneses mientras su padre completaba un doctorado en química. Ahora, veinte años después, si todo va según lo previsto, la innovación de Li podría cambiar radicalmente la forma en que se hacen las películas cargadas de efectos especiales, difuminando la línea entre los actores reales y los digitales.

Los artistas de efectos visuales suelen capturar las interpretaciones humanas colocando pequeñas bolas o etiquetas en la cara y el cuerpo del actor para registrar el movimiento. Los datos que capturan esos marcadores se convierten después en un archivo digital que puede manipularse. Pero los marcadores resultan incómodos y molestos para los actores, y no son eficaces a la hora de captar los cambios sutiles en la expresión facial.

 

El gran avance de Li consistió en usar sensores de profundidad, la misma tecnología que se utiliza en sistemas de videojuegos con detección de movimiento, como el Xbox Kinect. Cuando una cámara con sensores de profundidad se dirige al rostro de un actor, el software de Li analiza los datos digitales para interpretar cómo cambian las formas de la cara de un fotograma a otro. A medida que los labios del actor se curvan en una sonrisa, el algoritmo registra las líneas y sombras que se expanden y contraen, identificando así los labios del actor. A continuación, el software mapea su rostro sobre una versión digital.

 

El trabajo de Li mejora la autenticidad de las interpretaciones digitales y acelera la producción.

Li es simpáticamente atrevido, no le avergüenza hablar abiertamente de sus logros, sus ambiciones y las posibilidades de su software. Su algoritmo ya se utiliza en algunos escáneres médicos de radiación, donde permite seguir con precisión la ubicación de un tumor mientras el paciente respira. En otro proyecto, el software se ha usado para crear un modelo digital de un corazón latiendo.

 

Si le preguntas si su tecnología podría usarse para leer emociones humanas —o cualquier otra aplicación futurista—, es probable que responda:

 

“Estoy trabajando en eso también.”

 

Un visionario multilingüe

Cuando le pregunto si habla alemán, Li sonríe y dice que sí:

 

“Francés, alemán, chino e inglés.”

 

Ese otoño, comenzará a trabajar en Los Ángeles como profesor adjunto en un laboratorio de gráficos por ordenador de la Universidad del Sur de California (USC). Pero las películas de Hollywood no son su meta final.

 

“Los efectos visuales son un buen campo de pruebas para demostrar conceptos, pero no es el objetivo final”, afirma.

 

En realidad, considera que su labor en la captura de datos y simulación en tiempo real es solo un paso más hacia enseñar a los ordenadores a comprender mejor el mundo que les rodea.