La eliminación automática de las personas en las imágenes a nivel de calle podría ayudar a prevenir las quejas relativas a la privacidad.
En 2008, en respuesta a un número de preocupaciones relacionadas con la privacidad, Google comenzó a difuminar las caras de las personas captadas por las cámaras colocadas sobre automóviles y que se muestran en su servicio de mapas Street View. Un grupo de investigadores de California cree haber llegado a una solución mejor—un software que automáticamente elimina cualquier rastro dejado por una persona en una escena.
El método protege la privacidad de las personas al tiempo que proporciona una vista a nivel de calle más limpia, afirma Arturo Flores, estudiante de postgrado de ciencias informáticas en el Grupo de Inteligencia Artificial de la Universidad de California, en San Diego. "Incluso con la cara borrosa, todavía es posible identificar a una persona", afirma Flores. Las prendas de vestir, la forma del cuerpo y la altura, combinadas con una ubicación particular, pueden ser suficiente para reconocer a alguien, asegura.
Las furgonetas de Street View utilizan nueve cámaras montadas en el techo para tomar fotografías frecuentes de los alrededores. Después, estas imágenes se cosen para producir una vista panorámica casi sin fisuras. Sin embargo, la eliminación automática de personas en miles de imágenes variadas, cada una con escenas diferentes, es un desafío.
El software de Flores primero se encarga de detectar a los peatones en una escena. Esto se lleva a cabo usando un algoritmo estándar de reconocimiento de objetos llamado modelo de formas implícitas (ISM, en sus siglas en inglés), desarrollado por el Instituto Federal Suizo de Tecnología. "La idea consiste en encontrar un contorno de peatones aproximado", afirma Bastian Leibe, codesarrollador de ISM que en la actualidad se encuentra en la Universidad RWTH Aachen. Debido a la enorme variabilidad dentro de la apariencia humana, el algoritmo toma un enfoque probabilístico—busca similitudes entre las formas contenidas en las imágenes y cientos de imágenes de peatones que ha sido entrenado para reconocer.
Una vez que un peatón ha sido identificado y cortado de una imagen, el agujero dejado atrás tiene que ser rellenado. El software de Flores utiliza fotografías capturadas antes y después de la imagen en cuestión por las furgonetas de Street View. Estas imágenes muestran una vista del fondo desde ángulos ligeramente distintos—el algoritmo puede reorientar el fondo y coserlo en el espacio que dejaron atrás los peatones que faltan.
Flores y su asesor, Serge Belongie, acaban de presentar el trabajo en el Taller Internacional IEEE sobre Visión Móvil, en Chicago. Flores afirma que algunas imágenes del mundo real son simplemente demasiado inusuales como para que el software las procese correctamente. Una serie de curiosos artefactos han acabado quedándose atrás en algunas tomas, tales como perros con correa y sin su propietario, o pares de zapatos aparentemente abandonados en la acera.
El sistema también se esfuerza por generar un fondo cuando un peatón camina en la misma dirección que la furgoneta de Google, afirma Flores. "Simplemente no es posible obtener una vista sin obstáculos del fondo", asegura.
Andrew Blake, director general adjunto de Microsoft Research en Cambridge, Reino Unido, y experto en visión por ordenador, afirma que la mayoría de las técnicas utilizadas en el software de Flores son bien conocidas. Añade que los avances recientes han hecho que sea más fácil unir imágenes para crear una composición de aspecto liso. "La última generación de software para la unión de panorámicas permite al fotógrafo unir la mejor imagen panorámica posible a partir de cualquier montón desordenado de imágenes de una escena", afirma.
Leibe señala que este software, o algún otro similar, en última instancia podría ser usado para crear imágenes a nivel de calle que pudieran usarse en sistemas de navegación, sustituyendo a las animaciones generadas por ordenador que ahora mismo utilizan estos sistemas.