Una investigación indica que su sistema de publicidad dirigida a veces saca conclusiones preocupantes sobre algunos rasgos personales
El hecho de que Google y otras empresas rastrean nuestros movimientos por la web para mostrarnos publicidad dirigida es bien conocido. Pero se desconoce cómo se utiliza esa información exactamente – hasta ahora, pues un trabajo de investigación publicado la semana pasada sugiere que parte de los juicios de valor algorítmicos que nacen del sistema publicitario de Google a muchos podrían parecerles indeseables.
Investigadores de la Universidad Carnegie Mellon (EEUU) y el Instituto Internacional de Informática han diseñado una herramienta llamada AdFisher (pescador de anuncios) para investigar la segmentación de anuncios proporcionados por Google a páginas web de terceros. Encontraron que los falsos usuarios de internet que Google creía que eran hombres que buscaban empleo tenían unas probabilidades mucho mayores de convertirse en el objetivo de anuncios de ofertas de empleo para puestos ejecutivos bien remunerados que las mujeres equivalentes que buscan trabajo al visitar páginas de noticias.
AdFisher también mostró que una herramienta de transparencia de Google llamada "ads settings" (configuración de anuncios), que te permite ver y editar los "intereses" que te ha asignado la empresa, no siempre refleja información potencialmente sensible que se utiliza para dirigir publicidad. Visitar alguna página web relacionada con el abuso de sustancias suscitó una avalancha de anuncios de centros de rehabilitación, por ejemplo, pero no provocó ningún cambio en los datos visualizados en la página de transparencia de Google.
La causa de estos patrones específicos no está clara, porque el sistema publicitario de Google es muy complejo. Google emplea sus datos para generar publicidad dirigida pero los que compran la publicidad pueden tomar algunas decisiones acerca de la demográfica de intereses y también pueden utilizar sus propias fuentes de datos acerca de los intereses web del usuario para añadir una mayor dirección para algunos tipos de anuncios. Los ejemplos tampoco violan ninguna regla de privacidad específica – aunque la política de Google prohíbe la publicidad dirigida en base al "estado de salud" del usuario. Aun así, demuestran la necesidad de herramientas que descubran cómo las empresas de publicidad online diferencian un usuario de otro, según Anupam Datta, un profesor adjunto de la Universidad Carnegie Mellon que participó en el diseño de AdFisher.
"Creo que nuestros resultados sugieren que empiezan a surgir ciertos tipos de discriminación y existe una falta de transparencia", dice Datta. "Esto es preocupante desde un punto de vista de la sociedad". Sistemas publicitarios como el de Google ejercen una gran influencia sobre la información a la que es expuesta la gente y potencialmente hasta las decisiones que tomen, así que entender cómo estos sistemas emplean nuestros datos es importante, afirma.
Ni las empresas que dirigen redes online tienen claro qué inferencias sacan sus sistemas sobre las personas ni cómo se emplean estas inferencias, dice Datta. Su grupo ha empezado a colaborar con Microsoft para el desarrollo de una versión de AdFisher para el uso interno de la empresa, para buscar patrones potencialmente preocupantes en la dirección de publicidad en el buscador Bing. El trabajo de Datta y dos compañeros más, Michael Tschantz, del Instituto Internacional de la Informática, y Amit Datta, también de la Universidad de Carnegie Mellon, fue presentado en el Simposio de Tecnologías que Aumenten la Privacidad celebrado en Filadelfia (EEUU) el pasado jueves.
Google no respondió de forma oficial cuando los investigadores contactaron con la empresa para compartir sus hallazgos hacia finales del año pasado, dicen. Pero en junio el equipo se dio cuenta de que Google había añadido una declaración de exención de responsabilidad a su página de ajustes de publicidad "ads settings". Ahora afirma que las categorías de intereses que se muestran sólo controlan "algunos de los anuncios de Google que se muestran en pantalla", y no aquellos donde los terceros han empleado sus propios datos. Datta dice que esto limita significativamente la utilidad de la herramienta de transparencia de Google, que probablemente podría configurarse para mostrar esta información también si así quisieran. "Entregan estos anuncios, y si quisieran, podrían reflejar estos intereses", dice.
"Los anunciantes pueden elegir dirigirse al público al que quieren llegar, y tenemos políticas que guían los tipos de publicidad basada en los intereses que se permiten", dijo una portavoz de Google, Andrea Faville, en un correo electrónico. "Damos transparencia a los usuarios mediante advertencias de ‘¿Por qué este anuncio?’ y Ad Settings, además de ofrecer la opción de eliminar la presentación de anuncios basados en los intereses". Google está examinando la metodología del estudio para intentar comprender sus conclusiones.
La herramienta AdFisher funciona mediante el envío de cientos o miles de buscadores web automáticos a recorridos web elegidos cuidadosamente de tal manera que una red de publicidad dirigida pueda inferir ciertos intereses o actividades. Entonces el software toma nota de los anuncios que se muestran cuando cada buscador automático visita una página de noticias que utiliza la red de publicidad de Google, además de cualquier cambio resultante en los ajustes de la página de ads settings. En algunos experimentos esa página se edita para buscar las diferencias entre la manera de dirigir la publicidad a hombres y mujeres, por ejemplo. AdFisher remarca cualquier diferencia con importancia estadística en la dirección de la publicidad utilizando las categorías de intereses o demográfica que investiga.
La profesora adjunta de la Universidad de Columbia (EEUU) Roxana Geambasu dice que la manera de la que AdFisher puede extraer estadísticamente patrones de la complejidad de la publicidad dirigida aporta un valor considerable. Una herramienta llamada XRay, que fue lanzado por su grupo de investigación el año pasado, puede realizar una ingeniería inversa de las conexiones entre anuncios mostrados a usuarios de Gmail y palabras claves dentro de sus mensajes. Por ejemplo, anuncios para préstamos de automóvil con pocos requisitos podrían ser dirigidos utilizando palabras claves asociadas con problemas económicos.
Sin embargo, Geambasu dice que los resultados tanto de XRay como de AdFisher aún son sólo sugerentes. "No se puede sacar grandes conclusiones, porque no lo hemos estudiado lo suficiente y estos ejemplos podrían representar excepciones puntuales", dice. "Lo que necesitamos ahora es la infraestructura y las herramientas para estudiar estos sistemas a una escala mucho mayor". Ser capaz de observar cómo los algoritmos rastrean a los usuarios para poder entregar anuncios o ajustar el precio de pólizas de seguros y otros productos será clave si los grupos de derechos civiles y reguladores van a mantenerse al corriente de los desarrollos que se produzcan en la manera de la que las empresas tratan estos datos, dice.
Un informe de la Casa Blanca del año pasado sobre el impacto del big data llegó a una conclusión similar. "El análisis de datos tiene el potencial para eclipsar unas protecciones longevas de derechos civiles acerca de cómo los datos personales se emplean en la vivienda, el crédito personal, el empleo, la sanidad, la educación y el mercado en general" afirmó.