Las grandes tecnológicas no solo se lucran gracias a nuestros datos, sino que se ha vuelto prácticamente imposible vivir sin utilizar sus servicios. Afortunadamente, estas tres estrategias para debilitar sus algoritmos podrían ayudarnos a recuperar nuestra autoridad
Todos los días, nuestra vida deja un rastro de migas de pan digitales que los gigantes tecnológicos utilizan para rastrearnos. Enviamos un correo electrónico, pedimos comida a domicilio, seguimos algún programa. Y, cada que vez que lo hacemos, las Big Tech reciben valiosos paquetes de datos que les ayudan a comprender mejor nuestras preferencias. Esos datos se introducen en algoritmos de aprendizaje automático que los utilizan para enviarnos anuncios y recomendaciones. Gracias a nuestros datos, cada año Google gana más de 120.000 millones de dólares (101.040 millones de euros) en ingresos publicitarios.
Y cada vez es más difícil optar por no participar en este sistema. En 2019, la entonces reportera de Gizmodo Kashmir Hill, intentó sacar de su vida a los cinco gigantes tecnológicos más grandes. Sufrió su decisión durante seis semanas, en las que se topó con enormes dificultades para realizar las funciones digitales más básicas. Mientras tanto, los gigantes tecnológicos ni se dieron cuenta.
Para evitar todos los contratiempos a los que se enfrentó Hill, investigadores de la Universidad Northwestern (EE. UU.) sugieren nuevas formas de corregir este desequilibrio de poder con un enfoque que trata nuestros datos colectivos como moneda de cambio. Puede que los gigantes tecnológicos tengan algoritmos sofisticados a su disposición, pero estos no tienen sentido si no disponen de suficientes datos correctos de entrenamiento.
En un nuevo artículo presentado en la conferencia sobre Equidad, Responsabilidad y Transparencia de la Association for Computing Machinery, los investigadores, incluidos los estudiantes de doctorado Nicholas Vincent y Hanlin Li, proponen tres formas para que las personas pueden aprovechar este hecho a su favor:
-
Huelgas de datos, inspiradas en la idea de las huelgas laborales, que implican ocultar o eliminar nuestros datos para que las empresas tecnológicas no puedan usarlos, por ejemplo, saliendo de una plataforma o instalando herramientas de privacidad.
-
Contaminar los datos, que supone aportar datos tóxicos o sin sentido. AdNauseam, por ejemplo, es una extensión de navegador que hace clic en cada anuncio que aparece, lo que confunde los algoritmos de targeting de publicidad de Google.
-
Aportación de datos deliberada, que consiste en dar datos importantes al competidor de la plataforma contra la que queremos protestar, como por ejemplo publicando nuestras fotos de Facebook en Tumblr.
La gente ya utiliza muchas de estas tácticas para proteger su propia privacidad. Si usted ha usado alguna vez un bloqueador de anuncios u otra extensión del navegador que modifica los resultados de su búsqueda para excluir ciertos sitios web, ya se ha involucrado en la huelga de datos y ha reclamado a alguna agencia el uso de sus datos. Pero, como descubrió Hill, acciones individuales esporádicas como estas no contribuyen casi nada a que los gigantes tecnológicos cambien sus comportamientos.
Sin embargo, ¿qué pasaría si millones de personas se coordinaran para contaminar bien los datos para los gigantes tecnológicos? Eso podría crear algo de influencia para imponer las exigencias de los usuarios.
Ya hay algunos ejemplos de lo arriba mencionado. En enero, millones de usuarios eliminaron sus cuentas de WhatsApp y pasaron a competidores como Signal y Telegram después del comunicado de Facebook de que comenzaría a compartir los datos de WhatsApp con el resto de la empresa. El éxodo provocó que Facebook retrasara sus cambios de política.
Recientemente, Google también anunció que dejaría de rastrear a las personas en la web y de bombardearlas con anuncios. Aunque no está claro si se trata de un cambio real o simplemente de un reposicionamiento de marca, Vincent cree que es posible que el mayor uso de herramientas como AdNauseam haya contribuido a esa decisión, al disminuir la efectividad de los algoritmos de la empresa. (Por supuesto, al fin y al cabo, es difícil saberlo. "Los únicos que realmente saben con qué eficacia un movimiento de influir en los datos afecta un sistema son las propias empresas de tecnología", explica.)
Vincent y Li creen que estas campañas pueden complementar a otras estrategias como la creación de políticas y regulaciones, y la organización de trabajadores en un movimiento para oponerse a las Big Tech.
El investigador del Centro de Ética Aplicada a Datos de la Universidad de San Francisco (EE. UU.) Ali Alkhatib, que no participó en el estudio, afirma: "Es fascinante descubrir este tipo de trabajo. Fue realmente interesante verlos pensar en una visión colectiva u holística: podemos adentrarnos en el pozo y presentar demandas con esa amenaza, porque se trata de nuestros datos y todo va junto a este pozo".
Aún queda trabajo por hacer para que estas campañas se vuelvan más populares. Los informáticos podrían tener un papel importante en la creación de más herramientas como AdNauseam, por ejemplo, las cuales ayudarían a reducir la barrera para participar en tales tácticas.
Los formuladores de políticas también podrían ayudar. Las huelgas de datos son más efectivas cuando tienen el respaldo de fuertes leyes de privacidad de datos, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que otorga a los usuarios el derecho a solicitar la eliminación de sus datos. Sin este tipo de regulación, es más difícil garantizar que una empresa de tecnología nos dé la opción de borrar nuestros registros digitales, ni siquiera si eliminamos nuestra cuenta.
Y quedan algunas preguntas por responder. ¿Cuántas personas deben sumarse a una huelga de datos para lograr dañar el algoritmo de una empresa? ¿Y qué tipo de datos serían más eficaces para contaminar un sistema específico? En una simulación que involucraba un algoritmo de recomendación de películas, por ejemplo, los investigadores encontraron que si el 30 % de los usuarios se declaraba en huelga, podrían reducir la precisión del sistema en un 50 %. Pero cada sistema de aprendizaje automático es diferente y las empresas los actualizan constantemente. Los investigadores esperan que más personas de la comunidad de aprendizaje automático puedan ejecutar simulaciones similares de los sistemas de distintas empresas e identificar sus vulnerabilidades.
Alkhatib sugiere que los expertos deberían investigar más sobre cómo inspirar también la acción sobre los datos colectivos. Y afirma: "La acción colectiva es realmente complicada. Conseguir que la gente siga adelante con las actividades en curso es un desafío. Y luego está el reto de mantener a un grupo de personas que son muy transitorias (en este caso, podrían ser personas que usan un motor de búsqueda durante cinco segundos) para que se vean como parte de una comunidad que realmente tiene durabilidad".
Estas tácticas también podrían tener importantes consecuencias y requieren un control cuidadoso, añade Alkhatib. ¿Podría la contaminación de datos dar aún más trabajo a los ya sobrecargados moderadores de contenido y otras personas encargadas de limpiar y etiquetar los datos de entrenamiento de las empresas?
Pero, en general, Vincent, Li y Alkhatib son optimistas y confían en que la capacidad de influir sobre los datos podría convertirse en una herramienta persuasiva para dar forma a cómo los gigantes tecnológicos tratan nuestros datos y nuestra privacidad. "Los sistemas de inteligencia artificial dependen de los datos. Es un hecho sobre la forma en la que funcionan. En última instancia, se trata de una manera en la que la sociedad podría ganar poder", concluye Vincent.