Cadenas de bloques y aplicaciones
"La paradoja de la transparencia es el núcleo de la crisis de Facebook"
El experto del MIT Sinan Aral cree que el escándalo de Cambridge Analytica es responsabilidad de la propia empresa y del investigador que filtró los datos. Pero teme que las consecuencias limiten a cientos de buenos investigadores que intentan estudiar el impacto de las redes sociales en nuestras vidas
El escándalo que rodea a Cambridge Analytica, la compañía especializada en minado de datos que acaba de ser expulsada de Facebook por violar su política de uso de datos, crece cada día que pasa. El lunes, un programa de televisión del Reino Unido transmitió imágenes secretas de vídeo en las que se veía al CEO de la compañía, Alexander Nix, jactándose de su capacidad para usar espías, técnicas de persuasión y noticias falsas para influir en los resultados electorales (ver OFERTA: Manipule a los votantes con noticias falsas por menos de 400.000 euros). La delegada informativa de Reino Unido, Elizabeth Denham, dijo que iba a pedir una orden judicial para examinar los servidores y bases de datos de Cambridge Analytica.
Ese mismo día, Facebook anunció que había contratado a auditores forenses para examinar si Cambridge Analytica dispone de una serie de datos presuntamente filtrados por el académico de la Universidad de Cambridge (Reino Unido) Aleksandr Kogan, quien obtuvo acceso a la plataforma de Facebook con fines de investigación hace varios años. Kogan, quien usó ese acceso para obtener información sobre 50 millones de usuarios de Facebook, también fue bloqueado de la plataforma, al igual que al exempleado de Cambridge Analytica Christopher Wylie que acabó convertido en el soplón de su compañía.
Los resultados de la autopsia del caso y la forma en la que Cambridge Analytica utilizó los datos para ayudar a Donald Trump a ganar las elecciones presidenciales de Estados Unidos de 2016 están en pleno apogeo (ver Tecnología para ganar las elecciones). De forma paralela, el suceso ha costado a Facebook unos 30.000 millones de euros en pérdidas de capitalización de mercado y podría estar a punto de perder a su director de Seguridad, Alex Stamos. Supuestamente, el responsable no estaba de acuerdo con la estrategia de transparencia de Facebook para abordar el uso que Rusia da a la plataforma para difundir noticias falsas (ver La derecha de EE. UU. retuiteó a troles rusos 30 veces más que la izquierda).
Una pregunta realmente importante es si toda esta polémica va a perjudicar a los investigadores que intentan conocer más detalles sobre la inmensa influencia que las redes sociales ejercen sobre nuestras vidas (ver La tecnología para manipular contenidos amenaza con devolvernos a las noticias del siglo XX). Para explorar el tema, hemos hablado con el profesor de la Escuela de Administración y Dirección de Empresas Sloan del MIT (EE. UU.) Sinan Aral, especializado en redes sociales.
¿Le sorprendió que un investigador fuera capaz de acceder a tanta información y, supuestamente, filtrarla a un tercero violando las reglas de uso de datos de Facebook?
No me sorprendió que pudieran acceder a tanta información. Facebook lleva tiempo colaborando con investigadores cualificados para intentar responder a algunas preguntas. Lo que es sorprendente es que un investigador académico haya violado tan flagrantemente el espíritu y los términos de las políticas de intercambio de datos que Facebook ha implementado al tomar esos datos y dárselos a una empresa, que nunca fue autorizada, para utilizarlos con objetivos políticos.
¿Le preocupa que este episodio pueda tener un efecto alarmante en la voluntad de las redes sociales para compartir sus datos con los investigadores?
Sí me preocupa. Facebook se enfrenta a lo que yo llamo una "paradoja de la transparencia". Por un lado, está bajo una enorme presión para ser más transparente, revelar más acerca de cómo funciona la publicidad dirigida, cómo funcionan sus algoritmos del muro de noticias, cómo funcionan sus algoritmos de tendencia y cómo Rusia, o quien sea, puede difundir propaganda y noticias falsas en la red. Por lo tanto, existe una presión muy fuerte para que sea más transparente y solo comparta sus datos con terceros de confianza. Pero, por otro lado, existe una fuerte presión para aumentar la seguridad de los datos que comparten para garantizar que no caigan en manos equivocadas y para proteger la privacidad de los usuarios.
La paradoja de la transparencia es la clave de la crisis existencial que Facebook está experimentando ahora mismo, y existe un riesgo real de que el caso de Cambridge Analytica haga que la plataforma sea más conservadora con lo que comparte; esto afectaría a la investigación de cientos de buenos científicos que trabajan con la red social a diario sin incumplir sus términos de servicio para comprender cómo Facebook está afectando a nuestra sociedad.
¿Funciona bien el actual proceso adaptado para dar acceso a los investigadores a los datos de redes sociales regidos por acuerdos de confidencialidad, o cree que podría mejorarse?
Creo que cada solicitud debe ser revisada tanto por Facebook como por otras redes. No me gustaría que la plataforma diera acceso general a ciertos tipos de datos restringidos. Hay muchos aspectos diferentes de Facebook que es importante entender y necesitamos considerar los costes y beneficios de cada lanzamiento de datos que se plantea.
Ha surgido una idea que consiste en crear un portal donde los investigadores registrados puedan consultar datos anónimos de los usuarios que hayan dado su consentimiento para compartir su información. ¿Qué le parece?
Este tipo de portal podría ser útil, pero es solo una solución muy pequeña a la paradoja de la transparencia. Es necesario que haya mucha más apertura que un solo conjunto de datos. Es necesario que existan muchas maneras diferentes en las que Facebook y otras redes trabajen con la comunidad científica para ayudarnos a todos a entender cómo las redes sociales están afectando nuestra democracia, nuestros negocios y nuestra salud pública.
¿La historia de Cambridge Analytica es una señal de que deberíamos estar más preocupados por el poder que tienen estas plataformas y lo que están haciendo con nuestros datos?
Creo que la historia trata sobre un investigador que violó los términos de cualquier acuerdo de intercambio de datos con fines de investigación que tuvo con Facebook, y sobre la empresa Cambridge Analytica que, ya sea de forma consciente o no, utilizó los datos con fines malintencionados sin haber investigado el origen de esos datos y cualquier restricción asociada con ella. Esa es la verdadera historia aquí.
Necesitamos comprender mejor la amenaza de los malos actores que pueden utilizar el acceso a los datos para ayudar a difundir noticias falsas o propaganda en las plataformas sociales. Y la única manera de hacerlo requiere que Facebook encuentre una forma de resolver su paradoja de transparencia de manera efectiva, y se vuelva más abierta y más segura al mismo tiempo.