La red social ha sido duramente criticada por realizar investigaciones que intefirieron en el servicio, pero afirma que su nueva normativa garantizará que sus experimentos sean éticos
La cuestionable ética de las investigaciones de Facebook ha metido a la empresa en líos últimamente, pero la red social afirma haber implementado un sistema para evitar que jamás vuelva a suceder.
Antes de poder utilizar información de los usuarios en sus investigaciones, los científicos de datos de Facebook deberán someter sus propuestas a un proceso de revisión formal para garantizar que la investigación sea ética y sólida en privacidad y seguridad. Algunos detalles del proceso, que la empresa asegura que lleva operativo dos años, fueron revelados en un nuevo trabajo publicado en la revista Washington and Lee Law Review.
Las prácticas de investigación de las empresas que recopilan y analizan enormes cantidades de datos de sus usuarios, entre las que destaca Facebook, representan un creciente motivo de preocupación para los reguladores. El pasado mes, la Casa Blanca hizo un llamamiento para que los usuarios de big data desarrollen mejores sistemas para abordar los retos relacionados con la ética, seguridad y privacidad de los datos.
Hace dos años, Facebook recibió fuertes críticas tras publicar un trabajo de investigación que describía un experimento en el cual los científicos de la empresa manipularon el muro de los usuarios para comprobar si podían influir en sus estados emocionales. Este experimento fue muy mal recibido por parte de académicos que también criticaron los métodos empleados en otros estudios.
El proceso de revisión descrita en el nuevo trabajo es en gran parte su "respuesta a las reacciones generadas", dijo la directora de Políticas Públicas de Investigación de Facebook, Molly Jackman, en una reunión celebrada el pasado martes sobre la ética de las investigaciones de big data en el Foro para el Futuro de la Privacidad en Washington D.C. (EEUU).
El quid de la cuestión consiste en un comité permamente de cinco empleados expertos en derecho, ética, comunicaciones y política. Está inspirado en el modelo federal para las juntas de revisión institucional, que valoran las propuestas de investigación e identifican preocupaciones éticas.
Gran parte de las investigaciones que realiza Facebook suele estar exenta de la obligación de pasar por una junta de revisión institucional, según Jackman. Otros proyectos que incluyen temas o poblaciones más sensibles exigen una revisión más amplia. El programa de prevención de suicidios que la empresa lanzó el pasado martes es un ejemplo de un proyecto que corresponde a esa última categoría, señaló. Los directivos deciden si las propuestas deben ser agilizadas o revisadas por el comité.
Jackman afirmó que el proceso es vital porque los vastos datos de la empresa sobre el comportamiento humano la coloca en una posición capaz de "ampliar las fronteras de la ciencia".
Pero, mientras que los datos de Facebook pueden contener pistas que podrían ayudar a la sociedad, las investigaciones corporativas inevitablemente suscitan preguntas delicadas. Por ejemplos, ¿cómo separarán los miembros del comité de revisión los intereses de la empresa de los intereses de los sujetos de investigación o del público general? "Se necesita que en ese comité de revisión haya alguien que no pueda ser despedido", sostuvo el profesor de interacciones humanas-máquina de la Universidad Estatal de Iowa (EEUU) Rey Junco en la reunión del Foro para el Futuro de la Privacidad.
Otro tema controvertido es el consentimiento. Mientras que los sujetos que participan en investigaciones financiadas con dinero gubernamental tienen que proporcionar "un consentimiento informado" antes de poder ser incluidos en el estudio, los usuarios de Facebook aceptan las investigaciones cuando se inscriben en el servicio. Junco dijo que los investigadores deberían hacer mayor hincapié en el consentimiento, de forma que los usuarios dispongan de la oportunidad de "autodeterminar en qué participarán".