Green es la directora de investigación y desarrollo de Jigsaw, una incubadora tecnológica de Alphabet, la empresa matriz de Google. Algunos de los objetivos de sus proyectos son dar acceso a inte et a los residentes de países donde el sistema está censurado y utilizar el aprendizaje automático para detectar abusos.
nDespués de hablar sobre su trabajo en la conferencia anual EmTech de MIT Technology Review la semana pasada, Green se sentó a analizar la influencia que su pasado tiene sobre ella a día de hoy y cómo se detectan los comportamientos abusivos en inte et.
nSu familia se fue de Irán cuando solo tenía tres años. ¿Cómo cree que su origen cultural le ayuda en su trabajo?
nCreo que la mayor parodia sería que las grandes empresas tecnológicas invirtiesen en el desarrollo de tecnologías revolucionarias, dirigidas a conseguir que inte et y las sociedades sean más saludables, pero que lo hicieran sin mirar más allá de sus despachos de Silicon Valley [EEUU]. Ha habido muchos intentos fallidos de desarrollar tecnologías revolucionarias, así que cuantas más personas del mundo entiendan las diferencias, y cuanto más podamos llegar a diferentes partes del mundo, creo que más probable será que demos con una de estas tecnologías. En mi caso, creo que ayuda ser de un país donde inte et está muy censurado pero también es muy popular; al menos puedo brindar esa perspectiva al equipo. ¿Cuáles son las preocupaciones de seguridad? ¿Cuáles son las tácticas físicas de intimidación que usan los gobie os para alterar la forma en la que la gente utiliza Inte et? ¿Tengo redes de personas dentro del país que puedan probar productos para nosotros?
nJigsaw está trabajando en una serie de proyectos que utilizan la tecnología para combatir problemas como la censura, las expresiones de odio y el abuso en inte et. ¿En qué se está centrando ahora mismo?
nEn términos de qué tecnología es más interesante para mí en este momento, probablemente sea el estudio de si podemos entender la toxicidad en línea. ¿Podemos descomponer la toxicidad en las partes que hacen que la gente abandone una conversación digital? ¿Es un lenguaje obsceno? ¿Son insultos? ¿Amenazas? ¿Se trata de ataques basados en la identidad? En realidad, todas son formas diferentes de expresiones nocivas, y diferentes comunidades en línea pueden interesarse por una y no por otra. Y cuanto mayor sea nuestra capacidad de definir los modelos, más útil resultará para crear conversaciones inclusivas.
nSu trabajo y el de sus colegas de Jigsaw incluye dedicar tiempo a hablar con personas que han hecho cosas como abandonar las filas del Dáesh. ¿Se consideran, de alguna manera, un equipo de antropólogos?
nPensaría en nosotros de esa manera. Creo que lo que más especial de la tecnología que surge de Jigsaw es que se diseña sobre el terreno, en la primera línea de esta investigación. Hay investigaciones etnográficas, hay investigaciones académicas, y tenemos muchas alianzas con periodistas de investigación. Estos problemas se producen tanto en inte et como en el mundo real. Así que hace falta una combinación de actores y expertos en diferentes campos para abordarlos.
n nVídeo: Green durante su ponencia en EmTech MIT (en inglés)
n