La experta en inteligencia artificial, Celeste Kidd, se está convirtiendo en la mayor defensora de la igualdad del campo. Esta psicóloga cognitiva insta a los investigadores a ser conscientes del impacto que sus tecnologías tienen en la opinión pública y en lo difícil que resulta ser mujer en este sector
En la inauguración de una de las mayores conferencias de investigadores de inteligencia artificial (IA) del mundo, la conferencia NeurIPS celebrada este mes en Vancouver (Canadá), Celeste Kidd se dirigió a miles de asistentes y empezó a hablar sin rodeos: "No existe ninguna plataforma neutra. Los algoritmos que impulsan el contenido online tienen un profundo impacto en nuestras creencias".
Esta influyente científica y destacada representante del movimiento #metoo, que también es profesora de psicología en la Universidad de California en Berkeley (EE. UU.) es famosa en el campo por sus importantes contribuciones a nuestra comprensión de la teoría de la mente. Kidd está especializada en descubrir cómo adquirimos conocimiento y cómo formamos opiniones. Hace dos años, también se hizo famosa en todo el mundo cuando la revista Time la nombró Persona del año junto a otras que también alzaban la voz contra el abuso y el acoso sexual.
En el escenario, Kidd compartió cinco lecciones de su investigación y demostró cómo las decisiones de la industria tecnológica influyen en las personas para desarrollar creencias falsas, como la negación del cambio climático. Casi al final de su discurso, también compartió su experiencia con el acoso sexual cuando era estudiante de posgrado y trató de forma directa algunos de los malentendidos que había escuchado sobre el movimiento #metoo por parte de algunos hombres.
"Ahora mismo, puede parecer un momento aterrador para ser hombre en el mundo de la tecnología. Existe la sensación de que una carrera podría ser destruirse por una situación incómoda o un malentendido", dijo a los asistentes de la conferencia, de los cuales este año aproximadamente el 80 % eran hombres. Y añadió: "Lo que quiero decir hoy a todos los hombres en la sala es que han sido engañados".
Su discurso recibió una gran ovación, algo poco habitual en la historia de esta conferencia. Los comentarios de Kidd llegan en un momento en el que la comunidad de IA y la industria tecnológica en general se han visto obligadas a considerar los daños involuntarios de sus tecnologías. Solo en el último año, una serie de casos han demostrado cómo las ultrafalsificaciones (o deepfakes) pueden usarse para abusar de las mujeres, cómo los algoritmos toman decisiones discriminatorias en la atención médica y en los préstamos de crédito, y cómo el desarrollo de modelos de IA podría ser inmensamente dañino para el medio ambiente. Al mismo tiempo, la comunidad ha sido sacudida por varios escándalos de abuso sexual y acoso, incluidos algunos sobre los incidentes en años anteriores en esta misma conferencia. Y por si fuera poco, el sector sufre unas atroces pruebas de falta de diversidad.
Pero el discurso de Kidd provocó un cambio importante que ya está empezando a notarse y que fue muy palpable en la sala aquella noche. Después de su ponencia, docenas de personas hicieron cola para llegar a los micrófonos esparcidos por la sala para darle las gracias por tratar estos temas. Docenas de personas la rodearon después del acto, algunas solo para estrecharle la mano como agradecimiento. A los asistentes que recuerdan esta reunión anual, incluso la de hace dos años, les pareció que había una nueva apertura para reconocer estos desafíos y un modelo renovado para hacerlo mejor.
El día después de su discurso, hablé con Kidd sobre los dos principales mensajes que transmitió, de la conexión que había entre ellos y sobre sus esperanzas para el futuro.
La parte de su ponencia dedicada a la investigación, terminó con un mensaje: "No existe ninguna plataforma neutra". ¿Cómo ha llegado a esta conclusión a través de su investigación?
Debido a mis interacciones con mis dos estudiantes de posgrado, en los últimos años me he dado cuenta de que no hay una distinción real entre conocimiento y opinión. Básicamente son lo mismo.
Ahora estamos comprendiendo cómo estas dinámicas que hemos observado en los experimentos de laboratorio se extienden al mundo real. Cuando alguien acude a internet sin estar seguro de lo que debería creer, ¿qué elementos le hacen alejarse de las búsquedas neutrales? ¿Podríamos usar ese mismo tipo de ideas para tratar de explicar por qué la gente cree que la Tierra es plana y por qué esos conceptos erróneos no se corrigen? No he visto mucha atención puesta en esta área, pero creo que es muy importante.
¿Por qué fue importante para usted compartir su mensaje en esta conferencia?
Gran parte de nuestras creencias actuales proviene de fuentes online. Especialmente los niños. Están desarrollando los componentes básicos del conocimiento que luego darán forma a sus creencias e intereses futuros. Además, los niños pequeños van a consumir más contenido recomendado y bajo reproducción automática que los adultos. Entonces, corren más riesgo de verse influenciados por el algoritmo que impulsa el contenido, porque es su única opción.
Mi discurso fue pensado como un mensaje para que las personas que trabajan en los sistemas tomen en consideración cómo esas decisiones de back-end influyen en las opiniones de una persona, pero también en la sociedad en general. Creo que no hay suficiente sensibilidad en el mundo tecnológico sobre cómo las decisiones que se toman detrás de bambalinas sobre cómo impulsar el contenido afectan la vida de la gente.
Cuando surgen preguntas sobre cómo se ofrece el contenido, aparece un grito de guerra común: la afirmación de que las plataformas son neutras. Y yo creo que eso es deshonesto. Las decisiones de back-end influyen directamente en lo que la gente cree, y eso ya se sabe. Así que fingir que no es así resulta deshonesto.
Cuando cambiamos el comportamiento de las personas, lo que hacemos es cambiar sus opiniones. Y esos cambios tienen consecuencias reales y concretas. Cuando un padre busca información sobre si debe o no vacunar a su hijo, si acude indeciso a su ordenador portátil y lo deja habiendo tomado una decisión, realmente importa qué contenido se le ofreció, qué puntos de vista le fueron mostrados.
No es razonable decir que no hay ninguna responsabilidad por lo que una madre le hace a su hijo, ya sea decidir vacunarlo o no, porque eso no fue algo que se tomó en consideración cuando se creó el sistema. Creo que tenemos la responsabilidad de considerar cuáles son las repercusiones de las decisiones de back-end.
En las preguntas y respuestas tras su ponencia, mencionó que nunca había presentado su investigación y ni sus experiencias de acoso sexual en un foro público. ¿Por qué solía separar esos dos puntos y por qué decidió combinarlos ahora?
Empezaré con el segundo punto: en este caso, hice una excepción a la regla porque pensé que era muy importante para esta comunidad escuchar ese mensaje. La informática es un campo en el que las mujeres lo han tenido realmente difícil durante mucho tiempo para obtener tracción y entrar. Existe un alto grado de interés inicial, pero luego hay fugas. Y sé que una de las cosas que hace que sea muy difícil prosperar como mujer en este campo consiste en menos oportunidades de tutoría.
Sé que es muy común que los hombres con buenas intenciones del campo de la informática se preocupen por no ofender a las mujeres. Pero la consecuencia es que las mujeres están perdiendo oportunidades de formación, mientras que los hombres están perdiendo las ideas y la innovación que aportarían las mujeres. Los estudios empíricos muestran que la diversidad conduce a mayores tasas de innovación. Y la oportunidad de hablar con una gran parte de estos hombres a la vez en una misma sala me hizo pensar que era importante y tenía que hacerlo.
La razón por la que generalmente no combino los dos puntos: yo no elegí lo que me pasó en mi primer año de posgrado en Rochester [EE. UU.]. Y tampoco elegí cuál sería la respuesta de la universidad. Yo quería una carrera en ciencias y quiero proteger eso, así que no quiero hablar menos de ciencia por haber hablado sobre este tema. Pero también soy consciente de que la mayoría de las personas no tienen la oportunidad, no tienen una plataforma para hablar. En general, lo que les pasa a las personas que fueron acosadas sexualmente al principio de sus carreras, y si su institución tomó represalias contra ellas, es que abandonan. No me sentiría bien si no hiciera nada al respecto. Las personas que tienen privilegios deben usarlos donde puedan. Y esta fue una oportunidad para usar el privilegio de dar un discurso en NeurIPS para ayudar a las mujeres más jóvenes que merecen un trato de igualdad.
¿Le preocupaba cómo se interpretarían estos comentarios?
Por supuesto. Pero tener miedo a la respuesta no es una razón para no hablar. Hablé un poco sobre el privilegio. En esta conferencia en particular, yo también tenía una posición relativamente privilegiada porque había mucha gente de la industria, y creo que las presiones para mantener a las personas en silencio son mayores en las empresas que en los círculos académicos, al menos en el campo de la tecnología actual. Así que, si me preocupara que me despidieran, eso sería algo adicional que me haría callar. Berkeley era consciente de que yo había hablado sobre estos temas antes de que me contrataran, y no me han mostrado nada más que apoyo y ánimo en la lucha por la igualdad. Al estar en un lugar que me apoya así, puedo decir cosas sin temor a perder mi trabajo y no poder pagar la comida de mi hijo. Y esa es la otra razón por la que sentí que debería hablar.
Esperaba que algunas personas se enfadaran. Había 13.000 personas. Por supuesto, algunas pueden malinterpretarme. Literalmente hablé sobre cómo cuando usamos palabras, son ambiguas y las personas activan diferentes conceptos. No es posible convencer a todas las personas sobre lo que tenemos en mente exactamente.
Aunque suele separar sus discursos sobre su investigación y su activismo, y en NeurIPS los separó en dos secciones, a mí me parece realmente que tratan lo mismo: cómo desarrollar tecnología responsable asumiendo más responsabilidad por las decisiones y acciones.
Correcto. Usted me comentó que en la comunidad de IA ahora se habla más sobre las implicaciones éticas, que se aprecia más la conexión entre la tecnología y la sociedad. Y creo que parte de ese cambio proviene del hecho de que la comunidad empieza a ser más diversa e involucra a más personas. Vienen de un lugar menos privilegiado y son más conscientes de algunos conceptos como el prejuicio y la injusticia y de cómo las tecnologías diseñadas para un determinado grupo demográfico pueden dañar a las poblaciones desfavorecidas.
Espero que eso siga así. Debemos hablar entre nosotros para progresar. Y todos merecemos sentirnos seguros al interactuar entre nosotros