.

Kimberly White / Stringer

Inteligencia Artificial

Polémica en Google por despedir a su codirectora de Ética para la IA

1

Timnit Gebru afirma que está sufriendo represalias por publicar una investigación en la que criticaba al gigante y por enviar un correo electrónico "incompatible con lo que se espera de un directivo de Google". Como mujer negra, Gebru es una famosa activista por la diversidad en la inteligencia artificial

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Diciembre, 2020

El 2 de diciembre, la comunidad de investigación de inteligencia artificial (IA) se llevó una triste sorpresa al descubrir que una de las voces líderes del campo Timnit Gebru había sido despedida de su puesto en Google. Gebru es conocida, entre otras cosas, por ser coautora de un pionero trabajo que reveló la naturaleza discriminatoria del reconocimiento facial, por cofundar el grupo activista Black in AI (negros en inteligencia artificial) y por abogar continuamente por la diversidad en la industria tecnológica.

Aquel día por la noche, Gebru publicó en Twitter que había sido despedida de su puesto como codirectora de Ética de IA de Google: "Aparentemente, la jefa de mi jefe envió un correo electrónico [a] mis subordinados directos diciendo que aceptaba mi dimisión. Yo no había dimitido".

En una entrevista con Bloomberg el jueves 3 de diciembre, Gebru aseguró que el despido ocurrió después de una extensa discusión con sus superiores por la publicación de un artículo de investigación sobre la ética de la IA. Uno de los tuits de Gebru y un posterior correo electrónico interno del jefe de IA de Google, Jeff Dean, sugieren que el artículo criticaba los costes ambientales y los sesgos incorporados en los grandes modelos de lenguaje.

Gebru había escrito ese artículo con cuatro colegas de Google y dos colaboradores externos y querían presentarlo en una conferencia de investigación que tendrá lugar el próximo año. Después de una revisión interna, se le pidió que retirara el documento o eliminara los nombres de los empleados de Google. Gebru respondió que lo haría si sus superiores cumplían una serie de condiciones. Si no podían cumplirlas, Gebru "trabajaría en un último día", añadió.

También envió un correo electrónico de frustración a una lista interna de destinatarios llamada Google Brain Women and Allies (mujeres y aliados de Google Brain), en el que detallaba las repetidas dificultades que había experimentado como investigadora negra. En su correo afirmaba: "Acabamos de realizar una investigación de todos los autores negros en la que demostramos sensiblemente su exasperación. ¿Qué es lo que pasó desde entonces? Se ha silenciado de la manera más fundamental posible".

Luego, se fue de vacaciones y, antes de reincorporarse, recibió un correo electrónico informando de su cese por parte de la vicepresidenta de Ingeniería de Google Research, Megan Kacholia. Según tuiteó Gebru, en el correo electrónico Kacholia le decía: "Gracias por dejar claras sus condiciones. No coincidimos en la primera y la segunda condición, según sus requerimientos. Respetamos su decisión de dejar Google como consecuencia y aceptamos su renuncia". Para la responsable, el correo electrónico que Gebru envió a la lista interna era "incompatible con lo que se espera de un directivo de Google". Y añadió: "Como resultado, aceptamos su renuncia de inmediato, que se hace efectiva desde hoy".

El jueves 3 de diciembre por la mañana, después de la avalancha de apoyo que Gebru recibió en redes sociales, Dean envió otro correo electrónico interno al grupo de inteligencia artificial de Google con su explicación de la situación. En él aseguró: "[El artículo de Gebru no cumplió con nuestro estándar de publicación [porque] ignoró demasiadas investigaciones relevantes".

Y añadió: "[Las condiciones de Gebru incluían] revelar las identidades de todas las personas con las que Megan y yo habíamos hablado y que habíamos consultado como parte de la revisión del artículo y su respuesta exacta. Teniendo en cuenta el papel de Timnit como investigadora respetada y directiva en nuestro equipo de IA ética, lamento que Timnit haya llegado al punto de pensar de esta manera sobre el trabajo que llevamos a cabo. Sé que todos compartimos verdaderamente la pasión de Timnit por lograr que la IA sea más equitativa e inclusiva".

Ni Gebru, ni Dean, ni el departamento de Comunicación de Google respondieron a las solicitudes de comentarios, y muchos detalles sobre el desarrollo exacto de la situación o la causa de la rescisión del contrato siguen sin estar claros. Mientras siguen apareciendo más datos, muchos han llamado la atención sobre el tuit del 30 de noviembre que Gebru destacó en la parte superior de su perfil: "¿Hay alguien trabajando en la regulación que proteja a los investigadores de IA ética, similar a la protección de los denunciantes? Porque con la cantidad de censura e intimidación que ocurre hacia las personas de grupos específicos, ¿cómo confiar en que se pueda realizar una investigación seria en esta área?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Por qué medir la IA sigue siendo un desafío pendiente

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo están basados en criterios opacos o en parámetros que no reflejan su impacto real. No obstante, hay enfoques que buscan ofrecer evaluaciones más precisas y alineadas con desafíos prácticos

    Los benchmarks, diseñados para evaluar el rendimiento de una IA, a menudo se fundamentan en criterios opacos o en parámetros que no reflejan su impacto real
  2. Qué es el 'red-teaming', el proceso que permite a OpenAI detectar fallos en ChatGPT

    A través del red-teaming, un proceso en el que se simulan ataques para buscar fallos en los sistemas, OpenAI identifica vulnerabilidades en sus herramientas. Sin embargo, la amplia variedad de situaciones en las que se pueden utilizar estos modelos dificulta su control

    El 'red-teaming' es un proceso usado por OpenAI para detectar fallos en sus modelos
  3. Al habla con la IA: el reto de lograr voces más diversas e inclusivas

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por inteligencias artificiales sean más inclusivas y reflejen una mayor variedad de dialectos para asegurar que las particularidades de cada lugar y cultura se preserven frente al avance tecnológico

    La iniciativa Common Voice, de Mozilla, busca que las voces generadas por IA sean más inclusivas y diversas