.

Kimberly White / Stringer

Inteligencia Artificial

Polémica en Google por despedir a su codirectora de Ética para la IA

1

Timnit Gebru afirma que está sufriendo represalias por publicar una investigación en la que criticaba al gigante y por enviar un correo electrónico "incompatible con lo que se espera de un directivo de Google". Como mujer negra, Gebru es una famosa activista por la diversidad en la inteligencia artificial

  • por Karen Hao | traducido por Ana Milutinovic
  • 10 Diciembre, 2020

El 2 de diciembre, la comunidad de investigación de inteligencia artificial (IA) se llevó una triste sorpresa al descubrir que una de las voces líderes del campo Timnit Gebru había sido despedida de su puesto en Google. Gebru es conocida, entre otras cosas, por ser coautora de un pionero trabajo que reveló la naturaleza discriminatoria del reconocimiento facial, por cofundar el grupo activista Black in AI (negros en inteligencia artificial) y por abogar continuamente por la diversidad en la industria tecnológica.

Aquel día por la noche, Gebru publicó en Twitter que había sido despedida de su puesto como codirectora de Ética de IA de Google: "Aparentemente, la jefa de mi jefe envió un correo electrónico [a] mis subordinados directos diciendo que aceptaba mi dimisión. Yo no había dimitido".

En una entrevista con Bloomberg el jueves 3 de diciembre, Gebru aseguró que el despido ocurrió después de una extensa discusión con sus superiores por la publicación de un artículo de investigación sobre la ética de la IA. Uno de los tuits de Gebru y un posterior correo electrónico interno del jefe de IA de Google, Jeff Dean, sugieren que el artículo criticaba los costes ambientales y los sesgos incorporados en los grandes modelos de lenguaje.

Gebru había escrito ese artículo con cuatro colegas de Google y dos colaboradores externos y querían presentarlo en una conferencia de investigación que tendrá lugar el próximo año. Después de una revisión interna, se le pidió que retirara el documento o eliminara los nombres de los empleados de Google. Gebru respondió que lo haría si sus superiores cumplían una serie de condiciones. Si no podían cumplirlas, Gebru "trabajaría en un último día", añadió.

También envió un correo electrónico de frustración a una lista interna de destinatarios llamada Google Brain Women and Allies (mujeres y aliados de Google Brain), en el que detallaba las repetidas dificultades que había experimentado como investigadora negra. En su correo afirmaba: "Acabamos de realizar una investigación de todos los autores negros en la que demostramos sensiblemente su exasperación. ¿Qué es lo que pasó desde entonces? Se ha silenciado de la manera más fundamental posible".

Luego, se fue de vacaciones y, antes de reincorporarse, recibió un correo electrónico informando de su cese por parte de la vicepresidenta de Ingeniería de Google Research, Megan Kacholia. Según tuiteó Gebru, en el correo electrónico Kacholia le decía: "Gracias por dejar claras sus condiciones. No coincidimos en la primera y la segunda condición, según sus requerimientos. Respetamos su decisión de dejar Google como consecuencia y aceptamos su renuncia". Para la responsable, el correo electrónico que Gebru envió a la lista interna era "incompatible con lo que se espera de un directivo de Google". Y añadió: "Como resultado, aceptamos su renuncia de inmediato, que se hace efectiva desde hoy".

El jueves 3 de diciembre por la mañana, después de la avalancha de apoyo que Gebru recibió en redes sociales, Dean envió otro correo electrónico interno al grupo de inteligencia artificial de Google con su explicación de la situación. En él aseguró: "[El artículo de Gebru no cumplió con nuestro estándar de publicación [porque] ignoró demasiadas investigaciones relevantes".

Y añadió: "[Las condiciones de Gebru incluían] revelar las identidades de todas las personas con las que Megan y yo habíamos hablado y que habíamos consultado como parte de la revisión del artículo y su respuesta exacta. Teniendo en cuenta el papel de Timnit como investigadora respetada y directiva en nuestro equipo de IA ética, lamento que Timnit haya llegado al punto de pensar de esta manera sobre el trabajo que llevamos a cabo. Sé que todos compartimos verdaderamente la pasión de Timnit por lograr que la IA sea más equitativa e inclusiva".

Ni Gebru, ni Dean, ni el departamento de Comunicación de Google respondieron a las solicitudes de comentarios, y muchos detalles sobre el desarrollo exacto de la situación o la causa de la rescisión del contrato siguen sin estar claros. Mientras siguen apareciendo más datos, muchos han llamado la atención sobre el tuit del 30 de noviembre que Gebru destacó en la parte superior de su perfil: "¿Hay alguien trabajando en la regulación que proteja a los investigadores de IA ética, similar a la protección de los denunciantes? Porque con la cantidad de censura e intimidación que ocurre hacia las personas de grupos específicos, ¿cómo confiar en que se pueda realizar una investigación seria en esta área?"

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  2. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  3. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo