.

Inteligencia Artificial

"La inteligencia artificial está inmersa en una crisis de diversidad"

1

La investigadora de Microsoft, Timnit Gehru, entró en pánico cuando se dio cuenta de que entre los 8.500 asistentes de una prestigiosa conferencia de IA sólo había seis negros. Ahora lucha por fomentar la diversidad entre los investigadores del campo para evitar los sesgos que dominan los algoritmos

  • por Jackie Snow | traducido por Mariana Díaz
  • 19 Febrero, 2018

La inteligencia artificial (IA) pasa cada vez más desapercibida en nuestra vida cotidiana. Está por todas partes, tanto en las búsquedas web y las redes sociales, como en los asistentes domésticos como Alexa. Pero, ¿qué podemos hacer ante una tecnología tan importante cuando esta está sesgada, aunque sea involuntariamente? Y, ¿qué hacemos si en este campo de investigación tan importante no hay prácticamente ningún investigador negro? Timnit Gebru aborda estas cuestiones desde el departamento de Imparcialidad, Responsabilidad, Transparencia y Ética en la Inteligencia Artificial de Microsoft, al cual se unió el verano pasado. También cofundó el evento Black in AI (negros en la inteligencia artificial) dentro de la conferencia sobre Información de Sistemas de Procesamiento Neuronal (Neural Information Processing Systems, o NIPS) en 2017 y formó parte de la junta directiva de la primera conferencia de imparcialidad y transparencia en febrero. Gebru  ha hablado con MIT Technology Review sobre cómo los prejuicios se infiltran en los sistemas de inteligencia artificial y cómo la diversidad en los equipos de investigación puede contrarrestar este fenómeno.

¿Cómo la falta de diversidad distorsiona la inteligencia artificial y, en concreto, la visión artificial?

Podría pasarme un año hablando de esto. Hay una tendencia a decidir los tipos de problemas que creemos son importantes, a decidir qué tipo de investigación creemos que es importante y hacia dónde creemos que debería ir la IA. Si no hay diversidad en el conjunto de investigadores, no vamos a abordar los problemas a los que se enfrenta la mayoría de las personas en el mundo. Cuando un problema no nos afecta, no lo consideramos importante, y es posible que ni siquiera sepamos cuáles son estos problemas, porque no interactuamos con las personas que los sufren.

"Cuando arranqué Black in AI, lo hice con un par de mis amigos. Antes tenía una pequeña lista de correo en la que agregaba a cualquier persona negra que veía en este campo y decía: "Hola, soy Timnit. Soy la persona negra número dos. Hola, persona negra número uno. Seamos amigos".

¿Cómo se puede contrarrestar el sesgo en los sistemas de inteligencia artificial?

La razón por la cual la diversidad es realmente importante en la IA, pero no solo en los conjuntos de datos, sino también en los investigadores, es que se necesitan personas que tengan este sentido social de cómo son las cosas. Estamos viviendo una crisis de diversidad en la IA. Además de tener conversaciones técnicas, legales y éticas, debemos hablar sobre la diversidad en la inteligencia artificial. Necesitamos todo tipo de diversidad en IA. Es algo extremadamente urgente.

Desde un punto de vista técnico, hay muchos enfoques diferentes. Uno consiste en diversificar y tener muchos registros diferentes del conjunto de datos como raza, sexo y edad. Cuando ya se ha entrenado un modelo, se puede probar y analizar su eficacia para cada subgrupo. Pero incluso después de hacer esto, es probable que contenga algún tipo de sesgo en su conjunto de datos. Es imposible tener un conjunto de datos que represente a todo el mundo a la perfección.

Algo que realmente me apasiona, y en lo que estoy trabajando ahora, es descubrir cómo alentar a las empresas para que den más información a los usuarios e incluso a los investigadores. Deberían explicar los usos recomendados de sus sistemas, informar de sus trampas y de sus sesgos, etcétera. Así, si soy una empresa emergente y utilizo su conjunto de datos estándar, o un modelo disponible, tendré algo de información sobre las posibles trampas que me puedo encontrar. Ahora mismo estamos en un momento que se parece al Salvaje Oeste, en el que realmente no tenemos muchos estándares sobre dónde colocar los conjuntos de datos.

Y luego hay algunas cosas por las que probablemente no tendría estar usando el aprendizaje automático por ahora, y no existe una guía clara para saber cuáles son esas cosas. Deberíamos decir que si va a utilizar el aprendizaje automático para esta tarea en particular, la precisión de su modelo debería ser al menos X y debería ser justo en este aspecto en particular. Tampoco tenemos ningún tipo de pautas para eso. La IA ha empezado a convertirse en la corriente principal, en un producto que está en todas partes, por lo que estamos en un precipicio en el que realmente necesitamos algún tipo de conversación sobre estandarización y uso.

¿Cuál ha sido la principal motivación de su trabajo con Google Street View y otras investigaciones demográficas?

En el momento en que comenzamos este proyecto, no se había trabajado demasiado para tratar de analizar la cultura a través de las imágenes. Pero sabemos que en internet, la mayoría de nuestros datos se encuentran en forma de imágenes. Una de nuestras motivaciones fue demostrar que se pueden hacer análisis sociales utilizando imágenes.

Esto podría ser muy útil en casos donde obtener datos a partir de encuestas es realmente difícil. Hay lugares del mundo donde casi no hay infraestructuras y ni recursos para enviar gente de puerta a puerta para recopilar datos [del censo], [pero donde] tener una comprensión de los diferentes tipos de poblaciones que viven ahí puede ser muy útil.

Pero, una vez más, esto es exactamente lo mismo que me alentó a querer estudiar la equidad. Si voy a seguir por esta línea de trabajo, realmente necesito tener una mejor comprensión de las posibles repercusiones negativas. ¿Cuáles son las consecuencias para la vigilancia? Además, ¿cuáles son las repercusiones para un sesgo de conjunto de datos? En cualquier tipo de proyecto de minería de datos habrá un sesgo. Por lo que mi línea de trabajo fue realmente lo que me llevó a querer pasar un tiempo en la comunidad de la equidad, para así comprender dónde estaban los retos.

¿Qué problemas se tratarán en la primera conferencia de imparcialidad y transparencia?

Esta es realmente la primera conferencia que aborda los problemas de equidad, responsabilidad, ética y transparencia en inteligencia artificial. Se han realizado algunos talleres en otras conferencias; pero estas conferencias estaban relacionadas con el procesamiento del lenguaje natural o el aprendizaje automático. Es realmente importante tener una conferencia independiente, ya que las personas de diferentes disciplinas la necesitan para poder comunicarse entre sí.

Las personas que utilizan el aprendizaje automático no pueden resolver este problema. Hay problemas de transparencia; hay problemas sobre cómo deberían actualizarse las leyes. Si va a hablar sobre los prejuicios en la atención médica, hay que hablar con [los profesionales de la salud] sobre dónde podrían estar los posibles sesgos y luego, pensar en soluciones basadas en el aprendizaje automático.

¿Cómo ha sido su experiencia en el campo de la inteligencia artificial?

No ha sido fácil. Amo mi trabajo. Me encanta la investigación en la que trabajo y mi campo laboral. No puedo imaginarme haciendo otra cosa. Dicho esto, es muy difícil ser una mujer negra en este campo. Cuando arranqué Black in AI, lo hice con un par de mis amigos. Antes tenía una pequeña lista de correo en la que agregaba a cualquier persona negra que veía en este campo y decía: "Hola, soy Timnit. Soy la persona negra número dos. Hola, persona negra número uno. Seamos amigos".

Lo que realmente lo hizo acelerar fue cuando acudí a la conferencia NIPS [en 2016] y alguien dijo que había unas 8.500 personas. Conté seis personas negras. Entré literalmente en pánico. Esa es la única forma en la que puedo describir cómo me sentí. Vi que este campo estaba creciendo exponencialmente, golpeando la corriente principal; está afectando a cada parte de la sociedad. Al mismo tiempo, también vi mucha retórica sobre la diversidad y cómo muchas empresas piensan qué es lo importante.

Y me di cuenta de que la retórica y la acción estaban totalmente desparejadas. Seis personas negras de 8.500, eso es un número ridículo, ¿verdad? Eso es casi cero %. Y pensaba: "Tenemos que hacer algo ahora". Quiero hacer un llamamiento e invitar a actuar a las personas que creen que la diversidad es importante. Porque es una emergencia, y ahora es cuando tenemos que hacer algo al respecto.

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real

    Esta versión del popular videojuego de construcción, desarrollada por las empresas Decart y Etched, es un experimento que demuestra cómo la IA puede generar mundos sin necesidad de que un humano escriba una sola línea de código

    La IA llega a los videojuegos: la versión de Minecraft que presenta un mundo generado automáticamente en tiempo real
  2. Así funciona el oligopolio de los datos que entrenan los modelos de IA

    Un estudio revela que los datos empleados para entrenar la IA están concentrando el poder en manos de unas pocas empresas, creando un oligopolio alineado con los intereses y objetivos de corporaciones con fines lucrativos

    Tras el telón de la IA: de dónde salen los datos que la construyen
  3. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA