Dos nuevos artículos de las grandes tecnológicas describen nuevos métodos para que la detección de sesgos sea más justa
Los sistemas de visión por ordenador están por todas partes. Ayudan a clasificar y etiquetar imágenes en redes sociales, detectan objetos y rostros en fotos y vídeos, y resaltan elementos relevantes de una imagen. Sin embargo, están plagados de sesgos y son menos precisos cuando las imágenes muestran a personas negras o morenas, y a mujeres. También hay otro problema: las formas actuales que los investigadores emplean para detectar sesgos en estos sistemas están a su vez sesgadas también. Ya que clasifican a las personas en categorías amplias que no tienen en cuenta la complejidad que existe entre los seres humanos.
Dos trabajos nuevos realizados por investigadores de Sony y Meta proponen formas de medir los sesgos en los sistemas de visión por ordenador para captar mejor la rica diversidad de la humanidad. Ambos trabajos se presentarán en octubre en la Conferencia Internacional sobre Visión por Computador (ICCV, por sus siglas en inglés). Los desarrolladores podrían utilizar estas herramientas para comprobar la diversidad de sus conjuntos de datos, algo que ayudaría a obtener datos de entrenamiento mejores y más diversos para la inteligencia artificial (IA). Las herramientas también podrían utilizarse para medir la diversidad de las imágenes humanas producidas por la IA generativa.
El sesgo del tono de piel en la visión por ordenador suele medirse utilizando la escala de Fitzpatrick, que mide de claro a oscuro. La escala se desarrolló para medir el bronceado de la piel blanca, pero desde entonces se ha adoptado como herramienta para determinar el origen étnico, afirma William Thong, investigador de Ética de la IA en Sony. Se utiliza para medir la parcialidad de los sistemas informáticos, por ejemplo, comparando la precisión de los modelos de IA para personas de piel clara y oscura.
No obstante, describir la piel de las personas con una escala unidimensional es engañoso, afirma Alice Xiang, responsable mundial de Ética de la IA en Sony. Al clasificar a las personas en grupos basándose en esta escala básica, los investigadores pasan por alto los sesgos que afectan, por ejemplo, a los asiáticos, que están infrarrepresentados en los conjuntos de datos de IA occidentales y pueden entrar tanto en la categoría de piel clara como en la de piel oscura. Tampoco tiene en cuenta que los tonos de piel de las personas cambian. Por ejemplo, la piel asiática se vuelve más oscura y amarilla con la edad, mientras que la piel blanca se vuelve más oscura y roja, según señalan los investigadores.
El equipo de Thong y Xiang ha desarrollado una herramienta ―compartida en exclusiva con MIT Technology Review― que amplía la escala de tonos de piel a dos dimensiones, ya que mide tanto el color de la piel, de claro a oscuro, como su tonalidad, de rojo a amarillo. Sony ya ha puesto esta herramienta a disposición del público en internet.
Thong afirma que se inspiró en la artista brasileña Angélica Dass, cuya obra muestra que personas procedentes de entornos similares pueden tener una enorme variedad de tonos de piel. Sin embargo, representar toda la gama de tonos de piel no es una idea novedosa. La industria cosmética lleva años utilizando esta misma técnica.
"Cualquiera que haya tenido que elegir un tono de base de maquillaje sabe lo importante que es no solo saber si el tono de piel de una persona es claro u oscuro, sino también si es cálido o frío", explica Xiang.
El trabajo de Sony sobre el tono de la piel "ofrece una visión de un componente ausente que la gente ha pasado por alto", afirma Guha Balakrishnan, profesor adjunto de la Universidad Rice (Texas, EE UU), que ha estudiado los sesgos en los modelos de visión por ordenador.
Sesgo de medición
En la actualidad, los investigadores no disponen de un método estándar para medir el sesgo en la visión por ordenador, algo que dificulta la comparación entre sistemas.
Para agilizar las evaluaciones de sesgo, Meta ha desarrollado una nueva forma de medir la imparcialidad en los modelos de visión por ordenador, denominada Fairness in Computer Vision Evaluation (FACET), que puede utilizarse en una serie de tareas habituales como la clasificación, la detección y la segmentación. Laura Gustafson, investigadora de IA en Meta, afirma que FACET es la primera evaluación de equidad que incluye muchas tareas diferentes de visión por ordenador, y que incorpora una gama más amplia de métricas de equidad que otras herramientas de sesgo.
Para crear FACET, Meta reunió un conjunto de datos de libre acceso de 32.000 imágenes humanas y contrató a anotadores de todo el mundo para que las etiquetaran las imágenes con 13 atributos visuales diferentes, como la edad, el tono de la piel, la representación del sexo, el color y la textura del pelo, etcétera. También se les pidió que etiquetaran a las personas según lo que estuvieran haciendo o cuál pareciera ser su profesión, como peluquero, patinador, estudiante, músico o gimnasta. Esto añade matices y precisión a la evaluación de los prejuicios, según los investigadores.
A continuación, Meta utilizó FACET para evaluar el rendimiento de los modelos de visión más avanzados con distintos grupos de personas; los resultados mostraron grandes disparidades. Por ejemplo, los modelos detectaban mejor a las personas de piel clara, aunque tuvieran rastas o el pelo alborotado.
Dado que las personas de todo el mundo tienen sus propios prejuicios a la hora de evaluar imágenes de otras personas, los esfuerzos de Meta por reclutar anotadores geográficamente diversos son positivos, afirma Angelina Wang, investigadora de doctorado en Princeton (Nueva Jersey, EE UU), que ha estudiado los prejuicios en los modelos de visión por ordenador.
El hecho de que Meta haya puesto sus datos en línea de forma gratuita también ayudará a los investigadores. Anotar datos es muy caro, así que solo está al alcance de las grandes empresas tecnológicas a gran escala. "Es una buena noticia", afirma Balakrishnan.
Sin embargo, Wang advierte que conviene ser realistas sobre el impacto que pueden tener estos sistemas, ya que puede que conduzcan a pequeñas mejoras más que a transformaciones en la IA. "Creo que aún estamos lejos de acercarnos a algo que capte realmente cómo se representan los seres humanos a sí mismos, y es probable que nunca lo alcancemos", concluye.