Microsoft y Facebook están creando herramientas para detectar automáticamente los sesgos algorítmicos. Pero varios expertos critican que no será suficiente, y piden auditores externos y una mayor concienciación de los desarrolladores para minimizar las injusticias de la inteligencia artificial
Microsoft está construyendo una herramienta para identificar automáticamente los sesgos en una gama de diferentes algoritmos de inteligencia artificial (IA). Hasta la fecha, se trata del esfuerzo más valiente para automatizar la detección de injusticias que pueden introducirse en el aprendizaje automático, y podría ayudar a que las empresas empleen la IA sin que discrimine a ciertas personas (ver Google advierte: el verdadero peligro de la IA no son los robots asesinos sino los algoritmos sesgados).
Las grandes empresas de tecnología están librando una carrera para vender algoritmos básicos de aprendizaje automático a los que sus clientes pueden acceder a través de la nube (de hecho, la inteligencia artificial en la nube ha sido seleccionada entre nuestras 10 Tecnologías Emergentes de 2018). A medida que más clientes utilicen estos algoritmos para automatizar decisiones importantes, el problema del sesgo será cada vez más peligroso (ver Los algoritmos sesgados están por todas partes, y parece que a nadie le importa). Y dado que no es difícil introducir prejuicios en los modelos de aprendizaje automático, las técnicas capaces de automatizar la detección de estos sesgos podrían convertirse en una parte muy valiosa de la IA.
El investigador sénior de Microsoft Rich Caruna, que está trabajando en el cuadro de mandos de detección de sesgos, opina: "Cosas como la transparencia, la inteligibilidad y la explicación son tan novedosas en el sector que muy pocos tenemos experiencia suficiente para dominar todo lo que debemos buscar y todas las formas en las que ese sesgo puede acechar a nuestros modelos".
Los algoritmos sesgados preocupan a cada vez más investigadores y expertos en tecnología (ver Unámonos para evitar la discriminación de los algoritmos que nos gobiernan). A medida que los algoritmos se usan cada vez más para automatizar decisiones importantes, existe el riesgo de que el sesgo se automatice, se despliegue a escala y sea más difícil de detectar para las víctimas.
Caruna dice que el producto de detección de sesgos de Microsoft ayudará a los investigadores de IA a detectar más casos de injusticia, pero no todos. Y explica: "Está claro que no podemos alcanzar la perfección, siempre habrá algún sesgo que no se detecte o que no se pueda eliminar, pero el objetivo es hacer todo lo que podamos".
"Lo más importante que las compañías pueden hacer ahora es educar a sus trabajadores para que conozcan la gran cantidad de vías con las que los sesgos pueden surgir y manifestarse, y para que creen herramientas para que los modelos sean más fáciles de entender y que el sesgo sea más fácil de detectar", agrega Caruna.
Facebook anunció su propia herramienta para detectar sesgos en su conferencia anual para desarrolladores celebrada el pasado 2 de mayo. Su herramienta, Fairness Flow, detecta automáticamente si un algoritmo está haciendo un juicio injusto sobre alguien en función de su raza, sexo o edad. Facebook explicó que necesitaba un flujo de equidad porque cada vez más personas en la compañía usan IA para tomar decisiones importantes.
La profesora de la Universidad de California en Berkeley (EE. UU.) Bin Yu, considera que las herramientas de Facebook y Microsoft parecen dar un paso en la dirección correcta, pero que podrían resultar suficientes. Sugiere que las grandes empresas deberían tener expertos externos que auditen sus algoritmos para demostrar que no son parciales. "Alguien más tiene que investigar los algoritmos de Facebook, no pueden ser un secreto para todos", concluye Yu.