Una investigación revela que la mayoría de estos algoritmos funciona con información sesgada hacia las minorías a causa de los comportamientos corruptos de los propios cuerpos de seguridad. Se trata de un lavado de cara tecnológico que hace creer que las decisiones algorítmicas son justas
A medida que la inteligencia artificial penetra en la sociedad y se usa para tomar decisiones que afectan a las personas, aumenta el problema de los algoritmos sesgados. El reto es que son muy difíciles de identificar y más aún de corregir. Le explicamos por qué
Ya nadie duda de que la inteligencia artificial presenta graves sesgos en función de la raza y el género, pero muy poca gente está prestando atención a un colectivo aún más desfavorecido: las personas discapacitadas. La investigadora de IBM Shari Trewin está decidida a resolver el problema
Microsoft y Facebook están creando herramientas para detectar automáticamente los sesgos algorítmicos. Pero varios expertos critican que no será suficiente, y piden auditores externos y una mayor concienciación de los desarrolladores para minimizar las injusticias de la inteligencia artificial