COMPAS reveló tener sesgos hacia los acusados negros, así que hemos intentado rediseñarlo para que sus resultados sean más justos. Pero, al estar entrenado con datos históricos injustos resulta imposible que ofrezca las mismas tasas de acierto y error mientras trata a todos los colectivos de la misma manera
A medida que las grandes empresas crean sistemas plagados de sesgos y con potencial de causar daño, una coalición internacional de científicos colabora para crear un gran modelo abierto y multilingüe de investigación que ayude a encontrar los mejores enfoques de diseño y uso para esta tecnología
La última ganadora del premio Athena Lecturer y primera mujer decana de la Facultad de Ingeniería de la Universidad Estatal de Ohio, Ayanna Howard, aclamada experta en robótica e inteligencia artificial, advierte que nuestra excesiva confianza en estos sistemas puede llevarnos a situaciones peligrosas
La máxima principal para todos los trabajadores de la red social consiste en aumentar el crecimiento y la participación, aunque eso signifique difundir odio, teorías de la conspiración y extremismo. Su director de IA, Joaquin Quiñonero, creó los algoritmos que lo consiguieron y ahora no sabe cómo arreglar el problema
La Unión Europea ha publicado su tan esperado conjunto de regulaciones sobre inteligencia artificial, con restricciones sobre la vigilancia masiva y la manipulación. Por su parte, la FTC ha anunciado que empezará a perseguir a las empresas que utilicen y vendan algoritmos sesgados
Robert Williams fue arrestado injustamente debido al mal funcionamiento de la tecnología, cuyo impacto negativo es desproporcionadamente más alto en personas negras. Aunque esto ya se sabía, muchos departamentos de Policía siguen usándola y negándose a ver la discriminación que genera
Una auditoría revela que dos puestos de trabajo similares se mostraron de forma desigual en función del género, aunque este no afectaba al desempeño. No es la primera vez que se destapa este tipo de ilegalidad en los algoritmos publicitarios de la red social, que no parece estar haciendo gran cosa por solucionarlo
El estudio más grande jamás realizado sobre datos de reconocimiento facial muestra la evolución en las fuentes de datos utilizadas y cómo la aparición del aprendizaje profundo desbarató cualquier tipo de práctica de consentimiento y norma ética a la hora de crear conjuntos de datos de entrenamiento
Una investigación demuestra que da igual que se entrenen con datos de la policía o con denuncias de las víctimas porque toda la información está sesgada por las propias desigualdades de la sociedad. La única solución para evitar que la inteligencia artificial policial perpetúe la injusticia consiste en no usarla
Estos sistemas se utilizan cada vez más para tomar decisiones estratégicas públicas y privadas sobre la vida de las personas, como su acceso a vivienda, a un crédito y a servicios médicos públicos. Pero, al no auditarse, diseñarse, ni usarse correctamente, atrapan a sus víctimas en un círculo vicioso de miseria