Los algoritmos con sesgos racistas, los trabajos fantasma y el esquema de gobernanza de la inteligencia artificial no han surgido por casualidad, sino que son una consecuencia directa de la colonización. Comprender su larga e inquietante historia es el primer paso para solucionarlos.
En marzo de 2015, en la Universidad de Ciudad del Cabo (Sudáfrica) estallaron protestas contra la estatua del colonialista británico Cecil Rhodes. Aquel magnate minero, que había regalado la tierra en la que se construyó la universidad, había cometido genocidio contra los africanos y sentó las bases del apartheid. Bajo el lema "Rhodes debe caer", los estudiantes exigían que se quitara la estatua. Sus protestas provocaron un movimiento global para erradicar los legados coloniales que perduran en la educación.
Esos acontecimientos también animaron al investigador sudafricano de inteligencia artificial (IA) en DeepMind, Shakir Mohamed, a reflexionar sobre qué legados coloniales podrían existir también en su investigación. En 2018, justo cuando el campo de la IA comenzaba a considerar los problemas como la discriminación algorítmica, Mohamed escribió una publicación de blog con sus primeras opiniones. E hizo un llamamiento a los investigadores a "descolonizar la inteligencia artificial", para reorientar el trabajo de campo lejos de los centros occidentales como Silicon Valley (EE. UU.) e incluir nuevas voces, culturas e ideas para guiar el desarrollo de la tecnología.
Ahora, a raíz de los nuevos gritos de "Rhodes debe caer" en el campus de la Universidad de Oxford (Reino Unido) que provocó el asesinato de George Floyd y el movimiento antirracismo global, Mohamed ha publicado un nuevo trabajo junto a su colega William Isaac y la candidata a doctorado de Oxford Marie-Therese Png. En él, refuerzan las ideas iniciales de Mohamed con ejemplos específicos de cómo los desafíos de la IA están enraizados en el colonialismo, y propone estrategias para abordarlos al reconocer dicha historia.
Cómo se manifiesta la 'colonialidad' en la IA
Aunque el colonialismo histórico ha terminado, sus efectos persisten aún hoy en día. Esto es lo que los expertos denominan como "colonialidad": la idea de que los desequilibrios de poder modernos entre razas, países, ricos y pobres, y otros grupos son extensiones de los desequilibrios de poder entre colonos y colonizados.
Un ejemplo sería el racismo estructural. Los europeos inventaron el concepto de razas y las diferencias entre ellas para justificar el comercio de esclavos africanos y luego la colonización de los países africanos. En Estados Unidos, los efectos de esa ideología ahora se pueden seguir a través de la propia historia de la esclavitud del país, Jim Crow y la brutalidad policial.
Del mismo modo, los autores del artículo argumentan que esta historia colonial explica algunas de las características e impactos más preocupantes de la IA actual. Identifican cinco manifestaciones de la colonialidad en la inteligencia artificial:
1. Discriminación algorítmica y opresión. Los lazos entre la discriminación algorítmica y el racismo colonial son quizás los más obvios: los algoritmos creados para automatizar los procedimientos y entrenados con datos de una sociedad racialmente injusta terminan replicando esos efectos racistas en sus resultados. Pero gran parte de los estudios sobre este tipo de daño por parte de la IA se centra en ejemplos de EE. UU. Analizarlos en el contexto de la colonialidad permite una perspectiva global: Estados Unidos no es el único lugar con desigualdades sociales. "Siempre hay grupos que se identifican y se someten a eso", afirma Isaac.
2. Trabajo fantasma. El fenómeno del trabajo fantasma, el trabajo invisible relacionado con datos y necesario para apoyar la innovación en IA, extiende claramente la histórica relación económica entre colonizador y colonizado. Muchas antiguas colonias de EE. UU. y de Reino Unido (Filipinas, Kenia e India) se han convertido en centros de los trabajos fantasma para las empresas de EE. UU. y Reino Unido. Las fuerzas laborales baratas de habla inglesa de estos países, que se ajustan a la perfección al trabajo con los datos, existen debido a sus historias coloniales.
3. Pruebas beta. Los sistemas de IA a veces se prueban en los grupos más vulnerables antes de implementarse para los usuarios "reales". Cambridge Analytica, por ejemplo, llevó a cabo las pruebas beta de sus algoritmos en las elecciones nigerianas en 2015 y en las de Kenia en 2017 antes de usarlos en EE. UU. Más tarde, los estudios encontraron que estos experimentos interrumpieron activamente el proceso electoral de Kenia y erosionaron la cohesión social. Este tipo de pruebas hacen eco del trato histórico del Imperio Británico con sus colonias como laboratorios de nuevas medicinas y tecnologías.
4. Gobernanza de la IA. Los desequilibrios de poder geopolíticos que dejó la época colonial también influyen activamente en la gobernanza de la IA. Esto se ha dejado ver en la reciente carrera por crear pautas éticas globales de la IA: los países en desarrollo de África, América Latina y Asia Central han quedado mayoritariamente fuera del debate, lo que ha llevado a algunos a negarse a participar en los acuerdos internacionales de flujo de datos. El resultado: los países desarrollados siguen beneficiándose desproporcionadamente de las normas mundiales diseñadas para su ventaja, mientras que los países en desarrollo continúan quedándose más rezagados.
5. Desarrollo social internacional. Finalmente, los mismos desequilibrios de poder geopolítico afectan cómo se usa la IA para ayudar a los países en desarrollo. Las iniciativas de "IA para el bien" o "IA para el desarrollo sostenible" suelen tener un carácter paternalista. Obligan a los países en desarrollo a depender de los sistemas de IA existentes en vez de participar en la creación de otros nuevos modelos diseñados para su propio contexto.
Los investigadores señalan que estos ejemplos no son integrales, pero demuestran lo lejos que llegan los legados coloniales en el desarrollo global de la IA. También aúnan lo que parecen problemas dispares bajo una tesis unificadora. Isaac detalla: "Nos permite una nueva gramática y vocabulario para hablar sobre por qué estos problemas son importantes y qué vamos a hacer para considerarlos y abordarlos a largo plazo".
Cómo descolonizar la IA
Los investigadores sostienen que el beneficio de analizar los impactos negativos de la IA a través de esta lente es el marco para predecir y mitigar los futuros daños. Png cree que realmente no existen las "consecuencias no deseadas", solo las consecuencias de los puntos ciegos que tienen las organizaciones y las instituciones de investigación cuando carecen de una representación diversa.
En este sentido, proponen tres técnicas para lograr descolonizar la IA o, al menos, construir una más inclusiva y beneficiosa:
1. Desarrollo técnico sensible al contexto. Primero, cuando los investigadores de IA construyen un nuevo sistema, deben tener en cuenta dónde y cómo se usará. Su trabajo no debería terminar al acabar de escribir el código, sino que debería incluir una serie de pruebas, el respaldo con políticas que faciliten su uso adecuado y el diseño de acciones contra el uso inadecuado.
2. Tutela inversa. En segundo lugar, deberían escuchar a los grupos marginados. Un ejemplo de cómo llevarlo a cabo es la nueva práctica del aprendizaje automático participativo, que busca involucrar a las personas más afectadas por los sistemas de aprendizaje automático en su diseño. Esto ofrece a los sujetos la oportunidad de desafiar y dictar cómo se enmarcan los problemas de aprendizaje automático, qué datos se recogen y cómo, y dónde se utilizan los modelos finales.
3. Solidaridad. Los grupos minoritarios también deben recibir apoyo y recursos para iniciar su propio trabajo de IA. Ya existen varias comunidades minoritarias participando en el desarrollo de la IA, incluidos Deep Learning Indaba, Black in AI y Queer in AI, y su trabajo debería ampliarse.
Desde la publicación de su artículo, los investigadores aseguran que han notado un gran interés y entusiasmo. Isaac concluye: "Al menos me da la sensación de que hay receptividad a este trabajo. Parece que se trata de un tema en el que la comunidad quiere empezar a participar".