.

Courtesy of MIT Media Lab

Inteligencia Artificial

Por qué los niños deben comprender la IA para usarla mejor

1

Un programa piloto del MIT Media Lab enseña a los pequeños cómo se desarrolla un algoritmo para que entiendan mejor los sesgos que se pueden generar. Conocer cómo afecta la inteligencia artificial a la sociedad les puede ayudar a darse cuenta de que la tecnología que les rodea no es neutral

  • por Karen Hao | traducido por Ana Milutinovic
  • 18 Septiembre, 2019

Un estudiante resume cómo describiría la inteligencia artificial (IA) a un amigo: "Es como un bebé o un cerebro humano, porque tiene que aprender", explica en un vídeo, "y almacena [...] y usa esa información para resolver las cosas".

La mayoría de los adultos tendrían dificultades para elaborar una definición tan convincente de un tema bastante complejo. Con tan solo diez años, este alumno era uno de los 28 participantes, de entre 9 y 14, de un programa piloto celebrado el pasado verano y pensado para enseñarles IA.

El plan curricular, desarrollado por la asistente de investigación de posgrado del MIT Media Lab (EE.UU), Blakeley Payne, es parte de una iniciativa más amplia para hacer que estos conceptos entren de forma integral a las aulas de los colegios. El plan, que es de acceso abierto, incluye varias actividades interactivas que ayudan a los estudiantes a descubrir cómo se desarrollan los algoritmos y cómo esos procesos afectan la vida de la gente.

Los niños de hoy en día crecen en un mundo rodeados de IA: los algoritmos determinan qué información ven, les ayudan a elegir los vídeos que siguen e influyen en cómo aprenden a comunicarse. Se espera que al comprender mejor cómo se crean los algoritmos y cómo afectan a la sociedad, los niños puedan convertirse en usuario más críticos con esta tecnología. Incluso podrían motivarlos a ayudar a dar forma su futuro.

"Es esencial que comprendan cómo funcionan estas tecnologías para que puedan usarlas mejor", destaca Payne. "Queremos que se sientan empoderados".

Los estudiantes imaginan cómo rediseñarían YouTube.

Foto: Los estudiantes imaginan cómo rediseñarían YouTube. Fuente: Cortesía de MIT Media Lab 

¿Por qué utilizar niños?

Hay varias razones para enseñar IA a los niños. Primero, en el plano económico: varios estudios han demostrado que exponer a los niños a conceptos técnicos estimula sus habilidades de resolución de problemas y su pensamiento crítico. Esto puede prepararles para aprender destrezas informáticas de forma más rápida a lo largo de su vida.  

En segundo lugar, hay un argumento social. Los años de la escuela primaria y secundaria son particularmente importantes en la formación y el desarrollo de la identidad de los niños. Enseñar tecnología a las niñas a esta edad puede prepararlas a estudiarla más tarde o seguir una carrera en tecnología, subraya la profesora de psicología y desarrollo infantil en la Universidad Politécnica del Estado de California (EE.UU.) Jennifer Jipson.

Esto podría ayudar a diversificar la industria de la IA y de la tecnología en general. Aprender a lidiar con la ética y los impactos sociales de la tecnología desde el principio también puede animar a los niños a convertirse en creadores y desarrolladores más conscientes, así como en ciudadanos mejor informados.

Finalmente, está el problema de la vulnerabilidad. Los jóvenes son más fáciles de moldear e impresionar, por lo que los riesgos éticos que supone el seguimiento del comportamiento de las personas para diseñar experiencias más adictivas son más agudos para ellos, según la profesora de diseño centrado en el alumno en el University College London (Reino Unido) Rose Luckin. Hacer que los niños sean consumidores pasivos podría dañar su privacidad y desarrollo a largo plazo.

"Entre los diez y los doce años es la media de edad en la que un niño recibe su primer teléfono móvil o su primera cuenta de redes sociales", afirma Payne. "Queremos que realmente comprendan que la tecnología representa opiniones y objetivos que no necesariamente coinciden con los suyos, antes de convertirse en mayores consumidores de tecnología".

Los estudiantes diseñaron matrices éticas para pensar a través de los interesados en un algoritmo de fabricación de sándwiches y sus valores.

Foto: Los alumnos diseñaron matrices éticas para pensar a través de los operadores en un algoritmo tipo sándwich y sus valores. Fuente: Cortesía del MIT Media Lab

¿Cuál es la opinión sobre los algoritmos?

El plan curricular de Payne incluye una serie de actividades que incitan a los estudiantes a pensar sobre la subjetividad de los algoritmos.  Comienzan aprendiendo sobre ellos como si fueran recetas, con información de entrada, un conjunto de instrucciones y un resultado. Después se les pide a los niños que "construyan" o escriban las instrucciones para obtener un algoritmo que genere el mejor sándwich de mantequilla de cacahuete y mermelada.

Rápidamente, los niños del programa piloto de verano empezaron a comprender la lección que subyace. "Un alumno me preguntó: '¿Se supone que esto es una opinión o un hecho?'", recuerda. A través de su propio proceso de descubrimiento, los alumnos se dieron cuenta de cómo habían incorporado sin querer sus propias preferencias en sus algoritmos.

La siguiente actividad se basa en ese concepto: los alumnos dibujan lo que Payne llama una "matriz ética" para pensar en cómo las diferentes partes interesadas y sus valores también pueden afectar el diseño del algoritmo del mejor sándwich. Durante el programa, Payne relacionó las lecciones con los acontecimientos actuales. Los alumnos leyeron juntos un artículo del Wall Street Journal sobre cómo los ejecutivos de YouTube pensaban crear una versión separada de su aplicación solo para niños con un algoritmo de recomendación modificado. Los alumnos pudieron ver cómo las demandas de los inversores, las presiones de los padres o las preferencias de los niños podían convencer a la compañía para rediseñar sus algoritmos de formas completamente diferentes.  

Otro conjunto de actividades enseña a los alumnos el concepto de sesgo algorítmico. Utilizan la herramienta Teachable Machine de Google, una plataforma interactiva de código abierto para entrenar los modelos básicos de aprendizaje automático y para desarrollar un clasificador entre gatos y perros. Sin embargo, sin saberlo, reciben un conjunto de datos sesgado. A través de un proceso de experimentación y discusión, se dan cuenta de que el conjunto de datos conduce al clasificador a ser más preciso con los gatos que con los perros. Después, tienen la oportunidad de corregir ese problema.

Una vez más, Payne conectó ese ejercicio con un ejemplo del mundo real mostrando a los alumnos imágenes de la investigadora del MIT Media Lab Joy Buolamwini hablando ante el Congreso sobre los sesgos del reconocimiento facial. "Pudieron ver cómo el tipo de proceso de pensamiento por el que habían pasado podría cambiar la forma en la que se crean estos sistemas en el mundo", explica Payne.

Una estudiante muestra su rediseño final de YouTube.

Foto: Una alumna muestra su rediseño final de YouTube. Fuente: Cortesía de MIT Media Lab. 

Hacia la educación del futuro

Payne planea continuar perfeccionando el programa, teniendo en cuenta los comentarios de los participantes, y está explorando varias vías para ampliar su alcance. Su objetivo es introducir alguna versión del mismo en la educación pública.

Más allá de eso, espera que sirva de ejemplo para educar a los niños en tecnología, sociedad y ética. Tanto Luckin como Jipson están de acuerdo en que así se ofrece una base prometedora sobre cómo podría evolucionar la educación para satisfacer las demandas de un mundo impulsado cada vez más por la tecnología.

"La IA como la vemos en la sociedad en este momento no es un gran igualador", concluye Payne. "La educación sí que lo es, o al menos, esperamos que lo sea. Así que este es un paso fundamental para avanzar hacia una sociedad más justa y equitativa".

Inteligencia Artificial

 

La inteligencia artificial y los robots están transformando nuestra forma de trabajar y nuestro estilo de vida.

  1. El gobierno de EE UU pone bajo la lupa a las empresas de IA por publicidad engañosa

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA por mentir y realizar publicidad engañosa, una lucha que continuará durante el próximo mandato de Donald Trump

    La Comisión Federal de Comercio (FTC) de Estados Unidos ha tomado medidas contra varias empresas de IA
  2. Las emisiones de la IA están a punto de dispararse aún más

    Las emisiones de los centros de datos se han triplicado desde 2018. A medida que modelos de IA más complejos como Sora de OpenAI comiencen a generalizarse, es probable que esas cifras se disparen

    Ordenador portátil echando humo
  3. La IA llega al campo de batalla para redefinir la toma de decisiones en la guerra moderna

    Anduril, fabricante de drones y misiles con IA, ha firmado un acuerdo con el Pentágono de EE UU para integrar sus sistemas en conflictos armados y optimizar la toma de decisiones, un aspecto que ya ha generado preocupación en organismos internacionales como Human Rights Watch

    La IA llega al campo de batalla