A pesar de los impresionantes avances de la inteligencia artificial, su funcionamiento tiene una dependencia enorme del trabajo humano y sus aplicaciones más potentes están increíblemente limitadas. Además, carece de estándares y está sesgada
A pesar de los increíbles ejemplos de progreso en inteligencia artificial (IA), como los vehículos autónomos y las victorias de AlphaGo, los logros de la tecnología aún están muy limitados y el campo está lejos de ser verdaderamente autónomo. De hecho, para el director ejecutivo del Instituto Allen de Inteligencia Artificial, Oren Etzioni, los sistemas actuales de aprendizaje automático padecen el "síndrome del sabio". Es decir que por muy extraordinarias que sean sus capacidades, sus aplicaciones no van más allá del simple espectáculo.
Durante su charla en la reciente conferencia anual EmTech Digital de MIT Technology Review, celebrada en San Francisco (EE. UU.), el experto explicó que los vehículos sin conductor y el reconocimiento de la voz se basan en el aprendizaje automático. Pero hasta este preciso instante, el 99 % del aprendizaje automático depende del trabajo humano, matizó Etzioni. En su opinión, el aprendizaje automático necesita grandes cantidades de datos que deben ser etiquetados manualmente: esto es un perro, esto es un gato. Y luego, de nuevo, son las personas las que deben programar los algoritmos apropiados. Todo esto depende del trabajo manual.
El experto aseguró que la IA no es "algo místico. No es algo mágico". Y en su opinión, hará falta "mucho trabajo para superar las capacidades actuales".
La clave para reconocer las limitaciones de la inteligencia artificial actual radica en comprender la diferencia entre autonomía e inteligencia. Los humanos tenemos ambas capacidades. Pero según Etzioni, los sistemas de inteligencia artificial, incluso si tienen una inteligencia muy alta para una tarea específica, tienden a tener una autonomía muy baja. Y esa falta de autonomía limita su capacidad de para abordar muchos problemas más amplios.
A pesar de estas limitaciones, Etzioni confía en el potencial de la IA en múltiples aplicaciones. En la parte más alta de su clasificación están los avances científicos basados en la inteligencia artificial. El aprendizaje automático puede leer millones de artículos científicos en busca de tendencias y nuevas hipótesis. El experto detalló: "Imagine que hay una cura para el cáncer enterrada entre miles e incluso millones de ensayos clínicos".
Etzioni también advirtió sobre los riesgos asociados al aprendizaje automático, como los algoritmos sesgados. El experto señaló: "El aprendizaje automático busca patrones en los datos. Si parte de datos racistas, acabará teniendo incluso más modelos racistas. Este es un problema real" (ver Google advierte: el verdadero peligro de la IA no son los robots asesinos sino los algoritmos sesgados).
No obstante, consideró que si estos problemas se asumen, aparece una estrategia clara. Según sus palabras, "la IA es una herramienta y nosotros decidimos cómo la utilizamos".
Por su parte, el profesor de la Universidad de Nueva York (EE. UU.) Brenden Lake, especializado en la combinación de la ciencia de datos con la psicología y que también participó en el encuentro, demostró que la ciencia cognitiva puede ayudar a construir la próxima generación de inteligencia artificial. En su opinión, la construcción de modelos, en lugar del reconocimiento de patrones, puede ayudar a los sistemas de IA a desarrollar nuevas habilidades, como jugar un juego desconocido o reconocer nuevos caracteres escritos a mano. El experto aseguró que el estudio de la mente humana "jugará un papel clave en el desarrollo de esta tecnología en el futuro".
La investigadora de Microsoft Timnit Gebru, también aportó una dosis de realidad con ejemplos prácticos de sistemas de inteligencia artificial sesgados. También quiso recordar a la audiencia que es necesario desarrollar estándares inteligentes para poner los datos al alcance de los científicos. Comparó la falta de estándares de la inteligencia artificial con el caos inicial y la regulación posterior en la industria automotriz. Señaló que, al principio se creía que los automóviles eran "inherentemente malvados", al igual que hoy en día se respira temor en torno a los sistemas de inteligencia artificial. La experta concluyó: "La IA tiene muchas oportunidades, pero tenemos que tomarnos en serio la idea de llevar a cabo un proceso de estandarización de seguridad".