Para la cofundadora de Fast.ai Rachel Thomas el sector está sometido a falsos estereotipos que hacen que la gente crea que trabajar en inteligencia artificial es muy difícil. Pero no es así, y su objetivo es aumentar la diversidad de la industria para que pueda resolver problemas más allá de Silicon Valley
Rachel Thomas quiere que usted se una a la fuerza de trabajo de la inteligencia artificial (IA) y tiene un plan para conseguirlo.
En la conferencia anual EmTech Digital organizada a finales de marzo por MIT Technology Review en EE. UU., la cofundadora de Fast.ai, una compañía que ofrece clases gratuitas sobre el aprendizaje profundo, defendió que la IA no es tan inaccesible como parece.
Durante su ponencia, Thomas habló sobre los prerrequisitos estereotípicos que suelen considerarse necesarios para trabajar en inteligencia artificial, como un doctorado, grandes conjuntos de datos y acceso a una enorme potencia computacional. También dio ejemplos de sistemas de IA que desafían esas expectativas, como una red neuronal que uno de sus alumnos creó con una técnica de entrenamiento que solo necesitaba 30 puntos de datos para funcionar. También señaló la disponibilidad de una unidad de procesamiento gráfico (GPU) basada en la nube que tan solo cuesta unos 36 céntimos de euro por hora.
"Las barreras para usar IA son más bajas de lo que piensa", dijo Thomas.
Para crear sistemas de inteligencia artificial que aborden problemas más allá de los que ve Silicon Valley hace falta que en el sector haya distintos puntos de vista (ver "La inteligencia artificial está inmersa en una crisis de diversidad"). Thomas contó el ejemplo de un ganadero que se apuntó a una clase de Fast.ai para desarrollar un algoritmo para controlar mejor la salud de las ubres de sus cabras.
"Este ganadero conoce problemas que nadie más conoce", dice Thomas.
La responsable cree que aumentar la diversidad en el mundo de la IA también ayudará a superar los problemas de sesgos y equidad que actualmente aquejan a la industria (ver Google advierte: el verdadero peligro de la IA no son los robots asesinos sino los algoritmos sesgados). En su opinión, equipos más diversos pueden evitar problemas como la tendencia de la aplicación Google Photos de etiquetar a las personas negras como si fueran "gorilas" y el racismo implícito descubierto por ProPublica en un algoritmo utilizado para tomar decisiones financieras.
Thomas concluyó: "El campo tiene un pequeño problema de exclusividad. El mundo necesita que todos ustedes participen en la IA".