Tay, el bot parlante de Microsoft que aprendía de sus conversaciones con la gente, no tardó en convertirse en una pesadilla. Ahora, el jefe de inteligencia de máquinas de Yandex afirma que Tay ofrece unas cuantas grandes lecciones de lo que no hay que hacer con una inteligencia artificial
¿Se acuerda de Tay, el chatbot de Microsoft que hace dos años circulaba por Twitter y otras redes sociales y que, poco después de ser liberado a la jungla de internet acabó convertido en un algoritmo neonazi racista enloquecido por el sexo? (ver La IA racista y neonazi de Microsoft fue culpa de Microsoft)
Lo que comenzó como un divertido experimento social que pretendía que cualquiera pudiera hablar con el programa para que este aprendiera y, con suerte, el usuario se entretuviera, se convirtió en una pesadilla para los creadores de Tay. Los usuarios no tardaron en descubrir cómo hacer que Tay dijera cosas horribles. Microsoft tardó menos de un día en desconectar el servicio.
Sin embargo, el jefe de inteligencia de máquinas e investigación del gigante tecnológico ruso Yandex, Misha Bilenko, cree que el experimento fue una bendición para el sector de los asistentes de inteligencia artificial (IA).
Crédito: Jeremy Portje
En su charla durante la reciente conferencia anual EmTech Digital organizada por MIT Technology Review en San Francisco (EE. UU.), Bilenko dijo que los errores de Tay, como su vulnerabilidad a ser juzgado para aprender o repetir frases ofensivas, se han convertido en grandes lecciones sobre lo que puede salir mal. Es decir, Tay es un maravilloso ejemplo de lo que no hay que hacer a la hora de desarrollar un programa de este tipo.
Para el responsable, la forma en que Tay evolucionó velozmente, dejando de ser un robot amante de la diversión (fue entrenada para tener la personalidad de una chica de 19 años) para convertirse en un monstruo de IA, demuestra la importancia de poder abordar rápido este tipo de situaciones. Y eso es algo que no es precisamente fácil de hacer. Además, Bilenko destaca que la gente tienen una gran tendencia a antropomorfizar la IA bajo la idea de que se traba de un programa con grandes conocimientos en lugar de verla como la máquina estadística que realmente es.
"Microsoft lo hizo todo al revés, pero al echar la vista atrás, Tay se ha convertido en un estudio de caso realmente útil", dijo Bilenko.
Los chatbots y asistentes inteligentes han cambiado considerablemente desde 2016. Ahora son mucho más populares, están disponibles en todas partes, desde aplicaciones para teléfonos inteligentes hasta altavoces inteligentes, y sus capacidades cada vez son mayores (ver Woebot, el robot parlante que reduce los síntomas de depresión en dos semanas). Pero todavía hay cosas que se les dan muy mal, como algunas de las que Tay trataba de perfeccionar, como la personalidad y la capacidad de dar conversación.
Bilenko no cree que la situación vaya a cambiar en seguida, al menos no durante los próximos cinco años. Para el experto, las conversaciones que los humanos tienen son "muy difíciles".