Cuando intenté que una inteligencia artificial creara argumentos de películas de Navidad constaté que la coherencia en el lenguaje sigue siendo uno de sus grandes retos. Más que sinopsis y tramas graciosas, lo que conseguí fue una serie de frases incongruentes
Si hay alguien empeñado en popularizar el humor en torno a la inteligencia artificial (IA), esa la investigadora Janelle Shane. Es posible que conozca su trabajo. En Halloween de este año, colaboró con The New York Times para crear nombres de disfraces con una red neuronal. Shane ha convertido la comedia generada por la IA en un arte desde su encantador blog AI Weirdness. Ha alimentado a las redes neuronales con todo tipo de datos, desde recetas de cócteles y nombres de tartas hasta títulos de películas de terror y letras de canciones de películas de Disney. Los resultados son siempre divertidísimos.
Con su humor como base, el editor jefe para inteligencia artificial de MIT Technology Review, Will Knight, y yo nos embarcamos en un reto para crear una graciosa obra maestra al estilo de Shane. Así que introdujimos los resúmenes de los argumentos de 360 películas navideñas, por cortesía de Wikipedia, en un algoritmo de aprendizaje automático para ver si podíamos conseguir que la IA generara la trama para un taquillazo navideño. Basta con decir que, desde que lo hicimos, me identifico con los investigadores que describen el entrenamiento de las redes neuronales más como un arte que como una ciencia. Y también descubrí que lograr que sean algo divertido es realmente difícil.
Esto es lo que hicimos:
El proceso
El algoritmo que utilizamos se llama textgenrnn, el mismo que usó Shane en su colaboración con The New York Times. Textgenrnn tiene dos funciones: puede usar letras para generar palabras similares a otras palabras o usar palabras para generar frases similares a otras frases.
Cada función viene con la misma configuración que se puede ir ajustando a cada intento para lograr mejores resultados. Me centré principalmente en tres de los ajustes: el número de capas, el número de épocas y en la temperatura.
Foto: 'La milla navideña'. También intentamos generar títulos de películas navideñas. Nuestro departamento de arte se divirtió mucho con esto. Crédito: Mr. Tech.
Las capas se refieren a la complejidad de la red neuronal: cuantas más capas tiene, más capaz es de manejar los datos más complicados. El número de épocas es el número de veces que la red puede ver los datos de entrenamiento antes de presentar sus resultados finales. Y la temperatura una especie de configuración de creatividad: cuanto más baja la temperatura, la red elegirá más las palabras comunes en el conjunto de datos de entrenamiento y no tanto las que rara vez aparecen.
Por supuesto, no sabía nada de esto cuando empecé a jugar. Cargué mis tramas de películas en un archivo de texto y comencé a ajustar la red a ciegas. Abajo están algunos de los ejemplos de lo que empezó a aparecer, con una configuración de alta creatividad y un creciente número de épocas:
Época 4:
María y amigos de la magia que hacen la Navidad, deben detener el esfuerzo de Nathan.
Frota seriamente una apuesta en el resort. A los elfos les importó mucho en la sombra de la Navidad y descubrieron la muerte que California espera en su marmota. Después de que el sabio portero de las navidades traumatizara el lugar para descubrir algo popular en su comunidad.
A sobrevivir antes de mostrarlos en la ciudad.
Época 6:
Y el niño hijo que trabaja cuyos problemas religiosos pueden nacer.
Max mccallister Evie a quien le fue fiel a su navidad la pregunta en la pareja.
Ladrón de apartamentos huérfanos y mccallister más vacaciones.
Época 8:
El dueño de la zona suburbana se aleja malvado con el intento travieso de la vida de escape que aprende en el vecindario donde las circunstancias de su casa lo visitan.
WWII encontrar retriever para los amigos.
Una pareja de madres toma un pacifista. Tres familiares baratas le dicen a sus cómodos regalos un clon a un desdentado.
Si está leyendo esto, probablemente estará pensando: son incomprensibles y nada graciosos, entonces, amigo mío, estamos de acuerdo.
Al principio pensé que estaba haciendo algo mal, que no había descubierto el truco para entrenar a la red neuronal correctamente. Pero después de docenas de intentos con diferentes configuraciones, finalmente llegué a la conclusión de que esto es lo mejor que se podía sacar. La mayoría de las frases serán terribles, y en alguna rara ocasión, saldrá algo realmente gracioso.
La lección
Shane me explicó que parte del problema se debía a mi pequeño conjunto de datos de entrenamiento: 360 argumentos son muy pocos frente a los millones de datos que se usan normalmente para obtener resultados de alta calidad. Otra parte del problema se debía al propio textgenrnn. Según Shane, el algoritmo simplemente no es el mejor para construir frases. ("¿Sabemos por qué?" le pregunté a Shane. Y ella contestó: "No creo que ni la persona que creó textgenrnn lo sepa. Incluso podría ser un error". Ah, la belleza de la caja negra de los algoritmos.)
Pero la razón principal está en las limitaciones para generar frases con una red neuronal. Incluso si hubiera usado mejores datos y un mejor algoritmo, el problema de lograr coherencia es muy habitual.
Foto: 'IT Santa'. Crédito: Mr. Tech.
Esto tiene sentido si pensamos en lo que pasa por dentro. Los algoritmos de aprendizaje automático son realmente buenos usando estadísticas para encontrar y aplicar los patrones en los datos. Pero eso es todo. Entonces, en el contexto de la construcción de frases, cada palabra consecutiva se elige únicamente en función de la probabilidad de que aparezca después de la palabra anterior. Es como tratar de redactar un correo electrónico con un texto predeterminado. El resultado estaría lleno de incongruencias, mezclas de singular y plural, y mucha confusión sobre algunas partes del discurso.
Entonces, en realidad, se necesita mucho trabajo manual para que una red neuronal produzca algo que los humanos considerarían mínimamente gracioso. Shane admitió: "Para algunos conjuntos de datos, solo enseño una de cada cien cosas que aparecen. Pero sé que lo estoy haciendo realmente bien cuando uno de cada diez es realmente divertido y vale la pena mostrarlo". En muchos casos, continuó, lleva más tiempo organizar los resultados que entrenar el algoritmo.
Lección aprendida: las redes neuronales no son tan graciosas. Los humanos sí que los son.
Los resultados
Para terminar, aquí están algunos de los mejores resúmenes generados por el algoritmo, que Will y yo pudimos encontrar, un poco mejorados. También creamos unos títulos de películas navideñas con la función para palabras. Y, como no pudimos resistirnos, agregamos unos cuantos comentarios.
Sinopsis
Una familia del terrorista navideño ofrece por primera vez una nueva ciudad para luchar.
Una historia de la vida hogareña del padre en Navidad.
El solitario de la Navidad.
Una mujer del caos cree en su hogar adoptivo.
Una princesa ogro cruza cerca por Navidad.
Un jardinero detective pero asesino en el campo mágico, de repente, en Navidad, un elfo cercano.
Una intercepción sufre y unos amigos intercambian la Navidad y salvan la época navideña.
Un hombre de familia y un especial separado para Navidad.
Unos abandonados en la víspera de Navidad en una familia de Nueva York antes de la Navidad.
Santa.
El Tacaño canta 'Malo' por Papá Noel, desde Anima.
Un hombre se aparece al cantante que se ve obligado a devolver su vida con una pareja para ayudar a su hija en Navidad.
Un ángel con el problema de Papá Noel desde la fábrica.
Un periódico del pueblo de mensajería solitaria destruye el hogar de Navidad Navidad Navidad.
Un niñero trata de festejar la Navidad para ganar más Navidad.
Títulos
La tienda navideña
Navidad de Papá Noel
La milla navideña
El club de la Navidad
The Nighht Claus
I Santa Manta Christmas Porie
Bebé Navideño
Una historia de Navidad de Cigüeñas
La Navidad de Grange.
La pastelería navideña de Papá Noel
El Señor Navidad
Lamer la Navidad
Mrack Me Christmas Satra
Catond de Navidad 2
La Navidad de Papá Noel de Bach
La Navidad de Pinta
El elenco navideño
La Navidad que viene
IT Santa
Fromilia