Ha alimentado a las redes neuronales con todo tipo de datos, desde recetas de cócteles y nombres de tartas hasta títulos de películas de terror y letras de canciones de películas de Disney. Los resultados son siempre divertidísimos.
nCon su humor como base, el editor jefe para inteligencia artificial de MIT Technology Review, Will Knight, y yo nos embarcamos en un reto para crear una graciosa obra maestra al estilo de Shane. Así que introdujimos los resúmenes de los argumentos de 360 películas navideñas, por cortesía de Wikipedia, en un algoritmo de aprendizaje automático para ver si podíamos conseguir que la IA generara la trama para un taquillazo navideño. Basta con decir que, desde que lo hicimos, me identifico con los investigadores que describen el entrenamiento de las redes neuronales más como un arte que como una ciencia. Y también descubrí que lograr que sean algo divertido es realmente difícil.
nEsto es lo que hicimos:
nEl proceso
nEl algoritmo que utilizamos se llama textgen n, el mismo que usó Shane en su colaboración con The New York Times. Textgen n tiene dos funciones: puede usar letras para generar palabras similares a otras palabras o usar palabras para generar frases similares a otras frases.
nCada función viene con la misma configuración que se puede ir ajustando a cada intento para lograr mejores resultados. Me centré principalmente en tres de los ajustes: el número de capas, el número de épocas y en la temperatura.
n
Foto: 'La milla navideña'. También intentamos generar títulos de películas navideñas. Nuestro departamento de arte se divirtió mucho con esto. Crédito: Mr. Tech.
nLas capas se refieren a la complejidad de la red neuronal: cuantas más capas tiene, más capaz es de manejar los datos más complicados. El número de épocas es el número de veces que la red puede ver los datos de entrenamiento antes de presentar sus resultados finales. Y la temperatura una especie de configuración de creatividad: cuanto más baja la temperatura, la red elegirá más las palabras comunes en el conjunto de datos de entrenamiento y no tanto las que rara vez aparecen.
nPor supuesto, no sabía nada de esto cuando empecé a jugar. Cargué mis tramas de películas en un archivo de texto y comencé a ajustar la red a ciegas. Abajo están algunos de los ejemplos de lo que empezó a aparecer, con una configuración de alta creatividad y un creciente número de épocas:
nÉpoca 4:
nMaría y amigos de la magia que hacen la Navidad, deben detener el esfuerzo de Nathan.
nFrota seriamente una apuesta en el resort. A los elfos les importó mucho en la sombra de la Navidad y descubrieron la muerte que Califo ia espera en su marmota. Después de que el sabio portero de las navidades traumatizara el lugar para descubrir algo popular en su comunidad.
nA sobrevivir antes de mostrarlos en la ciudad.
nÉpoca 6:
nY el niño hijo que trabaja cuyos problemas religiosos pueden nacer.
nMax mccallister Evie a quien le fue fiel a su navidad la pregunta en la pareja.
nLadrón de apartamentos huérfanos y mccallister más vacaciones.
nÉpoca 8:
nEl dueño de la zona suburbana se aleja malvado con el intento travieso de la vida de escape que aprende en el vecindario donde las circunstancias de su casa lo visitan.
nWWII encontrar retriever para los amigos.
nUna pareja de madres toma un pacifista. Tres familiares baratas le dicen a sus cómodos regalos un clon a un desdentado.
nSi está leyendo esto, probablemente estará pensando: son incomprensibles y nada graciosos, entonces, amigo mío, estamos de acuerdo.
nAl principio pensé que estaba haciendo algo mal, que no había descubierto el truco para entrenar a la red neuronal correctamente. Pero después de docenas de intentos con diferentes configuraciones, finalmente llegué a la conclusión de que esto es lo mejor que se podía sacar. La mayoría de las frases serán terribles, y en alguna rara ocasión, saldrá algo realmente gracioso.
nLa lección
nShane me explicó que parte del problema se debía a mi pequeño conjunto de datos de entrenamiento: 360 argumentos son muy pocos frente a los millones de datos que se usan normalmente para obtener resultados de alta calidad. Otra parte del problema se debía al propio textgen n. Según Shane, el algoritmo simplemente no es el mejor para construir frases. ("¿Sabemos por qué?" le pregunté a Shane. Y ella contestó: "No creo que ni la persona que creó textgen n lo sepa. Incluso podría ser un error". Ah, la belleza de la caja negra de los algoritmos.)
nPero la razón principal está en las limitaciones para generar frases con una red neuronal. Incluso si hubiera usado mejores datos y un mejor algoritmo, el problema de lograr coherencia es muy habitual.
n
Foto: 'IT Santa'. Crédito: Mr. Tech.
nEsto tiene sentido si pensamos en lo que pasa por dentro. Los algoritmos de aprendizaje automático son realmente buenos usando estadísticas para encontrar y aplicar los patrones en los datos. Pero eso es todo. Entonces, en el contexto de la construcción de frases, cada palabra consecutiva se elige únicamente en función de la probabilidad de que aparezca después de la palabra anterior. Es como tratar de redactar un correo electrónico con un texto predeterminado. El resultado estaría lleno de incongruencias, mezclas de singular y plural, y mucha confusión sobre algunas partes del discurso.
nEntonces, en realidad, se necesita mucho trabajo manual para que una red neuronal produzca algo que los humanos considerarían mínimamente gracioso. Shane admitió: "Para algunos conjuntos de datos, solo enseño una de cada cien cosas que aparecen. Pero sé que lo estoy haciendo realmente bien cuando uno de cada diez es realmente divertido y vale la pena mostrarlo". En muchos casos, continuó, lleva más tiempo organizar los resultados que entrenar el algoritmo.
nLección aprendida: las redes neuronales no son tan graciosas. Los humanos sí que los son.
nLos resultados
nPara terminar, aquí están algunos de los mejores resúmenes generados por el algoritmo, que Will y yo pudimos encontrar, un poco mejorados. También creamos unos títulos de películas navideñas con la función para palabras. Y, como no pudimos resisti os, agregamos unos cuantos comentarios.
nSinopsis
nUna familia del terrorista navideño ofrece por primera vez una nueva ciudad para luchar.
nUna historia de la vida hogareña del padre en Navidad.
nEl solitario de la Navidad.
nUna mujer del caos cree en su hogar adoptivo.
nUna princesa ogro cruza cerca por Navidad.
nUn jardinero detective pero asesino en el campo mágico, de repente, en Navidad, un elfo cercano.
nUna intercepción sufre y unos amigos intercambian la Navidad y salvan la época navideña.
nUn hombre de familia y un especial separado para Navidad.
nUnos abandonados en la víspera de Navidad en una familia de Nueva York antes de la Navidad.
nSanta.
nEl Tacaño canta 'Malo' por Papá Noel, desde Anima.
nUn hombre se aparece al cantante que se ve obligado a devolver su vida con una pareja para ayudar a su hija en Navidad.
nUn ángel con el problema de Papá Noel desde la fábrica.
nUn periódico del pueblo de mensajería solitaria destruye el hogar de Navidad Navidad Navidad.
nUn niñero trata de festejar la Navidad para ganar más Navidad.
nTítulos
nLa tienda navideña
nNavidad de Papá Noel
nLa milla navideña
nEl club de la Navidad
nThe Nighht Claus
nI Santa Manta Christmas Porie
nBebé Navideño
nUna historia de Navidad de Cigüeñas
nLa Navidad de Grange.
nLa pastelería navideña de Papá Noel
nEl Señor Navidad
nLamer la Navidad
nMrack Me Christmas Satra
nCatond de Navidad 2
nLa Navidad de Papá Noel de Bach
nLa Navidad de Pinta
nEl elenco navideño
nLa Navidad que viene
nIT Santa
nFromilia
n
