Un nuevo modelo de aprendizaje automático está llamado a mejorar la automatización de la toma de decisiones en ámbitos como las finanzas, la sanidad y la publicidad, entre otros
Un nuevo modelo de aprendizaje automático ha sido creado por un equipo de investigadores de Spotify, la empresa de música en streaming, que captura por primera vez las complejas matemáticas escondidas tras el análisis contrafáctico. Esta precisa técnica puede utilizarse para identificar las causas de acontecimientos pasados, y predecir los efectos de los posibles sucesos futuros.
A principios de este año, el modelo fue descrito en Nature Machine Intelligence, la revista científica, como una mejora para la precisión de la automatización de la toma de decisiones. En especial, las recomendaciones personalizadas en una serie de aplicaciones que van desde las finanzas hasta la atención sanitaria.
La idea básica de los contrafácticos es preguntarse qué habría ocurrido en una situación si ciertos acontecimientos hubieran sido diferentes. Es como rebobinar el mundo, cambiar algunos detalles cruciales y darle al play para ver qué pasa. Modificando los detalles adecuados, es posible separar la verdadera causalidad de la correlación y la coincidencia.
"Entender la causa y el efecto es muy importante para tomar decisiones. Quieres entender qué impacto tendrá en el futuro una decisión que tomes ahora", afirma Ciaran Gilligan-Lee, director del Laboratorio de Investigación de Inferencia Causal de Spotify, que ha codesarrollado el modelo.
En el caso de Spotify, eso significaría elegir qué canciones sugerirte o cuándo los artistas deberían sacar un nuevo álbum. Spotify aún no utiliza estos mecanismos contrafactuales, asegura Gilligan-Lee, "pero podrían ayudar a responder preguntas con las que lidiamos cada día".
La lógica contrafactual es intuitiva. La gente suele entender el mundo imaginando cómo habrían sido las cosas si hubiera ocurrido esto en lugar de aquello, pero son monstruosos en términos en matemáticos.
"Los contrafácticos son objetos estadísticos de aspecto muy extraño, raro de contemplar. Estás preguntando la probabilidad de que un hecho, que no ha ocurrido, ocurra", sintetiza el investigador.
Gilligan-Lee y sus coautores empezaron a trabajar juntos después de leer el trabajo de los otros en un artículo de MIT Technology Review. Y basaron su modelo en un marco teórico para hechos contrafactuales, denominado redes gemelas.
Estas redes gemelas fueron inventadas en la década de 1990 por los informáticos Andrew Balke y Judea Pearl. En el año 2011, Pearl ganó el Premio Turing (el Nobel de la informática) por su trabajo sobre el razonamiento causal y la inteligencia artificial.
Pearl y Balke utilizaron redes gemelas para resolver varios ejemplos sencillos, asegura Gilligan-Lee. Sin embargo, es difícil aplicar a mano el marco matemático en casos más grandes y complejos del mundo real.
Ahí entra en juego el aprendizaje automático. Las redes gemelas tratan los elementos contrafácticos como un par de modelos probabilísticos: uno representa el mundo real, y el otro el ficticio. Los modelos están vinculados de tal manera que el del mundo real limita al ficticio, manteniéndolo igual en todos los sentidos, excepto en los hechos que quieren cambiarse.
Gilligan-Lee y sus colegas utilizaron el marco de las redes gemelas como modelo para una red neuronal, y la entrenaron para que hiciera predicciones sobre cómo se desarrollarían los acontecimientos en el mundo ficticio. El resultado es un programa informático de uso general para el razonamiento contrafáctico. "Permite responder a cualquier pregunta contrafáctica sobre un escenario [concreto]", afirma Gilligan-Lee.
Agua sucia
El equipo de Spotify puso a prueba su modelo utilizando varios estudios sobre casos reales, entre ellos, uno sobre la aprobación de créditos en Alemania, otro sobre un ensayo clínico internacional de un medicamento para el ictus y otro sobre la seguridad del suministro de agua en Kenia.
En el año 2020, unos investigadores estudiaron si la instalación de tuberías y contenedores de hormigón para proteger los manantiales de la contaminación bacteriana en una región de Kenia reduciría los niveles de diarrea infantil. Y encontraron un efecto positivo. Pero hay que estar seguros de la causa, cuenta Gilligan-Lee. Antes de instalar muros de hormigón alrededor de los pozos de todo el país, hay que asegurarse de que el descenso de las enfermedades fue causado por esa intervención y no un efecto secundario de la misma.
Puede que, cuando los investigadores vinieron a hacer el estudio e instalar muros de hormigón alrededor de los pozos, la gente fuera más consciente de los riesgos del agua contaminada y empezara a hervirla en casa. En ese caso, el especialista explica que "la educación sería una forma más barata de ampliar la intervención".
Gilligan-Lee y sus colegas pasaron este escenario por su modelo, preguntando si los niños que enfermaban tras beber de un pozo sin protección en el mundo real también enfermaban tras beber de un pozo protegido en el mundo ficticio. Descubrieron que cambiar solo el detalle de dónde bebía el niño y mantener otras condiciones, como el tratamiento del agua en casa, no tenía un impacto significativo en el resultado. Lo que sugiere que la reducción de los niveles de diarrea infantil no se debía de manera directa a la instalación de tuberías y recipientes de hormigón.
Esto refuta el resultado del estudio del año 2020, que también utilizó el razonamiento contrafáctico. Pero esos investigadores construyeron a mano un modelo estadístico solo para hacer esa pregunta, cuenta Gilligan-Lee. En cambio, el modelo de aprendizaje automático del equipo de Spotify tiene un propósito generalista, y puede utilizarse para formular múltiples preguntas contrafácticas sobre escenarios muy diferentes.
Además, Spotify no es la única empresa tecnológica que se apresura a crear modelos de aprendizaje automático capaces de razonar sobre la causa y el efecto. En los últimos años, empresas como Meta, Amazon, LinkedIn y ByteDance, propietaria de TikTok, también han empezado a desarrollar esta tecnología.
"El razonamiento causal es fundamental para el aprendizaje automático", dice Nailong Zhang, ingeniero de software de Meta. Esta empresa utiliza la inferencia causal en un modelo de aprendizaje automático que gestiona cuántas y qué tipo de notificaciones debe enviar Instagram a sus usuarios para que vuelvan [a la app].
Romila Pradhan, científica de datos de la Universidad Purdue de Indiana (EE UU), utiliza contrafactuales para hacer más transparente la toma de decisiones automatizada. En la actualidad, las organizaciones utilizan modelos de aprendizaje automático para decidir quién obtiene créditos, puestos de trabajo, libertad condicional e incluso vivienda; y quién no. Los reguladores han empezado a exigir a las organizaciones que expliquen el resultado de muchas de estas decisiones a los afectados, pero es difícil reconstruir los pasos que da un algoritmo complejo.
Pradhan considera que los datos contrafactuales pueden ayudar. Supongamos que el modelo de aprendizaje automático de un banco rechaza su solicitud de préstamo, y quiere saber por qué. Una forma de responder a esa pregunta es mediante contrafactuales. Dado que la solicitud fue rechazada en el mundo real, ¿lo habría sido también en un mundo ficticio donde su historial crediticio fuera diferente? ¿Y si tuviera otro código postal, trabajo, ingresos, etc? Según Pradhan, incorporar la capacidad de responder a estas preguntas en los futuros programas de aprobación de préstamos daría a los bancos una forma de justificar a los clientes las razones en lugar de responder con un simple sí o no.
Los contrafácticos son importantes porque es la manera en que la población piensa sobre resultados distintos, tal como explica Pradhan: "Son una buena forma de captar las explicaciones".
Además, pueden ayudar a las empresas a predecir el comportamiento de las personas. Dado que los contrafactuales permiten inferir lo que podría ocurrir en una situación concreta, no solo en promedio, las plataformas tecnológicas pueden utilizarlos para encasillar a las personas con más precisión que nunca.
La misma lógica que puede desentrañar los efectos del agua sucia, o las decisiones sobre préstamos, puede utilizarse para afinar el impacto de las listas de reproducción de Spotify, las notificaciones de Instagram y la segmentación publicitaria. Si sugerimos esta canción, ¿la escuchará más tiempo? Si mostramos esta imagen, ¿seguirá haciendo scroll? "Las empresas quieren saber cómo ofrecer recomendaciones a usuarios específicos en lugar de al usuario promedio", concluye Gilligan-Lee.