Un programa de aprendizaje automático analiza el historial del acusado para determinar si debe esperar a su juicio desde casa o presenta riesgo de fuga. Y resulta que funciona mejor que los jueces
Crédito: Jon Han.
Cuando un acusado tiene que esperar a que se celebre su juicio, ¿cómo se decide si puede aguardarlo desde casa o debe ingresar en prisión? La inteligencia artificial podría ayudar a los jueces a tomar esta decisión, lo que reduciría el número de crímenes o el número de personas encarceladas a la espera de sentencia.
En un nuevo estudio de la Oficina Nacional de Investigaciones Económicas de Estados Unidos (NBER, por sus siglas en inglés), un equipo de economistas e informáticos entrenaron un algoritmo para predecir si los acusados mostraban riesgo de fuga mediante sus historiales penales y registros judiciales con datos de cientos de miles de casos de la ciudad de Nueva York (EEUU). Al analizar más de 100.000 casos que no había visto antes, el algoritmo resultó ser más preciso que los jueces a la hora de predecir qué harán los acusados después de ser liberados.
El profesor de informática de la Universidad Cornell (EEUU) Jon Kleinberg, que participó en la investigación, señala que un objetivo del proyecto era demostrar los beneficios potenciales para la sociedad de emplear el aprendizaje automático dentro del sistema judicial penal. "Esto demuestra que el aprendizaje automático puede ayudar incluso en contextos en los que existe una amplia experiencia humana", afirma Kleinberg, que colaboró con investigadores de la Universidad de Stanford, la Universidad de Harvard y la Universidad de Chicago (todas en EEUU).
Los responsables calculan que para la ciudad de Nueva York (EEUU), los consejos de su algoritmo podrían reducir un 25% los crímenes perpetrados por acusados a la espera de juicio sin alterar el número de personas encarceladas en esa situación. Pero también podría reducir en un 40% la población encarcelada que espera ser juzgada sin influir en la tasa de criminalidad de los acusados. Repetir el experimento con datos de 40 grandes condados urbanos de EEUU produjo resultados similares.
Y por si fuera poco, los beneficios se mantenían incluso cuando se disminuía la proporción encarcelada de afroamericanos e hispanos.
El algoritmo asigna a los acusados una puntuación de riesgo basada en datos procedentes de documentos relacionados con el caso en cuestión y el historial penal. Estos datos incluyen, por ejemplo, el delito del que se les acusa, cuándo y dónde fueron detenidos y el número y los tipos de condenas anteriores. (El único dato demográfico que emplea es la edad, no la raza).
Kleinberg sugiere que su algoritmo podría ayudar a los jueces sin interrumpir demasiado su trabajo, ya que el sistema solo emite unas sencillas advertencias sobre las decisiones que considera potencialmente erróneas. El análisis del rendimiento de los jueces sugiere que tienen tendencia a dejar en libertad a acusados con muchas probabilidades de no presentarse al juicio o de cometer un crimen mientras esperan la vista. Un algoritmo podría detectar muchos de esos casos, según Kleinberg.
El profesor de criminología de la Universidad de Pensilvania (EEUU) Richard Berk considera que es "trabajo muy bueno" y un ejemplo del creciente interés por aplicar el aprendizaje automático para mejorar las decisiones judiciales penales. La idea lleva 20 años siendo explorada, pero la tecnología se está volviendo más potente, y cada vez hay más datos de entrenamiento disponibles.
Berk probó recientemente un sistema en colaboración con la Junta de Libertad del Estado de Pensilvania que aconseja sobre el riesgo de que una persona vuelva a delinquir. Según sus resultados, el sistema redujo la tasa de criminalidad. El estudio del NBER es importante, según Berk, porque examina cómo se puede usar la tecnología en fases previas a la sentencia, una área que no ha sido explorada en profundidad.
Pero señala que hacen falta más investigaciones para asegurarse de que los algoritmos judiciales no den lugar a resultados injustos. El año pasado, una investigación realizada por ProPublica descubrió que el software comercial desarrollado para ayudar a determinar qué convictos deberían recibir la libertad condicional tenía muchas más probabilidades de clasificar incorrectamente a personas de color como "alto riesgo" que a los caucásicos.
El director del Laboratorio de Criminología de la Universidad de Chicago, Jens Ludwig, que participó en el nuevo estudio de la NBER, afirma que los resultados demuestran que las conclusiones injustas no son inevitables, ya que un algoritmo que avisa a los jueces podría reducir la tasa de criminalidad además de la tasa de encarcelación de afroamericanos e hispanos. "Estas herramientas realmente pueden mejorar la justicia con respecto al statu quo", concluye.