Los oficiales de Charlotte pronto trabajarán bajo el ojo de algoritmos que intentarán predecir sus acciones, pero si no lo hacen con la precisión suficiente sus errores podrían ser mortales
La policía de Charlotte, Carolina del Norte (EEUU), se convertirá en conejillo de indias para probar un nuevo enfoque tecnológico diseñado para mejorar las relaciones entre la policía y los ciudadanos. El Departamento de Policía de Charlotte-Mecklenburg está colaborando con investigadores de la Universidad de Chicago (EEUU) para crear software que intentará predecir cuándo un agente tendrá una probabilidad alta de tener una interacción negativa con alguien. El equipo afirma que el software avisará de todo, desde las demostraciones de mala educación durante una parada rutinaria de tráfico hasta los tiroteos mortales.
El análisis de de FiveThirtyEight sobre el programa señala que los esfuerzos anteriores para emplear algoritmos que instaran a los policías a que hagan mejor su trabajo no han tenido éxito. El Departamento de Policía de Chicago desechó un sistema introducido en la década de 1990 debido a la resistencia de los policías, a los que no les gustaba trabajar bajo su ojo algorítmico.
Además de las preocupaciones de confianza y represalias, un problema con ese sistema fue su falta de precisión. Aunque los algoritmos predictivos han mejorado desde entonces, aún representa un reto importante.
Crédito: Elvert Barnes (Flickr).
Entrenar el software para que realice unas predicciones precisas requiere grandes cantidades de datos. Las empresas de computación como Google y Facebook disponen de miles de millones de puntos de datos, que han sido un componente crucial de los recientes avances en la inteligencia artificial.
Pero la información requerida para crear software que prediga con precisión las acciones futuras de un policía determinado seguramente escasearán mucho más. Y la precisión aquí es sumamente importante. Si Amazon recomienda dos películas y sólo le gusta una de ellas, probablemente no se sentirá ofendido ni malentendido. Si un algoritmo empieza a ofrecer consejos acerca de cómo hacer su trabajo, y su trabajo incluye decidir en escenarios de vida o muerte, más le vale proporcionar buenos consejos.
(Lean más: FiveThirtyEight)