Oficiales entrenándose en realidad virtual, ciudades vigiladas por redes de sensores e informes policiales generados por inteligencia artificial son señales de lo que está por venir.
Esta historia es de The Algorithm, nuestro boletín semanal sobre IA. Para recibirlo primero en tu bandeja de entrada, regístrate aquí .
A los periodistas les puede resultar complicado pasar por ciertas puertas, y la puerta de la conferencia de la Asociación Internacional de Jefes de Policía está casi siempre cerrada para los medios. Por eso, me llevé una grata sorpresa cuando pude asistir a la conferencia durante un día en Boston el mes pasado.
Se promociona como la reunión más grande de jefes de policía en los Estados Unidos, donde los líderes de muchos de los 18.000 departamentos de policía del país e incluso algunos del extranjero se reúnen para demostraciones de productos, debates, fiestas y premios.
Fui a ver cómo se debatía sobre la inteligencia artificial y el mensaje a los jefes de policía parecía clarísimo: si su departamento tarda en adoptar la IA, arreglen eso ahora. El futuro de la policía dependerá de ella en todas sus formas.
En la sala de exposiciones del evento, los vendedores (de los cuales había más de 600) ofrecieron una visión de la creciente industria de proveedores de tecnología policial. Algunos tenían poco que ver con la IA: los stands mostraban chalecos antibalas, rifles y prototipos de Cybertrucks con la marca de la policía, y otros mostraban nuevos tipos de guantes que prometían proteger a los agentes de las agujas durante los registros. Pero solo había que mirar hacia donde se reunían las multitudes más grandes para entender que la IA era el principal atractivo.
El revuelo se centró en tres usos de la IA en la policía. El más llamativo fue el de la realidad virtual, ejemplificado por el stand de V-Armed, que vende sistemas de realidad virtual para el entrenamiento de agentes. En el recinto ferial, V-Armed construyó un espacio completo con gafas de realidad virtual, cámaras y sensores, similar al que la empresa instaló recientemente en la sede del Departamento de Policía de Los Ángeles. Los asistentes podían ponerse las gafas y realizar ejercicios de entrenamiento sobre cómo responder a situaciones de tiradores activos. Muchos competidores de V-Armed también estuvieron en la exposición, vendiendo sistemas que, según ellos, eran más baratos, más eficaces o más sencillos de mantener.
El argumento a favor de la formación en realidad virtual es que, a largo plazo, puede resultar más barata y atractiva que la formación con actores o en un aula. “Si disfrutas de lo que haces, estás más concentrado y recuerdas más que cuando miras un PDF y asientes con la cabeza”, me dijo el director ejecutivo de V-Armed, Ezra Kraus.
La eficacia de los sistemas de entrenamiento de realidad virtual aún no se ha estudiado en profundidad y no pueden reproducir por completo las interacciones matizadas que tiene la policía en el mundo real. La IA aún no es muy buena en las habilidades blandas necesarias para las interacciones con el público. En el stand de otra empresa, probé un sistema de realidad virtual centrado en el entrenamiento de desescalada, en el que se encargó a los agentes calmar a un personaje de IA en apuros. Sufría de retrasos y, en general, era bastante incómodo: las respuestas del personaje parecían demasiado guionadas y programáticas.
El segundo enfoque se centró en el cambio en la forma en que los departamentos de policía recopilan e interpretan los datos. En lugar de comprar una herramienta de detección de disparos de una empresa y un lector de matrículas o un dron de otra, los departamentos de policía utilizan cada vez más conjuntos de sensores, cámaras, etc., de un puñado de empresas líderes que prometen integrar los datos recopilados y hacerlos útiles.
Los jefes de policía asistieron a clases sobre cómo construir estos sistemas, como una impartida por Microsoft y el Departamento de Policía de Nueva York sobre el Domain Awareness System, una red de lectores de matrículas, cámaras y otras fuentes de datos que se utilizan para rastrear y monitorear el crimen en la ciudad de Nueva York. Las multitudes se reunieron en enormes stands de alta tecnología de Axon y Flock, ambos patrocinadores de la conferencia. Flock vende un conjunto de cámaras, lectores de matrículas y drones, y ofrece inteligencia artificial para analizar los datos que llegan y activar alertas. Este tipo de herramientas han sido duramente criticadas por los grupos de libertades civiles, que las ven como un ataque a la privacidad que no ayuda mucho al público.
Por último, como en otras industrias, la IA también llega para las tareas administrativas y de elaboración de informes. Muchas empresas presentes en la exposición, incluida Axon, ofrecen productos de inteligencia artificial generativa para ayudar a los agentes de policía a redactar sus informes. La oferta de Axon, llamada Draft One, incorpora imágenes de cámaras corporales, las transcribe y crea un primer borrador de un informe para los agentes.
“Tenemos un dispositivo en el cuerpo de un agente que registra todo tipo de información interesante sobre el incidente”, me dijo Bryan Wheeler, vicepresidente sénior de Axon, en la exposición. “¿Podemos usarlo para darle una ventaja al agente?”
A primera vista, se trata de una tarea de escritura muy adecuada para la IA, que puede resumir rápidamente la información y escribir de forma mecánica. También podría ahorrar mucho tiempo que los agentes dedican actualmente a redactar informes. Pero, dado que la IA es propensa a las “alucinaciones”, hay una verdad inevitable: incluso si los agentes son los autores finales de sus informes, los departamentos que adopten este tipo de herramientas corren el riesgo de introducir errores en algunos de los documentos más críticos del sistema judicial.
“Los informes policiales son a veces el único relato conmemorativo de un incidente”, escribió Andrew Ferguson, profesor de Derecho en la American University, en julio, en el primer artículo de una revista jurídica sobre los graves desafíos que plantean los informes policiales escritos con IA. “Dado que los casos penales pueden tardar meses o años en llegar a juicio, la precisión de estos informes es de vital importancia”. La inclusión o exclusión de determinados detalles puede afectar a los resultados de todo, desde los montos de la fianza hasta los veredictos.
Al mostrarle a un agente una versión generada de un informe policial, las herramientas también lo exponen a detalles de las grabaciones de su cámara corporal antes de que complete su informe, un documento destinado a capturar el recuerdo del incidente del agente. Esto plantea un problema.
“La policía ciertamente nunca le mostraría un video a un testigo ocular antes de preguntarle sobre lo que ocurrió, ya que eso sería simplemente una mala práctica investigativa”, dice Jay Stanley, analista de políticas del Proyecto de Discurso, Privacidad y Tecnología de la ACLU, quien pronto publicará un trabajo sobre el tema.
Un portavoz de Axon dice que esta preocupación "no refleja cómo se pretende que funcione la herramienta" y que Draft One tiene características sólidas para garantizar que los oficiales lean los informes con atención, agreguen su propia información y editen los informes para verificar su precisión antes de enviarlos.
La principal conclusión que saqué de la conferencia fue que la forma en que la policía estadounidense está adoptando la IA es inherentemente caótica. No hay una agencia que regule cómo se utiliza la tecnología, y los aproximadamente 18.000 departamentos de policía de Estados Unidos (la cifra exacta ni siquiera se conoce) tienen niveles notablemente altos de autonomía para decidir qué herramientas de IA comprarán e implementarán. Las empresas de tecnología policial que los prestan construirán las herramientas que los departamentos de policía encuentren atractivas, y no está claro si alguien establecerá límites adecuados en materia de ética, privacidad y precisión.
Esto se hará aún más evidente en la próxima administración Trump. En una agenda policial publicada el año pasado durante su campaña, Trump promovió tácticas más agresivas como “detener y registrar”, una cooperación más profunda con las agencias de inmigración y una mayor protección de la responsabilidad para los agentes acusados de irregularidades. Según se informa, la administración Biden ahora está intentando concretar algunas de sus propuestas de reformas policiales antes de enero.
Sin una regulación federal sobre cómo los departamentos de policía pueden y no pueden usar la IA, los límites los trazarán los propios departamentos y las empresas de tecnología policial.
“En definitiva, se trata de empresas con ánimo de lucro y sus clientes son las fuerzas del orden”, afirma Stanley. “Hacen lo que quieren sus clientes, siempre que no exista ninguna amenaza muy grave que compense su modelo de negocio”.
Ahora lee el resto de El Algoritmo
Aprendizaje más profundo
El laboratorio de inteligencia artificial libra una guerra de guerrillas contra la inteligencia artificial explotadora
Cuando las herramientas de IA generativa aparecieron en escena, los artistas se preocuparon de inmediato, pues las vieron como un nuevo tipo de robo. El investigador de seguridad informática Ben Zhao entró en acción como respuesta, y su laboratorio en la Universidad de Chicago comenzó a desarrollar herramientas como Nightshade y Glaze para ayudar a los artistas a evitar que los modelos de IA se apropiaran de su trabajo. Mi colega Melissa Heikkilä pasó tiempo con Zhao y su equipo para analizar el esfuerzo en curso para hacer que estas herramientas sean lo suficientemente fuertes como para detener el hambre incesante de la IA por más imágenes, arte y datos con los que entrenarse.
Por qué es importante : El paradigma actual en IA es construir modelos cada vez más grandes, y estos requieren grandes conjuntos de datos para entrenarlos. Las empresas tecnológicas argumentan que todo lo que está en la Internet pública es un juego limpio, mientras que los artistas exigen una compensación o el derecho a negarse. Resolver esta lucha en los tribunales o mediante la regulación podría llevar años, por lo que herramientas como Nightshade y Glaze son lo que los artistas tienen por ahora. Si las herramientas interrumpen los esfuerzos de las empresas de IA por crear mejores modelos, eso podría empujarlas a la mesa de negociaciones para negociar sobre licencias y una compensación justa. Pero es un gran "si". Lea más de Melissa Heikkilä .
Bits y bytes
Las élites tecnológicas presionan a Elon Musk para conseguir puestos en la administración Trump
Elon Musk es el líder tecnológico que más escucha a Trump. Como tal, se dice que es el conducto a través del cual los expertos en inteligencia artificial y tecnología están presionando para tener influencia en la administración entrante. ( The New York Times )
OpenAI está cada vez más cerca de lanzar un agente de IA para automatizar sus tareas
Los agentes de IA (modelos que pueden realizar tareas por ti) están de moda. Se dice que OpenAI está a punto de lanzar uno, una noticia que llega unas semanas después de que Anthropic anunciara el suyo propio. ( Bloomberg )
Cómo este esfuerzo de base podría hacer que las voces de la IA sean más diversas
Un esfuerzo masivo liderado por voluntarios para recopilar datos de entrenamiento en más idiomas, de personas de más edades y géneros, podría ayudar a que la próxima generación de IA de voz sea más inclusiva y menos explotadora. ( MIT Technology Review )
Google DeepMind tiene una nueva forma de mirar dentro de la “mente” de una IA
Los codificadores automáticos nos permiten escudriñar la caja negra de la inteligencia artificial. Podrían ayudarnos a crear una IA que se comprenda mejor y se controle más fácilmente. ( MIT Technology Review )
Musk ha ampliado su ataque legal contra OpenAI para apuntar a Microsoft
Musk ha ampliado su demanda federal contra OpenAI, en la que alega que la empresa ha abandonado sus orígenes y obligaciones sin ánimo de lucro. Ahora también va en busca de Microsoft, acusándola de violaciones de las normas antimonopolio en su trabajo con OpenAI. ( The Washington Post )