La policía del Reino Unido quiere utilizar inteligencia artificial para predecir crímenes

El sistema obtiene información de las bases de datos de la policía nacional y local, hasta ahora han recopilado más de un terabyte de datos, incluyendo reportes de crímenes cometidos y de unas 5 millones de personas identificables.

Las autoridades británicas quieren predecir los crímenes violentos antes de que sucedan, pretenden usar una inteligencia artificial con estadísticas que intentará medir el riesgo de que alguien cometa o sea víctima de un crimen

Según reporta New Scientist, el sistema se llama “Solución Nacional de Análisis de Datos” (NDAS), y la idea es que este sea capaz de marcar a las personas antes de que el crimen suceda para ofrecer “intervenciones”(no arrestos) que logren evitar el comportamiento criminal.

NDAS tiene 1400 indicadores que pueden ayudarle a predecir si alguien cometerá un crimen, como cuántas veces alguien cometieron un crimen en el pasado, o cuántas personas cercanas cometieron crímenes. Aquellos que sean marcados por el sistema como propensos a actos violentos recibirán un “puntaje de riesgo”.

Lo que aún está en discusión es exactamente qué pasará cuando estos individuos de riesgo alto a cometer un crimen sean identificados: Iain Donnelly, el policía líder del proyecto, explicó que la intención no es arrestar a nadie preventivamente, sino en cambio ofrecer soporte a través de los trabajadores sociales y de salud locales.

Por ejemplo, podían ofrecer asesoramiento a un individuo con historial de problemas de salud mental si el sistema los marca con alta probabilidad de cometer un crimen violento, y las potenciales víctimas también podrían ser contactadas por servicios sociales.

El departamento de policía de West Midlands es el encargado del proyecto de prueba y se espera que tengan un prototipo para marzo de 2019, aunque ya hay otros ocho departamentos de policía involucrados, y esperan expandirse a todo Reino Unido.

¿Y los problemas éticos?

Algo que está comprobado es que los algoritmos que controlan nuestras vidas son tan injustos y llenos de prejuicios como las personas que los diseñan y los datos que se les inyectan, por lo que el sistema se arriesga a marcar a personas como potenciales criminales incluso si nunca han cometido un crimen

Un equipo del Instituto Alan Turing en Londres se cuestiona si es útil para el bienestar público intervenir cuando un individuo ni siquiera ha cometido un crimen, solo porque probablemente pueda cometerlo en el futuro. Aunque el programa tenga buenas intenciones, parece ignorar los problemas de las predicciones inexactas.

Además está el hecho de que basar las predicciones en historiales de arrestos pasados trae el riesgo de limitar las predicciones a ciertos lugares y reforzar los prejuicios del sistema. En muchos casos los arrestos se correlacionan con el lugar donde se despliega la policía y no con el crimen, lo que tiende a afectar de manera desproporcionada a las personas de color y a los residentes de los barrios pobres.