Implementación de IA para predecir crímenes: un debate social alrededor de la discriminación

Año 2054. El capitán de la fuerza policial de Washington, John Anderton, cuenta con un equipo de personas capaces de anticiparse al futuro utilizando facultades mentales que exceden las posibilidades de los seres humanos. Gracias a esto, los asesinatos fueron erradicados del territorio. Este mundo ficticio fue creado por Steven Spielberg en su película Minority Report. Actualmente, en pleno 2020, varias ciudades del mundo se adelantaron a Spielberg utilizando modelos para predecir crímenes.

La tecnología, la mejor aliada para la seguridad ciudadana

Andrés Barrantes, CEO de Nuvu, en su intervención en el ANDICOM 2020 explicó cómo la tecnología ha permitido avanzar hacia un gobierno anticipado, con el objetivo de ofrecer a los ciudadanos mejores servicios. A través del uso de datos, los software pueden arrojar conclusiones que permiten evidenciar cuándo, cómo y dónde se puede producir un delito.

Diferentes ciudades del mundo, como Los Ángeles, utilizan plataformas para reducir los índices de criminalidad con resultados exitosos. Estas aplicaciones usan cifras y datos que se extraen de los índices de inseguridad, reportes a las líneas de emergencia, características de los delincuentes, entre otros. Luego de recopilar estos datos se usan algoritmos para predecir el lugar y la hora en la que sucederá un delito. 

Por ejemplo, particularidades como la poca iluminación, los vidrios rotos o la densidad poblacional están correlacionados con el número de hurtos que hay en un territorio.

Este análisis predictivo permite anticipar estos sucesos, facilitando a las fuerzas policiales su tarea, conociendo dónde ubicar sus patrullas, optimizando recursos y llegando antes de que el delito se produzca. Otros software tienen la capacidad de analizar el lenguaje corporal y a través de microexpresiones identificar quiénes van a cometer un crimen.

La discriminación social, un debate que hay que dar

El mundo conoció una carta firmada por más de mil expertos en datos, sociólogos, historiadores y científicos donde criticaban estos modelos. Su principal crítica parte de la estigmatización de poblaciones, al utilizar datos previos para predecir sucesos futuros. De acuerdo con los expertos, los sistemas de justicia pueden estar sesgados y la policía toma algunas decisiones equivocadas. Como por ejemplo, sesgos racistas. Las plataformas, al utilizar este tipo de datos para generar sus predicciones, pueden perpetuar estos sesgos.

Un informe de la Asociación Liberty refuerza este argumento, al asegurar que “estos programas adoptan un enfoque de gestión de la seguridad basado en una perfilización discriminatoria”.  Este es un debate al que no le debe huir el sector tecnológico.

Si bien los software predictivos utilizan datos del sistema de justicia, es necesario estructurar plataformas cuya diversidad de información permita reducir el riesgo de discriminación y los sesgos a la hora de ser utilizadas. Hay evidencias de que los software para predecir crímenes contribuyen con la reducción de los mismos. Por eso, el uso de la tecnología como aliada no debe ser puesto en cuestión.

La diversidad de datos en los modelos predictivos puede contribuir para optimizar los recursos de las fuerzas policiales y reforzar la presencia de estos individuos en sectores y en horas específicas donde los delitos podrían ser más frecuentes. Utilizar de manera prudente y segura las cifras que incluyen características sociales o físicas, será clave para avanzar hacia modelos menos sesgados y más eficaces para predecir crímenes.


Contáctanos

Subido el

2/10/20

en la categoría

Inteligencia Artificial

nuvu 2023 | Todos los derechos reservados