Últimas 15minutos

Con esta guía de recomendaciones, la ONU combatirá el racismo en las Policías del mundo

El uso de macrodatos, inteligencia artificial, reconocimiento facial y otras nuevas tecnologías, puede profundizar ciertos problemas

La guía destaca que los sistemas de elaboración de perfiles algorítmicos deben cumplir plenamente con el sistema internacional de los derechos humanos (Zuma Press)

15 minutos. El Comité para la Eliminación de la Discriminación Racial de Naciones Unidas (ONU) publicó este jueves una guía destinada a las Policías de todo el mundo para combatir la "lacra" de los perjuicios raciales en el desempeño de su labor. En el documento, puso especial énfasis en los sesgos que la inteligencia artificial y los macrodatos pueden crear.

El organismo se refirió especialmente a los 182 países adheridos a la Convención sobre la Eliminación de Todas las Formas de Discriminación Racial. Les advirtió del riesgo de sesgo al utilizar algoritmos de inteligencia artificial en la aplicación de la ley.

En este sentido, el comité dijo que el mayor uso por parte de las fuerzas del orden de los macrodatos, la inteligencia artificial, el reconocimiento facial y otras nuevas tecnologías, corre el riesgo de profundizar ciertos problemas. Por ejemplo: el racismo, la discriminación racial, la xenofobia y, en consecuencia, la violación de muchos derechos humanos.

Estas técnicas "pueden reproducir y reforzar los prejuicios ya existentes y dar lugar a prácticas aún más discriminatorias. Estamos profundamente preocupados por los riesgos particulares cuando se utiliza el perfil algorítmico para determinar la probabilidad de actividad delictiva". Así lo reseñó uno de los miembros del comité de la ONU a cargo de la guía para policías, Verene Shepherd.

Círculo vicioso

Para ejemplificar a qué se refiere con el uso de macrodatos e inteligencia artificial, Shepherd explicó que si en un determinado barrio los datos históricos de arrestos reflejan prácticas con prejuicios raciales, estos profundizarán el riesgo de vigilancia excesiva en el vecindario. En consecuencia, "puede conducir a más arrestos, creando un circuito de retroalimentación peligroso".

Por estas razones, la guía destaca que los sistemas de elaboración de perfiles algorítmicos deben cumplir plenamente con el sistema internacional de los derechos humanos. Específicamente, enfatizando la transparencia en el diseño y su aplicación cuando se implementan con fines policiales.

Para esto, señaló el comité, las empresas privadas que desarrollan, venden u operan sistemas de elaboración de perfiles algorítmicos con fines de aplicación de la ley también tienen la responsabilidad de involucrar a personas de diversos sectores. De esta forma, evaluar el riesgo de violación de los derechos humanos que tales sistemas pueden plantear.

"Además de ser ilegal, la elaboración de perfiles raciales también puede ser ineficaz y contraproducente como herramienta de aplicación de la ley", advirtió el comité.

Es decir, "las personas sometidas a la aplicación de la ley discriminatoria tienden a tener menos confianza en la Policía. Como resultado, están menos dispuestas a cooperar con ellos", sostuvo.

Ver más