Advierten de los riesgos del uso de la inteligencia artificial para labores policiales
La Agencia de la Unión Europea para los Derechos Fundamentales ha elaborado un informe en el que advierte sobre los riesgos de que los algoritmos policiales pueden «reforzar prácticas discriminatorias». Explica que la tecnología de IA puede emplearse para labores policiales como por ejemplo distribuir efectivos en zonas urbanas con propósitos predictivos, pero señala que esto puede generar más desigualdad y discriminación.
Predictive policing #algorithms can lead to discrimination.
The #EURightsAgency‘s new bias in #AI report explains how and offers solutions to mitigate bias.
Find out more:https://t.co/BU6f5LSYiz pic.twitter.com/h2M0BNTjJg
— EU Fundamental Rights ➡️ #HumanRights (@EURightsAgency) December 11, 2022
En mayo pasado, la Comisión Europea presentó un borrador del futuro Reglamento de la Inteligencia Artificial, que ahora se está debatiendo y que podría alcanzar consenso este mismo mes y ser votado definitivamente en el Parlamento Europeo a lo largo del primer trimestre de 2023. Pero mientras tanto, hay instituciones comunitarias que se están pronunciando sobre los riesgos y desafíos del uso de la inteligencia artificial en ámbitos tan sensibles como es el de los dispositivos policiales.
En concreto la Agencia de la Unión Europea por los Derechos Fundamentales, FRA, por sus siglas en inglés, ha lanzado un extenso informe en el que pormenoriza los riesgos de usar estos modelos de decisión automatizada en el ámbito policial, así como en el mundo de la moderación de contenidos. Y una de las pautas sobre las que pone el foco, es el llamado «feedback loop» o ciclo de retroalimentación.
Bajo ese término está la mecánica con la que muchos algoritmos funcionan, también en videojuegos o en plataformas sociales como Twitter o YouTube: un estímulo cambia el modelo de inteligencia artificial, cuyo algoritmo responde con ese estímulo absorbido. Si en una red social indicas que un contenido concreto te gusta, el algoritmo de recomendación te ofrecerá más contenidos similares, provocando que finalmente estés en una suerte de burbuja de contenidos hiper específicos seleccionados para ti.
Esto no es inocente en esas plataformas sociales —que han alimentado la polarización y las cámaras de eco, según varios expertos—. Pero es todavía menos inocente cuando se pretende emplear un algoritmo para determinar en qué zonas de una ciudad habrá más o menos policía.
El informe de FRA también denuncia la opacidad sobre cómo han sido entrenados esos sistemas de inteligencia artificial. Y pone de relieve que este tipo de algoritmos en campos tan críticos como la labor policial o la libertad de expresión no deben emplearse sin una supervisión previa que garantice que o están exentos de sesgos o estos están al menos auditados y, por lo tanto, son corregibles.
“Well developed & tested algorithms can bring improvements. But without appropriate checks, developers & users run a high risk of negatively impacting people’s lives,” says #EURightsAgency @MichaelCJT launching our bias in #AI report. Find out more:https://t.co/PY5MVEEONi pic.twitter.com/Y7gVsLWQLp — EU Fundamental Rights ➡️ #HumanRights (@EURightsAgency) December 8, 2022
Radiocable.com y su programa La Cafetera se financian con las aportaciones de lectores y oyentes. Necesitamos tu ayuda para sobrevivir. Si te gusta el periodismo que defiende el programa y sientes que te acompaña, hazte suscriptor-mecenas aquí.