Resolución del PE sobre uso policial de la Inteligencia Artificial

2021-10-21T15:24:00
Unión Europea

El Parlamento Europeo pone de nuevo el foco en el uso policial de la Inteligencia Artificial en su última resolución

Resolución del PE sobre uso policial de la Inteligencia Artificial
21 de octubre de 2021

El pasado 6 de octubre de 2021 fue aprobada con 377 votos a favor, 248 en contra y 62 abstenciones, la Resolución del Parlamento Europeo sobre la inteligencia artificial en el Derecho Penal y su utilización por las autoridades policiales y judiciales. Esta resolución se une a las diversas resoluciones que el Parlamento Europeo (PE) ha ido publicando en los últimos meses, sobre las cuales os hablamos en esta entrada del blog. En este caso, recalcando la proliferación del uso de la inteligencia artificial (IA) en el ámbito policial y la –no siempre- consecución de decisiones más objetivas, el Parlamento Europeo advierte de los riesgos que el uso de esta tecnología implica cuando es utilizada para fines coercitivos y judiciales.

Aunque el PE también reconoce que el uso de la IA puede generar considerables beneficios en términos de eficiencia y precisión, los eurodiputados ponen de manifiesto los riesgos que suponen el uso de esta tecnología, como es la discriminación o la injerencia en los derechos fundamentales de los individuos, riesgos comunes a cualquier uso de la IA pero que puede agravarse en el ámbito del derecho penal.

Es precisamente por estos motivos que el PE manifiesta la necesidad de que el uso de las aplicaciones de IA se clasifique como de alto riesgo cuando tengan potencial para afectar significativamente la vida de las personas. Esta clasificación sigue la actual redacción del borrador de propuesta de reglamento en materia de inteligencia artificial (Propuesta de Reglamento de IA), publicado el pasado 21 de abril y sobre el que os hablamos en esta otra entrada de blog, en que se prohíben el uso de ciertos tipos de aplicaciones de IA con fines policiales y, para aquellos usos no prohibidos pero que también suponen un alto riesgo, se propone un marco jurídico específico basado en el control y gestión del riesgo.

Así, siguiendo esta propuesta y las distintas resoluciones previas, para evitar cualquier tipo de efecto negativo en los individuos, el PE subraya que los sistemas de IA deben diseñarse de tal forma que protejan y beneficien a todos los miembros de la sociedad, tomando decisiones explicables y transparentes, aspirando a que no se produzcan efectos perjudiciales y respetando siempre los derechos y libertades fundamentales de los individuos. En concreto, el PE pide que los algoritmos usados en estos sistemas sean explicables, transparentes (que haya transparencia sobre los datos de origen), trazable y comprobables (que pueda verificarse de que forma el sistema llega a una determinada conclusión), a los efectos de asegurar que los resultados generados por dichos algoritmos sean inteligibles para cualquier usuario. Asimismo, se indica que sólo debe permitirse la adquisición por parte de las autoridades policiales de herramientas y sistemas cuyos algoritmos sean auditables y, a tal efecto, se recomienda el uso de software de código abierto siempre que sea posible.

De igual forma, en materia de uso de sistemas de IA de videovigilancia masiva, para los cuales la Propuesta de Reglamento de IA propone su prohibición en espacios públicos por parte de las autoridades – con excepciones que no están exentas de crítica-, el PE propone la obligación legal de prevenir los sistemas de vigilancia masiva mediante tecnologías de IA, por no cumplir con los principios de necesidad y proporcionalidad, y destaca el enfoque que han adoptado algunos países (no pertenecientes a la Unión), con la adopción de estos sistemas y que, según considera el PE, interfieren de manera desproporcionada con los derechos fundamentales de los individuos.

A este respecto, no obstante, reconoce el uso de la tecnología de reconocimiento facial por las autoridades, si bien pide el cumplimiento, como mínimo, de los requisitos de minimización de datos, exactitud de los datos, limitación del almacenamiento, seguridad de los datos y rendición de cuentas, legalidad, transparencia, justificia y la búsqueda de un fin específico, explícito y legítimo que esté definido claramente en la legislación, sin que, por el momento, pueda alcanzar la fiabilidad del ADN o las huellas dactilares en el contexto foreense. A su vez, solicita la prohibición permanente del uso del análisis y/o reconocimiento automatizado en espacios de acceso público de rasgos humanos como las huellas, ADN, voz u otras señales, así como una moratoria sobre el despliegue de sistemas de reconocimiento facial con fines policiales que tengan la función de identificación hasta que las normas técnicas sean plenamente respetuosas, salvo en caso de identificación de víctimas de delitos.

En esta línea, el PE pone como ejemplo el servicio Clearview AI, una base de datos de mas de 3.000 millones de imágenes que han sido recopiladas de redes sociales y otros lugares de internet, sobre la que os hemos hablado en otras ocasiones en este blog, y sobre la que se vuelve a reiterar que su uso por parte de las autoridades policiales no sería compatible con el régimen de protección de datos de aplicación en la Unión Europea.

El PE también expresa su preocupación por diferentes proyectos de investigación, como el proyecto iBorderCtrl, que elabora perfiles de los viajeros a partir de una entrevista automatizada por ordenador, realizada a través de la cámara web del viajero antes de realizar un viaje y un análisis de 38 micro gestos basado en la IA, que ya ha sido probado en países como Hungría, Letonia y Grecia. Asimismo, los eurodiputados también se muestran a favor de la prohibición de la puntuación de las personas a escala masiva mediante la IA, tal y como ya recomendó el grupo de expertos de alto nivel sobre la IA de la Comisión y ha sido recogido en la Propuesta de Reglamento de IA.

Seguiremos atentos el desarrollo de estas propuestas y los distintos ajustes que se realicen a la Propuesta de Reglamento de IA, sobre los cuales os iremos informando en este blog.


21 de octubre de 2021