Unidas Podemos pide regular uso de tecnologías de Inteligencia Artificial para labores de vigilancia policial

Pide la creación de una agencia estatal de control de algoritmos para garantizar la transparencia y supervisión independiente de los sistemas

Unidas Podemos reclama al Gobierno una regulación sobre el uso de la Inteligencia Artificial (IA) en las labores de vigilancia y uso de datos personales de la ciudadanía por parte de las Fuerzas y Cuerpos de Seguridad del Estado, además de proponer la creación de una agencia de control de algoritmos para garantizar su «transparencia».

Concretamente, aluden a mecanismos tecnológicos de reconocimiento de rostro, huellas digitales, voz, patrones de comportamiento o registro de datos biométricos, combinados con potentes sistemas de procesamiento de esta información.

De esta forma y mediante una proposición no de ley (PNL) registrada para su debate en la Comisión de Interior del Congreso, el grupo confederal apuesta por establecer fórmulas que permitan hacer «trazables» y «comprobables» las tecnologías de Inteligencia Artificial dentro del ámbito de la seguridad seguridad, además de desplegar una supervisión independiente, análoga a la que realiza la Agencia Estatal de Protección de Datos.

Concretamente, la iniciativa impulsadas por los diputados de En Comú Podem Joan Mena e Ismael Cortes demanda al Ejecutivo que promueva estudios «técnicos, éticos y jurídicos» que sirvan de base a una futura normativa sobre el uso de sistemas de IA, alineándose así con la regulación que ya se está impulsando a nivel de la Unión Europea.

De esta forma, los parlamentarios abogan por fijar garantías para que estas tecnologías y algoritmos con fines de vigilancia sean «suficientemente sólidos y seguros», con el objetivo de «evitar potenciales usos discriminatorios.

INSUFICIENTE REGULACIÓN

En la exposición de motivos de la PNL, los dos diputados relatan la rápida incorporación de tecnologías que permiten la vigilancia «automatizada y masiva de la ciudadanía», un fenómeno que sin embargo ha estado acompañado de «insuficiencias regulativas significativas».

Por ejemplo, aluden a las capacidades de estos dispositivos, muy presentes ya en multitud de ámbitos, para capturar datos biométricos y geoposicionales, así como el creciente poder computacional que disponen los Estados y corporaciones multinacionales para almacenar y procesar en tiempo real esa información, permitiendo con ello la identificación y categorización de personas «en cuestión de segundos».

«Estas tecnologías de vigilancia masiva han comenzado a ser ampliamente utilizadas causando un profundo impacto social», han relatado para poner el foco en el sistema de pago por reconocimiento facial introducido en el metro de Moscú, con más de 12 millones de usuarios.

CASOS DE MOSCÚ, CHINA Y ESTADOS UNIDOS

También añaden los parlamentarios que el alcalde moscovita, Sergéi Sobyanin, ha prometido un potente sistema de videovigilancia compuesto por más de 206.000 cámaras o el caso de China, que ha instaurado una «extensa arquitectura de vigilancia» que identifica conductas y las penaliza cuando las tilda de «desviadas», un funcionamiento que emila una especie de «sistema de crédito social».

En el caso de Estados Unidos, los proponentes de la iniciativa también describen que estos soportes tecnológicos han sido ampliamente utilizados por cuerpos judiciales y en el sistema de justicia, que han reforzado tendencias «crónicas» marcadas por el «racismo» y la «discriminación», motivando una amplia discusión sobre su uso e incluso prohibición en determinadas jurisdicciones.

Mientras, en el contexto europeo su empleo es menos extenso aunque investigaciones realizadas en Alemania, Holanda, Italia o Polonia ya hacen patente la preocupación por su implantación.

«Tal y como alertan organizaciones como Algorithm Watch, EDRi y organismos públicos como la Agencia Española de Protección de Datos (AEDP), estas tecnologías están siendo empleadas en la UE, tanto por entidades públicas como privadas, para una amplia gama de funciones que van desde el control de fronteras y de transportes y espacios públicos, a la monitorización de trabajadores en su espacio de trabajo o laidentificación de estudiantes para la realización de pruebas», ahonda la PNL.

DESARROLLO LEGISLATIVO ESPECÍFICO

Respecto al caso de España, Unidas Podemos argumenta que las Fuerzas y Cuerpos de Seguridad del Estado (FCSE) han comenzado a emplear tecnologías de predicción policial por medio de partenariados público-privados. De hecho, han señalado que la Dirección General de la Policía «no ha ocultado su intención de crear una base de datos biométricos de escala estatal».

«Estos procesos se están llevando sin el suficiente debate público e incluso con escasa deliberación parlamentaria», destaca el grupo confederal para instar de forma «imperante» a profundizar en el debate sobre el uso de la inteligencia artificial.

Sobre todo cuando la propia Agencia Estatal de Protección de Datos (AEPD) ha planteado que tecnologías de reconocimiento facial requiere para su legalidad de un desarrollo legislativo «específico», ya que afecta a aspectos «sensibles del esquema de derechos y libertades».

Incluso órganos como la European Data Protection Board y el European Data Protection Officer, han alertado de la posibles formas automátizadas de discriminación de estos sistemas, abogando por una prohibición general de reconocimiento automatizado de características humanas en espacios de acceso público, como el reconocimiento de rostros, huellas dactilares, ADN, voz, dinámica de pulsación de teclas y otras señales biométricas o de comportamiento, en cualquier contexto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

La inversión en tecnología de análisis de datos aumentará un 20% en 2021, según Fujitsu y PAC
La incidencia de COVID-19 en Aragón mantiene una tendencia estable con 33,2 casos por cien mil habitantes

Bloqueador de anuncios detectado

Por favor, considere ayudarnos desactivando su bloqueador de anuncios