EUROPA: La legislación propuesta, demasiado débil para protegernos de peligrosos sistemas de inteligencia artificial

En respuesta a una nueva propuesta de la Unión Europea para regular el uso de tecnologías de inteligencia artificial, Rasha Abdul Rahim, directora de Amnesty Tech, ha declarado:

“La propuesta de la UE no está ni mucho menos a la altura de lo que se necesita para mitigar el enorme abuso potencial de tecnologías como los sistemas de reconocimiento facial. Según la prohibición propuesta, la policía seguirá estando facultada para utilizar software de reconocimiento facial que no sea en tiempo real con cámaras de vigilancia de circuito cerrado para seguir todos nuestros movimientos, sacando imágenes de las cuentas de redes sociales sin el consentimiento de la gente”. 

“Aunque la propuesta prohíbe que los cuerpos encargados de hacer cumplir la ley utilicen tecnologías de reconocimiento facial en tiempo real en espacios públicos, salvo en contadas circunstancias, siguen existiendo importantes lagunas en la prohibición del uso privado del reconocimiento facial y muchas otras formas de vigilancia biométrica remota.” 

“La propuesta también sigue permitiendo el uso del reconocimiento facial en tiempo real de personas que sean sospechosas de entrar irregularmente en un Estado miembro o vivir en él, algo que, sin ninguna duda, puede utilizarse como arma contra personas migrantes y refugiadas. El borrador también contiene disposiciones para permitir la actuación policial predictiva y el uso de sistemas de inteligencia artificial en el control de fronteras.”

“En general, la legislación propuesta no va lo suficientemente lejos a la hora de abordar el riesgo de que la inteligencia artificial afiance y agrave el racismo y la discriminación. No sólo se ha demostrado mediante la investigación que el software de reconocimiento facial es muchísimo menos exacto en rostros negros y oscuros, sino que el racismo sistémico en la ley significa que esta tecnología puede utilizarse desproporcionadamente contra estas comunidades y dar lugar a detenciones indebidas. Es más, las salvaguardias y las obligaciones de transparencia incluidas en la propuesta no protegerán de forma significativa a la población.”

“La propuesta de prohibir el software de social scoring (una especie de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con varios factores incluyendo los datos o actividades online), una tecnología distópica que ‘clasifica’ a las personas de acuerdo con una métrica reductora que puede incluir el género, la raza, la edad y la discapacidad, es una medida bien recibida. Estos sistemas de inteligencia artificial constituyen una afrenta a la dignidad humana y pueden utilizarse para atacar y excluir a grupos ya de por sí marginados.”

“Pedimos a la UE que cierre las abundantes lagunas existentes en esta normativa, que dejan la puerta abierta a prácticas discriminatorias y abusos generalizados, lo que incluye prohibir el uso de los sistemas de reconocimiento facial para la vigilancia masiva.” 

“La campaña de Amnistía Veto al escaneo pide que se prohíban el desarrollo, la venta, el despliegue y la exportación de las tecnologías de reconocimiento facial con fines de identificación por parte de agentes tanto estatales como no estatales.”

El miércoles 21 de abril, la Comisión Europea propuso legislación que prohibía ciertos usos de los sistemas de inteligencia artificial, incluido el uso, por parte de los cuerpos encargados de hacer cumplir la ley, de sistemas de identificación biométrica en “tiempo real”, como las tecnologías de reconocimiento facial, en espacios públicos.

Sin embargo, ese uso estaría permitido cuando sea “estrictamente necesario” para fines específicos, y la utilización de sistemas de identificación biométrica en otros entornos no está prohibida, sino únicamente clasificada como de “alto riesgo”.