El Parlamento Europeo ha votado a favor de la prohibición del uso policial de la tecnología de reconocimiento facial en lugares públicos y de la vigilancia policial predictiva, una práctica controvertida que implica el uso de herramientas de inteligencia artificial con la esperanza de identificar a los posibles delincuentes antes de que cometan un delito.
Al explicar la resolución, el Parlamento Europeo afirmó que el uso de inteligencia artificial (IA) por parte de las fuerzas del orden plantea actualmente varios riesgos que abarcan la toma de decisiones opaca, la discriminación, la intrusión de la privacidad, los desafíos a la protección de datos personales, la dignidad humana y la libertad de expresión e información.
Los representantes de la Cámara concluyeron que los ciudadanos solo deben ser monitoreados cuando sean sospechosos de un delito, y citaron asimismo preocupaciones sobre sesgo algorítmico en IA y señalaron hay evidencia que sugiere que los sistemas de identificación basados en inteligencia artificial identifican erróneamente grupos basados en etnia, género, orientación política u sexual. Como resultado, dicen los eurodiputados, “los algoritmos deben ser transparentes, rastreables y suficientemente documentados”, con opciones de código abierto que se utilicen siempre que sea posible, siendo tanto la supervisión humana como la protección legal necesarias para evitar la discriminación.
Los eurodiputados también pidieron la prohibición de las bases de datos privadas de reconocimiento facial, como las que utiliza la controvertida empresa Clearview AI. El Parlamento apoya además el intento de la Comisión Europea en su proyecto de ley de IA de prohibir los sistemas de puntuación social, como los lanzados por China, que califican la confiabilidad de los ciudadanos en función de su comportamiento.
La resolución establece que “aquellos sujetos a sistemas impulsados por IA deben recurrir a la reparación”. Según la legislación de la UE, según el documento, “una persona tiene derecho a no ser sometida a una decisión que produzca efectos jurídicos sobre ella o la afecte significativamente y se base únicamente en el tratamiento automatizado de datos”.
Al menos tres personas en los EE. UU., todas ellas hombres de etnia negra, han sido arrestadas injustamente debido a coincidencias deficientes en el reconocimiento facial. En Detroit, que comenzó a poner a prueba un software de reconocimiento facial en 2017, la policía en 2020 utilizó la tecnología para realizar más de 100 búsquedas de sospechosos y realizó más de 80 arrestos en los casos en que se identificó una posible coincidencia, según el registro público del Departamento de Policía. En Reino Unido, se descubrió que la tecnología de reconocimiento facial utilizada por la Policía Metropolitana en 2019 era un 81% inexacta, y señaló por error a 4 de cada 5 personas inocentes como sospechosos buscados, según un documento técnico de la Universidad de Essex.
“Esta es una gran victoria para todos los ciudadanos europeos”, dijo Petar Vitanov (S&D), autor de la resolución. La resolución, aunque no vinculante, envía una fuerte señal sobre cómo es probable que el Parlamento vote en las próximas negociaciones de la Ley de IA. Esto contrasta radicalmente con las políticas implementadas en algunos países miembros de la UE, que anhelan utilizar estas tecnologías para reforzar sus aparatos de seguridad. Se espera que el mercado global de reconocimiento facial tenga un valor de 4.450 millones de dólares en 2021.
Add Comment