Etiqueta: reconocimiento facial

  • Escaneos faciales para probar la lealtad de los miembros del partido gobernante chino

    Un instituto de inteligencia artificial (IA) en Anhui dice que el dispositivo se basa en escaneos faciales y un polígrafo.

    Investigadores de la provincia oriental china de Anhui anunciaron que han desarrollado un dispositivo que, mediante escaneos faciales, puede determinar la lealtad al gobernante Partido Comunista Chino (PCCh) .

    Un breve video subido a la cuenta de Weibo del Centro Nacional Integral de Ciencias de Hefei el 30 de junio decía que el proyecto era un ejemplo de ‘inteligencia artificial que potencia la construcción de partidos’. La publicación de Weibo se eliminó más tarde, pero un resumen de texto del video, producido en honor al aniversario del PCCh del 1 de julio, permaneció disponible en Internet Archive el lunes. ‘Garantizar la calidad de las actividades de los miembros del partido se está convirtiendo en un problema que necesita coordinación’, dice el texto.

    ‘Este equipo es una especie de ideología inteligente, que utiliza tecnología de IA para extraer e integrar expresiones faciales, lecturas de EEG (electroencefalogramas) y conductividad de la piel… lo que permite determinar los niveles de concentración, reconocimiento y dominio de la educación ideológica y política para mejorar comprender su eficacia’, decía la descripción. ‘Puede proporcionar datos reales para los organizadores de la educación ideológica y política, para que puedan seguir mejorando sus métodos de educación y enriquecer el contenido’, señalaba el comunicado.

    También sostiene que el dispositivo se basa en la ‘computación emocionalmente inteligente’, entre otros métodos, para medir hasta qué punto los sujetos ‘se sienten agradecidos con el PCCh, hacen lo que se les dice y siguen su ejemplo’. En el video, según lo informado por el periódico Ming Pao de Hong Kong, un investigador vestido de blanco entra en una habitación y se sienta frente a una pantalla para realizar una prueba, antes de recibir un puntaje de prueba y un análisis en pantalla.

    Gran Hermano

    Antes de que se eliminara la publicación, algunos comentarios criticaron la idea como ‘lavado de cerebro de alta tecnología’, mientras que otros hicieron referencia a la novela distópica de George Orwell de 1984, diciendo que ‘Gran Hermano‘ los estaría observando. El sociólogo de Anhui, Song Da’an, dijo que la publicación había sido eliminada debido a su sensibilidad política. ‘El Centro Nacional Integral de Ciencias de Hefei ha estado utilizando la biotecnología para medir la lealtad de los miembros y cuadros del partido’, dijo Song. ‘Esto demuestra que el PCCh se está volviendo cada vez más totalitario’. ‘En la lógica de una sociedad totalitaria, se pone cada vez más énfasis en refinar la capacidad de control, y los miembros del partido son considerados como tornillos [que podrían aflojarse] y potencialmente causar daños; son el enemigo de la máquina’, dijo.

    Song dijo que la tecnología se basaba en el polígrafo, utilizado por los servicios de seguridad para detectar mentiras, que a su vez se basaba en los experimentos de asociación de palabras del psiquiatra suizo C.G. Jung. “Están usando esta tecnología para tratar a todos los miembros del partido como posibles agentes anti-PCCh”, dijo. ‘El uso de esta tecnología en funcionarios demuestra el lamentable estado de cosas dentro de las filas del partido’. Un comentarista de actualidad de Jiangxi de apellido Zhang estuvo de acuerdo. ‘Están consolidando su poder para mantenerse mejor aferrados a él’, dijo Zhang. ‘Eso es lo que esta gente quiere: consolidar su posición. ‘¿Un régimen que sirve al pueblo tendría miedo de perder el poder político?’

    ‘Ojo que todo lo ve’

    Una llamada al Centro Nacional Integral de Ciencias de Hefei el lunes devolvió un mensaje grabado que decía ‘Lo siento, la persona a la que ha llamado no está autorizada para atender su llamada. Adiós.’ En 2018, las autoridades de la provincia de Zhejiang instalaron un ‘ojo que todo lo ve’ en un aula de secundaria para detectar a los estudiantes que no prestaban atención o que se quedaban dormidos en clase, informaron medios oficiales. El nuevo sistema en la Escuela Secundaria No. 11 de Hangzhou conecta una cámara de vigilancia con un software de reconocimiento facial que rastrea los movimientos y las expresiones faciales de los estudiantes, según el diario Zhejiang Daily.

    La tecnología fue parte de una prueba de software de sistemas de vigilancia que podrían implementarse en otros lugares como parte del desarrollo de ‘campus inteligentes’, dijo el periódico. ‘El sistema (de escaneos faciales)… puede realizar análisis estadísticos sobre los comportamientos y expresiones de los estudiantes en el salón de clases y brindar retroalimentación oportuna sobre comportamientos anormales’, dice el informe. Los datos recopilados por el sistema serán analizados por el software, y el comportamiento excesivamente distraído o somnoliento generará una indicación para que el maestro amoneste al infractor. Los datos también podrían usarse para evaluar el desempeño de los maestros en el salón de clases, según sostiene el informe.

    Traducido y editado por Luisetta Mudie.

  • Microsoft deja de vender tecnología de lectura de emociones y limita el reconocimiento facial.

    Microsoft ha decidido retirar su tecnología de evaluación emocional, así como imponer restricciones en el uso de sus sistemas de reconocimiento facial.

    En una publicación de blog divulgada el martes pasado, el gigante del software anunció que eliminaría las herramientas de análisis facial que afirman identificar estados emocionales y atributos personales, como el género o la edad de una persona. Antes, estas funcionalidades estaban disponibles de forma gratuita en Azure Face API, Computer Vision y Video Indexer. Ahora, aquellos que ya tienen acceso a las funciones de lectura emocional de Microsoft tendrán un año de uso antes de perder el acceso a las herramientas de inteligencia artificial que pretenden inferir emociones, género, edad, sonrisa, vello facial, cabello y maquillaje.

    Desde al menos el año pasado, Microsoft ha estado revisando si los sistemas de reconocimiento de emociones tenían raíces científicas.

    “Colaboramos con investigadores internos y externos para comprender las limitaciones y los beneficios potenciales de esta tecnología y navegar por las ventajas y desventajas”, escribió Sarah Bird, gerente principal de productos del grupo Azure AI, en la publicación.

    “Específicamente en el caso de la clasificación de emociones, estos esfuerzos plantearon preguntas importantes sobre la privacidad, la falta de consenso sobre una definición de ‘emociones’ y la incapacidad de generalizar el vínculo entre la expresión facial y el estado emocional en casos de uso, regiones y datos demográficos. El acceso de la API a las capacidades que predicen los atributos confidenciales también abre una amplia gama de formas en que pueden ser mal utilizados, incluido someter a las personas a estereotipos, discriminación o denegación injusta de servicios”.

    La compañía también restringe el uso de tecnología de voz neuronal personalizada debido a preocupaciones sobre falsificaciones profundas.

    Como parte de su nuevo «estándar de IA responsable», Microsoft dice que tiene la intención de mantener a «las personas y sus objetivos en el centro de las decisiones de diseño del sistema». Los principios de alto nivel conducirán a cambios reales en la práctica, dice la compañía, con algunas características modificadas y otras retiradas de la venta.

    Las acciones reflejan los esfuerzos de los principales proveedores de servicios en la nube para controlar las tecnologías confidenciales por su cuenta, ya que los legisladores de los Estados Unidos y Europa continúan sopesando los límites legales integrales.

    Google Cloud de Alphabet Inc se embarcó el año pasado en una evaluación similar. Google bloqueó 13 emociones planificadas de su herramienta para leer emociones y colocó bajo revisión cuatro existentes, como alegría y tristeza. Estaba sopesando un nuevo sistema que describiría movimientos como fruncir el ceño y sonreír, sin pretender asociarlos a una emoción.

    Microsoft también dijo que los clientes ahora deben obtener la aprobación para usar sus servicios de reconocimiento facial, que pueden permitir a las personas iniciar sesión en sitios web o abrir puertas cerradas a través de un escaneo facial. La empresa instó a los clientes a evitar situaciones que infrinjan la privacidad o en las que la tecnología pueda tener problemas, como la identificación de menores, pero no prohibió explícitamente esos usos.

  • El Parlamento Europeo pide la prohibición del reconocimiento facial en espacios públicos

    El Parlamento Europeo ha votado a favor de la prohibición del uso policial de la tecnología de reconocimiento facial en lugares públicos y de la vigilancia policial predictiva, una práctica controvertida que implica el uso de herramientas de inteligencia artificial con la esperanza de identificar a los posibles delincuentes antes de que cometan un delito.

    Al explicar la resolución, el Parlamento Europeo afirmó que el uso de inteligencia artificial (IA) por parte de las fuerzas del orden plantea actualmente varios riesgos que abarcan la toma de decisiones opaca, la discriminación, la intrusión de la privacidad, los desafíos a la protección de datos personales, la dignidad humana y la libertad de expresión e información.

    Los representantes de la Cámara concluyeron que los ciudadanos solo deben ser monitoreados cuando sean sospechosos de un delito, y citaron asimismo preocupaciones sobre sesgo algorítmico en IA y señalaron hay evidencia que sugiere que los sistemas de identificación basados ​​en inteligencia artificial identifican erróneamente grupos basados ​​en etnia, género, orientación política u sexual. Como resultado, dicen los eurodiputados, «los algoritmos deben ser transparentes, rastreables y suficientemente documentados», con opciones de código abierto que se utilicen siempre que sea posible, siendo tanto la supervisión humana como la protección legal necesarias para evitar la discriminación.

    Los eurodiputados también pidieron la prohibición de las bases de datos privadas de reconocimiento facial, como las que utiliza la controvertida empresa Clearview AI. El Parlamento apoya además el intento de la Comisión Europea en su proyecto de ley de IA de prohibir los sistemas de puntuación social, como los lanzados por China, que califican la confiabilidad de los ciudadanos en función de su comportamiento.

    La resolución establece que «aquellos sujetos a sistemas impulsados ​​por IA deben recurrir a la reparación». Según la legislación de la UE, según el documento, «una persona tiene derecho a no ser sometida a una decisión que produzca efectos jurídicos sobre ella o la afecte significativamente y se base únicamente en el tratamiento automatizado de datos».

    Al menos tres personas en los EE. UU., todas ellas hombres de etnia negra, han sido arrestadas injustamente debido a coincidencias deficientes en el reconocimiento facial. En Detroit, que comenzó a poner a prueba un software de reconocimiento facial en 2017, la policía en 2020 utilizó la tecnología para realizar más de 100 búsquedas de sospechosos y realizó más de 80 arrestos en los casos en que se identificó una posible coincidencia, según el registro público del Departamento de Policía. En Reino Unido, se descubrió que la tecnología de reconocimiento facial utilizada por la Policía Metropolitana en 2019 era un 81% inexacta, y señaló por error a 4 de cada 5 personas inocentes como sospechosos buscados, según un documento técnico de la Universidad de Essex.

    “Esta es una gran victoria para todos los ciudadanos europeos”, dijo Petar Vitanov (S&D), autor de la resolución. La resolución, aunque no vinculante, envía una fuerte señal sobre cómo es probable que el Parlamento vote en las próximas negociaciones de la Ley de IA. Esto contrasta radicalmente con las políticas implementadas en algunos países miembros de la UE, que anhelan utilizar estas tecnologías para reforzar sus aparatos de seguridad. Se espera que el mercado global de reconocimiento facial tenga un valor de 4.450 millones de dólares en 2021.

  • Estados ofrecen resistencia al uso del reconocimiento facial por parte de la Policía

    El uso de la tecnología de reconocimiento facial para combatir el crimen puede sonar lógico y válido. Pero qué sucede cuando dicha tecnología se equivoca y señala a personas equivocadas, o cuando esa tecnología es usada para reprimir, y no para proteger a los ciudadanos. El debate ha empezado en Estados Unidos.

    Por Voz de América – Redacción

    El uso de la tecnología para el combate del crimen ha alcanzado el punto en que se usan aplicaciones de reconocimiento facial para identificar a sospechosos. Pero el riesgo de que se cometan errores por fallas de precisión y la preocupación por la omnipresencia de la vÍdeovigilancia están llevando a legisladores de varios estados a sonar las alarmas.

    Unos siete estados y unas dos docenas de ciudades han impuesto límites al reconocimiento facial por temor a violaciones de derechos civiles, prejuicios raciales o denuncias de invasión de la privacidad de las personas.

    El tema ha generado debates sobre los límites y prohibiciones al tema del reconocimiento facial. Ha habido unos 20 debates en distintas capitales estatales durante la actual sesión legislativa, iniciada en enero, según el Centro de Información de Privacidad Electrónica.

    Muchos legisladores han dicho que desean analizar el tema con detenimiento.

    “Creo que la gente está asustada, y con razón, por esta tecnología”, dijo a The Associated Press, Freddy Martínez, director de Lucy Parsons Labs, una organización sin fines de lucro basada en Chicago, que se dedica a la protección de la información digital de las personas. “Es uno de esos temas raros que ha recibido apoyo bipartidista, en el sentido de que nadie quiere ser rastreado donde quiera que vaya, especialmente cuando no tienes otra opción”.

    El tema captó la atención pública tras conocerse que las agencias del orden estadounidense habían usado tecnología de reconocimiento facial para procesar las imágenes de las protestas por la injusticia racial del año pasado y, en ocasiones, para realizar arrestos.

    Tras dicha revelación hubo quejas de identificaciones erradas, las cuales llevaron a Amazon, Microsoft e IBM a suspender sus ventas de software a los distintos departamentos de Policía. Muchos departamentos continuaron usando tecnología de empresas menos conocidas. Los casos más sonados de errores de identificación se dieron en Detroit y Nueva Jersey.

    Dichos casos resultaron en el involucramiento de la Unión Estadounidense de Libertades Civiles (ACLU, por sus siglas en inglés), la cual comenzó a citar estudios que indican que la tecnología de reconocimiento facial tiende a cometer más errores cuando se trata de personas de la raza negra.

    La ACLU presentó también en marzo una demanda contra la empresa Clearview AI, una firma que ofrece servicios de reconocimiento facial, afirmando que almacenó ilegalmente imágenes de 3.000 millones de personas que obtuvieron de sitios de internet, sin la autorización o conocimiento de las personas.

    El uso de las tecnologías de vigilancia y reconocimiento facial por parte del gobierno de China, combinado con el caso de Clearview AI, hizo pensar a algunos que lo que se vive en el gigante asiático podría reproducirse en Estados Unidos.

    Clearview alega que sólo guardó imágenes públicas. Pero el daño está hecho.

    Ciudades como Boston, Minneapolis San Francisco, Oakland y Portland, aprobaron prohibiciones al reconocimiento facial mencionando preocupaciones sobre el uso secreto de dichas imágenes por parte de la policía.

    Nueva York impuso por su parte una moratoria de dos años al uso del reconocimiento facial en las escuelas públicas luego que se presentó una demanda contra un distrito escolar que adoptó el reconocimiento facial como parte de sus medidas de seguridad.

    En febrero, los legisladores de Virginia aprobaron una de las prohibiciones más restrictivas de todas. Prohíbe a las agencias policiales locales y los departamentos de policía de las universidades, aunque no a la policía estatal, comprar o usar tecnología de reconocimiento facial a menos que la legislatura estatal lo autorice expresamente.

    Los grupos policiales por su parte están presionando para que se revisen las prohibiciones. Afirman que el uso de la tecnología no es como se ha presentado al público. Jonathan Thompson es el director ejecutivo de la Asociación Nacional de Alguaciles.

    «Es una política que genera miedo en su peor momento», dijo Thompson, a la agencia The Associated Press. «Nunca escuché de nadie sentado alrededor de un monitor de computadora buscando gente todo el día, todos los días. No funciona de esa manera. Las agencias tienen reglas. Gobiernan cómo y quién tiene acceso a estas bases de datos. Deben tener una razón legítima y racional para hacerlo».

    Una nueva ley de Massachusetts intenta lograr un equilibrio entre las preocupaciones civiles y policiales. Permite a la policía beneficiarse de la tecnología al tiempo que agrega protecciones que podrían evitar arrestos falsos.

    El debate apenas ha empezado.

  • Llega Blanc, la máscara para COVID-19 que garantiza anonimato y protección total.

    Para ayudar a abordar la necesidad de equipo de protección personal (PPE) en la actual pandemia de COVID-19, un grupo de empresarios y especialistas en PPE han desarrollado una máscara modular de cara llamada Blanc que está siendo comercializado por su nueva compañía del mismo nombre.

    El equipo de Blanc cuenta con el respaldo de diseñadores líderes en la industria: Woodenshark, el equipo de producto detrás del concepto, también ha dado vida a Nimb, un anillo de seguridad personal con un botón de pánico que superó las calificaciones de Kickstarter en 2017, y Cherry Home, un líder en ventas en sistema de seguimiento y atención domiciliaria de personas mayores.

    La eficacia de la mascarilla, afirma la compañía, proviene del hecho de que cubre todo el rostro como un escudo mejorado, cubriendo los ojos, la nariz y la boca. Y para garantizar que el usuario respire aire limpio y filtrado, la máscara contiene filtros HEPA aprobados por la FDA que brindan hasta un 99% de protección contra partículas, como polvo, aerosoles y gotas.

    Uno de los cofundadores de Blanc, Philip Egorov afirmó que “muchos estudios que se están llevando a cabo muestran que una de las principales formas en que las personas se infectan con COVID o cualquier otro virus o bacteria no es compartiendo la bacteria directamente al estornudar o toser, sino al tocar superficies, tomarse de las manos y luego frotarse la nariz y los ojos. Esta máscara no permite que esto suceda mientras la usa.”

    La máscara Blanc posee un diseño innovador, ya que tiene partes intercambiables que permiten a los usuarios personalizarla según el tamaño, el ajuste, la filtración y el diseño. La máscara también viene en diferentes colores, al tiempo que permite la individualización a través de piezas intercambiables, lo que brinda posibilidades para formas y funciones únicas y, en el futuro, agregar algunos módulos tecnológicos, afirma la compañía.

    Los respiradores existentes generalmente requieren mucho ajuste de los bucles de la cabeza y las orejas. Blanc se ajusta a las características anatómicas individuales de la cara y la cabeza para lograr un ajuste sumamente cómodo. La máscara consta de dos partes simétricas verticales que se pliegan juntas. Con un simple gesto de «lavado de cara» con las palmas de las manos, se coloca la máscara. Los imanes de la línea media fijan suavemente sobre la cara, mientras que la cinta retráctil proporciona fijación en la zona parietal, en la parte posterior de la cabeza.

    Aunque Blanc es una máscara de cara completa, la compañía afirma que es altamente transpirable debido a su diseño ajustable y sistema de filtración. Brinda protección de cobertura total al tiempo que brinda comodidad y transpirabilidad. Los filtros pueden proporcionar filtración durante varios días y una escala de color visual incorporada permite a los usuarios saber cuándo es necesario reemplazar los filtros. Además, el control de clima interno permitiría a los usuarios regular la temperatura dentro de la máscara para que “no haga frío en el invierno ni calor húmedo en el verano, mientras el individuo inhala aire limpio”, explica Egorov.

    “Estamos probando Blanc 1.0 como un dispositivo totalmente analógico, desprovisto de componentes electrónicos. Lo consideramos un elemento central en un ecosistema más amplio. La implementación de módulos específicos, como Bluetooth, moduladores de voz y control de clima interno, son los primeros pasos después de recibir los comentarios iniciales del mercado «, afirmó Egorov.

    Los fundadores de Blanc han invertido aproximadamente $ 500k de fondos personales en el desarrollo de conceptos, pruebas y evaluación de materiales y abastecimiento. La máscara se puede conseguir por un precio que parte de los 62€ en promoción, y se espera que las primeras unidades lleguen a sus compradores en marzo de 2021.

    La compañía afirma que Blanc podría ser más que un EPI, un accesorio de moda o un gadget de estilo de vida, según lo que quiera el usuario. “Este es nuestro intento de recuperar algo de control sobre los datos visuales en un mundo que está controlado por tecnología de reconocimiento facial ”, dice Egorov. «Puede parecer que al usar Blanc, los usuarios pierden su personalidad, en cambio, lo que realmente sucede es que Blanc permite que el usuario decida qué emociones compartir, estados de ánimo que canalizar y vibraciones transmitir. Puede parecer contradictorio, pero en realidad significa más libertad e individualidad, no menos».

  • La revolución bancaria digital en Hong Kong y su enfoque en KYC

    Asia Pacífico está al borde de una revolución bancaria digital. Con la creación de nuevos bancos virtuales en Hong Kong, que se esperan para este año, la experiencia del cliente se transformará por completo. El servicio al cliente estará en el corazón de esta nueva experiencia digitalizada,  y todos los aspectos, desde la incorporación a las comunicaciones, sin fricciones para los consumidores. Estos nuevos desarrollos combinados con las nuevas tecnologías de integración remota ayudarán a mejorar esta experiencia sin comprometer los estándares de AML (anti-money laundering).

    El cliente típico de Hong Kong tiene un estilo de vida ocupado y espera que cualquier producto bancario lo respalde, a la vez que sea único para sus necesidades. Los consumidores esperan pagos en tiempo real y accesibilidad a diferentes productos a través de una plataforma centralizada y mejorada para dispositivos móviles.

    Si bien las empresas no están en la cima de la agenda de los nuevos bancos virtuales de Hong Kong, su inversión significativa en la incorporación de clientes podría anunciar una nueva era para el KYC (know your customer) corporativo.

    Las pequeñas y medianas empresas (PYMES) tienen necesidades diferentes, que los bancos virtuales también buscan abordar en las primeras fases de sus planes de implementación. El sector de las PYMES y la banca comercial está en un momento de madurez propicio para una irrupción, ya que muchos permanecen sin recursos bancarios o, en la mayoría de los casos, carecen de servicios. Muchas pequeñas empresas han tenido problemas importantes en la obtención y el mantenimiento de cuentas con sus bancos correspondientes, debido a la restricción de los requisitos de diligencia debida (DD o due dilligence) de los clientes y la eliminación de riesgos. Esto va a cambiar pronto.

    Los nuevos bancos virtuales en Hong Kong podrán volver a imaginar la banca desde una perspectiva centrada en el consumidor y construir desde cero con una experiencia del cliente significativamente superior, iniciada por la integración remota mejorada (e-KYC).

    Para los nuevos bancos virtuales en Hong Kong, la digitalización y la automatización son los componentes básicos para el éxito. Al centralizar y estandarizar las funciones de back office, es posible automatizar los flujos de trabajo del cliente y del usuario. El procesamiento de la nueva información del solicitante utilizando técnicas de automatización inteligentes permitirá un procesamiento continuo de la información del cliente para crear una experiencia de incorporación sin fricciones.

    AML no se verá comprometida como resultado del impulso para una mejor experiencia del cliente. La capacidad de los nuevos bancos virtuales para integrar numerosas tecnologías, desde la verificación de identidad biométrica y el descubrimiento del beneficiario final hasta la detección de AML y la detección de medios adversa, será sumamente importante en la lucha contra la delincuencia financiera, como las verificaciones de ID (identificación). Los nuevos clientes podrán usar autofotos como parte del proceso de incorporación sin pasar por la necesidad de verificaciones físicas de identidad. Las verificaciones biométricas no solo son la forma más segura de verificación de identidad, sino también la más rápida y flexible.

    Los consumidores y las corporaciones en Hong Kong están a punto de presenciar una forma completamente nueva de banca y la incorporación remota será el comienzo de un largo camino por recorrer. La plataforma englobada permitirá a las organizaciones utilizar las mejores tecnologías impulsadas por la automatización inteligente de procesos.

  • San Francisco será la primera ciudad de EE.UU. en prohibir la vigilancia de reconocimiento facial

    El reconocimiento facial es una de las tecnologías más polémicas de uso reciente en el campo de las políticas públicas en varios países que ha generado nuevas preguntas sobre las libertades civiles. San Francisco ahora se convierte en la primera ciudad de Estados Unidos en vetar el uso de dicha tecnología para la vigilancia de espacios públicos. Los expertos, a su vez, han expresado inquietudes específicas acerca de las herramientas, ya que los estudios han demostrado casos de sesgos preocupantes y tasas de error.

    En un caso sin precedentes en la historia de los Estados Unidos, la ciudad de San Francisco ha votado para evitar que las agencias gubernamentales, incluída la policía, utilicen el reconocimiento facial como un método para monitorear a la población. La Junta de Supervisores ha tenido un resultado de ocho votos a favor frente a uno en contra de la medida, que entrará en vigencia en un mes. El nombre original del plan es ‘Detener la ordenanza secreta de vigilancia‘. La ordenanza también requeriría que las agencias de la ciudad obtuvieran la aprobación de la junta directiva para el uso de la tecnología de vigilancia, y que establezcan auditorías para la que ya se encuentre en uso.

    La ley no regulará los negocios locales, y la tecnología aún no está regulada en gran parte en los EE. UU., pero la prohibición de San Francisco resuena debido a la identidad de la ciudad como un territorio amigable para algunas de las empresas de tecnología más poderosas del mundo, cuyos ingenieros han diseñado sistemas que pueden detectar y reconocer rostros para uso comercial y de consumo.

    Antes de la votación, el miembro de la Junta Directiva, Aaron Peskin, aclaró que «esto no es una medida contra la tecnología», subrayando que muchas de las herramientas utilizadas por las autoridades aún son importantes para la seguridad de la ciudad. Sin embargo, el miembro de la junta observó que el reconocimiento facial es una herramienta «especialmente peligrosa y opresiva». «La propensión de la tecnología de reconocimiento facial a poner en peligro los derechos y las libertades civiles supera sustancialmente sus beneficios». El reconocimiento facial podría, además, «exacerbar la injusticia racial y amenazar nuestra capacidad de vivir sin la continua vigilancia del gobierno». «Será ilegal para cualquier departamento obtener, conservar, acceder o utilizar cualquier tecnología de reconocimiento facial o cualquier información obtenida con tecnología de reconocimiento facial».

    La ley podría aumentar las tensiones en compañías como Amazon, que han tratado de vender sistemas de reconocimiento facial a agencias policiales, citando sus posibles beneficios al encontrar niños desaparecidos o perseguir a los delincuentes. Los inversores de Amazon votarán la próxima semana sobre una propuesta que podría impedir que la compañía venda su sistema, Rekognition, a agencias gubernamentales.
    Google ha dicho que no ofrecerá una herramienta de reconocimiento facial de uso general hasta que funcione a través de «importantes cuestiones de tecnología y políticas». Microsoft, por su parte, instó al Congreso a regular la tecnología y dijo que no se debe dejar que las empresas se controlen a sí mismas debido a sus «amplias ramificaciones sociales y su potencial de abuso».

    El caso de San Francisco definitivamente será un precedente para otras ciudades, que pueden decidir implementar alguna regulación para la debatida tecnología de reconocimiento facial. Varios grupos de libertad civil en el área han expresado su apoyo a la decisión tomada por la ciudad, mientras que la policía local está tratando de evitar un bloqueo en su uso.

  • Delta lanzará tecnología de reconocimiento facial en aeropuertos de EEUU

    Desde el 30 del mes pasado, los viajeros internacionales que salen de Atlanta ahora pueden registrarse para un vuelo de Delta, pasar por seguridad y abordar un avión con reconocimiento facial, en lugar de mostrar sus pasaportes.

    El jueves pasado, Delta Air Lines presentó nuevas cámaras de reconocimiento facial que, según la compañía, acortarán los tiempos de espera de los viajeros en la terminal internacional de Hartsfield-Jackson, en lo que llaman la primera «terminal biométrica» ​​en los Estados Unidos.

    Asimismo, la compañía desea implementar esta tecnología para vuelos domésticos, aunque el uso generalizado podría estar no tan lejos de implementarse. El objetivo es hacer que el aeropuerto sea más conveniente y menos problemático, al eliminar la necesidad de que los viajeros enseñen sus pasaportes y pases de embarque para abordar. Durante el embarque, el uso del reconocimiento facial ahorra un promedio de 2 segundos por pasajero, o un total de 9 minutos para el embarque de un avión de fuselaje ancho, de acuerdo con Delta.

    Delta confirmó que alrededor de 25,000 clientes viajan a través de la terminal internacional por semana, y hasta el momento solo el 2% está descartando este nuevo método. «Estamos eliminando la necesidad de que un cliente registre una maleta para presentar su pasaporte hasta cuatro veces por salida, lo que significa que les estamos dando a los clientes la opción de moverse por el aeropuerto con una cosa menos de qué preocuparse, al tiempo que capacitamos a nuestros empleados. con más tiempo para interacciones significativas con los clientes «, dijo Gil West, director de operaciones de Delta, en un comunicado que promociona el esfuerzo de la aerolínea por equipar la Terminal F con la tecnología biométrica. La opción también estará disponible para los pasajeros internacionales que vuelan sin escalas desde Atlanta en las aerolíneas asociadas de Delta: Aeroméxico, Air France-KLM o Virgin Atlantic.

    Delta dice que no almacenará las imágenes, y solo las usa para compararlas con la base de datos de Aduanas y Protección Fronteriza (CBP) de los EE. UU. CBP también se ha asociado con otras aerolíneas y aeropuertos en embarque biométrico para cumplir con un mandato del Congreso para desarrollar un sistema biométrico de entrada y salida.

    John Wagner, asistente adjunto de CBP, afirmó que esta tecnología también mejorará la seguridad: ayuda a detectar a los impostores cuyas caras no coinciden con los pasaportes que presentaron en el aeropuerto, y ya ha detectado a miles de viajeros que han excedido en sus visas.»Realmente estamos resolviendo este complicado mandato de seguridad centrándonos en la experiencia del viajero», afirmó Wagner.

    En un futuro próximo, Delta planea desplegar reconocimiento facial primero en el Aeropuerto Metropolitano de Detroit y posteriormente en todos sus otros centros en los Estados Unidos en todos los puntos de facturación de boletos internacionales, desde el check-in de autoservicio hasta la verificación de equipaje y la llegada a los EE. UU.