Mundo

Apps de reconocimiento facial usadas en EU ponen en riesgo a migrantes

POLÉMICA. Desde finales de 2019, la Patrulla Fronteriza escanea a quienes piden asilo o cruzan la frontera, pero otras agencias llevan más tiempo haciendo lo mismo dentro del país. Pruebas en Nueva York y Londres han demostrado que esta tecnología no sólo viola la privacidad, sino que falla más que una escopeta de feria.

POLÉMICA. Desde finales de 2019, la Patrulla Fronteriza escanea a quienes piden asilo o cruzan la frontera, pero otras agencias llevan más tiempo haciendo lo mismo dentro del país. Pruebas en Nueva York y Londres han demostrado que esta tecnología no sólo viola la privacidad, sino que falla más que una escopeta de feria.

Apps de reconocimiento facial usadas en EU ponen en riesgo a migrantes

Apps de reconocimiento facial usadas en EU ponen en riesgo a migrantes

La Crónica de Hoy / La Crónica de Hoy

Un reportaje publicado el pasado sábado 18 de enero por el New York Times reveló que más de 600 agencias gubernamentales de Estados Unidos y cuerpos de policía del país empezaron a usar en 2019 una nueva aplicación de reconocimiento facial para tratar de identificar inmediatamente a cualquier persona.

Esto se suma al anuncio de la Patrulla Fronteriza el pasado diciembre de que empezaría inmediatamente a escanear y guardar un registro de los rostros de todos los migrantes que se presenten para pedir asilo en un puesto fronterizo del país o que crucen por los puestos fronterizos regulares. Esto, según su versión, para comprobar que son la persona que dicen ser en sus documentos.

Los ciudadanos estadunidenses están exentos de pasar por todos estos procedimientos, pero activistas han denunciado que esto no siempre se cumple.

De todos modos, la polémica empezó incluso antes, en julio pasado, cuando diversos medios en EU publicaron que el Servicio de Inmigración y Control de Aduanas, el temido ICE, empezó a usar un sistema de reconocimiento facial para escanear los rostros que aparecen en las licencias de manejo.

Esta información alarmó a activistas proinmigrantes, puesto que hay 13 estados de EU que otorgan licencias a migrantes indocumentados, lo que permitiría al ICE cazarlos y deportarlos fácilmente. Estos estados son Washington D.C., Nevada, Maryland, Nuevo México, California, Nueva York, Hawái, Delaware, Vermont, Utah, Washington, Illinois y Colorado.

LA APP DE LA DISCORDIA. Sin embargo, estos ejemplos serían minucias comparados con la denuncia del New York Times, que puso su foco sobre la aplicación Clearview, que se vende solo de forma privada, generalmente a cuerpos policiales del mundo y diversas agencias de seguridad.

De esta manera, según el Times, el FBI, el departamento de Seguridad Nacional del gobierno de Donald Trump y numerosas agencias policiales de Estados Unidos disponen ya de Clearview, que se ha desarrollado en Australia a la sombra de las polémicas generadas en EU.

La aplicación usa una base de datos de más de 3 mil millones de imágenes recopiladas de multitud de webs y de las principales redes sociales, como Facebook, Instagram o YouTube. De hecho, Clearview permite, una vez escaneada la cara de la persona, ver las imágenes compatibles con su rostro y todas las páginas webs donde aparece.

Esto significa que la app no sólo permite identificar a la persona por su nombre, sino que, dependiendo del nivel de privacidad que la persona haya usado en su vida digital, podría descubrir su lugar de residencia, trabajo, números de contacto, aficiones, familia, etcétera.

DUDAS ÉTICAS. La aparición de Clearview en el mercado es rompedora por dos razones, la primera es que permite ver mucho más de lo que hasta ahora podían conocer las agencias de Estados Unidos, que usualmente era poco más que una coincidencia entre dos rostros en dos bases de datos separadas.

Pero el segundo es que esta app se ha atrevido a dar el paso que hasta ahora ninguna gran tecnológica, como por ejemplo Google, se había atrevido a dar, puesto que el proyecto presenta evidentes violaciones del derecho a la privacidad.

De hecho, varias ciudades de Estados Unidos han prohibido a sus agentes de policía usar el reconocimiento facial precisamente porque viola la privacidad de los ciudadanos.

¿CONGRESISTA O CRIMINAL? Más allá de la cuestión de la privacidad, uno de los grandes problemas que presenta esta tecnología es que su desarrollo todavía se encuentran en una fase temprana, y múltiples pruebas han demostrado su escasa fiabilidad.

En agosto de 2019, la Unión Estadunidense de Libertades Civiles (ACLU) realizó un test escaneando a múltiples legisladores californianos con una aplicación de reconocimiento facial. El resultado arrojó que aproximadamente uno de cada cinco fue confundido con un criminal. Y otra investigación similar de la ACLU reveló el año pasado que otro software de reconocimiento facial, llamado Rekognition, y que se vende en Amazon, confundió a 28 miembros del Congreso de EU con criminales.

Hay que tomar en cuenta que estas pruebas se hicieron con imágenes nítidas y bien iluminadas. Ahora, traslademos esto a un escenario de la vida real. Clearview asegura en su márqueting que su app permitió detener a un presunto terrorista en verano en Nueva York, captado en imágenes de cámaras de seguridad.

Sin embargo, la ciudad negó haber usado su app, y la realidad es que es para creerlo. La propia Nueva York probó a usar el reconocimiento facial en abril pasado colocando una cámara en el famoso puente Robert F. Kennedy: la tasa de reconocimiento fue del 0 por ciento. Sí, cero. Poco antes, una prueba similar en Londres arrojó un irrisorio 2 por ciento.

LOS NEGROS DEBEN ESTAR PREOCUPADOS. Y para hacerlo todo más terrible todavía, el balance es peor para las personas negras o, en general, que sean de piel oscura. En julio pasado, un estudio del Instituto Nacional de Estándares y Tecnología estadunidense concluyó que el software de la empresa francesa Idemia, que usan varias agencias de EU, identificó erróneamente identificó erróneamente a una mujer blanca de cada 10 mil. En el caso de las negras, fue una de cada mil.

Otros estudios han confirmado el mismo problema en otros software desarrollados por otras empresas, pero en realidad esto no es nada sorprendente. En 2009, empleados de HP revelaron cómo unas cámaras de seguimiento facial que habían instalado ignoraban a los trabajadores negros, y en 2015, un desarrollador web llamado Jacky Alciné, negro, tuiteó una captura de pantalla de Google Imágenes etiquetándolos a él y a un amigo como gorilas. Apple también ha tenido problemas similares con la cámara de su iPhone.

El problema es tan grave, y a la vez tan delicado, que un reporte del New York Daily News destapó en octubre pasado que Google estaba ofreciendo tarjetas regalo de 5 dólares a gente en la calle que tuviera tonos de piel “oscuros” con el fin de mejorar en secreto el sistema de reconocimiento facial del Pixel 4, su nuevo celular.