Este es un tema visto con mucha preocupación por la ADC. Los casos de estos abusos tecnológicos más mencionados en el mundo son los que vienen de China, y otros países asiáticos, pero ciudades como Londres y algunos puntos de Estados Unidos no se quedan afuera.
En Argentina hablamos de un método invasivo. La tecnología de reconocimiento facial con fines de seguridad pública se extiende sin que se hayan realizado evaluaciones sobre su impacto en los derechos humanos. La presencia de este fenómeno se da en CABA, Tigre, Córdoba, Salta y Mendoza.
En CABA, el Gobierno de la Ciudad implementó el sistema para la captura de prófugos pero no existe concientización y capacitación para el ciudadano.
Desde la ADC consideran importante una mejora de esta implementación, pero por el tipo de tecnología, estiman que ni la mejor regulación va a lograr frenar las licencias que se toma esta tecnología con la privacidad de las personas.
Entonces, se busca la suspensión del uso de esta tecnología como sucede en algunas ciudades de Estados Unidos como San Francisco, cuna de la tecnología. Allí se prohibió el uso de reconocimiento facial por la mala identificación de las personas, y por discriminación de color de piel.
Es importante decir que no se discuten las capacidades de la tecnología y el uso correcto, lo que se cuestiona es el uso en espacios públicos que exponen a la gente sin consentimiento.
Por mencionar un caso que ejemplifica la situación, Eduardo Ferreyra en diálogo con InfoNegocios, describe que “una persona fue detenida 6 días por reconocimiento facial y no era quien la tecnología creía que era. Hubo un reconocimiento falso. Entonces hablamos de que a veces la gente es demorada sin motivos y esto conlleva una molestia, una pérdida de tiempo”.
¿De qué depende una solución?
En Argentina es una cuestión política. Se debe legislar por provincias, pero depende de la voluntad política para resolver una medida ante esta desregulación. Mientras tanto, la entidad a la que pertenece Ferreyra demandó al Gobierno de la Ciudad de Buenos Aires para suspender el sistema. Y han agregado varios ítems nuevos en la demanda que corre desde 2019.
Falsos positivos
El sistema no es infalible ya que solo arroja un porcentaje de probabilidad de que la persona captada por la cámara sea la misma de la base de datos. Las tasas de error del software biométrico son tanto una cuestión técnica como política. Además, el entrenamiento del algoritmo define su precisión y pueden incidir los cambios de luz, los fondos con distintos colores y los ángulos variados de enfoque.
Las contras de una herramienta de vigilancia y control
* Uso indiscriminado, encubierto y sin consentimiento de la población.
* Agravado por la inexistencia de una regulación detallada que establezca las garantías y condiciones para su uso.
* Todos somos culpables hasta que el algoritmo determine lo contrario.
* Alto porcentaje de falsos positivos en personas de tez no blanca, mujeres y comunidades en situación de vulnerabilidad.
* Pone en riesgo el ejercicio de derechos fundamentales:
* El disfrute del espacio público.
* El desarrollo de la vida en sociedad.