Días atrás, el gobernador Omar Perotti firmó junto al Ministro del Interior Eduardo de Pedro un convenio de colaboración y cooperación técnica con el Registro Nacional de las Personas (ReNaPer). El mismo habilitará a las fuerzas de seguridad de la provincia a la utilización del SIS (Sistema de Identificación Segura) desarrollado por el organismo, con el que los efectivos podrán realizar la identificación biométrica de prófugos de la justicia o personas con antecedentes penales.
El mismo acuerdo también garantiza el financiamiento necesario para la compra y posterior instalación de 600 cámaras de vigilancia de última generación, lo que permitirá vincularlas a un sistema que permita la detección de personas con pedido de captura en la vía pública mediante reconocimiento facial. Esto puede parecer un complemento eficaz para las tareas policiales, sin embargo, la implementación de esta tecnología plantea importantes desafíos éticos y morales en lo que respecta a la protección de la privacidad y los derechos básicos de los ciudadanos.
Los sistemas de reconocimiento facial se valen del análisis del rostro de un individuo para identificar su identidad. Primero, una cámara realiza una captura de la imagen de la persona, ya sea a partir de una fotografía o de una secuencia de video. A continuación, un complejo sistema de inteligencia artificial extrae los rasgos faciales característicos, mapeando la estructura ósea e identificando puntos de referencia clave para distinguir una cara de otra. Entre los elementos que analiza se encuentran:
*La distancia entre ojos
*La distancia entre la nariz y la boca
*La distancia de la frente al mentón
*La forma de los pómulos
*El contorno de los labios, mentón y orejas
*La profundidad de la cuenca ocular
El sistema convierte todos estos datos en una cadena numérica llamada huella facial, una suerte de fórmula matemática del rostro, y al igual que las huellas dactilares, esta es única para cada persona. Una vez obtenida esta huella facial, se la compara con una base de datos de rostros conocidos en busca de una coincidencia.
Es importante tener en cuenta que esta tecnología, al igual que cualquier otra, no es infalible. Si bien en condiciones de laboratorio los algoritmos de reconocimiento facial tienen una precisión casi perfecta, el mundo real presenta un escenario diferente. Inconsistencias en la iluminación, bloqueos totales o parciales del rostro que dificultan la obtención de imágenes, suciedad en el lente de la cámara o capturas de baja resolución son factores que afectan la tasa de aciertos de los algoritmos de verificación. Y no es lo mismo no poder desbloquear el celular con el rostro que ser identificado erróneamente por un sistema utilizado por la policía, tal como le sucedió a Guillermo Ibarrola en julio de 2019.
Ibarrola fue detectado en la estación de trenes de Retiro por una cámara del “Sistema de Reconocimiento Facial de Prófugos” que la Ciudad de Buenos Aires había implementado unos meses antes, vinculado a un caso de robo ocurrido en Bahía Blanca en 2016. Nunca había estado en esa ciudad y tampoco había cometido algún delito, sin embargo pasó seis días preso por un crímen con el que no tenía nada que ver. La justicia buscaba a otro Guillermo Ibarrola, con un rostro diferente y otro número de DNI, pero el sistema igualmente activó la alerta. El de Guillermo no fue un caso aislado, otros ciudadanos inocentes sufrieron situaciones similares a partir de errores de identificación del sistema.
“El uso de tecnologías de reconocimiento facial plantea distintas problemáticas”, cuenta Eduardo Ferreyra, abogado y magíster en Derechos Humanos y Democratización en América Latina e integrante de la Asociación de Derechos Civiles (ADC). “En primer lugar es una tecnología que se ha demostrado imprecisa y falible, que comete varios errores, falsos positivos como se conoce. Es decir, identifica a una persona de manera errónea, dice que es X cuando en realidad no es. Según diversos estudios, esto ocurre generalmente con personas de tez no blanca y mujeres. Estos grupos son las principales víctimas de casos de falsos positivos y de errores en la identificación”, explica.
La adopción de esta tecnología no solo plantea obstáculos técnicos, sino también cuestiones legales a considerar. Para el Dr. Rodrigo Iglesias, abogado especialista en Derecho Informático, “los principales problemas que representa cualquier sistema de reconocimiento mediante datos biométricos son las vulneraciones a los derechos humanos, garantías constitucionales y tratados internacionales que Argentina tiene firmados desde hace muchos años, como ser la Convención Internacional sobre Eliminación de todas las Formas de Discriminación o la Convención sobre los Derechos del Niño”, recalca.
En ese sentido, el Dr. Iglesias agrega que ”el tratamiento de datos personales sensibles, como los datos biométricos de cualquier persona, se encuentran tutelados a nivel nacional e internacional. En el año 2020 Argentina adhirió al Convenio 108 sobre Tratamiento Automatizado de Datos de Carácter Personal, y en noviembre de 2022 el Congreso de la Nación aprobó el protocolo correspondiente, donde queda claro que antes de su aplicación deberá cumplir con los requisitos allí indicados”.
Para Iglesias ”hay que destacar la necesidad de cumplir con el tratado firmado antes de la puesta en funcionamiento sino el país será sancionado, como probablemente ocurra con el sistema implementado en CABA, que se encuentra suspendido y a la espera de sentencia de Cámara. En primera instancia se constataron irregularidades y personas buscadas o ingresadas en el sistema que nada tenían que ver con prófugos”, explica. Es que -según comprobó una investigación judicial- esta tecnología permitió el acceso a datos biométricos de casi 10 millones de personas, y prácticamente ninguno de ellos relacionado a actividades ilícitas.
La custodia de esta información extremadamente sensible también es un punto que requiere especial atención. “Otro problema que mencionaría es que el sector público de nuestro país ha demostrado tener un manejo de seguridad digital de los datos personales bastante endeble, bastante deficiente”, resalta atinadamente el Dr Ferreyra.
“Hemos visto diversos casos de hackeos o filtraciones de bases de datos a nivel nacional como es el caso del Ministerio de Salud o en la base de datos del ReNaPer, entonces pareciera que actualmente el gobierno no cuenta con la infraestructura técnica y humana para resguardar estos datos de manera tal como como le exige la ley. Tengamos en cuenta que el dato biométrico de estas tecnologías es la cara, por lo que cualquier tipo de filtración o pérdida de nuestra información biométrica es riesgosa, porque no la podemos reemplazar, no se puede reemplazar una cara con otra”, indica el abogado de la ADC.
Cada vez son más las ciudades a nivel global que han tomado medidas para prohibir el uso de tecnologías de reconocimiento facial para la vigilancia de sus ciudadanos. San Francisco lideró el camino en 2019, y luego se unieron otras ciudades estadounidenses como Boston, Portland y San Diego. De modo similar a la ciudad de Buenos Aires, en San Pablo, Brasil, un fallo judicial ordenó suspender el sistema de monitoreo electrónico del metro de la ciudad.
Actualmente los legisladores de la Unión Europea están debatiendo la Ley de Inteligencia Artificial, que pretende introducir obligaciones legales acordes con el daño potencial, social o de otro tipo que pueda implicar el uso de esta tecnología. El borrador más reciente de la Ley prohíbe ampliamente el uso de cualquier tecnología de reconocimiento facial, tanto en tiempo real como posteriormente, por parte de entidades públicas y privadas.
“Uno es consciente de la grave situación que está viviendo Rosario en términos de seguridad y tampoco se puede desconocer que el Estado y las autoridades tienen la facultad y el deber de utilizar todos los medios legales y legítimos a disposición para combatir la inseguridad”, plantea el Dr. Ferreyra. “Simplemente señalo que ciertas herramientas pueden tener determinados problemas, y que en ese sentido es mejor quizás reflexionar, analizar y debatir con todas las partes interesadas de qué manera podemos lograr un avance en la lucha contra la delincuencia, contra el crimen y contra el narcotráfico sin perjudicar los derechos de las personas”, concluye.
La utilización de sistemas de reconocimiento facial por parte del Estado puede presentar una amenaza considerable para los derechos de los ciudadanos, incrementando el riesgo de detenciones arbitrarias, la estigmatización por perfilamiento racial y la violación de la libertad y privacidad individual a partir de la vigilancia masiva irrestricta. Estos elementos deben ser cuidadosamente considerados y regulados para garantizar el equilibrio entre la seguridad pública y las libertades personales.