Desde que se descubrió la utilidad de los sistemas biométricos ha tenido lugar una importante evolución en su uso, desde la seguridad pública hasta la seguridad privada. La demanda de sistemas biométricos para vigilancia aumentó a partir de los atentados del 11S del 2001 en Estados Unidos, y así se fueron incorporando las cámaras en espacios públicos con el propósito de evitar ataques terroristas e identificar a criminales.
Hace décadas que Jain y su equipo explicaron los efectos disuasorios de los sistemas biométricos sobre delitos y fraudes, el incremento en la agilización de procesos comerciales y la protección de recursos críticos. Por ejemplo, los casinos de Estados Unidos llevan años identificando a los individuos que hacen trampa comparando las imágenes con fotografías de sujetos que habían sido arrestados o expulsados de casinos.
En nuestro estudio explicamos que el progresivo incremento del uso de sistemas biométricos ha dejado atrás un periodo en el que se empleaban de forma esporádica y con fines de seguridad. Ahora los usuarios son clientes, trabajadores y simples ciudadanos.
Este contexto expansivo abre un importante debate social en torno a la privacidad y a la seguridad de estos sistemas.
La postura de las multinacionales
Amazon, IBM y Microsoft repudiaron la utilización de los sistemas de reconocimiento facial para vulnerar los derechos humanos tras los hechos ocurridos en Estados Unidos con la muerte de George Floyd.
IBM dejó de ofrecer software de reconocimiento facial, indicando que se opone y no tolera la utilización de ninguna tecnología para la vigilancia en masa, la perfilación racial y la violación de los derechos humanos y de la libertad.
Amazon implementó una moratoria de un año, que ha sido extendida, para la tecnología de reconocimiento facial de uso policial y solicita al gobierno de EE. UU. que establezca regulaciones para el uso ético de este tipo de tecnología.
Microsoft indicó que no venderá tecnología de reconocimiento facial a los departamentos de policía de los Estados Unidos hasta que haya una regulación nacional de estas tecnologías basada en el respeto de los derechos humanos.
Algoritmos que se equivocan
Otro elemento que destaca sobre este tipo de tecnología reside en los posibles errores.
Diversos estudios han indicado que los algoritmos de los sistemas de reconocimiento facial efectúan clasificaciones erróneas en función del color de la piel, la edad y el sexo de los individuos.
Un ejemplo de esto fue la prueba realizada por la Unión Americana de Libertades Civiles (UCLA) del sistema de reconocimiento facial de Amazon “Rekognition”, en el que comparaban fotos de miembros del Congreso de Estados Unidos con 25 000 fotos de personas convictas. En los resultados obtuvieron 28 falsos positivos: 28 miembros del Congreso fueron identificados por el sistema como personas que habían sido condenadas por un delito. Los resultados de los individuos de piel negra eran desproporcionados con respecto a los de piel blanca.
En la actual época de desarrollo tecnológico convergente, donde distintos dispositivos intercambian datos de forma fluida y ágil, es creciente la demanda de la denominada privacidad biométrica. Las empresas cuentan con importantes restricciones sobre los usos de los datos biométricos.
IBM resalta la necesidad de una regulación específica para cada uso de este tipo de tecnologías y, para ello, es necesario que se tenga en cuenta tanto a los usuarios finales como la finalidad que va a tener el sistema de reconocimiento biométrico. Es fundamental realizar esta diferenciación, debido a que no se debe regular igual aquellos sistemas de reconocimiento facial que, por ejemplo, ayudan a los servicios de atención sanitaria de urgencias a identificar de forma rápida a las víctimas de un desastre natural que a los sistemas de reconocimiento incorporados en las cámaras en vehículos policiales.
La organización The World Bank, en su manual sobre sistemas biométricos, estableció una serie de requisitos para la protección de este tipo de datos indicando que:
-
Debe ser preventivo y no correctivo. Es decir, debe realizar un análisis de riesgo antes, durante y después de la implantación del sistema para adelantarse a amenazas potenciales.
-
La privacidad se da por defecto. Esto implica que el usuario no debe proteger activamente sus datos sino que el sistema los debe proteger al entrar en el sistema.
-
La privacidad debe estar integrada en el diseño en todas las fases, desde la adquisición al procesamiento y en escenarios de conectividad limitada.
-
Debe presentar funcionalidad completa. Esto quiere decir que haya un equilibrio entre seguridad y privacidad sin el compromiso de una o de otra.
-
Ha de poseer seguridad de extremo a extremo en cada paso del sistema.
-
Ha de presentar visibilidad y transparencia.
-
Ha de haber respeto por la privacidad individual.
La seguridad es un concepto instrumental, un medio que hace posible el ejercicio de derechos y libertades. Proteger la libertad de expresión y reunión y los principios de igualdad son algunos de los retos a los que los Estados, garantes de los derechos de su ciudadanía, están centrados en regular para supervisar el uso de los sistemas biométricos, especialmente por parte de los propios entes políticos.
Por tanto, ponemos de manifiesto que, lejos de prohibir una tecnología que tiene aplicaciones beneficiosas para la sociedad, la orientación de esfuerzos legislativos en materia de privacidad se dirige hacia normativas específicas según el empleo de los datos, así como los sectores de aplicación.
La cuestión no se basa en decidir si los individuos deben tener más seguridad y menos privacidad o viceversa, sino en saber identificar los riesgos y las amenazas contemplando los usos y aplicaciones. Esto permite aprovechar los beneficios de los sistemas biométricos en los ámbitos de seguridad respetando los derechos fundamentales y las libertades públicas lo que, a su vez, reducirá la inquietud de la ciudadanía.
Michelle Madeline Cámara Mora, Profesora del departamento de Criminología y Seguridad, Universidad Camilo José Cela and Carmen Jordá Sanz, Directora del Departamento de Criminología y Seguridad, Universidad Camilo José Cela
Este artículo fue publicado originalmente en The Conversation. Lea el original.