Productos y Servicios PRODUCTOS Y SERVICIOS

Reconocimiento facial: otro revés para las fuerzas del orden

En lo que va del año, el uso del reconocimiento facial por parte de las fuerzas del orden ha sido impugnado con éxito por tribunales y gobiernos de ambos lados del Atlántico.

En EEUU, por ejemplo, el proyecto de ley 6280 del Senado del estado de Washington surgió en enero de 2020 y propone frenar el uso del reconocimiento facial en el estado, aunque no del todo.

El proyecto de ley admite que:

Las agencias gubernamentales estatales y locales pueden utilizar los servicios de reconocimiento facial de muchas formas beneficiosas, como localizar a personas desaparecidas o incapacitadas, identificar víctimas de delitos y mantener la seguridad pública.

Pero también insiste en que:

El uso sin límites de los servicios de reconocimiento facial por parte de las agencias gubernamentales estatales y locales plantea amplias ramificaciones sociales que deben considerarse y abordarse. En consecuencia, se requiere legislación para establecer salvaguardas que permitan a las agencias gubernamentales estatales y locales utilizar los servicios de reconocimiento facial de una manera que beneficie a la sociedad mientras prohíba usos que amenacen nuestras libertades democráticas y pongan nuestras libertades civiles en riesgo.

En junio de 2020, Boston siguió a San Francisco para convertirse en la segunda metrópoli más grande de EEUU, de hecho, del mundo, en prohibir el uso del reconocimiento facial.

Incluso el comisionado del Departamento de Policía de Boston, William Gross, estaba en contra, a pesar de sus obvios beneficios para encontrar personas buscadas o convictos fugitivos que de otra manera podrían esconderse fácilmente a plena vista.

Gross, al parecer, simplemente no cree que sea lo suficientemente preciso como para ser útil, y además le preocupaba que el software de reconocimiento facial, en términos generales, pudiera funcionar con menos precisión a medida que el tono de la piel se oscurece:

Hasta que esta tecnología esté al 100%, no me interesará. No olvidé que soy afroamericano y que también me puede identificar erróneamente.

Al otro lado del Atlántico, se han estado gestando objeciones similares.

Edward Bridges, un activista de derechos civiles del sur de Gales, Reino Unido, acaba de recibir una sentencia del Tribunal de Apelaciones de Gran Bretaña que establece objeciones judiciales en consonancia a las de Washington y Boston.

En 2017, 2018 y 2019, la Policía de Gales del Sur (Heddlu De Cymru) había estado probando un sistema conocido como AFR Locate (AFR es la abreviatura de reconocimiento facial automático), con el objetivo de usar cámaras montadas en furgonetas de la policía, para buscar el tipo de personas que a menudo se describen como “personas de interés”.

En su reciente resumen de prensa, el tribunal describió a esas personas como: “personas buscadas por orden judicial, personas que habían escapado de custodia, personas sospechosas de haber cometido delitos, personas que pudieran necesitar protección, personas vulnerables, personas de posible interés […] para propósitos de inteligencia, y personas cuya presencia en un evento en particular cause especial preocupación”.

Bridges originalmente presentó un caso contra las autoridades en 2019, por dos motivos principales.

En primer lugar, Bridges argumentó que a pesar de que AFR Locate rechazaría (y eliminaría automáticamente) la gran mayoría de las imágenes que capturase mientras monitoreaba a los transeúntes, sin embargo, era una violación del derecho y la expectativa de lo que la ley llama “Una vida privada”.

AFR Locate no utiliza la tecnología tan difamada conocida como Clearview AI, basada en una base de datos de miles de millones de imágenes faciales ya publicadas extraídas de sitios públicos como redes sociales y luego indexadas con nombres para producir un motor global de fotos policiales de “búsqueda inversa” de imágenes. AFR Locate compara hasta 50 imágenes capturadas por segundo de un video con una modesta lista de fotos policiales ya existentes, supuestamente por una buena causa. El sistema probado aparentemente se limitó a una base de datos de fichas policiales máxima de 2000 rostros, y la policía de Gales del Sur generalmente buscaba coincidencias con solo 400 a 800 a la vez.

En segundo lugar, Bridges argumentó que el sistema violó lo que se conoce como disposiciones de Deber de Igualdad del Sector Público (PSED) por posibles inexactitudes en el género y la raza debidas a la propia tecnología; en pocas palabras, a menos que se sepa que AFR Locate está libre de cualquier tipo de potencial inexactitudes sexistas o racistas, por inadvertidas que sean, no debe usarse.

En 2019, una audiencia falló contra Bridges, argumentando que el uso de AFR Locate era proporcionado, presumiblemente con el argumento de que en realidad no estaba tratando de identificar a todos los que veía, sino que esencialmente ignoraría cualquier rostro que no coincidiera con una lista de seguimiento de tamaño modesto.

El Tribunal también desestimó la afirmación de Bridges de que el software podría ser esencialmente discriminatorio al decir que no había pruebas, en el momento en que se estaba probando el sistema, de que fuera propenso a ese tipo de error.

Bridges acudió al Tribunal de Apelación, que anuló en parte la decisión anterior, pero no del todo.

Había cinco puntos en la apelación, de los cuales tres fueron aceptados por el tribunal y dos rechazados:

  • El tribunal decidió que no había información suficiente sobre cómo se desplegaría AFR Locate, en particular con respecto a decidir dónde estaba bien usarlo y quiénes se incluirían en la lista de vigilancia. El tribunal determinó que era “una discreción demasiado amplia para permitírselo a […] agentes de policía”.
  • El tribunal decidió que la Policía de Gales del Sur no había realizado una evaluación adecuada del impacto del sistema en la protección de datos.
  • El tribunal decidió que, aunque no había “pruebas claras” de que AFR Locate tuviera algún sesgo relacionado con el género o la raza, la Policía de Gales del Sur había asumido esencialmente eso en lugar de tomar medidas razonables para establecer esto como un hecho.

Curiosamente, el tribunal rechazó lo que podría considerarse el núcleo de las objeciones de Bridges, que son las objeciones que muchas personas tienen contra el reconocimiento facial en general, a saber, que AFR Locate interfería con el derecho a la privacidad, sin importar cómo objetivamente podría estar programado.

El tribunal argumentó que “los beneficios eran potencialmente grandes y el impacto en Bridges menor, por lo que el uso del [reconocimiento facial automático] fue proporcionado”.

En otras palabras, la tecnología en sí no ha sido prohibida y el tribunal parece pensar que tiene un gran potencial, pero no en la forma en que se ha probado hasta ahora.

La sentencia completa se extiende por 59 páginas muy densas, pero vale la pena leerla para tener una idea de la complejidad que parecen crear los casos de este tipo.

La conclusión en este momento, al menos donde se encuentra el poder judicial del Reino Unido, parece ser que:

  1. El reconocimiento facial está bien en principio y puede tener importantes beneficios en la detección de delincuentes en general e identificación de personas vulnerables.
  2. Se necesita más cuidado al implementarlo para asegurarnos de que nos beneficiamos del punto (1) sin echar a la basura la privacidad en general.
  3. La ausencia de evidencia de posibles sesgos discriminatorios en el software de reconocimiento facial no es suficiente por sí sola, y lo que realmente necesitamos es evidencia de ausencia de sesgo.

En resumen, “hay que hacer algo”, lo que lleva a la pregunta abierta: ¿Qué crees que debería ser? ¡Háznoslo saber en los comentarios!