La policía de Londres comenzará a usar cámaras de reconocimiento facial para seleccionar sospechosos de las multitudes en la calle en tiempo real, en un gran avance de la controvertida tecnología que genera preocupaciones sobre la vigilancia automatizada y la erosión de los derechos de privacidad.
El Servicio de Policía Metropolitana dijo el viernes que después de una serie de juicios, las cámaras se pondrán a trabajar dentro de un mes en despliegues operativos de alrededor de 5-6 horas en posibles puntos críticos del crimen. Las ubicaciones se elegirían en función de la inteligencia, pero la policía no dijo dónde, la cantidad de lugares o cuántas cámaras se desplegarían.
La vigilancia de multitudes en tiempo real por parte de la policía británica es uno de los usos más agresivos del reconocimiento facial en las democracias ricas y plantea preguntas sobre cómo la tecnología entrará en la vida cotidiana de las personas. Las autoridades y las empresas privadas están ansiosas por usar el reconocimiento facial, pero grupos de derechos humanos dicen que amenaza las libertades civiles y representa una expansión de la vigilancia.
La decisión de Londres de usar la tecnología desafía las advertencias de grupos de derechos, legisladores y expertos independientes, dijo la investigadora de Amnistía Internacional Anna Bacciarelli.
"La tecnología de reconocimiento facial plantea una gran amenaza para los derechos humanos, incluidos los derechos a la privacidad, la no discriminación, la libertad de expresión, la asociación y la reunión pacífica", dijo Bacciarelli.
La policía de Londres dijo que el sistema de reconocimiento facial, que funciona con tecnología NEC de Japón, busca rostros en las multitudes para ver si coinciden con alguno en las "listas de vigilancia" de hasta 2.500 personas buscadas por delitos graves y violentos, incluidos crímenes con armas y cuchillos y explotación sexual de menores.
"Como una fuerza policial moderna, creo que tenemos el deber de utilizar nuevas tecnologías para mantener a las personas seguras en Londres", dijo el comisionado asistente Nick Ephgrave en un comunicado.
Los británicos se han acostumbrado durante mucho tiempo a la videovigilancia, con cámaras utilizadas en espacios públicos durante décadas por las fuerzas de seguridad que luchan contra las amenazas terroristas. El monitoreo en tiempo real pondrá a prueba esa tolerancia.
Londres es la sexta ciudad más monitoreada del mundo, con casi 628,000 cámaras de vigilancia, según un informe de Comparitech.
La medida de Londres se produce después de que un fallo del Tribunal Supremo británico el año pasado autorizó un despliegue similar por parte de la policía de Gales del Sur, que lo ha estado utilizando desde 2017 para monitorear grandes eventos como juegos de fútbol, visitas reales y exhibiciones aéreas. Ese sistema eliminó los datos biométricos de las personas automáticamente después del escaneo.
La comisionada de privacidad de Gran Bretaña, Elizabeth Denham, que había advertido a la policía que no tomara esa decisión como una aprobación general, se dirigió en un tono cauteloso el viernes.
Ella dijo que si bien la policía de Londres ha declarado que están implementando salvaguardas y transparencia para proteger la privacidad y los derechos humanos, "es difícil comentar más sobre esto hasta que tengamos un despliegue real y podamos analizar los detalles del mismo”.
Las señales advertirán a los transeúntes sobre las cámaras y los oficiales repartirán folletos con más información, dijo la policía, y agregó que el sistema no está vinculado a ningún otro sistema de vigilancia.
La policía de Londres llevó a cabo previamente una serie de despliegues de prueba que, según dicen, identificaron a 7 de cada 10 sospechosos buscados que pasaron frente a la cámara mientras solo señalaban incorrectamente a 1 de cada 1,000 personas. Pero una revisión independiente realizada el año pasado por profesores de la Universidad de Essex cuestionó eso, diciendo que los juicios plantearon preocupaciones sobre su base legal y la precisión del equipo, con solo 8 de 42 coincidencias verificadas como correctas.
Pete Fussey, profesor de la Universidad de Essex que fue coautor del informe, dijo que NEC ha actualizado su algoritmo desde entonces, pero hay evidencia de que la tecnología no es 100% precisa, lo que apunta a una prueba reciente del laboratorio del gobierno de EE.UU. de casi 200 algoritmos que encontrado la mayoría tienen prejuicios étnicos.
"Si está utilizando el algoritmo, debe tener en cuenta sus deficiencias", dijo. "Es muy poco probable que el algoritmo de NEC sea efectivo en todas las categorías étnicas".