La policía de EE.UU. ya está usando cámaras con reconocimiento facial en directo, se reabre el debate sobre la privacidad
Javier Pastor
En Estados Unidos ha habidograndes escándalos de privacidad recientes. No solo con desastres como el deFacebook y Cambridge Analyticacon los que los gobernantes de los EE.UU. se mostrabanmuy preocupados, sino con cámaras como las Ring de Amazon que han acabado sirviendo paravigilar aquello que no debían vigilar.
Sin embargo esa preocupación gubernamental parece ser irregular. Unainvestigación de OneZeroha descubierto cómo cientos de departamentos de policía en Estados Unidos han adquirido cámaras de grabación que llevan en el cuerpo ya las que se les está añadiendo software de reconocimiento facial en tiempo real. Ni el fabricante, llamado Wolfcom, ni la policía o los órganos de gobierno aclaran el alcance y precisión de un programa que una vez más plantea una amenaza contra la privacidad de los ciudadanos.
¿Eres culpable hasta que se demuestre lo contrario?
El movimiento de estos departamentos de policía es preocupante y de hechova en contra de lo que parecía ser la norma en la industria. Como señalan en su informe, otros fabricantes de cámaras como Axon no integran esa tecnología alegando que plantea “serias preocupaciones éticas”, mientras que NEC, que sí ofrece sistemas de reconocimiento facial, no los vende a los cuerpos policiales en EE.UU.
La decisión de estos cuerpos de seguridad es preocupante teniendo en cuenta el movimiento que ha surgido en Estados Unidos a la hora deponer freno a la invasión de la privacidadque se está viviendo desde hace tiempo.Iniciativas popularesse unen aprotestas de trabajadoresde grandes tecnológicas que se oponen al uso de ciertas solucionespara propósitos militares.
Varios correos electrónicos entre uno de los fundadores de Wolfcom y departamentos de policía muestran cómo este fabricantepromocionaba la tecnología de reconocimiento facial en tiempo realcomo una de las grandes ventajas de este sistema. “Con el reconocimiento facial en tiempo real, WOLFCOM espera dar a nuestros amigos de las fuerzas del orden herramientas que les ayuden a identificar si la persona con la que están hablando es un sospechoso buscado, un niño o adulto desaparecido o una persona de interés”, se podía leer en uno de ellos.
En esos correos se incluíaun enlace a un vídeo demostrativode la tecnología con tres personas que simulaban responder precisamente a distintos criterios de reconocimiento.Al menos un departamento de policía está ya probando el softwareen un proyecto en fase beta, pero las incógnitas que rodean al proyecto son preocupantes.
Por ejemplo,no hay ningún tipo de aclaración sobre la precisión de la tecnologíade reconocimiento facial que se usa en las cámaras de Wolfcom, llamadasHalo, y tampoco se conocen las bases de datos contra las que esas imágenes en tiempo real se contrastan para ofrecer los resultados.
The next gen “Command Center System” for Police that works with Smart BodyCams, IoT devices and Facial/Object/Behavior Recognition Systems. Hope this solution will improve efficiency of Police Departments and help them to effectively manage Officers in the field 👮🏼♂️👮🏻♀️pic.twitter.com/U0zpvfmo4E
No se sabe cuántos (ni cuáles) departamentos de policía han decidido seguir adelante con estas pruebas, yla falta de transparencia en todo el proceso es preocupante.
Y aún así, como destacan en la investigación de OneZero,Wolfcom sigue avanzando a la hora de ofrecer una tecnologíaque llevainvadiendo diversos escenarios de la vida públicadesde hace tiempo. En California se planteó hace unos meses prohibireste tipo de opciónde reconocimiento facial en cámaras de cuerpo de los agentes de policía.
La Electronic Frontier Foundation ya avisaba de los peligros del avance de esta tecnología hace dos años. En febrero de 2018explicabancómo “sin límites restrictivos, podría ser relativamente fácil para el gobierno y las empresas privadascrear bases de datos de imágenes de la gran mayoría de las personas que viven en los Estados Unidosy utilizar esas bases de datos para identificar y rastrear a las personas en tiempo real a medida que se desplazan de un lugar a otro a lo largo de su vida cotidiana”.
La investigación se une alreciente escándalo vivido con ClearView AI, ese sistema de reconocimiento facial que esta empresa había puesto a disposición de todo tipo de agencias y organismos oficiales —departamentos de policía incluidos— y que a partir de unagigantesca base de datos de imágenes extraídas de redes socialespermitía identificar a personas contrastando una foto suya en dichos sistemas.