La tecnología está preparada para el reconocimiento facial en multitudes, ahora toca a la sociedad tener el debate ético y de privacidad
En el último año hemos recibido un buen número de noticias sobre el nacimiento de un Gran Hermano chino. El país asiático habría desarrollado y probado tecnologías de visión artificial capaces de detectar a una persona entre los 50.000 asistentes a un concierto. ¿Está la tecnología preparada para el reconocimiento facial masivo? ¿Lo estamos nosotros?
El Gran Hermano chino ya contaba con 170 millones de cámaras a finales de 2017, que lograron encontrar a un reportero de la BBC en apenas 7 minutos. El objetivo del sistema va desde cazar criminales a regañar a peatones imprudentes. Se espera que en 2020 el país cuente con más de 400 millones de cámaras.
El peligroso potencial de esta videovigilancia extrema no ha pasado desapercibido. Este mes, el investigador canadiense Yoshua Bengio, experto en redes neuronales y aprendizaje profundo, dos de las tecnologías que han permitido este avance en materia de videovigilancia, alertaba en Bloomberg contra lo que consideraba un escenario propio de la novela de George Orwell 1984. “Creo que cada vez da más miedo”, aseguraba.
Tecnología avanzada, pero no madura
Estas cámaras inteligentes no son tan efectivas como el gobierno chino y los medios quieren hacernos creer, por mucho que haya ayudado a detener a 4.000 personas desde 2016. Al menos, todavía. En una entrevista de Business Insider al vicepresidente de Megvii, la startuptras el sistema de reconocimiento de caras, el propio ejecutivo enumeraba algunas de sus limitaciones. Por ejemplo, que es necesario subir una foto del sospechoso al sistema para que lo encuentre, y que este está limitado a 1.000 búsquedas simultáneas.
Expertos consultados por Xataka dudan de que el Gran Hermano chino sea tan poderoso, debido a las enormes limitaciones de una tecnología que, aunque avanza a pasos agigantados, todavía tiene mucho trabajo por delante. Al Gobierno chino, eso sí, le interesa extender esta fama de omnipresente.
“Soy un poco escéptico. Una persona en una multitud es una foto de cuatro píxeles y eso [distinguir una cara en esas condiciones] es imposible”, asegura el investigador de la empresa londinense Cortexica Vision Systems Sergio Velastin. “Reconocer caras de gente que pasea por la calle es bastante complicado”, confirma el investigador de la Universidad de Alicante Francisco Flórez. No es de extrañar que las famosas cámaras que cazan peatones muestren a los infractores con días de retraso, después de que un par de ojos humanos hayan completado el trabajo.
¿Estamos listos para el Gran Hermano?
A pesar de todas sus limitaciones, los ordenadores ya ayudan en las labores de videovigilancia y no hace falsa viajar hasta China para encontrar ejemplos. Londres (Reino Unido) tiene en sus calles unas 500.000 cámaras normales, por lo que no es de extrañar que la capital británica también apueste por las tecnologías de visión artificial. A finales de 2018, la cuenta de Twitter Big Brother Watch alertó de que la policía británica estaba usando software de reconocimiento de caras de forma indiscriminada.
Un ejemplo menos secreto podemos encontrarlo en aeropuertos británicos como Heathrow, que el año pasado comenzó a probar estas tecnologías con el fin de agilizar las colas en los controles. Algo similar encontramos en el Aeropuerto Internacional Washington-Dulles(EEUU), donde el año pasado fueron detenidas dos personas gracias a los ojos de un ordenador.
En febrero, en España, los asistentes al Mobile World Congress de Barcelona pudieron entrar al evento utilizando su cara en lugar de una entrada convencional. «Esto es hacia lo que vamos, pero vienen las cuestiones éticas y legales de tener cámaras en espacios públicos y privados», comenta Flórez.
“La aceptación de las cámaras en lugares privados y públicos depende de los servicios que ofrezcan”, asegura el investigador. En su opinión, el recibimiento de la videovigilancia inteligente dependerá en buena medida del equilibrio que perciba el usuario entre seguridad y privacidad.
“Se puede ver como lejano e intrusivo”, dice Velastin, “pero en Reino Unido estamos acostumbrados a ver cámaras por donde vamos. La gente ha aprendido que aunque haya mil cámaras, todo depende de dos personas en una sala de control, pero entiendo que hay culturas más recelosas”.
El investigador considera que es más fácil lograr la aceptación de cámaras en espacios públicos, donde “si alguien protesta casi implica que intenta ocultar algo”. Sin embargo, entiende que al final la sociedad dude si sus datos serán usados para otra cosa.
Abogados consultados por Xataka sobre la legalidad de estas tecnologías nos remiten a la guía de la Asociación Española de Protección de Datos: «El tema es más que se hace con las imágenes que si hay cámaras o no», asegura el letrado. Con la legislación actual, debe haber un informe sobre la videocámara que indique «dónde está, qué capta, cuál es su función, plazos en que son eliminadas las imágenes, qué personas son susceptibles de ser grabadas, acceso a los datos etc».
Esto es aplicable a las cámaras actuales, pero ¿qué pasaría con una nueva tecnología de reconocimiento de caras? «Estamos ‘a salvo’ hasta que se haga un estudio de su impacto que analice si se vulneran derechos o libertades. A partir de ahí, tendrán que regularse de forma específica antes de su implantación», añade.
El problema de buscar una aguja en un pajar
¿Cómo funciona la videovigilancia inteligente? “Estos sistemas intentan buscar ciertos rasgos de la cara, adaptándose a los músculos y las facciones”, aclara Flórez, que asegura que uno de los problemas principales es hacer entender al sistema dónde están las personas y dónde las bicicletas y los coches.
En el caso de una multitud, se busca un conjunto de características biométricas: “Cómo anda, cómo va vestido, su aspecto…”. Al final, su objetivo es encontrar una coincidencia respecto a lo que el sistema tiene en su base de datos. En caso de éxito, intenta reconocer al sujeto en otros vídeos.
Flórez explica que, ante un problema complicado, si la tecnología no da la solución, «hay que buscarla en la configuración del sistema». En este caso, “colocando las cámaras en unas escaleras mecánicas en el metro”, donde todo el mundo tiene que pasar más o menos de frente, lo que ayuda a “procesar mejor” la información.
“El reconocimiento de caras se ha investigado y usado muchos años, pero funciona bien cuando el sujeto colabora”, añade Velastin. Se refiere a situaciones controladas en las que la imagen se toma de frente, con buena iluminación y un grupo pequeño. “Ese tipo de comparaciones menores ya está resuelto, pero apuntar una cámara a la calle sin saber dónde mira la gente, iluminación variable y un millón de personas… ahí es un problema mucho mayor”.
Es la estrategia que siguen los controles de los aeropuertos británicos y estadounidenses: “Son sistemas de reconocimiento facial, pero no te dejan pasar tal cual, tienes que estar plantado un rato”. Flórez comenta que, cuando no se quieren fallos, como en estos casos, es necesario restringir mucho el sistema, por lo que “hay que mirar a un sitio determinado y ponerse en el lugar adecuado”.
Llevar a cabo un reconocimiento con éxito en la calle es mucho más complicado. “No tienes estas restricciones, pero puedes buscar comportamientos extraños”, añade Flórez. Por ejemplo, si alguien circula en sentido contrario en una estación de metro o si deja una maleta y se aleja.
Del Gran Hermano al Buen Hermano
Quizá las noticias que vienen de China sean algo exageradas, pero eso no significa que el campo no esté evolucionando a pasos agigantados. “Esto empezó en 2011, pero ahora hay un boom y por fin se está aplicando en videovigilancia, traducción y reconocimiento de textos”, comenta Flórez. “En los últimos años han pasado dos cosas que han causado una revolución en la capacidad que tiene una máquina para reconocer algo a partir de haber visto millones de ejemplos anteriores: las redes neuronales y el aprendizaje profundo”, explica Velastin.
Esto, sumado a la ingente cantidad de datos que proporciona el big data permite que un ordenador “aprenda” a reconocer cosas a pesar de que la orientación y la iluminación cambien. “En el último año la capacidad de detección ha aumentado en un 20 %. Se han hecho muchos experimentos y la capacidad es cada vez mejor, eso es innegable”, dice Velastin. «Ha cambiado la forma de trabajar: se trata de conseguir muchos datos de lo que quieras reconocer, lo metes a la red neuronal y esta es capaz de aprender y extraer información que de otro modo no se podría obtener», añade Flórez.
Flórez considera que la aplicación de estas tecnologías no tiene por qué abrir las puertas a un futuro distópico: “Yo digo que voy del Big Brother al Good Brother”. Su trabajo consiste en entrenar a cámaras para que puedan reconocer la actividad de personas mayores en su hogar y dar asistencia social y sanitaria.
La poca efectividad que tienen las cámaras manejadas por seres humanos (según Flórez, de cada 1000 eventos solo uno se resuelve uno gracias a ellas) puede ser crucial para la aceptación de la videovigilancia artificial. Aun así, Velastin considera que debemos tener cuidado: «Existen muchos beneficios, pero también peligros. Hay que analizarlo en términos científicos y políticos, porque hay cosas que son posibles técnicamente pero que la sociedad ha decidido no hacer. Aquí pasa lo mismo».
FUENTE