Home / DestacadoHome / Reconocimiento facial con IA. Aplicaciones y como afecta a nuestra privacidad.
Image by Jonny Lindner from Pixabay

Reconocimiento facial con IA. Aplicaciones y como afecta a nuestra privacidad.


Que es el reconocimiento facial y como funciona.

Según la Wikipedia, «El sistema de reconocimiento facial es una aplicación dirigida por ordenador que identifica automáticamente a una persona en una imagen digital. Esto es posible mediante un análisis de las características faciales del sujeto extraídas de la imagen o de un fotograma clave de una fuente de vídeo, y comparándolas con una base de datos.».

Es una descripción bastante simple y bastante plana para describir la revolución tecnológica de este siglo. Digamos que desde el momento en que el iphone crea un sistema de reconocimiento facial llamado Face ID para convencer a los usuarios de que este nuevo sistema es «más seguro, rápido y preciso» que Touch ID.

¿Realmente es así? Tenemos la detección dactilar absolutamente interiorizada. Motorola la implementó en el Atrix de 2011, Apple en el iPhone 5s de 2013 y despues Google habilitó la API para ello en Android 6.0. ¿Es realmente más seguro? ¿Funcionará con poca luz? ¿Funcionará si cambiamos de peinado, nos ponemos gafas, con nuevo maquillaje o con barba? ¿Funcionará igual si el teléfono está en la mesa o enfrente nuestro?

El reconocimiento facial se basa en la biometría y debemos partir de la base de que ningún sistema biométrico es infalible y además cada uno es mejor o peor que cualquier otro en diferentes escenarios.
Todos los sistemas tienen un porcentaje de error y ninguno lo tiene al 0%. Además, no se puede afirmar que el reconocimiento facial sea mejor que el dactilar, o que la contraseña, o que la voz. Todos tienen ventajas e inconvenientes. El facial puede competir con el dactilar y ser superior, pero depende del software y de su configuración tanto como del hardware usado.

Si pensamos en reconocimiento facial de cara a la seguridad y si buscamos un equilibrio entre seguridad y usabilidad tendremos que tener en cuenta que un sistema biométrico que sea demasiado estricto dará demasiados rechazos a usuarios auténticos, mientras que otro demasiado permisivo puede ser también demasiado inseguro.

Si vamos al Génesis de todo esto debemos retroceder a noviembre de 2013, cuando Apple compró PrimeSense. Primesense erala compañía israelí que desarrolló la tecnología de Microsoft Kinect. Como siempre, tras la operación, Apple cerró la empresa y se quedó con su tecnología.

Los sistemas de reconocimiento facial anteriores a Kinect eran muy vulnerables, tanto que se podían piratear mostrando una fotografía. Esto era porque únicamente contaban con una cámara frontal, lo cual equivale en biometría de una cámara de espectro visible en dos dimensiones.

Face ID mejora esto al contar con cámara frontal, sensor de proximidad, cámara infrarroja y sensor que emite el patrón de luz para reflejarla en infrarrojos y poder analizar la profundidad.

Con esta configuración se permite captar luz estructurada y por lo tanto obtener una imagen de profundidad en infrarrojos permitiendo qeu sea preciso cuando estés a oscuras.

Otra cuestión es el escáner de iris, presente en terminales como el Lumia 950, el Galaxy Note 7 o el mencionado Galaxy S8. Esto no es «reconocimiento facial», sino otro sistema biométrico que se centra únicamente en el iris. Y por nuestra experiencia podemos decir que funciona francamente bien mientras no lo usen personas con gafas.

Entonces ¿es posible detectar vida?, ¿saber si se está escaneando una persona o una imagen digital?.

Nos acercamos a otro punto crítico de un sistema biométrico. El anti-spoofing, es decir, las formas que tiene de ser capaz de reconocer a un impostor que está tratando de falsificar el acceso mediante un molde en látex de una huella dactilar, una imagen digital o un modelo en tres dimensiones de un rostro que es posible obtener fácilmente con una impresora 3D.

Detectar que un dedo o una cara pertenecen a una persona viva es el problema. Los sistemas biométricos móviles suelen tener ese componente basado en software y no en hardware. También es importante dar respuestas a estas preguntas. ¿Qué ocurre si nos dejamos barba, nos maquillamos, nos cambiamos las gafas, vamos con gafas de sol o nos haceos un tatuaje, por ejemplo?.

El funcionamiento del sistema en todos estos casos depende de cómo lo implemente el fabricante y sobre todo de cuál sea ese punto de equilibrio entre usabilidad y seguridad como hemos dicho antes. Los sistemas guiados por software de inteligencia artificial son tolerantes a cambios. Pueden ser tolerantes al paso del tiempo porque envejeces, te afeitas, te dejas barba, te maquillas, cambias de gafas… Cuanto más tiempo pasa, más variaciones interfieren, pero esa misma tolerancia puede hacer que sean imprecisos.

En lo referente a la seguridad esto se puede paliar, por ejemplo si le cuesta cuatro intentos verificar al usuario se pide el pin o una contraseña y si esta es correcta permite el acceso y sugiere actualizar la configuración facial del usuario.

Este sistema es un poco chapuza ya que sabiendo el pin no necesitamos el reconocimiento facial, basta con fallar 4 veces y cambiar la cara del usuario por la nuestra.

Los sistemas que actualizan de forma inteligente nuestros rasgo de forma periódica y automática son más efectivos ya que generan nuevo patrones cada vez que validamos el dispositivo.

Hace no tanto se ha incorporado el deep learning para tratar de ser más tolerante a estos cambios, pero si tu cara está demasiado tapada el sistema no te dejará entrar, actúa como si llegas al control de pasaportes del aeropuerto con unas gafas de sol grandes y una bufanda tapándote la boca.

La clave del reconocimiento facial es el campo de visión de los dispositivos que tomen la medida, es decir de como esté colocada la cámara en relación con el rostro.

En estos sistemas siempre habrá un porcentaje de rechazo de usuarios auténticos y otro de aceptación de usuarios falsos. La clave es bajar esos porcentajes todo lo que se pueda.

En lo referente al uso y resultados de esta tecnología podéis ver el post sobre el sistema de puntos implementado en china en base a reconocimiento facial que publiqué hace poco. En el otro lado está el proyecto que la Autoridad Metropolitana de Transporte de Nueva York puso en marcha como proyecto piloto para aplicar reconocimiento facial a todos los coches que transitasen por el puente Robert F. Kennedy.

Un 0% de éxito, según informa el Wall Street Journal. Peor que el 2% que Londres cosechó en sus sistemas.

¿De donde se alimentan estos sistemas inteligentes?

Conoces esa publicación viral que triunfó en Facebook, Twitter e Instagram. Animaba a todos los usuarios a compartir imágenes comparando su foto en 2009 con otra de 2019.

Hashtag como #2009 o #10yearchallenge pueden haber sido una mina de oro para entrenar sistemas de reconocimiento facial.

Este tipo de publicaciones en redes sociales pueden tener una finalidad muy distinta a la de hacer que disfrutemos con esas comparaciones entre lo que fue y lo que es. Todas las imágenes que la gente ha subido a las redes sociales para comparar su aspecto, o el aspecto de otras personas o lugares y objetos antes y ahora son una sencilla forma de entrenar sistemas de reconocimiento de imágenes y de reconocimiento facial.

Utilizan a los usuarios mediante caramelos tecnológicos y los han convertido sin su conocimiento en potenciales ayudantes de Facebook, Twitter o Instagram usando sus fotos para entrenar algoritmos.

No existen pruebas de que esas fotos se hayan usado para ese propósito, pero lo cierto es que estas redes sociales llevan años desarrollando sistemas de este tipo y poder pueden.

Otro factor de adiestramiento para este software inteligente parte de que los usuarios han etiquetado y clasificado los últimos años millones de fotos de forma precisa, algo que ni el mejor algoritmo podría hacer.

Microsoft es otro de los que se suben al carro con Project Oxford, proyecto que estaba teóricamente orientado a que los desarrolladores pudieran crear aplicaciones más inteligentes… con nuestros datos. En Microsoft lanzaron simpáticos servicios que invitaban a muchos a subir su foto para que esos algoritmos le calculasen su edad (How-Old.net), la longitud de su bigote (My Moustache) o le encontrasen un gemelo fantasma, un doppelgänger.

No solemos leer la letra pequeña, le damos al check sin más y en aplicaciones como How-Old.net los términos de uso que permitimos son inquietantes: «Al publicar, subir, introducir, proporcionar o enviar («Publicar») tu Envío estás cediéndole a Microsoft, sus empresas afiliadas y a sus sublicencias necesarias el permiso para que utilicen tu Envío en relación con la operativa de sus negocios en Internet».

¿Que incluyen esos negocios en internet? pues incluyen el desarrollo de sistemas de reconocimiento facial. En Microsoft quisieron acallar las críticas usando el viejo mantra de todas estas empresas: «no compartimos ni almacenamos imágenes o información personal identificable».

Podemos dudar del propósito real de sus intenciones, el problema es que lo enmascaran de forma que parece un inocente juego con el que entretenerse comparando pasado y presente. Y puede que detrás de ese inocente entretenimiento haya mucho más de lo que parece.

¿Podemos escapar?

Visto lo que hacen los chinos y lo que se está cociendo en Nueva York, Londres y seguramente cualquier capital del mundo occidental nos cabe la duda. ¿Podemos defendernos o estamos expuestos solo por salir a pasear al perro?.

Pues por una parte parece que las leyes que protegen nuestra privacidad personal están de nuestra parte. San Francisco podría convertirse en breve, gracias a la iniciativa de uno de sus concejales, en la primera ciudad del mundo que prohíba explícitamente el uso de tecnología de reconocimiento facial sin una orden judicial.

En comparación con el Estado de Hipervigilancia desplegado por el régimen chino, esta iniciativa ejerce como modelo de inspiración para políticos de todo el mundo.

Aparte de las autoridades y los gobiernos, negocios privados como centros comerciales se están sumando a esa tendencia.

Como siempre no faltan los conspiranoicos (con razón en este caso) que estén ideando y proponiendo métodos para sortear las tecnologías de reconocimiento facial. A cual más loca.

Con la tecnología actual se puede intentar sortear el reconocimiento facial de muchas formas diferentes. Lo primordial es saber qué como funciona para perfeccionar un método que pueda funcionar en cada caso.

Simplificando bastante, podría decirse que las técnicas para sortear este tipo de vigilancia se clasifican en dos categorías: ocultamiento y confusión.

Las Técnicas basadas en el ocultamiento son principal y básicamente acciones destinadas a ocultar físicamente los rasgos faciales que la IA podría identificar. Debemos saber en este caso que métodos como los sombreros, barbas falsas, bufandas o gafas de sol que pueden evitar que te identifique otro humano están ya superados por muchos sistemas de reconocimiento facial.

Ni siquiera los pasamontañas son ya seguros, porque los últimos avances en reconocimiento facial ya permiten, recurriendo tan sólo a la zona que circundan boca y mentón, reconocer la identidad. Para evitar con ocultamiento ser reconocidos debemos recurrir al truco de Leonardo Selvaggio, un artista y empresario de Chicago que en 2014 comercializó por 200 dólares la unidad una máscara hiperrealista de sus propias facciones fabricada con técnicas de impresión 3D. Esa era su técnica para evitar que sus compradores sean reconocidos. Un poco incómodo este método, creo que es más barato usar una bolsa de papel con los ojos recortados.


Por otro lado tenemos las técnicas basadas en la confusión. Estos métodos no están orientados a tapar el rostro, sino a hackear los principales algoritmos de reconocimiento facial, hasta convertir nuestros rostros en un puñado de píxeles totalmente inservibles.

El proyecto Computer Visión Dazzle, basado en el uso de llamativos maquillajes y peinados asimétricos. Estos cambios de estilo no evitarán que la gente se fije en ti por la calle, pero sí dificultará que las cámaras sean capaces detectar en nuestros rostros los patrones típicos de los rasgos faciales.

El principio es que el reconocimiento facial no es posible si la máquina no es capaz de darse cuenta de que lo que tiene delante es un rostro humano.

Podeis echar un vistazo a la página web de CV Dazzle que ofrece algunos consejos útiles para diseñar nuestro propio estilismo.

Maquillaje: No amplificar los rasgos faciales, mejor usar maquillaje que contraste con el tono de piel, y aplicarlo siguiendo direcciones inusuales.

Puente de la nariz: Es una característica facial clave ya que es el cruce de nariz, ojos y frente. Aconseja cubrirlo parcialmente.

Ojos: La posición de los ojos es otra característica clave, por lo que se recomienda oscurecer los alrededores de uno de ellos.

En esta locura de estilismo postapocalíptico hay también que pensar en elaborar prendas de ropa con una tela llamada HyperFace. Son diseños llenos de cientos de patrones geométricos que los sistemas de reconocimiento facial detectan como rostros, dificultando así identificar cuál es el real. Vamos, como estar en el pasaje de los espejos de un parque de atracciones.

Grigori Bakunov, director de distribución tecnológica de Yandex (el Google ruso), tras darse cuenta de que era imposible moverse por Moscú evitando las cámaras, empezó a desarrollar un algoritmo que proporcionaba al usuario un patrón de maquillaje concreto que impedía identificarle con éxito mediante reconocimiento facial. Pero pensó que tenía aplicaciones para el crimen y no lo hizo público.

Existen otras iniciativas en este sentido, como los seguidores del grupo de rap estadounidense Insane Clown Posse que se han convertido en héroes del movimiento pro-privacidad por la utilidad de sus particulares patrones de maquillaje a la hora de evitar el ojo del Gran Hermano.

Algunos cambios en la cara evaden el reconocimiento facial y otros no, esto es por cómo se sitúan los puntos de referencia. El maquillaje es particularmente efectivo cuando re define totalmente lo que se interpreta como la línea de la mandíbula o el puente de los ojos.

Otros métodos de confusión son los basados en el deslumbramiento por reflejo: gafas, como las Privacy Visor creadas por el Instituto Nacional de Informática de Japón, que reflejan la luz del techo en la lente de la cámara, convirtiendo en virtualmente invisible la zona alrededor de los ojos. Las Reflectacles tienen un efecto similar:

Vestir una sudadera Flashback Photobomber puede ser útil para las fotografías tomadas con flash al estar recubierta con cientos de cristales con microesferas que hace rebotar la luz y oscurece el rostro.

Estos trucos solo valen cuando el sistema de reconocimiento está basado en imágenes que necesitan luz, cuando el sistema se basa en el uso de luz infrarroja está claro que no funcionan.

Lo ultimo en ocultamiento son las gafas con facciones de famosos. Se trata de convencer a la IA de que tu rostro es el de otra persona sin necesidad de ocultar tu rostro.

En 2016, un equipo de investigadores de la Universidad Carnegie Mellon de Pittsburgh desarrolló un tipo de gafas capaces de convencer a los sistemas de vigilancia de que somos otra persona. Por ejemplo, Milla Jovovich.

Esta técnica se basa en el distinto modo en que humanos y máquinas entendemos los rostros: un cambio selectivo de píxeles puede no alterar en lo más mínimo cómo vemos a una persona, pero sí alterar los patrones de su rostro para una inteligencia artificial. Tengamos en cuenta que el diseño de estas gafas puede ser muy Friky y también que sus creadores reconocen, que este sistema no siempre es factible en situaciones no controladas.

En fin, que hay dos soluciones dejarse llevar por el sistema o salir a la calle hecho un espantapájaros. No me gusta ninguna, esperemos y demos nuestra confianza a la legislación que impida que la tecnología sea utilizada para invadir nuestra intimidad.

Ver tambien

Coches autónomos, inteligentes y educados

Hace poco he visto este vídeo en el que un vehículo autónomo intenta incorporarse a …