En 2010, los propietarios de la mayor base de datos facial del mundo, Facebook, aprendieron a distinguir un retrato de un paisaje: la red social buscó caras en fotos y etiquetó estas zonas. Fallaba en ocasiones, pero cuatro años después, Facebook podía decir con un 97 % de exactitud quién aparecía en una foto, fueran una o dos personas diferentes.
Este un gran avance para Facebook, pero su algoritmo aún pierde contra el cerebro humano en el tres por ciento de los casos. Si alguien nos pide que reconozcamos a un conocido en una foto con mala resolución, lo haremos mejor que las computadoras, incluso si dichas imágenes se tomaron desde un ángulo inusual.
Esto es poco común, pues normalmente las computadoras son más precisas que los seres humanos. ¿Por qué somos mejores resolviendo este tipo de desafíos? ¿Cómo intentan las computadoras hacer lo mismo?
Nuestro cerebro ha pasado por un adiestramiento importante
Se ha sabido que una zona en particular del cerebro se ocupa únicamente del reconocimiento facial. Se llama giro fusiforme y es una parte del globo temporal y del globo occipital. Los seres humanos aprenden a distinguir caras desde que nacen (a los pocos días de vida). Al tener cuatro meses, el cerebro del bebé ya distingue a una persona de otra.
Ojos, pómulos, nariz, boca y cejas son los rasgos claves del rostro que nos ayudan a reconocernos los unos a los otros. La piel también es importante, especialmente su textura y color. Hay que tener en cuenta que nuestro cerebro tiende a procesar los rostros como un todo, no suele centrarse en rasgos individuales. Por ello podemos reconocer con facilidad a la gente, incluso si se tapan media cara con un pañuelo o un trozo de papel. Aun así, si alguien hace un simple colaje con caras de dos personas famosas, los que lo vean necesitarán algo de tiempo para comprender quién es quién en una foto.
Desde que nacemos, nuestro cerebro recopila rostros y vamos creando un patrón general que usamos para el procesamiento facial. Si se pudiera dibujar dicho patrón, este sería así:
El procesamiento facial opera mientras nuestro cerebro compara la apariencia de personas con un patrón interno: si la nariz de una persona es más ancha, los labios más carnosos, el tono de la piel cálido o frío, etc. Los que viajamos poco decimos que a veces las personas de otras razas se parecen mucho y se debe a que nuestros patrones están acostumbrados a rasgos comunes de nuestro entorno.
También hay algunos animales, como los perros o los monos, que pueden distinguir caras. Aunque su olfato les dé mucha información útil, las imágenes visuales también ayudan a estos animales a reconocer a otras criaturas. Lo que es interesante es que el mejor amigo del hombre, el perro, no solo entiende nuestro estado de animo solo con mirarnos a la cara, también pueden aprender a sonreír.
¿Cómo reconoce los rostros una computadora?
¿Cuál es la conexión entre las sonrisas humanas y el procesamiento facial? Ambos son casi inseparables porque cualquier expresión cambia nuestros rostros y resultarían irreconocibles, en especial para los algoritmos de la computadora.
Un programa puede comparar dos retratos faciales frontales para determinar si pertenecen a una única persona. Estas soluciones funcionan como los pintores de retratos: analizan los conocidos puntos nodales de los rostros humanos y se utilizan para determinar la individualidad de nuestros rostros; diferentes métodos encuentran de 80 a 150 puntos nodales en una sola cara.
Por ejemplo, los artistas y los programas miden la distancia entre los ojos, la anchura de la nariz, la profundidad de la cuenca de los ojos, la forma de los pómulos, la longitud de la mandíbula y demás.
Cuando cambias el nivel de vista o pides al modelo que gire su cabeza, estas medidas cambian. Como muchos algoritmos de procesamiento facial analizan la imagen solo en un espacio bidimensional, el punto de vista es crucial para un reconocimiento más preciso. ¿Quieres permanecer en el anonimato? Entonces, esconde los ojos y los pómulos tras unas gafas de sol y cubre el mentón y la boca con un pañuelo. Cuando probamos el escandaloso servicio FindFace, este sólo pudo reconocer a modelos si los retratos eran frontales.
https://media.kasperskydaily.com/wp-content/uploads/sites/87/2022/03/03070119/rec.jpg
Así es cómo puedes engañar a los servicios de reconocimiento facial que trabajan con “imágenes planas”. No obstante, todo llega a su fin y ya hay nuevos algoritmos en desarrollo.
¿Qué está por venir?
Nuestro cerebro aprende a procesar rostros mientras crecemos. La habilidad de distinguir entre “nosotros” y “ellos” es una de las habilidades esenciales para sobrevivir. Las computadoras modernas pueden aprender como los humanos y programar por sí mismos. Para mejorar los resultados de la máquina de procesamiento facial, los desarrolladores utilizan algoritmos de autoaprendizaje que alimentan con cientos de retratos humanos como si de libros de texto se tratara. No es difícil encontrar estas imágenes, hay muchas online, en redes sociales, sitios de almacenamiento de fotos, bancos de imágenes y otros recursos web.
Apps de reconocimiento facial. Así ponen en riesgo tu #privacidad https://t.co/i7GhJb1K0i pic.twitter.com/3qXpJ3LYJa
— Kaspersky España (@KasperskyES) May 4, 2016
La identificación fácil se volvió más eficiente cuando empezó a funcionar con modelos en 3D. Proyectando una cuadrícula en la cara e integrando la captura de video de la cabeza humana, el software comprende cómo es una persona desde diferentes ángulos. Por cierto, los patrones en el cerebro humano también son tridimensionales. Aunque esta tecnología aún esté en desarrollo, ya podemos encontrar muchas soluciones patentadas en el mercado.
Los estudios de mímica también ganan terreno. Una representación realista de las emociones es una mina de oro para la industria de videojuegos y un gran número de compañías trabajan duro para que sus personajes sean más convincentes. Ya se están dando los pasos importantes en esta dirección. Esta misma tecnología será de gran utilidad para los programas de reconocimiento facial, ya que cuando esta tecnología entienda la mímica humana podrá asociar las expresiones con las personas que las han hecho.
A parte de los modelos 3D, los desarrolladores trabajan en otros ángulos. Por ejemplo, la compañía Identix creó una tecnología biométrica de reconocimiento facial llamada FaceIt Argus que analiza la singularidad de la textura de la piel: líneas, poros, cicatrices y otras características similares. Sus creadores afirman que su desarrollo puede identificar diferencias entre gemelos, lo cual aún no es posible utilizando solo un programa de reconocimiento facial.
Se dice que este sistema es inmune a los cambios faciales (como los pestañeos, el semblante ceñudo o la sonrisa) y tiene la capacidad de compensar mostachos o barbas en abundancia y la apariencia con gafas. Si se utiliza FaceIt Argus con otros sistemas de procesamiento facial, las probabilidades de una identificación exacta aumentarían entre un 20 y un 25 %. Por otra parte, esta tecnología falla si utilizas imágenes de baja resolución tomadas con baja luz.
De todos modos, existe otra tecnología que suple esta posibilidad. Los informáticos del Instituto Tecnológico de Karlsruhe (Alemania) han desarrollado una nueva técnica que reconoce retratos infrarrojos de personas, tomados con poca luz e incluso totalmente a oscuras.
Esta tecnología analiza las características térmicas y empareja las imágenes infrarrojas con fotos corrientes con un 80 % de precisión como máximo. Cuantas más imágenes haya disponibles, el algoritmo funcionará mejor. Cuando solo hay una imagen disponible, la precisión baja al 55 %.
Este tipo de coincidencias no son fáciles como puede parecer de primeras porque no hay ninguna correlación linear entre rostros estándar y con infrarrojos. La imagen construida a base de emisiones térmicas es muy diferente a un retrato tomado con luz diurna.
La intensidad de las emisiones térmicas depende mucho de la piel y de las temperaturas medioambientales e incluso del estado de ánimo de la persona. Asimismo, las imágenes en infrarrojos tienen una resolución menor que las fotos normales, lo que dificulta aún más la tarea.
http://i.dailymail.co.uk/i/pix/2015/07/29/16/2AEFE49A00000578-3178864-Computer_scientists_have_developed_a_technology_that_can_recogni-m-29_1438184452186.jpg
Para solucionar este problema, los científicos han recurrido a un algoritmo de aprendizaje automático cuyo sistema abastecieron con 1586 fotos de 82 personas.
¡Está en todas partes!
Hoy en día, las tecnologías de reconocimiento facial se utilizan casi en todo el mundo. Hace poco, Uber dio a conocer una solución similar en China para llevar un control de sus taxistas. NEC y Microsoft combinan procesamiento facial con el IdC para que los especialistas en marketing puedan conocer a sus clientes más y mejor. A la vez, los troles del foro ruso 2ch.ru utilizan un servicio de reconocimiento facial para arremeter online contra actrices porno.
Cómo los trolls utilizan #FindFace contra las actrices #porno y por qué te afecta https://t.co/2JH6WMN0Sl pic.twitter.com/fi8Kxr3U3s
— Kaspersky España (@KasperskyES) April 27, 2016
El desarrollo de la tecnología de reconocimiento facial nos hará replantearnos todo lo que sabemos sobre privacidad. No sucederá hoy ni dentro de un año, pero ya va siendo hora de prepararse. Después de todo, no puedes cambiar de cara, ¿verdad?
Si te preguntas cuál puede ser el resultado de la invasión de la privacidad por parte de la tecnología, te recomendamos que veas la miniserie británica Black Mirror, en especial el episodio Fifteen Million Merits.