Sistemas de reconocimiento de emociones: ¿queremos que la IA nos domine?

Examinamos el funcionamiento de las tecnologías de reconocimiento de emociones, su utilidad y los problemas de seguridad que suponen.

Imagina que un día llegas a casa de mal humor, vociferas porque la puerta no se abrió con la suficiente rapidez y porque el foco se fundió;  entonces, el altavoz inteligente inmediatamente empieza a reproducir música tranquila y la máquina de café te sirve un mocha. O, al entrar en una tienda, el asistente robótico que estaba por acercarse a ti percibe tu cara de disgusto, retrocede y en su lugar atiende a otro cliente. ¿Esto suena como ciencia ficción?

De hecho, las tecnologías de reconocimiento de emociones se están implementando ya en muchas áreas de la vida, y en un futuro próximo nuestro estado de ánimo podría estar bajo la mirada atenta de nuestros dispositivos, electrodomésticos, automóviles, etcétera. En esta publicación, exploramos cómo dichas tecnologías trabajan y qué tan útil (y en ocasiones, peligrosas) pueden resultar.

EQ artificial

La mayoría de los sistemas de reconocimiento de emociones analizan la voz y las expresiones faciales de un individuo, así como todas las palabras que expresa o escribe. Por ejemplo, si las comisuras de los labios están alzadas, la máquina puede determinar que la persona está de buen humor, mientras que la nariz arrugada sugiere enojo o disgusto. El habla elevada, temblorosa y apresurada puede indicar miedo; si alguien grita la palabra “¡Hola!” o “¡Salud!”, probablemente estén felices.

Los sistemas de reconocimiento de emociones más complejos también analizan los gestos e incluso toman en cuenta el entorno, junto con expresiones faciales y el habla. Dicho sistema reconoce que una persona que se ve forzada a sonreír a punta de pistola, probablemente no esté muy emocionada.

Los sistemas de reconocimiento de emociones generalmente aprenden a establecer nexos entre una emoción y su manifestación externa a partir de grandes conjuntos de datos categorizados. Los datos pueden incluir grabaciones de audio o video de programas televisivos, entrevistas y experimentos donde participa gente real; videos cortos de interpretaciones teatrales o películas y diálogos interpretados por actores profesionales.

Se puede educar a los sistemas de reconocimiento de emociones más sencillos con conjuntos de fotos y textos, dependiendo del objetivo. Por ejemplo, este proyecto de Microsoft intenta adivinar las emociones de las personas, su género y sus edades aproximadas con base en fotografías.

Reconocimiento de emociones, ¿para qué?

Gartner estima que en 2022, uno de cada diez dispositivos contará con tecnología de reconocimiento de emociones. No obstante, algunas organizaciones ya la están utilizando. Por ejemplo, cuando uno llega a la oficina, el banco o un restaurante, los clientes serán recibidos por un robot amigable. He aquí hay un par de áreas en las cuales dichos sistemas podrían resultar provechosos.

Seguridad

El reconocimiento de emociones puede usarse para evitar la violencia,  ya sea doméstica o de otro tipo. Varias publicaciones científicas han abordado este problema, y los empresarios ya están comercializando dichos sistemas con escuelas y otras instituciones.

Contratación de personal

Algunas empresas despliegan una IA capaz de reconocer emociones como asistentes de RH. Los sistemas evalúan las palabras clave, la entonación y las expresiones faciales de los solicitantes en la fase inicial  (y la más laboriosa)  del proceso de selección, y reúne un informe para las personas encargadas de contratación sobre si el interés del candidato en la vacante es genuino y honesto , entre otros.

Atención a clientes

La Secretaría de carreteras y transportes en Dubái lanzó un interesante sistema este año en sus centros de atención a clientes, equipado con cámara de IA que comparaban las emociones de las personas cuando entraban o salían de un edificio, con el fin de medir el nivel de satisfacción. Si el valor calculado estaba por debajo de cierto nivel, el sistema aconsejaba a los empleados del centro adoptar medidas para mejorar la calidad del servicio (por cuestiones de privacidad, las fotografías de los visitantes no se guardaban).

Integración social de niños con necesidades especiales

Otros proyectos tienen como objetivo ayudar a los niños autistas a interpretar las emociones de aquellos que los rodean. El sistema funciona a través de los lentes inteligentes Google Glass. Cuando el niño interactúa con otra persona, los lentes utilizan gráficos y sonido para dar pistas sobre las emociones de esta última. Las pruebas han demostrado que los niños socializan más rápidamente con este ayudante virtual.

¿Qué tan eficaces son los detectores de emociones?

Las tecnologías de reconocimiento de emociones distan mucho de ser perfectas. Un ejemplo es la tecnología de detección de agresiones implementada en muchas escuelas de los EE. UU. Resulta que el sistema considera que la tos es más alarmante que un grito desgarrador.

Los investigadores de la University of Southern California hallaron que también resulta fácil engañar a la tecnología de reconocimiento facial. La máquina asocia automáticamente ciertas expresiones faciales con emociones particulares, pero no puede diferenciar, por ejemplo, las sonrisas genuinas de aquellas de júbilo o de malicia.

Propiamente dicho, los sistemas de reconocimiento de emociones que toman en cuenta el contexto son los más exactos. Pero son más complejos y escasos.

No solamente es importante lo que la máquina está viendo, sino con qué material se le educó. Por ejemplo, un sistema capacitado en emociones actuadas tendrá dificultades a la hora de reconocer las verdaderas.

Emociones como datos personales

La difusión de las tecnologías de reconocimiento de emociones plantea otro problema importante. Sin importar cuán eficaz sea, dichos sistemas invaden el espacio personal de la gente y suponen un problema de privacidad. Piensa, por ejemplo, en el siguiente escenario: te gusta el atuendo de un transeúnte al azar y, antes de que te des cuenta, te ves bombardeado de anuncios de ropa de la misma marca. O haces un gesto de desaprobación durante una junta y, como resultado, no eres considerado para un ascenso.

Según Gartner, más de la mitad de los habitantes de los EE. UU. y el Reino Unido no desean que la IA interprete sus sentimientos y estados de ánimo. Mientras que, en algunos lugares, las tecnologías de reconocimiento de emociones y facial son ilegales. En octubre, por ejemplo, California presentó una ley que prohibía a los oficiales de policía grabar, recopilar y analizar  información biométrica mediante cámaras que se llevan en el cuerpo, incluyendo expresiones faciales y ademanes.

De acuerdo con los redactores de la propuesta de ley, el uso de la tecnología de reconocimiento facial equivale a exigirle a los transeúntes que muestren su pasaporte cada segundo. Esto viola los derechos ciudadanos, lo cual puede provocar que la gente que ha cometido faltas menores, como no haber pagado sus multas de estacionamiento, sea más reacia a informar a la policía de crímenes más serios.

Ausencia de emociones artificial

El problema de la privacidad es tan grave que incluso un tema de investigación científica es el modo de engañar los detectores de emociones. Por ejemplo, en el Imperial College London han desarrollado una tecnología de protección de la privacidad que elimina las emociones de la voz humana. El resultado es un asistente de voz equipado con tecnología de reconocimiento de emociones que puede entender el significado de lo dicho, pero no interpretar el estado de ánimo de quien hablar.

Poner barreras a la IA seguramente complicará el desarrollo de la empatía en los sistemas de IA, los cuales incluso ahora son propensos a errores. Pero es bueno tener una defensa en caso de que nuestro mundo se convierta en Black Mirror las máquinas empiecen a hurgar en lo profundo de nuestro subconsciente. Después de todo, no deberíamos confiarnos de que el sistema de reconocimiento de emociones será descartado, especialmente porque la tecnología es benéfica en algunas áreas.

Consejos