{"id":16645,"date":"2019-11-25T08:59:29","date_gmt":"2019-11-25T14:59:29","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=16645"},"modified":"2020-04-02T05:38:05","modified_gmt":"2020-04-02T11:38:05","slug":"emotional-ai","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/emotional-ai\/16645\/","title":{"rendered":"Sistemas de reconocimiento de emociones: \u00bfqueremos que la IA nos domine?"},"content":{"rendered":"<p>Imagina que un d\u00eda llegas a casa de mal humor, vociferas porque la puerta no se abri\u00f3 con la suficiente rapidez y porque el foco se fundi\u00f3;\u00a0 entonces, el altavoz inteligente inmediatamente empieza a reproducir m\u00fasica tranquila y la m\u00e1quina de caf\u00e9 te sirve un <em>mocha<\/em>. O, al entrar en una tienda, el <strong><a href=\"https:\/\/www.kaspersky.es\/blog\/robots-take-jobs\/10451\/\" target=\"_blank\" rel=\"noopener\">asistente rob\u00f3tico<\/a><\/strong> que estaba por acercarse a ti percibe tu cara de disgusto, retrocede y en su lugar atiende a otro cliente. \u00bfEsto suena como ciencia ficci\u00f3n?<\/p>\n<p>De hecho, las <strong>tecnolog\u00edas de reconocimiento de emociones<\/strong> se est\u00e1n implementando ya en muchas \u00e1reas de la vida, y en un futuro pr\u00f3ximo nuestro estado de \u00e1nimo podr\u00eda estar bajo la mirada atenta de nuestros dispositivos, electrodom\u00e9sticos, autom\u00f3viles, etc\u00e9tera. En esta publicaci\u00f3n, exploramos c\u00f3mo dichas tecnolog\u00edas trabajan y qu\u00e9 tan \u00fatil (y en ocasiones, peligrosas) pueden resultar.<\/p>\n<h2>EQ artificial<\/h2>\n<p>La mayor\u00eda de los <strong>sistemas de reconocimiento de emociones<\/strong> analizan la voz y las expresiones faciales de un individuo, as\u00ed como todas las palabras que expresa o escribe. Por ejemplo, si las comisuras de los labios est\u00e1n alzadas, la m\u00e1quina puede determinar que la persona est\u00e1 de buen humor, mientras que la nariz arrugada sugiere enojo o disgusto. El habla elevada, temblorosa y apresurada puede indicar miedo; si alguien grita la palabra \u201c\u00a1Hola!\u201d o \u201c\u00a1Salud!\u201d, probablemente est\u00e9n felices.<\/p>\n<p>Los sistemas de reconocimiento de emociones m\u00e1s complejos tambi\u00e9n analizan los gestos e incluso toman en cuenta el <a href=\"https:\/\/arxiv.org\/pdf\/1908.05913.pdf\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">entorno<\/a>, junto con expresiones faciales y el habla. Dicho sistema reconoce que una persona que se ve forzada a sonre\u00edr a punta de pistola, probablemente no est\u00e9 muy emocionada.<\/p>\n<p>Los sistemas de reconocimiento de emociones generalmente aprenden a establecer nexos entre una emoci\u00f3n y su manifestaci\u00f3n externa a partir de <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/big-data-sells-people\/7014\/\" target=\"_blank\" rel=\"noopener\">grandes conjuntos de datos<\/a><\/strong> categorizados. Los datos pueden incluir grabaciones de audio o video de programas televisivos, entrevistas y experimentos donde participa gente real; videos cortos de interpretaciones teatrales o pel\u00edculas y di\u00e1logos interpretados por actores profesionales.<\/p>\n<p>Se puede educar a los sistemas de reconocimiento de emociones m\u00e1s sencillos con conjuntos de fotos y textos, dependiendo del objetivo. Por ejemplo, <a href=\"https:\/\/aidemos.microsoft.com\/face-recognition\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">este proyecto de Microsoft<\/a> intenta adivinar las emociones de las personas, su g\u00e9nero y sus edades aproximadas con base en fotograf\u00edas.<\/p>\n<h2>Reconocimiento de emociones, \u00bfpara qu\u00e9?<\/h2>\n<p>Gartner estima que en 2022, uno de cada diez dispositivos <a href=\"https:\/\/www.gartner.com\/smarterwithgartner\/13-surprising-uses-for-emotion-ai-technology\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">contar\u00e1 con tecnolog\u00eda de reconocimiento de emociones<\/a>. No obstante, algunas organizaciones ya la est\u00e1n utilizando. Por ejemplo, cuando uno llega a la oficina, el banco o un restaurante, los clientes ser\u00e1n recibidos por un <a href=\"https:\/\/en.wikipedia.org\/wiki\/Pepper_(robot)\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">robot amigable<\/a>. He aqu\u00ed hay un par de \u00e1reas en las cuales dichos sistemas podr\u00edan resultar provechosos.<\/p>\n<h3>Seguridad<\/h3>\n<p>El <strong>reconocimiento de emociones<\/strong> puede usarse para evitar la violencia,\u00a0 ya sea dom\u00e9stica o de otro tipo. Varias <a href=\"https:\/\/www.theverge.com\/2018\/6\/6\/17433482\/ai-automated-surveillance-drones-spot-violent-behavior-crowds\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">publicaciones cient\u00edficas<\/a> han abordado este problema, y los empresarios ya est\u00e1n <a href=\"https:\/\/www.louroe.com\/product\/aggression-detector\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">comercializando dichos sistemas<\/a> con escuelas y otras instituciones.<\/p>\n<h3>Contrataci\u00f3n de personal<\/h3>\n<p>Algunas empresas despliegan una <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/when-ai-decides\/14056\/\" target=\"_blank\" rel=\"noopener\">IA<\/a><\/strong> capaz de reconocer emociones como <a href=\"https:\/\/www.businessinsider.com\/unilever-artificial-intelligence-hiring-process-2017-6\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">asistentes de RH<\/a>. Los sistemas eval\u00faan las palabras clave, la entonaci\u00f3n y las expresiones faciales de los solicitantes en la fase inicial \u00a0(y la m\u00e1s laboriosa)\u00a0 del proceso de selecci\u00f3n, y re\u00fane un informe para las personas encargadas de contrataci\u00f3n sobre si el inter\u00e9s del candidato en la vacante es genuino y honesto , entre otros.<\/p>\n<h3>Atenci\u00f3n a clientes<\/h3>\n<p>La Secretar\u00eda de carreteras y transportes en Dub\u00e1i lanz\u00f3 un interesante sistema este a\u00f1o en sus centros de atenci\u00f3n a clientes, equipado con c\u00e1mara de IA <a href=\"https:\/\/gulfnews.com\/uae\/transport\/are-you-happy-rta-starts-measuring-customers-happiness-level-by-using-ai-cameras-1.65909454\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">que comparaban las emociones de las personas<\/a> cuando entraban o sal\u00edan de un edificio, con el fin de medir el nivel de satisfacci\u00f3n. Si el valor calculado estaba por debajo de cierto nivel, el sistema aconsejaba a los empleados del centro adoptar medidas para mejorar la calidad del servicio (por cuestiones de privacidad, las fotograf\u00edas de los visitantes no se guardaban).<\/p>\n<h3>Integraci\u00f3n social de ni\u00f1os con necesidades especiales<\/h3>\n<p>Otros proyectos tienen como objetivo <a href=\"https:\/\/www.mobihealthnews.com\/content\/study-finds-new-program-using-google-glass-ai-helps-children-autism-interpret-emotions\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">ayudar a los ni\u00f1os autistas a interpretar las emociones<\/a> de aquellos que los rodean. El sistema funciona a trav\u00e9s de los <strong><a href=\"https:\/\/www.kaspersky.es\/blog\/gafas-de-google-y-la-privacidad\/694\/\" target=\"_blank\" rel=\"noopener\">lentes inteligentes Google Glass<\/a><\/strong>. Cuando el ni\u00f1o interact\u00faa con otra persona, los lentes utilizan gr\u00e1ficos y sonido para dar pistas sobre las emociones de esta \u00faltima. Las pruebas han demostrado que los ni\u00f1os socializan m\u00e1s r\u00e1pidamente con este ayudante virtual.<\/p>\n<h2>\u00bfQu\u00e9 tan eficaces son los detectores de emociones?<\/h2>\n<p>Las tecnolog\u00edas de reconocimiento de emociones distan mucho de ser perfectas. Un ejemplo es la <strong>tecnolog\u00eda de detecci\u00f3n de agresiones<\/strong> implementada en muchas escuelas de los EE. UU. Resulta que el sistema <a href=\"https:\/\/features.propublica.org\/aggression-detector\/the-unproven-invasive-surveillance-technology-schools-are-using-to-monitor-students\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">considera que la tos es m\u00e1s alarmante<\/a> que un grito desgarrador.<\/p>\n<p>Los investigadores de la University of Southern California hallaron que <a href=\"https:\/\/news.usc.edu\/160360\/algorithms-emotions-facial-expressions-predict-intentions\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">tambi\u00e9n resulta f\u00e1cil enga\u00f1ar<\/a> a la <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/how-facial-recognition-works\/7316\/\" target=\"_blank\" rel=\"noopener\">tecnolog\u00eda de reconocimiento facial<\/a><\/strong>. La m\u00e1quina asocia autom\u00e1ticamente ciertas expresiones faciales con emociones particulares, pero no puede diferenciar, por ejemplo, las sonrisas genuinas de aquellas de j\u00fabilo o de malicia.<\/p>\n<p>Propiamente dicho, los sistemas de reconocimiento de emociones que <a href=\"https:\/\/arxiv.org\/pdf\/1908.05913.pdf\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">toman en cuenta el contexto<\/a> son los m\u00e1s exactos. Pero son m\u00e1s complejos y escasos.<\/p>\n<p>No solamente es importante lo que la m\u00e1quina est\u00e1 viendo, sino con qu\u00e9 material se le educ\u00f3. Por ejemplo, un sistema capacitado en emociones actuadas tendr\u00e1 dificultades a la hora de reconocer las verdaderas.<\/p>\n<h2>Emociones como datos personales<\/h2>\n<p>La difusi\u00f3n de las tecnolog\u00edas de reconocimiento de emociones plantea otro problema importante. Sin importar cu\u00e1n eficaz sea, dichos sistemas invaden el espacio personal de la gente y suponen un <strong>problema de privacidad<\/strong>. Piensa, por ejemplo, en el siguiente escenario: te gusta el atuendo de un transe\u00fante al azar y, antes de que te des cuenta, te ves bombardeado de anuncios de ropa de la misma marca. O haces un gesto de desaprobaci\u00f3n durante una junta y, como resultado, no eres considerado para un ascenso.<\/p>\n<p>Seg\u00fan Gartner, m\u00e1s de la mitad de los habitantes de los EE. UU. y el Reino Unido <a href=\"https:\/\/www.gartner.com\/en\/newsroom\/press-releases\/2018-09-12-gartner-survey-finds-consumers-would-use-ai-to-save-time-and-money\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">no desean que la IA interprete sus sentimientos y estados de \u00e1nimo<\/a>. Mientras que, en algunos lugares, las tecnolog\u00edas de reconocimiento de emociones y facial son ilegales. En octubre, por ejemplo, California present\u00f3 una ley que prohib\u00eda a los <a href=\"https:\/\/leginfo.legislature.ca.gov\/faces\/billTextClient.xhtml?bill_id=201920200AB1215\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">oficiales de polic\u00eda grabar, recopilar y analizar\u00a0 <\/a>informaci\u00f3n biom\u00e9trica mediante c\u00e1maras que se llevan en el cuerpo, incluyendo expresiones faciales y ademanes.<\/p>\n<p>De acuerdo con los redactores de la propuesta de ley, el uso de la <strong>tecnolog\u00eda de reconocimiento facial<\/strong> equivale a exigirle a los transe\u00fantes que muestren su pasaporte cada segundo. Esto viola los derechos ciudadanos, lo cual puede provocar que la gente que ha cometido faltas menores, como no haber pagado sus multas de estacionamiento, sea m\u00e1s reacia a informar a la polic\u00eda de cr\u00edmenes m\u00e1s serios.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"kis-trial-privacy\"><\/strong><\/p>\n<h2>Ausencia de emociones artificial<\/h2>\n<p>El <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/privacy-report-2019-summary-2\/14541\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">problema de la privacidad<\/a><\/strong> es tan grave que incluso un tema de investigaci\u00f3n cient\u00edfica es el modo de enga\u00f1ar los detectores de emociones. Por ejemplo, en el Imperial College London han <a href=\"https:\/\/arxiv.org\/abs\/1908.03632\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">desarrollado<\/a> una tecnolog\u00eda de <strong>protecci\u00f3n de la privacidad<\/strong> que elimina las emociones de la voz humana. El resultado es un asistente de voz equipado con tecnolog\u00eda de reconocimiento de emociones que puede entender el significado de lo dicho, pero no interpretar el estado de \u00e1nimo de quien hablar.<\/p>\n<p>Poner barreras a la IA seguramente complicar\u00e1 el desarrollo de la empat\u00eda en los <strong>sistemas de IA<\/strong>, los cuales incluso ahora son propensos a errores. Pero es bueno tener una defensa en caso de que <span style=\"text-decoration: line-through\">nuestro mundo se convierta en <\/span><em><span style=\"text-decoration: line-through\">Black Mirror<\/span><\/em> las m\u00e1quinas empiecen a hurgar en lo profundo de nuestro subconsciente. Despu\u00e9s de todo, no deber\u00edamos confiarnos de que el sistema de reconocimiento de emociones ser\u00e1 descartado, especialmente porque la tecnolog\u00eda es ben\u00e9fica en algunas \u00e1reas.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"kis-trial-privacy\"><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Examinamos el funcionamiento de las tecnolog\u00edas de reconocimiento de emociones, su utilidad y los problemas de seguridad que suponen.<\/p>\n","protected":false},"author":2049,"featured_media":16756,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2737,2738],"tags":[3823,3583,2018,1861,37,3824,2056],"class_list":{"0":"post-16645","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-privacy","8":"category-technology","9":"tag-aprendizaje-automatizado","10":"tag-confidencialidad","11":"tag-ia","12":"tag-inteligencia-artificial","13":"tag-privacidad","14":"tag-reconocimiento-de-emociones","15":"tag-tecnologias"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/emotional-ai\/16645\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/emotional-ai\/18301\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/emotional-ai\/15193\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/emotional-ai\/19994\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/emotional-ai\/18390\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/emotional-ai\/20735\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/emotional-ai\/19473\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/emotional-ai\/25829\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/emotional-ai\/7483\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/emotional-ai\/31689\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/emotional-ai\/13512\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/emotional-ai\/13789\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/emotional-ai\/12558\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/emotional-ai\/20691\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/emotional-ai\/10525\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/emotional-ai\/26052\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/emotional-ai\/24609\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/emotional-ai\/20730\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/emotional-ai\/25609\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/emotional-ai\/25444\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/inteligencia-artificial\/","name":"inteligencia artificial"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/16645","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/2049"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=16645"}],"version-history":[{"count":9,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/16645\/revisions"}],"predecessor-version":[{"id":18262,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/16645\/revisions\/18262"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/16756"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=16645"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=16645"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=16645"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}