{"id":17902,"date":"2020-03-17T10:53:39","date_gmt":"2020-03-17T16:53:39","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=17902"},"modified":"2020-03-17T10:53:39","modified_gmt":"2020-03-17T16:53:39","slug":"rsa2020-deepfakes-mitigation","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/17902\/","title":{"rendered":"C\u00f3mo aminorar el impacto de los deepfakes"},"content":{"rendered":"<p>Los <strong><em>deepfakes<\/em><\/strong> son un desafortunado producto de los recientes desarrollos en el campo de la <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/\" target=\"_blank\" rel=\"noopener\">inteligencia artificial<\/a>,<\/strong> que asimismo enfrenta otros problemas. Las <strong>noticias falsas<\/strong> producto de los <strong>algoritmos de aprendizaje autom\u00e1tico<\/strong> han ganado mucha atenci\u00f3n en a\u00f1os recientes. La charla de Alyssa Miller en la conferencia RSA de 2020, titulada <a href=\"https:\/\/published-prd.lanyonevents.com\/published\/rsaus20\/sessionsFiles\/17299\/2020_USA20_SBX1-W5_01_Losing-Our-Reality-How-Deepfakes-Threaten-Businesses-and-Global-Markets.pdf\" target=\"_blank\" rel=\"nofollow noopener noreferrer\"><strong>Hemos perdido la realidad<\/strong><\/a>,\u00a0 proporciona algunas reflexiones sobre por qu\u00e9 es momento de considerar los <em>deepfakes<\/em> como una amenaza (sin contar el <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/rsa2020-securing-elections\/17848\/\" target=\"_blank\" rel=\"noopener\">riesgo durante las elecciones presidenciales<\/a><\/strong>) y qu\u00e9 puede hacer tu empresa para aminorar su impacto, si acaso se ve ataca de este modo.<\/p>\n<p>\u00a0<\/p>\n<h2>C\u00f3mo se hacen los <em>deepfakes<\/em><\/h2>\n<p>El m\u00e9todo m\u00e1s com\u00fan para <strong>crear un <em>deepfake<\/em><\/strong> es utilizar un sistema llamado <strong>GAN<\/strong>, o <strong>red generativa antag\u00f3nica<\/strong>. Los GAN se componen de dos <strong>redes neurales<\/strong> que antagonizan entre ellas. Con el fin de prepararlas, ambas redes se entrenan con im\u00e1genes verdaderas. Luego viene la parte antag\u00f3nica, en la que una red genera im\u00e1genes (de ah\u00ed el nombre <em>generativo<\/em>) y la otra intenta determinar si la imagen es genuina o falsa (la segunda red se llama <em>discriminadora<\/em>.<\/p>\n<p>Posteriormente, la red generativa conoce el resultado y aprende de \u00e9l. Al mismo tiempo, la red discriminadora aprende c\u00f3mo mejorar su desempe\u00f1o. Con cada ciclo, ambas redes mejoran.<\/p>\n<p>Adelantemos, por ejemplo, un mill\u00f3n de ciclos de entrenamiento: la red neural generativa ha aprendido c\u00f3mo generar im\u00e1genes falsas que una red neural igualmente avanzada no puede distinguir de las verdaderas.<\/p>\n<p>Este m\u00e9todo es realmente \u00fatil en los muchos usos que se le puede dar, pues dependiendo de los datos preparatorios, la red generativa aprende a generar ciertos tipos de im\u00e1genes.<\/p>\n<p>Por supuesto, para los <strong><em>deepfakes<\/em><\/strong>, el algoritmo se entrena con <strong>fotos reales<\/strong> de determinada gente, lo que da como resultado una red que puede generar un n\u00famero infinito de fotos convincentes (pero falsas) de una persona para que pueda integrarse en un video. Los m\u00e9todos similares pueden generar <strong>audio falso<\/strong> y es probable que los cibercriminales ya est\u00e9n usando el<u><strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/machine-learning-fake-voice\/15526\/\" target=\"_blank\" rel=\"noopener\"> audio deepfake<\/a><\/strong><\/u><strong>.<\/strong><\/p>\n<p>\u00a0<\/p>\n<h2>Cu\u00e1n convincentes se han vuelto los <em>deepfakes<\/em><\/h2>\n<p>Los primeros <strong>videos <em>deepfake<\/em><\/strong> luc\u00edan rid\u00edculos, pero la tecnolog\u00eda ha evolucionado lo suficiente en este punto para que dichos medios se hayan vuelto aterradoramente convincentes. Uno de los ejemplos m\u00e1s notables de <em>deepfakes<\/em> espantosamente convincentes de 2018 fue un <strong><a href=\"https:\/\/www.youtube.com\/watch?v=cQ54GDm1eL0\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">Barack Obama<\/a><\/strong> donde hablaba de, bueno, <em>deepfakes<\/em> (adem\u00e1s de un insulto adicional dirigido contra el actual presidente de los EE.UU.). A mediados de 2019, vimos <strong><a href=\"https:\/\/www.instagram.com\/p\/ByaVigGFP2U\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">un videoclip falso de Mark Zuckerberg<\/a><\/strong> donde se mostraba incre\u00edblemente honesto acerca del estado actual de la privacidad.<\/p>\n<p>Para entender cu\u00e1n buena se ha vuelto la tecnolog\u00eda, simplemente mira el video a continuaci\u00f3n. El imitador Jim Meskimen cre\u00f3 este video en colaboraci\u00f3n con el artista de <em>deepfakes<\/em> Sham00k. El primero fue responsable de las voces y el segundo <strong><a href=\"https:\/\/www.engadget.com\/2019\/10\/11\/deepfake-celebrity-impresonations\/\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">us\u00f3 los rostros de unas 20 celebridades en el video<\/a><\/strong> mediante el <em>software<\/em> de <em>deepfakes<\/em>. El resultado es realmente fascinante.<\/p>\n<p>\u00a0<\/p>\n<p><strong>https:\/\/www.youtube.com\/watch?v=5rPKeUXjEvE<\/strong><\/p>\n<p>\u00a0<\/p>\n<p>De acuerdo con lo que Sham00k se\u00f1ala en la descripci\u00f3n de su video detr\u00e1s de c\u00e1maras, \u201cla creaci\u00f3n del video completo necesit\u00f3 cerca de 250 horas de trabajo, 1,200 horas de metraje, 300,000 im\u00e1genes y cerca de 1 terabyte de datos\u201d. Dicho esto, hacer este video no fue poca cosa. Pero esta desinformaci\u00f3n tan convincente puede ejercer un impacto potencialmente profundo en los mercados o, digamos, en las elecciones, lo cual hace que el proceso parezca aterradoramente f\u00e1cil y barato.<\/p>\n<p>Por esa raz\u00f3n, casi al mismo tiempo que dicho video se public\u00f3, el estado de <strong><a href=\"https:\/\/www.theverge.com\/2019\/10\/7\/20902884\/california-deepfake-political-ban-election-2020\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">California prohibi\u00f3 los videos pol\u00edticos de <em>deepfake<\/em><\/a><\/strong> durante la \u00e9poca electoral. Sin embargo, sigue habiendo problemas. Para empezar, los videos <em>deepfake<\/em> en general son una forma de expresi\u00f3n, como la s\u00e1tira pol\u00edtica. Y la prohibici\u00f3n de California no precisamente protege la libertad de expresi\u00f3n.<\/p>\n<p>El segundo problema es al mismo tiempo t\u00e9cnico y pr\u00e1ctico: <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/70-de-los-latinoamericanos-desconoce-como-detectar-una-fake-news\/17015\/\" target=\"_blank\" rel=\"noopener\">\u00bfc\u00f3mo puedes distinguir realmente un video <em>deepfake<\/em> de uno verdadero?<\/a><\/strong><\/p>\n<p>\u00a0<\/p>\n<h2>C\u00f3mo detectar los <em>deepfakes<\/em><\/h2>\n<p>El aprendizaje autom\u00e1tico es toda una sensaci\u00f3n con los cient\u00edficos de todo el mundo, y el <strong>problema de los <em>deepfakes<\/em><\/strong> luce tan interesante y desafiante que muchos de ellos se han apresurado a ofrecer soluciones. Por esta raz\u00f3n, muchos proyectos de investigaci\u00f3n se han centrado en c\u00f3mo utilizar an\u00e1lisis de imagen para <strong>detectar los <em>deepfakes<\/em><\/strong>.<\/p>\n<p>Por ejemplo, un art\u00edculo cient\u00edfico publicado en junio de 2018 describe c\u00f3mo <strong><a href=\"https:\/\/arxiv.org\/pdf\/1806.02877.pdf\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">el an\u00e1lisis del parpadeo ocular<\/a><\/strong> puede ayudar a detectar los videos <em>deepfake<\/em>. El punto es que normalmente no existen muchas fotos de una persona parpadeando, as\u00ed que puede que las redes neurales no tengan el suficiente material con el cual entrenarse. De hecho, al momento de la publicaci\u00f3n del art\u00edculo, la gente en los <em>deepfakes<\/em> parpadeaba muy raramente y, pese a que las personas se les dificultaba identificar la anomal\u00eda, el an\u00e1lisis computarizado ayud\u00f3.<\/p>\n<p>Dos art\u00edculos publicados en noviembre de 2018 suger\u00edan <strong><a href=\"https:\/\/arxiv.org\/abs\/1811.00656\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">buscar artefactos de distorsi\u00f3n facial<\/a><\/strong> y posturas de la cabeza irregulares. Otro art\u00edculo, publicado en 2019, describ\u00eda una t\u00e9cnica sofisticada que <strong><a href=\"http:\/\/openaccess.thecvf.com\/content_CVPRW_2019\/papers\/Media%252520Forensics\/Agarwal_Protecting_World_Leaders_Against_Deep_Fakes_CVPRW_2019_paper.pdf\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">analiza los movimientos y expresiones faciales<\/a><\/strong> que son caracter\u00edsticas del patr\u00f3n de habla de un individuo.<\/p>\n<p>Sin embargo, como Miller precisa, es poco probable que esos m\u00e9todos tengan \u00e9xito a largo plazo. Lo que en realidad hacen dichas investigaciones es proporcionar retroalimentaci\u00f3n a los creadores de los <em>deepfakes<\/em>; esto les ayuda a mejorar sus redes neurales discriminadoras y, en consecuencia, pueden entrenar mejor sus redes generativas y <strong><a href=\"https:\/\/latam.kaspersky.com\/blog\/kaspersky-next-2019\/15566\/\" target=\"_blank\" rel=\"noopener\">perfeccionar a\u00fan m\u00e1s sus <em>deepfakes<\/em><\/a><\/strong>.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kesb-trial\">\n<p>\u00a0<\/p>\n<h2>El uso de las comunicaciones corporativas para aminorar las amenazas del <em>deepfake<\/em><\/h2>\n<p>En vista de los problemas anteriores, ninguna <strong>soluci\u00f3n de seguridad<\/strong> puramente tecnol\u00f3gica contra los <em>deepfakes<\/em> ser\u00e1 eficaz en este momento. Pero existen otras opciones. A saber, puedes aminorar las amenazas mediante una comunicaci\u00f3n eficaz. Tendr\u00e1s que supervisar la informaci\u00f3n relacionada con tu empresa y estar listo para controlar la narrativa en caso de enfrentar un estallido de desinformaci\u00f3n.<\/p>\n<p>A continuaci\u00f3n, quedan resumidas las recomendaciones de Alyssa Miller para preparar a tu empresa para hacer frente a la <strong>amenaza del <em>deepfake<\/em><\/strong>, cuyos mismos m\u00e9todos, por cierto, pueden ser \u00fatiles para manejar tambi\u00e9n otros tipos de reveses de relaciones p\u00fablicas:<\/p>\n<ul>\n<li>Reduce al m\u00ednimo los canales de comunicaci\u00f3n empresarial;<\/li>\n<li>Procura tener una distribuci\u00f3n coherente de la informaci\u00f3n;<\/li>\n<li>Desarrolla un plan de respuesta para la desinformaci\u00f3n (tr\u00e1talas como <a href=\"https:\/\/www.kaspersky.com\/enterprise-security\/cyber-incident-response-communication\" target=\"_blank\" rel=\"nofollow noopener noreferrer\">incidentes de seguridad<\/a>);<\/li>\n<li>Coordina una funci\u00f3n centralizada de supervisi\u00f3n y elaboraci\u00f3n de informes;<\/li>\n<li>Fomenta la verificaci\u00f3n de hechos del sector privado y la legislaci\u00f3n responsable;<\/li>\n<li>Supervisa el desarrollo de medidas correctivas de detecci\u00f3n y prevenci\u00f3n.<\/li>\n<\/ul>\n","protected":false},"excerpt":{"rendered":"<p>Puesto que los deepfakes se han vuelto cada vez m\u00e1s comunes y convincentes, \u00bfc\u00f3mo puedes proteger tu negocio? <\/p>\n","protected":false},"author":421,"featured_media":17904,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2795,3539],"tags":[2797,2867,3902,2018,1861,3894,2402,2056],"class_list":{"0":"post-17902","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-business","8":"category-enterprise","9":"tag-aprendizaje-automatico","10":"tag-conferencia-rsa","11":"tag-deepfakes","12":"tag-ia","13":"tag-inteligencia-artificial","14":"tag-rsa2020","15":"tag-rsac","16":"tag-tecnologias"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/17902\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/rsa2020-deepfakes-mitigation\/19524\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/16101\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/8034\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/21133\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/rsa2020-deepfakes-mitigation\/19395\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/rsa2020-deepfakes-mitigation\/22090\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/rsa2020-deepfakes-mitigation\/20885\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/rsa2020-deepfakes-mitigation\/27678\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/rsa2020-deepfakes-mitigation\/7900\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/34006\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/rsa2020-deepfakes-mitigation\/13176\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/rsa2020-deepfakes-mitigation\/11237\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/rsa2020-deepfakes-mitigation\/25139\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/rsa2020-deepfakes-mitigation\/21880\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/rsa2020-deepfakes-mitigation\/27014\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/rsa2020-deepfakes-mitigation\/26853\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/rsac\/","name":"RSAC"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/17902","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/421"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=17902"}],"version-history":[{"count":1,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/17902\/revisions"}],"predecessor-version":[{"id":17903,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/17902\/revisions\/17903"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/17904"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=17902"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=17902"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=17902"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}