{"id":26543,"date":"2023-07-19T08:58:41","date_gmt":"2023-07-19T14:58:41","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=26543"},"modified":"2023-07-24T01:31:32","modified_gmt":"2023-07-24T07:31:32","slug":"audio-deepfake-technology","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/audio-deepfake-technology\/26543\/","title":{"rendered":"No creas en todo lo que escuchas: deepfakes de voz"},"content":{"rendered":"<p>\u00bfAlguna vez te has preguntado c\u00f3mo sabemos con qui\u00e9n estamos hablando por tel\u00e9fono? Evidentemente, no solo se trata del nombre que aparece en pantalla. Si escuchamos una voz desconocida cuando nos llaman desde un n\u00famero guardado, sabemos de inmediato que algo anda mal. Para determinar con qui\u00e9n estamos hablando, analizamos inconscientemente el timbre de voz, la forma de hablar y la entonaci\u00f3n. Pero, \u00bfqu\u00e9 tan fiable es nuestro propio o\u00eddo en la era digital de la inteligencia artificial? Seg\u00fan las \u00faltimas noticias, no siempre podemos confiar en lo que escuchamos, porque las voces pueden falsificarse mediante deepfake.<\/p>\n<h2>Ayuda, estoy en problemas<\/h2>\n<p>En la primavera de 2023, unos estafadores de Arizona <a href=\"https:\/\/www.independent.co.uk\/tech\/ai-voice-clone-scam-kidnapping-b2319083.html\" target=\"_blank\" rel=\"noopener nofollow\">intentaron extorsionar<\/a> a una mujer por tel\u00e9fono. La mujer escuch\u00f3 la voz de su hija de 15\u00a0a\u00f1os pidiendo ayuda antes de que un hombre desconocido tomara el tel\u00e9fono y exigiera un rescate, todo mientras se escuchaban los gritos de su hija de fondo. La madre estaba segura de que la voz era realmente la de su hija. Afortunadamente, pudo averiguar enseguida que su hija estaba bien, lo que la llev\u00f3 a darse cuenta de que estaba siendo v\u00edctima de estafadores.<\/p>\n<p>No se puede probar al 100\u00a0% que los atacantes hayan utilizado un deepfake para imitar la voz de la adolescente. Tal vez se trat\u00f3 de una estafa m\u00e1s tradicional y la calidad de la llamada, lo inesperado de la situaci\u00f3n, el estr\u00e9s y la imaginaci\u00f3n de la madre la llevaron a pensar que estaba escuchando algo que en realidad no estaba escuchando. Pero aunque no se hayan utilizado tecnolog\u00edas de redes neuronales en este caso, los deepfakes pueden ocurrir y, de hecho, ocurren, y a medida que evolucionan, se vuelven cada vez m\u00e1s convincentes y peligrosos. Para luchar contra el abuso de la tecnolog\u00eda deepfake por parte de los delincuentes, debemos comprender c\u00f3mo funciona.<\/p>\n<h2>\u00bfQu\u00e9 son los deepfakes?<\/h2>\n<p>La inteligencia artificial deepfake <em>(<\/em><em>\u201cdeep learning\u201d<\/em> [aprendizaje profundo] + <em>\u201cfake\u201d<\/em> [falso]) ha crecido a gran velocidad en los \u00faltimos a\u00f1os. El aprendizaje autom\u00e1tico se puede utilizar para crear imitaciones convincentes de im\u00e1genes, v\u00eddeos o audios. Por ejemplo, las redes neuronales se pueden usar en fotograf\u00edas y v\u00eddeos para reemplazar el rostro de una persona por otro conservando las expresiones faciales y la iluminaci\u00f3n. Si bien inicialmente estas falsificaciones eran de baja calidad y f\u00e1ciles de detectar, a medida que los algoritmos evolucionaron, los resultados se volvieron tan convincentes que ahora es dif\u00edcil distinguirlos de la realidad. En 2022, se estren\u00f3 en Rusia el primer <a href=\"https:\/\/www.youtube.com\/playlist?list=PLWTwWADrHvpkgv3cKyjomdfhESt5711OZ\" target=\"_blank\" rel=\"noopener nofollow\">programa de televisi\u00f3n deepfake<\/a> del mundo, donde los deepfakes de Jason Statham, Margot Robbie, Keanu Reeves y Robert Pattinson interpretan los personajes principales.<\/p>\n<div id=\"attachment_26547\" style=\"width: 2058px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19085153\/audio-deepfake-technology-01.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-26547\" class=\"wp-image-26547 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19085153\/audio-deepfake-technology-01.jpg\" alt=\"Versiones deepfake de estrellas de Hollywood en la serie de televisi\u00f3n rusa PMJason.\" width=\"2048\" height=\"1278\"><\/a><p id=\"caption-attachment-26547\" class=\"wp-caption-text\">Versiones deepfake de estrellas de Hollywood en la serie de televisi\u00f3n rusa PMJason. <a href=\"https:\/\/%D0%B8%D1%80%D0%B8.%D1%80%D1%84\/news\/v-rossii-vyshel-pervyy-v-mire-dipfeyk-veb-serial-\/\" target=\"_blank\" rel=\"nofollow noopener\">Fuente<\/a><\/p><\/div>\n<h2>Conversi\u00f3n de voz<\/h2>\n<p>Hoy, nos concentraremos en la tecnolog\u00eda que se utiliza para crear deepfakes de voz. Esto tambi\u00e9n se conoce como conversi\u00f3n de voz (o \u201cclonaci\u00f3n de voz\u201d si crea una copia digital completa). La conversi\u00f3n de voz se basa en codificadores autom\u00e1ticos, un tipo de red neuronal que primero comprime los datos de entrada (parte del <u>co<\/u>dificador) en una representaci\u00f3n interna compacta y luego aprende a descomprimirlos desde esta representaci\u00f3n (parte del <u>de<\/u>codificador) para restaurar los datos originales. De esta manera, el modelo aprende a presentar datos en un formato comprimido al mismo tiempo que resalta la informaci\u00f3n m\u00e1s importante.<\/p>\n<div id=\"attachment_26546\" style=\"width: 2143px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19084915\/audio-deepfake-technology-02.png\"><img decoding=\"async\" aria-describedby=\"caption-attachment-26546\" class=\"wp-image-26546 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19084915\/audio-deepfake-technology-02.png\" alt=\"Esquema de un codificador autom\u00e1tico.\" width=\"2133\" height=\"1600\"><\/a><p id=\"caption-attachment-26546\" class=\"wp-caption-text\">Esquema de un codificador autom\u00e1tico. <a href=\"https:\/\/www.compthree.com\/blog\/autoencoder\/\" target=\"_blank\" rel=\"nofollow noopener\">Fuente<\/a><\/p><\/div>\n<p>Para hacer deepfakes de voz, se introducen dos grabaciones de audio en el modelo, y la voz de la segunda grabaci\u00f3n se convierte en la primera. El codificador de contenido se usa para determinar <strong>qu\u00e9<\/strong> se dijo en la primera grabaci\u00f3n y el codificador del orador se usa para extraer las principales caracter\u00edsticas de la voz de la segunda grabaci\u00f3n, es decir, <strong>c\u00f3mo<\/strong> habla la segunda persona. Las representaciones comprimidas de <strong>qu\u00e9<\/strong> se debe decir y <strong>c\u00f3mo<\/strong> se dice se combinan, y el resultado se genera mediante el decodificador. Por lo tanto, se usa la voz de la segunda grabaci\u00f3n para expresar lo que se dice en la primera grabaci\u00f3n.<\/p>\n<div id=\"attachment_26545\" style=\"width: 1288px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19084215\/audio-deepfake-technology-03.jpg\"><img decoding=\"async\" aria-describedby=\"caption-attachment-26545\" class=\"wp-image-26545 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/87\/2023\/07\/19084215\/audio-deepfake-technology-03.jpg\" alt=\"El proceso de creaci\u00f3n de un deepfake de voz.\" width=\"1278\" height=\"435\"><\/a><p id=\"caption-attachment-26545\" class=\"wp-caption-text\">El proceso de creaci\u00f3n de un deepfake de voz. <a href=\"http:\/\/cs230.stanford.edu\/projects_fall_2020\/reports\/55721255.pdf\" target=\"_blank\" rel=\"nofollow noopener\">Fuente<\/a><\/p><\/div>\n<p>Hay otros enfoques que utilizan codificadores autom\u00e1ticos; por ejemplo, los que utilizan <a href=\"https:\/\/es.wikipedia.org\/wiki\/Red_generativa_antag%C3%B3nica\" target=\"_blank\" rel=\"noopener nofollow\">redes generativas antag\u00f3nicas (GAN)<\/a> o <a href=\"https:\/\/es.wikipedia.org\/wiki\/Modelo_de_difusi%C3%B3n\" target=\"_blank\" rel=\"noopener nofollow\">modelos de difusi\u00f3n<\/a>. La investigaci\u00f3n sobre la creaci\u00f3n de deepfakes cuenta con el apoyo particular de la industria del cine. Pi\u00e9nsalo: con los deepfakes de audio y v\u00eddeo, es posible reemplazar las caras de los actores en pel\u00edculas y programas de televisi\u00f3n, y doblar pel\u00edculas con expresiones faciales sincronizadas en cualquier idioma.<\/p>\n<h2>C\u00f3mo se hace<\/h2>\n<p>Mientras investig\u00e1bamos las tecnolog\u00edas deepfake, nos preguntamos qu\u00e9 tan dif\u00edcil ser\u00eda hacer el deepfake de nuestra propia voz. Resulta que hay muchas herramientas gratuitas de c\u00f3digo abierto para trabajar con la conversi\u00f3n de voz, pero no es tan f\u00e1cil obtener un resultado de calidad con ellas. Se necesitan experiencia en programaci\u00f3n Python y buenas habilidades de procesamiento, e incluso as\u00ed la calidad est\u00e1 lejos del ideal. Adem\u00e1s del c\u00f3digo abierto, tambi\u00e9n existen soluciones patentadas y de pago.<\/p>\n<p>Por ejemplo, a principios de 2023, Microsoft <a href=\"https:\/\/arstechnica.com\/information-technology\/2023\/01\/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio\/\" target=\"_blank\" rel=\"noopener nofollow\">anunci\u00f3<\/a> un algoritmo que pod\u00eda reproducir una voz humana vali\u00e9ndose de un ejemplo de audio de apenas tres segundos de duraci\u00f3n. Este modelo tambi\u00e9n funciona con varios idiomas, por lo que incluso puedes escucharte a ti mismo hablando en otro idioma. Todas estas tecnolog\u00edas parecen prometedoras, pero hasta ahora solo se encuentran en la etapa de investigaci\u00f3n. La plataforma ElevenLabs <a href=\"https:\/\/www.theverge.com\/2023\/1\/31\/23579289\/ai-voice-clone-deepfake-abuse-4chan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">permite a los usuarios<\/a> hacer deepfakes de voz sin ning\u00fan esfuerzo: simplemente debes cargar una grabaci\u00f3n de audio de la voz y las palabras que se deben decir, y eso es todo. Por supuesto, tan pronto como se corri\u00f3 la voz, todos empezaron a jugar con esta tecnolog\u00eda de diferentes maneras.<\/p>\n<h2>La batalla de Hermione y un banco demasiado confiado<\/h2>\n<p>Dentro del marco de la <a href=\"https:\/\/es.wikipedia.org\/wiki\/Ley_de_Godwin\" target=\"_blank\" rel=\"noopener nofollow\">ley de Godwin<\/a>, se cre\u00f3 un deepfake de Emma Watson <a href=\"https:\/\/www.vice.com\/en\/article\/dy7mww\/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">leyendo Mein Kampf<\/a> y otro usuario <a href=\"https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice\" target=\"_blank\" rel=\"noopener nofollow\">utiliz\u00f3<\/a> la tecnolog\u00eda de ElevenLabs para \u201cpiratear\u201d su propia cuenta bancaria. \u00bfSuena espeluznante? Para nosotros s\u00ed, en especial cuando sumamos las historias de terror populares sobre estafadores que recolectan telef\u00f3nicamente muestras de voces pidi\u00e9ndole a la gente que diga \u201cs\u00ed\u201d o \u201cconfirmar\u201d haci\u00e9ndose pasar por un banco, una agencia gubernamental o un servicio de encuestas y, despu\u00e9s, les roban dinero usando la autorizaci\u00f3n por voz.<\/p>\n<p>Pero, en realidad, las cosas no est\u00e1n tan mal. En primer lugar, se necesitan unos cinco minutos de grabaciones de audio para crear una voz artificial en ElevenLabs, por lo que un simple \u201cs\u00ed\u201d no es suficiente. En segundo lugar, los bancos est\u00e1n al tanto de estas estafas, por lo que la voz solo se puede usar para iniciar ciertas operaciones que no est\u00e1n relacionadas con la transferencia de fondos (por ejemplo, para verificar el saldo de su cuenta). Por lo tanto, los estafadores no pueden robar dinero de esta manera.<\/p>\n<p>A su favor, ElevenLabs reaccion\u00f3 al problema con rapidez: volvi\u00f3 a redactar las normas del servicio, prohibi\u00f3 a los usuarios gratuitos (es decir, an\u00f3nimos) crear deepfakes basados en sus propias voces subidas y bloque\u00f3 cuentas vinculadas a quejas sobre \u201ccontenido ofensivo\u201d.<\/p>\n<p>Si bien estas medidas pueden ser \u00fatiles, no resuelven el problema del uso de deepfakes de voz con fines sospechosos.<\/p>\n<h2>\u00bfDe qu\u00e9 otra manera se usan los deepfakes en las estafas?<\/h2>\n<p>La tecnolog\u00eda deepfake en s\u00ed misma es inofensiva, pero en manos de los estafadores puede convertirse en una herramienta peligrosa que ofrece muchas oportunidades de enga\u00f1o, difamaci\u00f3n o desinformaci\u00f3n. Afortunadamente, no se han producido estafas masivas que involucren tecnolog\u00edas de alteraci\u00f3n de voz, pero ha habido varios casos de alto perfil que involucran deepfakes de voz.<\/p>\n<p>En 2019, unos estafadores utilizaron esta tecnolog\u00eda para <a href=\"https:\/\/www.wsj.com\/articles\/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402\" target=\"_blank\" rel=\"noopener nofollow\">enga\u00f1ar a una empresa de energ\u00eda con sede en el Reino Unido<\/a>. En una conversaci\u00f3n telef\u00f3nica, el estafador se hizo pasar por el director ejecutivo de la empresa matriz en Alemania y solicit\u00f3 una transferencia urgente de 220\u00a0000\u00a0\u20ac (243\u00a0000\u00a0$) a la cuenta de una empresa proveedora. Una vez realizado el pago, el estafador llam\u00f3 dos veces m\u00e1s: la primera vez para tranquilizar al personal de la oficina del Reino Unido e informar que la empresa matriz ya hab\u00eda enviado un reembolso, y la segunda vez para solicitar otra transferencia. Las tres veces, el director ejecutivo del Reino Unido estuvo absolutamente seguro de que estaba hablando con su jefe porque reconoci\u00f3 tanto su acento alem\u00e1n como su tono y forma de hablar. La segunda transferencia no se envi\u00f3 solo porque el estafador se equivoc\u00f3 y llam\u00f3 desde un n\u00famero austr\u00edaco en lugar de uno alem\u00e1n, lo que hizo que el director ejecutivo del Reino Unido sospechara.<\/p>\n<p>Un a\u00f1o despu\u00e9s, en 2020, unos estafadores usaron deepfakes para <a href=\"https:\/\/www.forbes.com\/sites\/thomasbrewster\/2021\/10\/14\/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions\/?sh=42bdebd47559\" target=\"_blank\" rel=\"noopener nofollow\">robarle<\/a> hasta 35\u00a0000\u00a0000\u00a0$ a una empresa japonesa no identificada (el nombre de la empresa y la cantidad total de bienes robados no se revelaron en la investigaci\u00f3n).<\/p>\n<p>Se desconoce qu\u00e9 soluciones (de c\u00f3digo abierto, de pago o incluso las propias) utilizaron los estafadores para falsificar las voces, pero en los dos casos mencionados anteriormente las empresas sufrieron consecuencias graves por el fraude de deepfake.<\/p>\n<h2>\u00bfQu\u00e9 nos depara el futuro?<\/h2>\n<p>Las opiniones sobre el futuro de los deepfakes son variadas. En la actualidad, la mayor parte de esta tecnolog\u00eda est\u00e1 en manos de grandes corporaciones y su disponibilidad para el p\u00fablico es limitada. Pero, como demuestra la historia de modelos generativos mucho m\u00e1s populares como <a href=\"https:\/\/openai.com\/dall-e-2\/\" target=\"_blank\" rel=\"noopener nofollow\">DALL-E<\/a>, <a href=\"https:\/\/www.midjourney.com\/\" target=\"_blank\" rel=\"noopener nofollow\">Midjourney<\/a> y <a href=\"https:\/\/stability.ai\/blog\/stable-diffusion-announcement\" target=\"_blank\" rel=\"noopener nofollow\">Stable Diffusion<\/a>, y m\u00e1s a\u00fan con los <a href=\"https:\/\/es.wikipedia.org\/wiki\/LLM_(modelo_grande_de_lenguaje)\" target=\"_blank\" rel=\"noopener nofollow\">grandes modelos de lenguaje<\/a> (\u00bfalguien mencion\u00f3 ChatGPT?), es posible que aparezcan tecnolog\u00edas similares en el dominio p\u00fablico en el futuro cercano. Esto qued\u00f3 confirmado por una <a href=\"https:\/\/www.semianalysis.com\/p\/google-we-have-no-moat-and-neither\" target=\"_blank\" rel=\"noopener nofollow\">filtraci\u00f3n<\/a> reciente de correos internos de Google en los que los representantes del gigante de Internet declaran que temen perder la carrera de la IA con las soluciones abiertas. Obviamente, esto dar\u00e1 como resultado un aumento en el uso de deepfakes de voz, incluso para el fraude.<\/p>\n<p>El paso m\u00e1s prometedor en el desarrollo de los deepfakes es la generaci\u00f3n en tiempo real, que garantizar\u00e1 el crecimiento explosivo de los deepfakes (y el fraude basado en ellos). \u00bfTe imaginas una <a href=\"https:\/\/github.com\/iperov\/DeepFaceLive\" target=\"_blank\" rel=\"noopener nofollow\">videollamada<\/a> con una persona cuyo rostro y voz sean completamente falsos? <a href=\"https:\/\/blog.metaphysic.ai\/future-autoencoder-deepfakes\/\" target=\"_blank\" rel=\"noopener nofollow\">Sin embargo<\/a>, este nivel de procesamiento de datos requiere una gran cantidad de recursos a los que solo las grandes corporaciones pueden acceder, por lo que las mejores tecnolog\u00edas seguir\u00e1n siendo privadas y los estafadores no podr\u00e1n seguirles el ritmo a los profesionales. El alto est\u00e1ndar de calidad tambi\u00e9n ayudar\u00e1 a los usuarios a aprender a identificar f\u00e1cilmente las falsificaciones.<\/p>\n<h2>C\u00f3mo protegerse<\/h2>\n<p>Volvamos a nuestra primera pregunta: \u00bfpodemos confiar en las voces que escuchamos (es decir, si no son las voces en nuestra cabeza)? Probablemente sea exagerado vivir paranoicos y pensar en palabras clave secretas para usar con amigos y familiares; sin embargo, en situaciones m\u00e1s graves, esta paranoia podr\u00eda ser adecuada. Si todo se desarrolla de acuerdo al escenario pesimista, la tecnolog\u00eda deepfake en manos de estafadores podr\u00eda convertirse en un arma temible en el futuro, pero a\u00fan hay tiempo de prepararse y crear m\u00e9todos fiables de protecci\u00f3n contra la falsificaci\u00f3n: ya hay muchas <a href=\"https:\/\/arxiv.org\/abs\/2005.08781\" target=\"_blank\" rel=\"noopener nofollow\">investigaciones<\/a> sobre los deepfakes y las grandes empresas est\u00e1n desarrollando <a href=\"https:\/\/venturebeat.com\/ai\/intel-unveils-real-time-deepfake-detector-claims-96-accuracy-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">soluciones de seguridad<\/a>. De hecho, ya hemos hablado en detalle sobre las formas de combatir los deepfakes de v\u00eddeo <a href=\"https:\/\/www.kaspersky.es\/blog\/rsa2020-deepfakes-mitigation\/22090\/\" target=\"_blank\" rel=\"noopener\">aqu\u00ed<\/a>.<\/p>\n<p>Por ahora, la protecci\u00f3n contra las falsificaciones de IA reci\u00e9n est\u00e1 comenzando, por lo que es importante tener en cuenta que los deepfakes son solo otro tipo de ingenier\u00eda social avanzada. El riesgo de ser v\u00edctima de un fraude como este es peque\u00f1o, pero existe, por lo que vale la pena conocerlo y tenerlo en cuenta. Si recibe una llamada extra\u00f1a, preste atenci\u00f3n a la calidad del sonido. \u00bfEs en un tono mon\u00f3tono antinatural, es ininteligible o hay ruidos extra\u00f1os? Siempre compruebe la informaci\u00f3n a trav\u00e9s de otros canales y recuerde que las principales herramientas de los estafadores son la sorpresa y del p\u00e1nico.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Los deepfakes de audio que pueden imitar la voz de cualquier persona ya se utilizan para realizar estafas multimillonarias. \u00bfC\u00f3mo se hacen los deepfakes? \u00bfPuedes protegerte para no ser una v\u00edctima?<\/p>\n","protected":false},"author":2738,"featured_media":26544,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[3145,2738],"tags":[638,2797,3902,210,2018,1861,37,5879,192],"class_list":{"0":"post-26543","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-amenazas","10":"tag-aprendizaje-automatico","11":"tag-deepfakes","12":"tag-fraude","13":"tag-ia","14":"tag-inteligencia-artificial","15":"tag-privacidad","16":"tag-redes-neuronales","17":"tag-tecnologia"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/audio-deepfake-technology\/26543\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/audio-deepfake-technology\/25887\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/audio-deepfake-technology\/21327\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/audio-deepfake-technology\/11071\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/audio-deepfake-technology\/28587\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/audio-deepfake-technology\/26223\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/audio-deepfake-technology\/29025\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/audio-deepfake-technology\/27923\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/audio-deepfake-technology\/35694\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/audio-deepfake-technology\/48586\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/audio-deepfake-technology\/20851\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/audio-deepfake-technology\/21555\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/audio-deepfake-technology\/30344\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/audio-deepfake-technology\/34254\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/audio-deepfake-technology\/26493\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/audio-deepfake-technology\/32197\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/audio-deepfake-technology\/31880\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/deepfakes\/","name":"deepfakes"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26543","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/2738"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=26543"}],"version-history":[{"count":1,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26543\/revisions"}],"predecessor-version":[{"id":26548,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26543\/revisions\/26548"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/26544"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=26543"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=26543"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=26543"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}