{"id":26358,"date":"2023-05-27T20:33:07","date_gmt":"2023-05-28T02:33:07","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=26358"},"modified":"2023-05-27T20:33:07","modified_gmt":"2023-05-28T02:33:07","slug":"ai-government-regulation","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/","title":{"rendered":"As\u00ed deber\u00edamos abordar la inteligencia artificial"},"content":{"rendered":"<p>Ya empiezo a estar cansado del aluvi\u00f3n de noticias sobre la IA, pero imagino que todav\u00eda tendr\u00e9 que aguantar un poco m\u00e1s, dado que, como era de esperar, seguir\u00e1n hablando sin parar hasta por lo menos dentro de uno o dos a\u00f1os. Pero no porque el desarrollo de la IA quede a un lado, sino porque todos los periodistas, blogueros, TikTokers, tuiteros y dem\u00e1s mentes pensantes se acabar\u00e1n cansando del tema. De momento, su entusiasmo sigue incentivado no solo por los gigantes tecnol\u00f3gicos, sino tambi\u00e9n por los gobiernos: el Reino Unido tiene pensado introducir una <a href=\"https:\/\/www.reuters.com\/world\/uk\/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28\/\" target=\"_blank\" rel=\"nofollow noopener\">regulaci\u00f3n de tres v\u00edas para la IA<\/a>, China someti\u00f3 a <a href=\"https:\/\/www.reuters.com\/technology\/china-releases-draft-measures-managing-generative-artificial-intelligence-2023-04-11\/\" target=\"_blank\" rel=\"nofollow noopener\">debate p\u00fablico<\/a> el proyecto de ley, EE. UU. exige la \u201c<a href=\"https:\/\/www.reuters.com\/technology\/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11\/\" target=\"_blank\" rel=\"nofollow noopener\">responsabilidad algor\u00edtmica<\/a>\u201c, la UE est\u00e1 <a href=\"https:\/\/www.reuters.com\/technology\/ai-booms-eu-lawmakers-wrangle-over-new-rules-2023-03-22\/\" target=\"_blank\" rel=\"nofollow noopener\">debatiendo a\u00fan sin \u00e9xito proyectos de ley<\/a>, etc. Aunque el futuro parece estar muy planificado, hasta la fecha, no se han puesto l\u00edmites de ning\u00fan tipo a la creaci\u00f3n y el uso de los sistemas de la IA; no obstante, parece que esto cambiar\u00e1 muy pronto.<\/p>\n<p>Ante esta situaci\u00f3n, el asunto en cuesti\u00f3n es el siguiente: \u00bfnecesitamos que los gobiernos regulen la IA? Y, de ser as\u00ed, \u00bfc\u00f3mo deber\u00eda ser esta normativa?<\/p>\n<h2>Qu\u00e9 hay que regular<\/h2>\n<p>\u00bfQu\u00e9 es la inteligencia artificial? Gracias (o no) a los departamentos de marketing, este t\u00e9rmino se ha usado para muchas cosas: desde los modelos generativos de vanguardia como <a href=\"https:\/\/es.wikipedia.org\/wiki\/GPT-4\" target=\"_blank\" rel=\"nofollow noopener\">GPT-4<\/a>, hasta los sistemas de aprendizaje autom\u00e1tico m\u00e1s simples, incluidos algunos que existen desde hace d\u00e9cadas. \u00bfRecuerdas el <a href=\"https:\/\/en.wikipedia.org\/wiki\/T9_(predictive_text)\" target=\"_blank\" rel=\"nofollow noopener\">teclado T9<\/a> de los m\u00f3viles de botones? \u00bfHas o\u00eddo hablar del <a href=\"https:\/\/latam.kaspersky.com\/blog\/humachine-intelligence-fighting-snow-shoes\/8896\/\" target=\"_blank\" rel=\"nofollow noopener\">spam autom\u00e1tico y la clasificaci\u00f3n de archivos maliciosos<\/a>? \u00bfEchas un vistazo a las recomendaciones de pel\u00edculas de Netflix? Todas estas tecnolog\u00edas que seguramente te resulten familiares se basan en algoritmos de aprendizaje autom\u00e1tico y se conocen tambi\u00e9n como \u201cIA\u201d.<\/p>\n<p>En Kaspersky llevamos casi 20 a\u00f1os usando estas tecnolog\u00edas en nuestros productos, aunque preferimos referirnos a ellas de una forma m\u00e1s modesta como \u201caprendizaje autom\u00e1tico\u201d, dado que la \u201cinteligencia artificial\u201d suele evocar cosas como <a href=\"https:\/\/es.wikipedia.org\/wiki\/HAL_9000\" target=\"_blank\" rel=\"nofollow noopener\">superodenadores<\/a> en <a href=\"https:\/\/es.wikipedia.org\/wiki\/2001:_A_Space_Odyssey_(pel%C3%ADcula)\" target=\"_blank\" rel=\"nofollow noopener\">naves espaciales<\/a> y otros <a href=\"https:\/\/es.wikipedia.org\/wiki\/R2-D2\" target=\"_blank\" rel=\"nofollow noopener\">elementos<\/a> sacados directos de la <a href=\"https:\/\/es.wikipedia.org\/wiki\/C-3PO\" target=\"_blank\" rel=\"nofollow noopener\">ciencia ficci\u00f3n<\/a>. No obstante, estos ordenadores y droides capaces de hablar y pensar deben ser completamente capaces de pensar como los humanos para poder dirigir una <a href=\"https:\/\/es.wikipedia.org\/wiki\/Inteligencia_artificial_fuerte\" target=\"_blank\" rel=\"nofollow noopener\">inteligencia artificial fuerte<\/a> (AGI) o la <a href=\"https:\/\/es.wikipedia.org\/wiki\/Superinteligencia\" target=\"_blank\" rel=\"nofollow noopener\">superinteligencia<\/a> artificial (ASI), sin embargo, ninguna se ha inventado todav\u00eda, ni lo har\u00e1 en un\u00a0 futuro previsible.<\/p>\n<p>Sea como fuere, si todos los tipos de IA se acaban midiendo con el mismo criterio y est\u00e1n completamente regulados, a la industria TI y muchas otras relacionadas no les ir\u00e1 nada bien. Por ejemplo, si a nosotros (Kaspersky) se nos exigiera alguna vez obtener el consentimiento de todos los \u201cautores\u201d de nuestras sesiones de entrenamiento, como empresa de seguridad de la informaci\u00f3n, nos encontrar\u00edamos entre la espada y la pared. Aprendemos del malware y el spam, y alimentamos nuestro aprendizaje autom\u00e1tico con los conocimientos adquiridos, mientras que sus autores suelen preferir ocultar sus datos de contacto (\u00bfqui\u00e9n iba a saberlo?). Adem\u00e1s, teniendo en cuenta que se han recopilado datos y que nuestros algoritmos llevan form\u00e1ndose durante casi 20 a\u00f1os, \u00bfcu\u00e1nto se espera que recapitulemos?<\/p>\n<p>Por tanto, los legisladores deben escuchar s\u00ed, pero no a los departamentos de marketing, sino a los expertos de la industria del aprendizaje autom\u00e1tico\/IA y debatir la posible regulaci\u00f3n de una forma espec\u00edfica y enfocada: por ejemplo, usando sistemas multifunci\u00f3n entrenados con grandes vol\u00famenes de datos abiertos o con sistemas de toma de decisiones de alto nivel de responsabilidad y riesgo.<\/p>\n<p>Adem\u00e1s, las nuevas aplicaciones de la IA obligar\u00e1n a revisar con frecuencia las normativas a medida que vayan surgiendo.<\/p>\n<h2>\u00bfPor qu\u00e9 es necesaria esta normativa?<\/h2>\n<p>Siendo sincero, no creo que la superinteligencia acabe imponiendo el d\u00eda del Juicio Final en los pr\u00f3ximos cien a\u00f1os, pero s\u00ed creo que el uso inconsciente de la caja negra del ordenador nos pueda generar serios quebraderos cabeza.<\/p>\n<p>Como recordatorio para aquellos que no han le\u00eddo <a href=\"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/\" target=\"_blank\" rel=\"nofollow noopener\">nuestros art\u00edculos sobre el esplendor y la miseria del aprendizaje autom\u00e1tico<\/a>, cualquier IA presenta tres problemas principales:<\/p>\n<ul>\n<li>No sabemos la calidad de los datos que se usan o se han usado para su entrenamiento.<\/li>\n<li>No est\u00e1 nada claro qu\u00e9 ha logrado \u201ccomprender\u201d la IA de este paquete de datos ni <a href=\"https:\/\/arxiv.org\/abs\/2004.07780\" target=\"_blank\" rel=\"nofollow noopener\">c\u00f3mo toma sus decisiones<\/a>.<\/li>\n<li>Y, lo m\u00e1s importante, el algoritmo puede usarse incorrectamente tanto por sus desarrolladores como por sus usuarios.<\/li>\n<\/ul>\n<p>Por consiguiente, podr\u00eda suceder cualquier cosa: desde un uso malicioso hasta el cumplimiento irreflexivo de las decisiones de la IA. Estos son algunos <a href=\"https:\/\/latam.kaspersky.com\/blog\/ai-fails\/11221\/\" target=\"_blank\" rel=\"nofollow noopener\">ejemplos<\/a> gr\u00e1ficos de la vida real: los <a href=\"https:\/\/www.ntsb.gov\/investigations\/AccidentReports\/Reports\/HAR1903.pdf\" target=\"_blank\" rel=\"nofollow noopener\">errores letales del piloto autom\u00e1tico<\/a>, los <em>deepfakes<\/em> (<a href=\"https:\/\/latam.kaspersky.com\/blog\/rsa2020-deepfakes-mitigation\/17902\/\" target=\"_blank\" rel=\"nofollow noopener\">1<\/a>, <a href=\"https:\/\/latam.kaspersky.com\/blog\/deepfake-darknet-market\/26322\/\" target=\"_blank\" rel=\"nofollow noopener\">2<\/a>, <a href=\"https:\/\/www.kaspersky.com\/blog\/getting-ready-for-deep-fake-threats\/48193\/\" target=\"_blank\" rel=\"noopener nofollow\">3<\/a>) ya habituales en los memes e incluso en las noticias, un error tonto en la <a href=\"https:\/\/algorithmwatch.org\/en\/algorithm-school-system-italy\/\" target=\"_blank\" rel=\"nofollow noopener\">contrataci\u00f3n de unos maestros de escuela<\/a>, la polic\u00eda deteniendo a un <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">ladr\u00f3n equivocado<\/a> y una <a href=\"https:\/\/www.reuters.com\/article\/amazon-com-jobs-automation\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH?edition-redirect=in\" target=\"_blank\" rel=\"nofollow noopener\">herramienta de contrataci\u00f3n con una IA mis\u00f3gina<\/a>. Adem\u00e1s, cualquier IA puede recibir un ataque con la ayuda de muestras de datos hostiles personalizados: unas simples <a href=\"https:\/\/www.kaspersky.es\/blog\/ai-fails\/14276\/\" target=\"_blank\" rel=\"noopener\">pegatinas pueden enga\u00f1ar a los veh\u00edculos<\/a>, se puede <a href=\"https:\/\/venturebeat.com\/2020\/12\/16\/google-apple-and-others-show-large-language-models-trained-on-public-data-expose-personal-information\/\" target=\"_blank\" rel=\"nofollow noopener\">extraer informaci\u00f3n personal de GPT-3<\/a> y los <a href=\"https:\/\/securelist.com\/how-to-confuse-antimalware-neural-networks-adversarial-attacks-and-protection\/102949\/\" target=\"_blank\" rel=\"nofollow noopener\">antivirus o EDR tambi\u00e9n pueden caer en la trampa<\/a>. Por cierto, los <a href=\"https:\/\/en.wikipedia.org\/wiki\/Pineapple_Water_for_the_Fair_Lady#The_Anti-Aircraft_Codes_of_Al_Efesbi\" target=\"_blank\" rel=\"nofollow noopener\">ataques a la IA de los drones de combate<\/a> que encontramos en la ciencia ficci\u00f3n ya no parecen tan descabellados.<\/p>\n<p>En pocas palabras, el uso de la IA a\u00fan no ha dado lugar a ning\u00fan problema verdaderamente masivo, pero cada vez hay m\u00e1s posibilidades. Por tanto, las prioridades de su regulaci\u00f3n deben quedar claras:<\/p>\n<ol>\n<li>Evitar los incidentes en infraestructuras cr\u00edticas (f\u00e1bricas\/barcos\/l\u00edneas de transmisi\u00f3n el\u00e9ctrica\/centrales nucleares).<\/li>\n<li>Minimizar las amenazas f\u00edsicas (veh\u00edculos sin conductor, diagn\u00f3stico err\u00f3neo de enfermedades).<\/li>\n<li>Minimizar los da\u00f1os personales y los riesgos comerciales (arrestos o contrataciones err\u00f3neos, error del c\u00e1lculo de la demanda\/adquisiciones, etc.).<\/li>\n<\/ol>\n<p>El objetivo de la regulaci\u00f3n debe centrarse en obligar a los usuarios y proveedores de la IA a evitar el aumento de los riesgos previamente descritos. De hecho, cuanto m\u00e1s grave sea el riesgo, m\u00e1s hincapi\u00e9 se debe hacer en esta obligaci\u00f3n.<\/p>\n<p>Otra preocupaci\u00f3n surge a menudo con respecto a la IA: la necesidad de observar las normas morales y \u00e9ticas y de satisfacer la comodidad psicol\u00f3gica, por as\u00ed decirlo. Con este fin, se recurre a advertencias para que las personas sepan que est\u00e1n viendo un objeto inexistente (dibujado por IA) o comunic\u00e1ndose con un robot y no con un humano, adem\u00e1s de los avisos que informan de que se han respetado los <a href=\"https:\/\/latam.kaspersky.com\/blog\/neural-networks-data-leaks\/26274\/\" target=\"_blank\" rel=\"nofollow noopener\">derechos de autor durante el entrenamiento de la IA<\/a>, etc. \u00bfY todo esto por qu\u00e9? \u00a1As\u00ed los legisladores y proveedores de la IA evitan ser el blanco de las cr\u00edticas! Se trata de una preocupaci\u00f3n muy real en algunas partes del mundo; recordemos las <a href=\"https:\/\/www.theguardian.com\/world\/2016\/jan\/26\/french-taxi-drivers-block-paris-roads-in-uber-protest\" target=\"_blank\" rel=\"nofollow noopener\">protestas contra Uber<\/a>, por ejemplo.<\/p>\n<h2>C\u00f3mo regular la IA<\/h2>\n<p>La forma m\u00e1s sencilla de regular la IA ser\u00eda prohibi\u00e9ndola directamente, pero parece que esta estrategia ya no se est\u00e1 teniendo en cuenta. De todos modos, no es mucho m\u00e1s f\u00e1cil prohibir la IA que los ordenadores. Por tanto, todos los intentos razonables de regulaci\u00f3n deben seguir el principio de \u201ccuanto mayor sea el riesgo, m\u00e1s estrictos ser\u00e1n los requisitos\u201d.<\/p>\n<p>Los modelos de aprendizaje autom\u00e1tico que se utilizan para actividades triviales, como recomendaciones de compras, pueden no estar regulados, pero cuanto m\u00e1s sofisticado sea el modelo o su \u00e1rea de aplicaci\u00f3n, m\u00e1s dr\u00e1sticos deber\u00edan ser los requisitos para los proveedores y usuarios del sistema. Por ejemplo:<\/p>\n<ul>\n<li>Enviar el c\u00f3digo de un modelo o un conjunto de datos de entrenamiento para su inspecci\u00f3n a reguladores o expertos.<\/li>\n<li>Probar la solidez de un conjunto de datos de entrenamiento, incluso en t\u00e9rminos de sesgo, derechos de autor, etc.<\/li>\n<li>Probar la sensatez del \u201cresultado\u201d de la IA; por ejemplo, \u00bfest\u00e1 <a href=\"https:\/\/fortune.com\/2023\/04\/17\/google-ceo-sundar-pichai-artificial-intelligence-bard-hallucinations-unsolved\/\" target=\"_blank\" rel=\"nofollow noopener\">libre de alucinaciones<\/a>?<\/li>\n<li>Etiquetar las operaciones y resultados de la IA.<\/li>\n<li>Actualizar el modelo y sus datos de entrenamiento; por ejemplo, excluir a las personas de un color de piel determinado de los datos de origen o suprimir f\u00f3rmulas qu\u00edmicas para explosivos en la producci\u00f3n del modelo.<\/li>\n<li>Probar la IA en busca de \u201cdatos hostiles\u201d y actualizar su comportamiento seg\u00fan sea necesario.<\/li>\n<li>Controlar qui\u00e9n usa una IA espec\u00edfica y por qu\u00e9. Negar determinados tipos de uso.<\/li>\n<li>Limitar el entrenamiento de las IA grandes o que se apliquen a un \u00e1rea en particular al permiso del regulador.<\/li>\n<li>Demostrar que es seguro usar la IA para abordar un problema en particular. Esta estrategia resulta muy ex\u00f3tica para el universo TI, pero m\u00e1s que familiar para, por ejemplo, las compa\u00f1\u00edas farmac\u00e9uticas, fabricantes de aeronaves y muchas otras industrias donde la seguridad es primordial. Primero vendr\u00edan cinco a\u00f1os de pruebas exhaustivas, luego el permiso del regulador y solo entonces se podr\u00eda lanzar un producto para su uso general.<\/li>\n<\/ul>\n<p>La \u00faltima medida parece demasiado estricta, hasta que te enteras de los incidentes en los que la <a href=\"https:\/\/www.nature.com\/articles\/538311a#\/b9\" target=\"_blank\" rel=\"nofollow noopener\">IA no dio prioridad al tratamiento de pacientes<\/a> con asma aguda y neumon\u00eda e intent\u00f3 enviarlos a casa en lugar de a una unidad de cuidados intensivos.<\/p>\n<p>Las medidas de cumplimiento pueden variar: desde multas por violaciones de las reglas de la IA (en consonancia con las sanciones europeas por las violaciones del RGPD) hasta licencias de actividades relacionadas con la IA y sanciones penales por incumplimiento de la legislaci\u00f3n, como tiene pensado China.<\/p>\n<h2>Entonces, \u00bfcu\u00e1l es el camino correcto?<\/h2>\n<p>A continuaci\u00f3n, compartir\u00e9 mi opini\u00f3n personal sobre este tema, que se basa en 30 a\u00f1os de b\u00fasqueda activa de desarrollo tecnol\u00f3gico avanzado en la industria de la ciberseguridad: desde el aprendizaje autom\u00e1tico hasta los sistemas \u201cseguros por dise\u00f1o\u201d.<\/p>\n<p>En primer lugar, necesitamos una regulaci\u00f3n. Sin ella, la IA acabar\u00e1 pareciendo una autopista sin normas de tr\u00e1fico. O, peor a\u00fan, algo similar a la situaci\u00f3n de la recopilaci\u00f3n de datos personales online a finales de la d\u00e9cada de los 2000, cuando se apropiaban de todo a su alcance. Principalmente, esta normativa promueve la autodisciplina entre los actores del mercado.<\/p>\n<p>En segundo lugar, debemos maximizar la armonizaci\u00f3n y cooperaci\u00f3n internacionales en materia de regulaci\u00f3n, del mismo modo que con las normas t\u00e9cnicas en comunicaciones m\u00f3viles, Internet, etc. Dada la realidad geopol\u00edtica actual esto puede sonar ut\u00f3pico, pero ello no lo hace menos deseable.<\/p>\n<p>En tercer lugar, esta normativa no tiene por qu\u00e9 ser demasiado estricta: no ser\u00eda acertado estrangular una industria joven y din\u00e1mica como esta con una regulaci\u00f3n excesiva. Dicho esto, necesitamos un mecanismo que revise frecuentemente las reglas para estar al tanto de los desarrollos tecnol\u00f3gicos y del mercado.<\/p>\n<p>En cuarto lugar, las reglas, los niveles de riesgos y los niveles de las medidas de protecci\u00f3n deben definirse en consenso con un grupo abundante de expertos con experiencia relevante en la materia.<\/p>\n<p>Y en quinto y \u00faltimo lugar, no tenemos que esperar 10 a\u00f1os. Llevo m\u00e1s de una d\u00e9cada insistiendo en los graves riesgos a los que nos expone el Internet de las cosas y en las vulnerabilidades de los equipos industriales, sin embargo, documentos como la <a href=\"https:\/\/digital-strategy.ec.europa.eu\/es\/library\/cyber-resilience-act\" target=\"_blank\" rel=\"nofollow noopener\">Ley de Ciberresiliencia de la UE<\/a> aparecieron por primera vez (como borradores) hace apenas un a\u00f1o.<\/p>\n<p>\u00a1Eso es todo por ahora amigos! Gracias a todos los que han le\u00eddo hasta el final. \u00a1Sigamos trabajando por un futuro m\u00e1s interesante, seguro y mejorado de la IA!<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Est\u00e1 claro que la IA necesita una normativa, pero \u00bfc\u00f3mo? Eugene Kaspersky comparte su punto de vista sobre este tema.<\/p>\n","protected":false},"author":13,"featured_media":26359,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2738],"tags":[638,2797,2018,1861,5887,5888,192],"class_list":{"0":"post-26358","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-amenazas","9":"tag-aprendizaje-automatico","10":"tag-ia","11":"tag-inteligencia-artificial","12":"tag-normativa-gubernamental","13":"tag-redes-neurales","14":"tag-tecnologia"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-government-regulation\/25686\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-government-regulation\/21105\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-government-regulation\/10626\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ai-government-regulation\/28341\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-government-regulation\/25985\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-government-regulation\/28846\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-government-regulation\/35317\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-government-regulation\/11457\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-government-regulation\/48220\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-government-regulation\/26294\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-government-regulation\/31993\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-government-regulation\/31681\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/inteligencia-artificial\/","name":"inteligencia artificial"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26358","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/13"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=26358"}],"version-history":[{"count":1,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26358\/revisions"}],"predecessor-version":[{"id":26360,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/26358\/revisions\/26360"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/26359"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=26358"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=26358"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=26358"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}