{"id":28663,"date":"2025-10-30T18:49:51","date_gmt":"2025-10-31T00:49:51","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=28663"},"modified":"2025-10-30T18:49:51","modified_gmt":"2025-10-31T00:49:51","slug":"vibe-coding-2025-risks","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/vibe-coding-2025-risks\/28663\/","title":{"rendered":"Los peligros ocultos de la codificaci\u00f3n de IA"},"content":{"rendered":"<p>Aunque los beneficios de los asistentes de IA en el lugar de trabajo <a href=\"https:\/\/latam.kaspersky.com\/blog\/shadow-ai-3-policies\/28569\/\" target=\"_blank\" rel=\"noopener\">siguen siendo discutibles<\/a>, donde se est\u00e1n adoptando con m\u00e1s confianza es en el desarrollo de software. Aqu\u00ed, los LLM desempe\u00f1an muchas funciones, desde la refactorizaci\u00f3n y la documentaci\u00f3n hasta la creaci\u00f3n de aplicaciones completas. Sin embargo, los problemas de seguridad de la informaci\u00f3n tradicionales en el desarrollo ahora se ven agravados por las vulnerabilidades particulares de los modelos de IA. En esta intersecci\u00f3n, surgen nuevos errores y problemas casi todas las semanas.<\/p>\n<h2>C\u00f3digo generado por IA vulnerable<\/h2>\n<p>Cuando un LLM genera un c\u00f3digo, puede incluir errores o fallos de seguridad. Despu\u00e9s de todo, estos modelos se entrenan con datos disponibles p\u00fablicamente en Internet, incluidos miles de ejemplos de c\u00f3digo de baja calidad. Un <a href=\"https:\/\/www.veracode.com\/blog\/genai-code-security-report\/\" target=\"_blank\" rel=\"noopener nofollow\">estudio<\/a> reciente de Veracode descubri\u00f3 que los principales modelos de IA ahora producen c\u00f3digo que se compila con \u00e9xito el 90\u00a0% del tiempo. Hace menos de dos a\u00f1os, esta cifra era inferior al 20\u00a0%. Sin embargo, la seguridad de ese c\u00f3digo no ha mejorado: el 45\u00a0% a\u00fan contiene vulnerabilidades cl\u00e1sicas de la <a href=\"https:\/\/owasp.org\/www-project-top-ten\/\" target=\"_blank\" rel=\"noopener nofollow\">lista OWASP Top-10<\/a>, con pocos cambios en los \u00faltimos dos a\u00f1os. El estudio abarc\u00f3 m\u00e1s de un centenar de LLM populares y fragmentos de c\u00f3digo en Java, Python, C# y JavaScript. Por lo tanto, independientemente de si el LLM se utiliza para \u201cautocompletar el c\u00f3digo\u201d en Windsurf o para el \u201c<a href=\"https:\/\/es.wikipedia.org\/wiki\/Vibe_coding\" target=\"_blank\" rel=\"noopener nofollow\">vibe coding<\/a>\u201d en Loveable, la aplicaci\u00f3n final debe someterse a pruebas de vulnerabilidad exhaustivas. Pero en la pr\u00e1ctica, esto rara vez sucede: seg\u00fan un <a href=\"https:\/\/www.wiz.io\/blog\/common-security-risks-in-vibe-coded-apps\" target=\"_blank\" rel=\"noopener nofollow\">estudio de Wiz<\/a>, el 20\u00a0% de las aplicaciones codificadas con vibe coding tienen vulnerabilidades graves o errores de configuraci\u00f3n.<\/p>\n<p>Como ejemplo de tales fallos, a menudo se usa el caso de la aplicaci\u00f3n de citas solo para mujeres, Tea, que se gan\u00f3 una mala reputaci\u00f3n despu\u00e9s de <a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/tea-app-leak-worsens-with-second-database-exposing-user-chats\/\" target=\"_blank\" rel=\"noopener nofollow\">dos importantes filtraciones de datos<\/a>. Sin embargo, esta aplicaci\u00f3n es anterior al vibe coding. Si la IA fue la culpable del desliz de Tea <a href=\"https:\/\/news.bloomberglaw.com\/bloomberg-law-analysis\/analysis-trouble-brews-for-tea-app-amid-vibe-coding-allegations\" target=\"_blank\" rel=\"noopener nofollow\">se determinar\u00e1 en el tribunal<\/a>. Sin embargo, en el caso de la startup Enrichlead, la IA fue sin duda la culpable. Su fundador <a href=\"https:\/\/twitter.com\/leojr94_\/status\/1900767509621674109\" target=\"_blank\" rel=\"noopener nofollow\">se jact\u00f3<\/a> en las redes sociales de que el 100\u00a0% del c\u00f3digo de su plataforma fue escrito por Cursor AI, con \u201cnada de c\u00f3digo escrito a mano\u201d. Apenas unos d\u00edas despu\u00e9s de su lanzamiento, se descubri\u00f3 que estaba <a href=\"https:\/\/twitter.com\/leojr94_\/status\/1901560276488511759?ref_src=twsrc%5etfw\" target=\"_blank\" rel=\"noopener nofollow\">lleno de fallos de seguridad de principiante<\/a>, que permit\u00edan a cualquier persona acceder a funciones pagas o alterar los datos. El proyecto se cancel\u00f3 despu\u00e9s de que el fundador no lograra llevar el c\u00f3digo a un est\u00e1ndar de seguridad aceptable con Cursor. Sin embargo, no se deja intimidar, y desde entonces ha iniciado nuevos proyectos basados en el vibe coding.<\/p>\n<h2>Vulnerabilidades comunes en el c\u00f3digo generado por IA<\/h2>\n<p>Aunque la programaci\u00f3n asistida por IA solo ha existido durante uno o dos a\u00f1os, ya hay datos suficientes para identificar sus <a href=\"https:\/\/www.wiz.io\/blog\/common-security-risks-in-vibe-coded-apps\" target=\"_blank\" rel=\"noopener nofollow\">errores m\u00e1s comunes<\/a>. Por lo general, estos son los siguientes:<\/p>\n<ul>\n<li>La falta de validaci\u00f3n de datos, la no limpieza de los caracteres extra\u00f1os en los datos que ingresan los usuarios y otros errores b\u00e1sicos que producen vulnerabilidades cl\u00e1sicas como el scripting entre sitios (XSS) y la inyecci\u00f3n de SQL.<\/li>\n<li>Las claves de API y otros secretos codificados de forma r\u00edgida directamente en la p\u00e1gina web y visibles para los usuarios en su c\u00f3digo.<\/li>\n<li>La l\u00f3gica de autenticaci\u00f3n implementada de forma exclusiva en el lado del cliente, directamente en el c\u00f3digo del sitio que se ejecuta en el navegador. Esta l\u00f3gica se puede modificar f\u00e1cilmente para eludir cualquier verificaci\u00f3n.<\/li>\n<li>Errores de registro: desde un filtrado insuficiente al escribir en los registros hasta la ausencia total de registros.<\/li>\n<li>Funciones demasiado potentes y peligrosas: los modelos de IA est\u00e1n optimizados para generar un c\u00f3digo que resuelve una tarea de la manera m\u00e1s r\u00e1pida posible. Pero la manera m\u00e1s r\u00e1pida suele ser poco segura. Un ejemplo cl\u00e1sico es <a href=\"https:\/\/cloudsecurityalliance.org\/blog\/2025\/07\/09\/understanding-security-risks-in-ai-generated-code\" target=\"_blank\" rel=\"noopener nofollow\">el uso de la funci\u00f3n eval<\/a> para operaciones matem\u00e1ticas en los datos que ingresan los usuarios. Esto permite la ejecuci\u00f3n arbitraria de c\u00f3digo en la aplicaci\u00f3n generada.<\/li>\n<li>Las dependencias desactualizadas o inexistentes. El c\u00f3digo generado por IA a menudo hace referencia a versiones antiguas de bibliotecas, realiza llamadas API desactualizadas o no seguras, o incluso intenta <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-slopsquatting-supply-chain-risk\/53327\/\" target=\"_blank\" rel=\"noopener nofollow\">importar bibliotecas ficticias<\/a>. Esto \u00faltimo es particularmente peligroso porque los atacantes pueden crear una biblioteca maliciosa con un nombre \u201ccre\u00edble\u201d, y el agente de IA la incluir\u00e1 en un proyecto real.<\/li>\n<\/ul>\n<p>En un estudio sistem\u00e1tico, los autores <a href=\"https:\/\/arxiv.org\/pdf\/2412.15004\" target=\"_blank\" rel=\"noopener nofollow\">analizaron el c\u00f3digo generado por IA<\/a> en busca de debilidades incluidas en la <a href=\"https:\/\/cwe.mitre.org\/top25\/\" target=\"_blank\" rel=\"noopener nofollow\">lista MITRE CWE Top 25<\/a>. Los problemas m\u00e1s comunes fueron CWE-94 (inyecci\u00f3n de c\u00f3digo), CWE-78 (inyecci\u00f3n de comandos del SO), CWE-190 (desbordamiento de enteros), CWE-306 (falta de autenticaci\u00f3n) y CWE-434 (carga de archivos sin restricciones).<\/p>\n<p>Un ejemplo sorprendente de CWE-94 fue la reciente vulneraci\u00f3n de la plataforma Nx, <a href=\"https:\/\/www.kaspersky.com\/blog\/nx-build-s1ngularity-supply-chain-attack\/54223\/\" target=\"_blank\" rel=\"noopener nofollow\">de la que ya hablamos<\/a>. Los atacantes lograron troyanizar una herramienta de desarrollo popular con el robo de un token que les permit\u00eda publicar nuevas versiones de productos. Este robo aprovech\u00f3 una vulnerabilidad <a href=\"https:\/\/github.com\/nrwl\/nx\/pull\/32458\" target=\"_blank\" rel=\"noopener nofollow\">introducida por un simple fragmento de c\u00f3digo generado por IA<\/a>.<\/p>\n<h2>Instrucciones peligrosas<\/h2>\n<p>El conocido dicho entre los desarrolladores \u201checho exactamente de acuerdo con las especificaciones\u201d tambi\u00e9n se aplica cuando se trabaja con un asistente de IA. Si la instrucci\u00f3n para crear una funci\u00f3n o aplicaci\u00f3n no es clara y no menciona los elementos de seguridad, las probabilidades de generar c\u00f3digo vulnerable aumentan dr\u00e1sticamente. <a href=\"https:\/\/arxiv.org\/pdf\/2502.06039\" target=\"_blank\" rel=\"noopener nofollow\">Un estudio especializado<\/a> descubri\u00f3 que incluso comentarios generales como \u201caseg\u00farate de que el c\u00f3digo siga las pr\u00e1cticas recomendadas para generar un c\u00f3digo seguro\u201d redujo la tasa de vulnerabilidades a la mitad.<\/p>\n<p>Sin embargo, el enfoque m\u00e1s eficaz es utilizar una gu\u00eda de seguridad detallada y espec\u00edfica del lenguaje que haga referencia a las listas de errores MITRE u OWASP. Hay una gran colecci\u00f3n de instrucciones de seguridad de este tipo de Wiz Research disponible en <a href=\"https:\/\/github.com\/wiz-sec-public\/secure-rules-files\" target=\"_blank\" rel=\"noopener nofollow\">GitHub<\/a>. Se recomienda a\u00f1adirlas a las instrucciones del sistema de los asistentes de IA a trav\u00e9s de archivos como <em>claude.md<\/em>, <em>.windsurfrules<\/em> o similares.<\/p>\n<h2>Degradaci\u00f3n de la seguridad durante las correcciones<\/h2>\n<p>Cuando el c\u00f3digo generado por IA se corrige repetidamente con instrucciones de seguimiento, su seguridad se deteriora. Un <a href=\"https:\/\/arxiv.org\/abs\/2506.11022\" target=\"_blank\" rel=\"noopener nofollow\">estudio<\/a> reciente hizo que GPT-4o modificara el c\u00f3digo escrito previamente hasta 40\u00a0veces, mientras que los investigadores analizaban cada versi\u00f3n en busca de vulnerabilidades despu\u00e9s de cada ronda. Despu\u00e9s de solo cinco reiteraciones, el c\u00f3digo conten\u00eda un 37\u00a0% m\u00e1s de vulnerabilidades cr\u00edticas que la versi\u00f3n inicial. El estudio prob\u00f3 cuatro estrategias de orientaci\u00f3n, tres de las cuales ten\u00edan un \u00e9nfasis diferente cada una: (i) rendimiento, (ii) seguridad y (iii) nuevas funcionalidades. El cuarto fue escrito con instrucciones poco claras.<\/p>\n<p>Cuando las instrucciones se centraron en a\u00f1adir nuevas funciones, aparecieron 158\u00a0vulnerabilidades, incluidas 29 que fueron cr\u00edticas. Cuando la instrucci\u00f3n puso \u00e9nfasis en la codificaci\u00f3n segura, el n\u00famero disminuy\u00f3 significativamente, pero de todas formas introdujo 38\u00a0nuevas vulnerabilidades, siete de las cuales eran cr\u00edticas.<\/p>\n<p>Curiosamente, las instrucciones \u201cenfocadas en la seguridad\u201d dieron como resultado el mayor porcentaje de errores en las funciones relacionadas con la criptograf\u00eda.<\/p>\n<h2>Desconocimiento del contexto de la industria<\/h2>\n<p>En sectores como las finanzas, la salud y la log\u00edstica, existen requisitos t\u00e9cnicos, organizativos y legales que deben tenerse en cuenta durante el desarrollo de una aplicaci\u00f3n. Los asistentes de IA no conocen estas limitaciones. Este problema a menudo se denomina \u201cfalta de informaci\u00f3n\u201d. Como resultado, los m\u00e9todos de almacenamiento y procesamiento de datos personales, m\u00e9dicos y financieros exigidos por las regulaciones locales o de la industria no se reflejar\u00e1n en el c\u00f3digo generado por IA. Por ejemplo, un asistente podr\u00eda escribir una funci\u00f3n matem\u00e1ticamente correcta para calcular el inter\u00e9s del dep\u00f3sito, pero ignorar las normas de redondeo impuestas por los reguladores. Las regulaciones de datos de salud a menudo requieren un registro detallado de cada intento de acceso, algo que la IA no implementar\u00e1 de forma autom\u00e1tica con el nivel de detalle necesario.<\/p>\n<h2>Configuraci\u00f3n incorrecta de la aplicaci\u00f3n<\/h2>\n<p>Las vulnerabilidades no se limitan al vibe code en s\u00ed. Las aplicaciones desarrolladas con vibe coding a menudo son creadas por usuarios sin experiencia, que no configuran el entorno de ejecuci\u00f3n en absoluto o lo configuran de acuerdo con los consejos de la propia IA. Esto provoca errores de configuraci\u00f3n peligrosos:<\/p>\n<ul>\n<li>Las bases de datos requeridas por la aplicaci\u00f3n se crean con permisos de acceso externo demasiado amplios. Esto da como resultado filtraciones como Tea\/<a href=\"https:\/\/therecord.media\/brazil-lesbian-dating-app-shuts-down-vulnerability\" target=\"_blank\" rel=\"noopener nofollow\">Sapphos<\/a>, en las cuales el atacante ni siquiera necesita usar la aplicaci\u00f3n para descargar o eliminar la base de datos completa.<\/li>\n<li>Las aplicaciones corporativas internas se dejan accesibles al p\u00fablico sin autenticaci\u00f3n.<\/li>\n<li>Las aplicaciones reciben permisos con privilegios para acceder a bases de datos importantes. Junto con las vulnerabilidades del c\u00f3digo generado por IA, esto simplifica las inyecciones de SQL y los ataques similares.<\/li>\n<\/ul>\n<h2>Vulnerabilidades de la plataforma<\/h2>\n<p>La mayor\u00eda de las plataformas de vibe coding ejecutan aplicaciones generadas a partir de instrucciones directamente en sus propios servidores. Esto vincula a los desarrolladores con la plataforma, incluida la exposici\u00f3n a sus vulnerabilidades y la dependencia de sus pr\u00e1cticas de seguridad. Por ejemplo, en julio <a href=\"https:\/\/www.wiz.io\/blog\/critical-vulnerability-base44\" target=\"_blank\" rel=\"noopener nofollow\">se descubri\u00f3 una vulnerabilidad en la plataforma de Base44<\/a> que permit\u00eda a atacantes no autenticados acceder a cualquier aplicaci\u00f3n privada.<\/p>\n<h2>Amenazas en la etapa de desarrollo<\/h2>\n<p>La mera presencia de un asistente con amplios derechos de acceso en el ordenador del desarrollador crea riesgos. Estos son algunos ejemplos:<\/p>\n<p>La vulnerabilidad CurXecute (<a href=\"https:\/\/github.com\/cursor\/cursor\/security\/advisories\/GHSA-4cxx-hrm3-49rm\" target=\"_blank\" rel=\"noopener nofollow\">CVE-2025-54135<\/a>) permiti\u00f3 a los atacantes ordenar a la popular herramienta de desarrollo de IA, Cursor, que ejecutara comandos arbitrarios en la m\u00e1quina del desarrollador. Todo lo que se necesitaba era un servidor de Protocolo de contexto de modelo (MCP) activo conectado a Cursor, que una parte externa podr\u00eda usar para acceder. Esta es una situaci\u00f3n t\u00edpica: los servidores MCP brindan a los agentes de IA acceso a los mensajes de Slack, problemas de Jira y m\u00e1s. La inyecci\u00f3n de instrucciones se puede realizar a trav\u00e9s de cualquiera de estos canales.<\/p>\n<p>La vulnerabilidad EscapeRoute (<a href=\"https:\/\/github.com\/modelcontextprotocol\/servers\/security\/advisories\/GHSA-q66q-fx2p-7w4m\" target=\"_blank\" rel=\"noopener nofollow\">CVE-2025-53109<\/a>) permiti\u00f3 la lectura y escritura de archivos arbitrarios en el disco del desarrollador. El fallo exist\u00eda en el popular servidor MCP de Anthropic, que permite a los agentes de IA escribir y leer archivos en el sistema. Las restricciones de acceso del servidor simplemente no funcionaron.<\/p>\n<p>Un <a href=\"https:\/\/thehackernews.com\/2025\/09\/first-malicious-mcp-server-found.html\" target=\"_blank\" rel=\"noopener nofollow\">servidor MCP malicioso<\/a> que permit\u00eda a los agentes de IA enviar y recibir correos electr\u00f3nicos a trav\u00e9s de Postmark reenviaba simult\u00e1neamente toda la correspondencia a una direcci\u00f3n oculta. Hab\u00edamos predicho la aparici\u00f3n de <a href=\"https:\/\/securelist.com\/model-context-protocol-for-ai-integration-abused-in-supply-chain-attacks\/117473\/\" target=\"_blank\" rel=\"noopener\">servidores MCP maliciosos<\/a> as\u00ed en septiembre.<\/p>\n<p>Una vulnerabilidad en la interfaz de l\u00ednea de comandos de Gemini permiti\u00f3 <a href=\"https:\/\/github.com\/google-gemini\/gemini-cli\/pull\/4795\" target=\"_blank\" rel=\"noopener nofollow\">la ejecuci\u00f3n de comandos arbitrarios<\/a> cuando un desarrollador simplemente le ped\u00eda al asistente de IA que analizara el c\u00f3digo de un nuevo proyecto. La inyecci\u00f3n maliciosa se activ\u00f3 desde un archivo <em>readme.md<\/em>.<\/p>\n<p>Por poco tiempo, la extensi\u00f3n Q\u00a0Developer de Amazon para Visual Studio Code contuvo <a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/amazon-ai-coding-agent-hacked-to-inject-data-wiping-commands\/\" target=\"_blank\" rel=\"noopener nofollow\">instrucciones para borrar todos los datos<\/a> del ordenador de un desarrollador. Un atacante aprovech\u00f3 un error de los desarrolladores de Amazon y logr\u00f3 insertar esta instrucci\u00f3n maliciosa en el c\u00f3digo p\u00fablico del asistente sin privilegios especiales. Por suerte, un peque\u00f1o error de codificaci\u00f3n impidi\u00f3 su ejecuci\u00f3n.<\/p>\n<p>Una vulnerabilidad en el agente de Claude Code (<a href=\"https:\/\/embracethered.com\/blog\/posts\/2025\/claude-code-exfiltration-via-dns-requests\/\" target=\"_blank\" rel=\"noopener nofollow\">CVE-2025-55284<\/a>) permiti\u00f3 que los datos se filtraran del ordenador de un desarrollador a trav\u00e9s de solicitudes de DNS. La inyecci\u00f3n de instrucciones, que usaba programas comunes que se ejecutan autom\u00e1ticamente sin confirmaci\u00f3n, se pod\u00eda incrustar en cualquier c\u00f3digo analizado por el agente.<\/p>\n<p>El agente de IA aut\u00f3nomo Replit <a href=\"https:\/\/twitter.com\/jasonlk\/status\/1946069562723897802\" target=\"_blank\" rel=\"noopener nofollow\">elimin\u00f3 las bases de datos principales de un proyecto<\/a> que estaba desarrollando porque decidi\u00f3 que la base de datos requer\u00eda una limpieza. Esto fue en contra de una instrucci\u00f3n directa que prohib\u00eda las modificaciones (congelaci\u00f3n de c\u00f3digo). Detr\u00e1s de este comportamiento inesperado de la IA se encuentra un defecto arquitect\u00f3nico clave: en ese momento, Replit <a href=\"https:\/\/x.com\/jasonlk\/status\/1947765754050580959\" target=\"_blank\" rel=\"noopener nofollow\">no ten\u00eda una separaci\u00f3n<\/a> entre las bases de datos de prueba y de producci\u00f3n.<\/p>\n<p>Una inyecci\u00f3n de instrucciones en un comentario del c\u00f3digo fuente provoc\u00f3 que el entorno de desarrollo de Windsurf <a href=\"https:\/\/embracethered.com\/blog\/posts\/2025\/windsurf-spaiware-exploit-persistent-prompt-injection\/\" target=\"_blank\" rel=\"noopener nofollow\">almacenara autom\u00e1ticamente instrucciones maliciosas en su memoria a largo plazo<\/a>, lo que le permit\u00eda robar datos del sistema durante meses.<\/p>\n<p>En el <a href=\"https:\/\/www.kaspersky.com\/blog\/nx-build-s1ngularity-supply-chain-attack\/54223\/\" target=\"_blank\" rel=\"noopener nofollow\">incidente de vulnerabilidad de Nx<\/a>, las herramientas de l\u00ednea de comandos para Claude, Gemini y Q se utilizaron para buscar contrase\u00f1as y claves que pod\u00edan robarse de un sistema infectado.<\/p>\n<h2>C\u00f3mo utilizar el c\u00f3digo generado por IA de forma segura<\/h2>\n<p>El nivel de riesgo del c\u00f3digo generado por IA puede reducirse significativamente, aunque no por completo, con una combinaci\u00f3n de medidas organizativas y t\u00e9cnicas:<\/p>\n<ul>\n<li>Implementa la revisi\u00f3n autom\u00e1tica del c\u00f3digo generado por IA tal como est\u00e1 escrito utilizando herramientas <a href=\"https:\/\/en.wikipedia.org\/wiki\/Static_application_security_testing\" target=\"_blank\" rel=\"noopener nofollow\">SAST<\/a> optimizadas.<\/li>\n<li>Inserta los requisitos de seguridad en las instrucciones del sistema de todos los entornos de IA.<\/li>\n<li>Haz que especialistas humanos con experiencia realicen revisiones detalladas del c\u00f3digo, con el apoyo de herramientas especializadas de an\u00e1lisis de seguridad impulsadas por IA para aumentar la efectividad.<\/li>\n<li>Forma a los desarrolladores para escribir instrucciones seguras y, de manera m\u00e1s amplia, proporciona <a href=\"https:\/\/k-asap.com\/es\/?icid=es-LA_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder____kasap___\" target=\"_blank\" rel=\"noopener\">educaci\u00f3n exhaustiva sobre el uso seguro de la IA<\/a>.<\/li>\n<\/ul>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kasap\">\n","protected":false},"excerpt":{"rendered":"<p>C\u00f3mo el c\u00f3digo generado por IA est\u00e1 cambiando la ciberseguridad y qu\u00e9 deben esperar los desarrolladores y los &#8220;vibe coders&#8221;.<\/p>\n","protected":false},"author":2722,"featured_media":28664,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2795,3539,3540],"tags":[2797,2018,1861,6051,38],"class_list":{"0":"post-28663","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-business","8":"category-enterprise","9":"category-smb","10":"tag-aprendizaje-automatico","11":"tag-ia","12":"tag-inteligencia-artificial","13":"tag-llm","14":"tag-seguridad"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/vibe-coding-2025-risks\/28663\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/vibe-coding-2025-risks\/29724\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/vibe-coding-2025-risks\/24794\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/vibe-coding-2025-risks\/12914\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/vibe-coding-2025-risks\/29613\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/vibe-coding-2025-risks\/31557\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/vibe-coding-2025-risks\/30214\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/vibe-coding-2025-risks\/40659\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/vibe-coding-2025-risks\/13915\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/vibe-coding-2025-risks\/54584\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/vibe-coding-2025-risks\/23307\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/vibe-coding-2025-risks\/32829\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/vibe-coding-2025-risks\/29817\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/vibe-coding-2025-risks\/35557\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/vibe-coding-2025-risks\/35179\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/inteligencia-artificial\/","name":"inteligencia artificial"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/28663","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=28663"}],"version-history":[{"count":3,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/28663\/revisions"}],"predecessor-version":[{"id":28670,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/28663\/revisions\/28670"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/28664"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=28663"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=28663"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=28663"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}