{"id":27034,"date":"2024-02-20T10:40:07","date_gmt":"2024-02-20T16:40:07","guid":{"rendered":"https:\/\/latam.kaspersky.com\/blog\/?p=27034"},"modified":"2024-02-20T10:40:07","modified_gmt":"2024-02-20T16:40:07","slug":"how-to-use-chatgpt-ai-assistants-securely-2024","status":"publish","type":"post","link":"https:\/\/latam.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27034\/","title":{"rendered":"C\u00f3mo usar ChatGPT, Gemini y otras herramientas de IA de forma segura"},"content":{"rendered":"<p>El crecimiento explosivo del a\u00f1o pasado en materia de aplicaciones, servicios y complementos de inteligencia artificial parece acelerarse. Desde aplicaciones de oficina y editores de im\u00e1genes hasta entornos de desarrollo integrados (IDE), como Visual Studio, la inteligencia artificial se est\u00e1 a\u00f1adiendo a herramientas familiares que se usan hace tiempo. Muchos desarrolladores est\u00e1n creando miles de nuevas aplicaciones que aprovechan los modelos de inteligencia artificial m\u00e1s grandes. Sin embargo, nadie en esta carrera ha sido capaz de resolver los problemas de seguridad inherentes: en primer lugar, la minimizaci\u00f3n de las fugas de datos confidenciales y tambi\u00e9n el nivel de pirater\u00eda de cuentas\/dispositivos a trav\u00e9s de varias herramientas de inteligencia artificial; ni hablar de la creaci\u00f3n de protecciones adecuadas contra una futura \u201cIA malvada\u201d. Hasta que a alguien se le ocurra una soluci\u00f3n est\u00e1ndar para proteger a los usuarios de los asistentes de inteligencia artificial, tendr\u00e1s que aprender algunas habilidades y ayudarte a ti mismo.<\/p>\n<p>Entonces, \u00bfc\u00f3mo usas la inteligencia artificial sin arrepentirte m\u00e1s tarde?<\/p>\n<h2>Filtra los datos importantes<\/h2>\n<p><a href=\"https:\/\/openai.com\/policies\/privacy-policy\" target=\"_blank\" rel=\"noopener nofollow\">La pol\u00edtica de privacidad de OpenAI<\/a>, el desarrollador de ChatGPT, establece inequ\u00edvocamente que cualquier di\u00e1logo con el chatbot se guarda y se puede usar para varios prop\u00f3sitos. En primer lugar, para resolver problemas t\u00e9cnicos y prevenir infracciones de los t\u00e9rminos de servicio: en caso de que a alguien se le ocurra generar contenido inapropiado. \u00bfQui\u00e9n lo hubiera pensado, verdad? En ese caso, los chats incluso pueden ser revisados por un humano. En segundo lugar, los datos se pueden utilizar para entrenar nuevas versiones de GPT y realizar otras \u201cmejoras\u201d en el producto.<\/p>\n<p>La mayor\u00eda de los otros modelos de lenguaje populares, ya sea Gemini de Google, Claude de Anthropic o Bing y Copilot de Microsoft, tienen directivas similares: todos pueden guardar di\u00e1logos completos.<\/p>\n<p>Dicho esto, <a href=\"https:\/\/www.bbc.com\/news\/technology-65047304\" target=\"_blank\" rel=\"noopener nofollow\">ya se han producido<\/a> filtraciones involuntarias de chats debido a errores de software, por los cuales los usuarios ven las conversaciones de otras personas en lugar de las suyas. El uso de estos datos para el entrenamiento tambi\u00e9n podr\u00eda conducir a una <a href=\"https:\/\/www.zdnet.com\/article\/chatgpt-can-leak-source-data-violate-privacy-says-googles-deepmind\/\" target=\"_blank\" rel=\"noopener nofollow\">filtraci\u00f3n de datos de un modelo previamente entrenado<\/a>: el asistente de inteligencia artificial podr\u00eda proporcionar tu informaci\u00f3n a alguien si considera que es relevante para la respuesta. Los expertos en seguridad de la informaci\u00f3n incluso han dise\u00f1ado varios ataques (<a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/openai-rolls-out-imperfect-fix-for-chatgpt-data-leak-flaw\/\" target=\"_blank\" rel=\"noopener nofollow\">uno<\/a>, <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-data-exfiltration\/\" target=\"_blank\" rel=\"noopener nofollow\">dos<\/a>, <a href=\"https:\/\/promptarmor.substack.com\/p\/data-exfiltration-from-writercom\" target=\"_blank\" rel=\"noopener nofollow\">tres<\/a>) destinados a robar di\u00e1logos probablemente no se detengan all\u00ed.<\/p>\n<p>Por lo tanto, recuerda: cualquier cosa que le escribas a un chatbot puede usarse en tu contra. Te recomendamos que tomes precauciones cuando interact\u00faes con IA.<\/p>\n<p><strong>No env\u00edes datos personales a un chatbot. <\/strong>Ninguna contrase\u00f1a, n\u00famero de pasaporte o tarjeta bancaria, direcciones, n\u00fameros de tel\u00e9fono, nombres u otros datos personales que te pertenezcan, le pertenezcan a tu empresa o a tus clientes deben terminar en chats con IA. Puedes reemplazarlos por asteriscos o el t\u00e9rmino \u201cCENSURADO\u201d en tu solicitud.<\/p>\n<p><strong>No cargues documentos. <\/strong>Existen numerosos complementos que te permiten usar chatbots para el procesamiento de documentos. Puedes sentir la tentaci\u00f3n de cargar un documento de trabajo para, por ejemplo, obtener un resumen ejecutivo. Sin embargo, cuando cargas descuidadamente un documento de varias p\u00e1ginas, corres el riesgo de <a href=\"https:\/\/mashable.com\/article\/samsung-chatgpt-leak-details\" target=\"_blank\" rel=\"noopener nofollow\">filtrar datos confidenciales<\/a>, propiedad intelectual o un secreto comercial, como la fecha de lanzamiento de un nuevo producto o la n\u00f3mina de todo el equipo. O, lo que es peor, cuando procesas documentos recibidos de fuentes externas, es posible que seas el <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-docs-ai-scam\/\" target=\"_blank\" rel=\"noopener nofollow\">objetivo de un ataque<\/a> que dependa de que un modelo de lenguaje escanee el documento.<\/p>\n<p><strong>Utiliza una configuraci\u00f3n de privacidad.<\/strong> Revisa detenidamente la pol\u00edtica de privacidad y la configuraci\u00f3n disponible de tu proveedor de grandes modelos de lenguaje (LLM): por lo general, se pueden aprovechar para minimizar el seguimiento. Por ejemplo, los productos de OpenAI te permiten desactivar el almacenamiento del historial de chat. En ese caso, los datos se eliminan despu\u00e9s de 30 d\u00edas y nunca se usan para entrenamiento. Quienes usan API, aplicaciones de terceros o servicios para acceder a las soluciones de OpenAI tienen esa configuraci\u00f3n activada de manera predeterminada.<\/p>\n<p><strong>\u00bfEnviar\u00e1s c\u00f3digos? Borra los datos confidenciales.<\/strong> Este consejo est\u00e1 dirigido a aquellos ingenieros de software que utilizan asistentes de IA para revisar y mejorar su c\u00f3digo: elimina cualquier clave API, direcci\u00f3n de servidor o cualquier otra informaci\u00f3n que pueda revelar la estructura de la aplicaci\u00f3n o la configuraci\u00f3n del servidor.<\/p>\n<h2>Limita el uso de aplicaciones y complementos de terceros<\/h2>\n<p>Sigue estos consejos en todo momento, sin importar qu\u00e9 asistente de inteligencia artificial popular est\u00e9s utilizando. Sin embargo, incluso esto puede no ser suficiente para garantizar la privacidad. El uso de complementos de ChatGPT, extensiones de Gemini o aplicaciones complementarias independientes da lugar a nuevos tipos de amenazas.<\/p>\n<p>En primer lugar, tu historial de chat ahora puede almacenarse no solo en los servidores de Google u OpenAI, sino tambi\u00e9n en servidores que pertenecen a terceros que admiten el complemento, as\u00ed como en rincones poco probables de tu ordenador o tel\u00e9fono inteligente.<\/p>\n<p>En segundo lugar, la mayor\u00eda de los complementos extraen informaci\u00f3n de fuentes externas: b\u00fasquedas web, tu bandeja de entrada de Gmail o notas personales de servicios como Notion, Jupyter o Evernote. En consecuencia, cualquiera de tus datos de esos servicios tambi\u00e9n puede terminar en los servidores donde se ejecuta el complemento o el modelo de lenguaje. Una integraci\u00f3n como esa puede conllevar riesgos importantes: por ejemplo, ten en cuenta este <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">ataque que crea nuevos repositorios de GitHub en nombre del usuario<\/a>.<\/p>\n<p>En tercer lugar, la publicaci\u00f3n y verificaci\u00f3n de complementos para los asistentes de IA en este momento son un proceso mucho menos ordenado que, por ejemplo, la detecci\u00f3n de aplicaciones en App Store o Google Play. Por lo tanto, las posibilidades de encontrar un complemento que funcione mal, est\u00e9 mal escrito, tenga errores o incluso sea simplemente malicioso son bastante altas, tanto m\u00e1s porque parece que <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">nadie controla realmente<\/a> a los creadores o sus contactos.<\/p>\n<p>\u00bfC\u00f3mo mitigas estos riesgos? Nuestro consejo clave en este caso es darle tiempo. El ecosistema de complementos es demasiado reciente, los procesos de publicaci\u00f3n y soporte no son lo suficientemente fluidos, y los propios creadores no siempre se encargan de dise\u00f1ar los complementos correctamente o de cumplir con los requisitos de seguridad de la informaci\u00f3n. Todo este ecosistema necesita m\u00e1s tiempo para madurar y volverse m\u00e1s seguro y fiable.<\/p>\n<p>Adem\u00e1s, el valor que muchos complementos a\u00f1aden a la versi\u00f3n est\u00e1ndar de ChatGPT es m\u00ednimo: ajustes menores en la interfaz de usuario y plantillas de \u201cindicador del sistema\u201d que personalizan el asistente para una tarea espec\u00edfica (\u201cActuar como profesor de f\u00edsica de escuela secundaria\u2026\u201d). No vale la pena confiar en estos contenedores, ya que puedes realizar la tarea perfectamente sin ellos.<\/p>\n<p>Si realmente necesitas determinadas caracter\u00edsticas de complementos en este momento, intenta tomar las m\u00e1ximas precauciones disponibles antes de usarlas.<\/p>\n<ul>\n<li>Escoge extensiones y complementos que tengan al menos varios meses de antig\u00fcedad y se actualicen peri\u00f3dicamente.<\/li>\n<li>Considera solo complementos que tengan muchas descargas y lee atentamente las revisiones para detectar cualquier problema.<\/li>\n<li>Si el complemento viene con una pol\u00edtica de privacidad, l\u00e9ela detenidamente <strong>antes<\/strong> de comenzar a usar la extensi\u00f3n.<\/li>\n<li>Opta por herramientas de c\u00f3digo abierto.<\/li>\n<li>Si posees habilidades de codificaci\u00f3n, aunque sean rudimentarias, o amigos codificadores, lee el c\u00f3digo para asegurarte de que solo env\u00ede datos a los servidores declarados e, idealmente, solo a los servidores del modelo de IA.<\/li>\n<\/ul>\n<h2>Los complementos de ejecuci\u00f3n requieren una supervisi\u00f3n especial<\/h2>\n<p>Hasta ahora, hemos analizado los riesgos relacionados con la filtraci\u00f3n de datos; pero este no es el \u00fanico problema potencial de la inteligencia artificial. Muchos complementos son capaces de realizar acciones espec\u00edficas bajo el comando del usuario, como adquirir boletos de avi\u00f3n. Estas herramientas proporcionan a los actores maliciosos un nuevo vector de ataque: a la v\u00edctima se le presenta un documento, una p\u00e1gina web, un v\u00eddeo o incluso una imagen que contiene instrucciones ocultas para el modelo de lenguaje adem\u00e1s del contenido principal. Si la v\u00edctima env\u00eda el documento o el enlace a un chatbot, este \u00faltimo ejecuta las instrucciones maliciosas, por ejemplo, adquirir boletos con el dinero de la v\u00edctima. Este tipo de ataque se conoce como <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-image-to-prompt-injection\/\" target=\"_blank\" rel=\"noopener nofollow\">inyecci\u00f3n r\u00e1pida<\/a> y, aunque los desarrolladores de varios LLM est\u00e1n tratando de crear una protecci\u00f3n contra esta amenaza, nadie lo ha logrado y tal vez nunca lo hagan.<\/p>\n<p>Por suerte, las acciones m\u00e1s importantes, especialmente aquellas que involucran transacciones de pago como la compra de boletos, requieren una doble confirmaci\u00f3n. Sin embargo, las interacciones entre los modelos de lenguaje y los complementos crean una <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/attack-surface\/\" target=\"_blank\" rel=\"noopener\">superficie de ataque<\/a> tan grande que es dif\u00edcil garantizar resultados congruentes a partir de estas medidas.<\/p>\n<p>Por lo tanto, debes realizar una selecci\u00f3n muy exhaustiva de las herramientas de IA y, adem\u00e1s, asegurarte de que solo reciban datos fiables para su procesamiento.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-geek\">\n","protected":false},"excerpt":{"rendered":"<p>Las herramientas de inteligencia artificial est\u00e1n en todas partes, desde los sistemas operativos y paquetes de oficina hasta los editores de im\u00e1genes y chats. \u00bfC\u00f3mo usas ChatGPT, Gemini y los diferentes complementos sin poner en peligro tu seguridad digital?<\/p>\n","protected":false},"author":2722,"featured_media":27035,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[5],"tags":[2797,2717,5848,5957,2018,1861,38],"class_list":{"0":"post-27034","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-aprendizaje-automatico","9":"tag-chatbots","10":"tag-chatgpt","11":"tag-gemini","12":"tag-ia","13":"tag-inteligencia-artificial","14":"tag-seguridad"},"hreflang":[{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27034\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27067\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22377\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/11413\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29733\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27243\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29651\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/36962\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/12053\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/50562\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/21528\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22239\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/30940\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/how-to-use-chatgpt-ai-assistants-securely-2024\/27442\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/33249\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/32873\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/latam.kaspersky.com\/blog\/tag\/inteligencia-artificial\/","name":"inteligencia artificial"},"_links":{"self":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/27034","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/comments?post=27034"}],"version-history":[{"count":2,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/27034\/revisions"}],"predecessor-version":[{"id":27037,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/posts\/27034\/revisions\/27037"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media\/27035"}],"wp:attachment":[{"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/media?parent=27034"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/categories?post=27034"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/latam.kaspersky.com\/blog\/wp-json\/wp\/v2\/tags?post=27034"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}