Cómo usar ChatGPT, Gemini y otras herramientas de IA de forma segura

Las herramientas de inteligencia artificial están en todas partes, desde los sistemas operativos y paquetes de oficina hasta los editores de imágenes y chats. ¿Cómo usas ChatGPT, Gemini y los diferentes complementos sin poner en peligro tu seguridad digital?

El crecimiento explosivo del año pasado en materia de aplicaciones, servicios y complementos de inteligencia artificial parece acelerarse. Desde aplicaciones de oficina y editores de imágenes hasta entornos de desarrollo integrados (IDE), como Visual Studio, la inteligencia artificial se está añadiendo a herramientas familiares que se usan hace tiempo. Muchos desarrolladores están creando miles de nuevas aplicaciones que aprovechan los modelos de inteligencia artificial más grandes. Sin embargo, nadie en esta carrera ha sido capaz de resolver los problemas de seguridad inherentes: en primer lugar, la minimización de las fugas de datos confidenciales y también el nivel de piratería de cuentas/dispositivos a través de varias herramientas de inteligencia artificial; ni hablar de la creación de protecciones adecuadas contra una futura “IA malvada”. Hasta que a alguien se le ocurra una solución estándar para proteger a los usuarios de los asistentes de inteligencia artificial, tendrás que aprender algunas habilidades y ayudarte a ti mismo.

Entonces, ¿cómo usas la inteligencia artificial sin arrepentirte más tarde?

Filtra los datos importantes

La política de privacidad de OpenAI, el desarrollador de ChatGPT, establece inequívocamente que cualquier diálogo con el chatbot se guarda y se puede usar para varios propósitos. En primer lugar, para resolver problemas técnicos y prevenir infracciones de los términos de servicio: en caso de que a alguien se le ocurra generar contenido inapropiado. ¿Quién lo hubiera pensado, verdad? En ese caso, los chats incluso pueden ser revisados por un humano. En segundo lugar, los datos se pueden utilizar para entrenar nuevas versiones de GPT y realizar otras “mejoras” en el producto.

La mayoría de los otros modelos de lenguaje populares, ya sea Gemini de Google, Claude de Anthropic o Bing y Copilot de Microsoft, tienen directivas similares: todos pueden guardar diálogos completos.

Dicho esto, ya se han producido filtraciones involuntarias de chats debido a errores de software, por los cuales los usuarios ven las conversaciones de otras personas en lugar de las suyas. El uso de estos datos para el entrenamiento también podría conducir a una filtración de datos de un modelo previamente entrenado: el asistente de inteligencia artificial podría proporcionar tu información a alguien si considera que es relevante para la respuesta. Los expertos en seguridad de la información incluso han diseñado varios ataques (uno, dos, tres) destinados a robar diálogos probablemente no se detengan allí.

Por lo tanto, recuerda: cualquier cosa que le escribas a un chatbot puede usarse en tu contra. Te recomendamos que tomes precauciones cuando interactúes con IA.

No envíes datos personales a un chatbot. Ninguna contraseña, número de pasaporte o tarjeta bancaria, direcciones, números de teléfono, nombres u otros datos personales que te pertenezcan, le pertenezcan a tu empresa o a tus clientes deben terminar en chats con IA. Puedes reemplazarlos por asteriscos o el término “CENSURADO” en tu solicitud.

No cargues documentos. Existen numerosos complementos que te permiten usar chatbots para el procesamiento de documentos. Puedes sentir la tentación de cargar un documento de trabajo para, por ejemplo, obtener un resumen ejecutivo. Sin embargo, cuando cargas descuidadamente un documento de varias páginas, corres el riesgo de filtrar datos confidenciales, propiedad intelectual o un secreto comercial, como la fecha de lanzamiento de un nuevo producto o la nómina de todo el equipo. O, lo que es peor, cuando procesas documentos recibidos de fuentes externas, es posible que seas el objetivo de un ataque que dependa de que un modelo de lenguaje escanee el documento.

Utiliza una configuración de privacidad. Revisa detenidamente la política de privacidad y la configuración disponible de tu proveedor de grandes modelos de lenguaje (LLM): por lo general, se pueden aprovechar para minimizar el seguimiento. Por ejemplo, los productos de OpenAI te permiten desactivar el almacenamiento del historial de chat. En ese caso, los datos se eliminan después de 30 días y nunca se usan para entrenamiento. Quienes usan API, aplicaciones de terceros o servicios para acceder a las soluciones de OpenAI tienen esa configuración activada de manera predeterminada.

¿Enviarás códigos? Borra los datos confidenciales. Este consejo está dirigido a aquellos ingenieros de software que utilizan asistentes de IA para revisar y mejorar su código: elimina cualquier clave API, dirección de servidor o cualquier otra información que pueda revelar la estructura de la aplicación o la configuración del servidor.

Limita el uso de aplicaciones y complementos de terceros

Sigue estos consejos en todo momento, sin importar qué asistente de inteligencia artificial popular estés utilizando. Sin embargo, incluso esto puede no ser suficiente para garantizar la privacidad. El uso de complementos de ChatGPT, extensiones de Gemini o aplicaciones complementarias independientes da lugar a nuevos tipos de amenazas.

En primer lugar, tu historial de chat ahora puede almacenarse no solo en los servidores de Google u OpenAI, sino también en servidores que pertenecen a terceros que admiten el complemento, así como en rincones poco probables de tu ordenador o teléfono inteligente.

En segundo lugar, la mayoría de los complementos extraen información de fuentes externas: búsquedas web, tu bandeja de entrada de Gmail o notas personales de servicios como Notion, Jupyter o Evernote. En consecuencia, cualquiera de tus datos de esos servicios también puede terminar en los servidores donde se ejecuta el complemento o el modelo de lenguaje. Una integración como esa puede conllevar riesgos importantes: por ejemplo, ten en cuenta este ataque que crea nuevos repositorios de GitHub en nombre del usuario.

En tercer lugar, la publicación y verificación de complementos para los asistentes de IA en este momento son un proceso mucho menos ordenado que, por ejemplo, la detección de aplicaciones en App Store o Google Play. Por lo tanto, las posibilidades de encontrar un complemento que funcione mal, esté mal escrito, tenga errores o incluso sea simplemente malicioso son bastante altas, tanto más porque parece que nadie controla realmente a los creadores o sus contactos.

¿Cómo mitigas estos riesgos? Nuestro consejo clave en este caso es darle tiempo. El ecosistema de complementos es demasiado reciente, los procesos de publicación y soporte no son lo suficientemente fluidos, y los propios creadores no siempre se encargan de diseñar los complementos correctamente o de cumplir con los requisitos de seguridad de la información. Todo este ecosistema necesita más tiempo para madurar y volverse más seguro y fiable.

Además, el valor que muchos complementos añaden a la versión estándar de ChatGPT es mínimo: ajustes menores en la interfaz de usuario y plantillas de “indicador del sistema” que personalizan el asistente para una tarea específica (“Actuar como profesor de física de escuela secundaria…”). No vale la pena confiar en estos contenedores, ya que puedes realizar la tarea perfectamente sin ellos.

Si realmente necesitas determinadas características de complementos en este momento, intenta tomar las máximas precauciones disponibles antes de usarlas.

  • Escoge extensiones y complementos que tengan al menos varios meses de antigüedad y se actualicen periódicamente.
  • Considera solo complementos que tengan muchas descargas y lee atentamente las revisiones para detectar cualquier problema.
  • Si el complemento viene con una política de privacidad, léela detenidamente antes de comenzar a usar la extensión.
  • Opta por herramientas de código abierto.
  • Si posees habilidades de codificación, aunque sean rudimentarias, o amigos codificadores, lee el código para asegurarte de que solo envíe datos a los servidores declarados e, idealmente, solo a los servidores del modelo de IA.

Los complementos de ejecución requieren una supervisión especial

Hasta ahora, hemos analizado los riesgos relacionados con la filtración de datos; pero este no es el único problema potencial de la inteligencia artificial. Muchos complementos son capaces de realizar acciones específicas bajo el comando del usuario, como adquirir boletos de avión. Estas herramientas proporcionan a los actores maliciosos un nuevo vector de ataque: a la víctima se le presenta un documento, una página web, un vídeo o incluso una imagen que contiene instrucciones ocultas para el modelo de lenguaje además del contenido principal. Si la víctima envía el documento o el enlace a un chatbot, este último ejecuta las instrucciones maliciosas, por ejemplo, adquirir boletos con el dinero de la víctima. Este tipo de ataque se conoce como inyección rápida y, aunque los desarrolladores de varios LLM están tratando de crear una protección contra esta amenaza, nadie lo ha logrado y tal vez nunca lo hagan.

Por suerte, las acciones más importantes, especialmente aquellas que involucran transacciones de pago como la compra de boletos, requieren una doble confirmación. Sin embargo, las interacciones entre los modelos de lenguaje y los complementos crean una superficie de ataque tan grande que es difícil garantizar resultados congruentes a partir de estas medidas.

Por lo tanto, debes realizar una selección muy exhaustiva de las herramientas de IA y, además, asegurarte de que solo reciban datos fiables para su procesamiento.

Consejos