Saltar al contenido principal

Estafas de voz de IA y deepfake: por qué ya no puede confiar en una voz familiar

adulto con ropa con la cara oculta, uso de un teléfono móvil para realizar actividades fraudulentas

Suena como un tropo de ciencia ficción, pero la tecnología ya está aquí: las estafas de voz de IA utilizan inteligencia artificial para copiar voces reales y hacerse pasar por personas de confianza. Esto conduce a un escenario aterrador en el que una voz familiar ya no es una prueba de que una llamada es genuina.

Las estafas de suplantación de voz con IA no se basan en la piratería de dispositivos o en la ruptura de los sistemas de seguridad. Los estafadores usan la urgencia y la presión para presionar a las personas para que actúen antes de que tengan tiempo de cuestionar lo que están escuchando. Las llamadas pueden parecer tranquilas o pueden ser muy emotivas y agresivas.

La respuesta más segura es simple. Detenga la llamada y verifique la solicitud de forma independiente utilizando un método de confianza. Con algunos hábitos y herramientas básicas, es posible reducir el riesgo de caer en estas estafas sin necesidad de conocimientos técnicos.

Lo que necesita saber:

  • las estafas de voz de IA usan voces clonadas o deepfake para hacerse pasar por personas en las que confía, por lo que una voz familiar ya no es una prueba de que una llamada es real.
  • Estas estafas se basan en la urgencia y la presión emocional, no en la piratería técnica, para evitar que verifique las solicitudes.
  • Las emergencias familiares y la suplantación de autoridad (jefes y funcionarios de la empresa) son los escenarios más comunes del mundo real.
  • La respuesta más segura es finalizar la llamada y verificar de forma independiente utilizando los datos de contacto de confianza.
  • Hábitos simples como la verificación y el uso de herramientas de filtrado de llamadas pueden reducir significativamente el riesgo.

Qué es una estafa de voz con IA?

Una estafa de voz de IA es un fraude en el que los atacantes usan inteligencia artificial para generar o clonar la voz de una persona y usarla durante llamadas telefónicas o mensajes de voz para engañar a alguien para que haga algo.

Estas estafas pertenecen a la categoría más amplia de phishing , a menudo denominada phishing de voz o vishing . En lugar de correos electrónicos o mensajes falsos, los estafadores confían en voces que suenan realistas para generar confianza y presionar a las personas para que actúen rápidamente.

Este tipo de delito cibernético ya está teniendo un impacto masivo en ciertas industrias , especialmente en áreas donde las solicitudes telefónicas, las aprobaciones o las interacciones de soporte son comunes.

Los estafadores pueden hacerse pasar por un miembro de la familia que solicita ayuda o dinero urgente. Pueden hacerse pasar por un administrador que solicita un pago o un agente de soporte que afirma que hay un problema con una cuenta. La voz suena real porque está ingeniosamente construida a partir de grabaciones de una persona real.

Las estafas de voz de IA son específicas e interactivas. La persona que llama puede responder con naturalidad y ajustar el tono durante toda la llamada. Puede hacer que la situación parezca real y personal en lugar de automatizarla como una vieja llamada automática.

Qué es una voz deepfake y cómo se usa en las estafas?

Una voz deepfake es una copia generada por IA de la voz de una persona real que puede usarse como una estafa convincente. Esta tecnología se utiliza para hacerse pasar por alguien que la víctima ya conoce o en quien confía.

Muchos de nosotros ahora usamos asistentes de IA que muestran cuán efectivas pueden ser las voces sintetizadas. Las cosas se vuelven cada vez más convincentes de una manera que puede difuminar los límites de lo que es real.

Las voces deepfake son una herramienta dentro de las estafas de voz de IA. A menudo, se combinan con datos personales robados para hacer que las llamadas se sientan creíbles y urgentes. Por eso, la solicitud puede parecer razonable o realista.

Muchas personas asocian los deepfakes con videos falsos en línea en lugar de llamadas de voz. Esa brecha de expectativas es lo que explotan los estafadores. Es posible que la gente no esté alerta a los riesgos. Cuando una voz suena familiar, es más probable que las personas actúen rápidamente sin detenerse a verificar.

Cómo clonan los estafadores la voz de alguien?

Los estafadores clonan voces recolectando muestras de audio breves y usando herramientas de inteligencia artificial para recrear cómo suena una persona. Es posible que solo necesiten unos segundos de habla clara para obtener una aproximación de la voz y la entonación de alguien.

A veces, las muestras de voz pueden ser fáciles de encontrar. Los videos públicos en las redes sociales e incluso las conversaciones telefónicas breves pueden proporcionar suficiente material. El audio se alimenta a las herramientas de clonación de voz que aprenden el tono y la pronunciación de alguien. Piense si tiene clips de audio en las redes sociales que alguien podría tomar y usar.

La clonación de voz moderna es rápida y escalable. Lo que antes hubiera necesitado habilidades enormemente especializadas ahora se puede hacer rápidamente utilizando herramientas ampliamente disponibles. Esto es motivo de preocupación, ya que permite a los estafadores crear voces convincentes y reutilizarlas en muchas llamadas u objetivos.

Por qué las estafas de voz de IA son tan convincentes?

Las estafas de voz de IA son convincentes porque escuchar una voz familiar al instante otorga un alto nivel de confianza. En situaciones emocionales o urgentes, la gente no espera engaño.

Los estafadores a menudo crean presión al reclamar emergencias o problemas urgentes, como estar atrapado en una ciudad o incluso en el extranjero sin los medios para regresar. Los sentimientos de pánico y urgencia reducen la posibilidad de que alguien haga una pausa y cuestione lo que está escuchando, incluso si la solicitud se siente inusual o fuera de lugar.

Esta es la razón por la que incluso las personas más conscientes de la seguridad pueden ser engañadas. La estafa no se basa en debilidades técnicas. Aprovecha las reacciones humanas normales al estrés y las emociones.

Protección contra estafas de voz con IA

Proteja sus dispositivos con Kaspersky Premium. Evite el acceso no autorizado, proteja sus datos y mantenga su sistema seguro.

Pruebe Premium gratis

Cuáles son los escenarios de estafa de voz de IA más comunes?

La mayoría de las estafas de voz de IA siguen situaciones familiares en las que las personas esperan llamadas urgentes y se sienten presionadas para responder rápidamente. Hace que la verificación sea difícil o incluso innecesaria en el momento.

Estafas de voz de emergencia familiar

Las estafas de emergencia familiar utilizan voces clonadas para crear problemas falsos que involucran a familiares y personas que más le importan.

Las víctimas a menudo informan llamadas que afirman que alguien ha sido arrestado o herido y necesita dinero con urgencia. La persona que llama puede pedir ayuda o parecer angustiada. Es probable que le pidan al oyente que no cuelgue ni se comunique con nadie más, ya que esta presión emocional está diseñada para detener la verificación y mantener la situación en privado.

El estafador puede presionar para el pago inmediato o dar instrucciones para permanecer en la línea y explicaciones de por qué los métodos de contacto normales supuestamente no funcionan. El objetivo es la velocidad y el engaño en lugar de largas conversaciones.

Estafas de suplantación de identidad en el trabajo y la autoridad

Estas estafas se hacen pasar por ejecutivos o personas en roles y lugares de trabajo oficiales usando voces tranquilas y seguras que suenan familiares o profesionales.

Un nivel de autoridad percibido a veces puede aumentar las posibilidades de que las personas cumplan. Cuando una solicitud parece provenir de un jefe o una institución de confianza, es más probable que las personas sigan las instrucciones sin cuestionarlas. Las llamadas pueden implicar pagos urgentes o tareas confidenciales (ambas deben tratarse como señales de alerta).

Estas estafas afectan tanto a los teléfonos personales como a los del trabajo porque los atacantes apuntan a donde ya existe confianza. Una llamada puede estar dirigida a un dispositivo del trabajo durante el horario comercial o a un teléfono personal fuera del horario laboral.

Qué señales de advertencia deberían despertar sospechas de inmediato?

Una llamada de voz debe despertar sospechas si crea una urgencia o una presión que le impide verificar la solicitud de la manera que prefiere. Si la persona que llama insta a mantener el secreto o llama desde un número que no reconoce, las campanas de alarma deberían estar sonando.

La persona que intenta estafarte puede insistir en que mantengas la llamada en secreto o decir que no se puede contactar a otras personas. Este aislamiento es intencional y está destinado a interrumpir la verificación o la realización de lo que realmente está sucediendo en la llamada.

Tenga especial cuidado con las solicitudes que involucren métodos de pago inusuales o irreversibles, como tarjetas de regalo o criptografía. Estas solicitudes están diseñadas para mover dinero rápidamente y dificultar la recuperación. Solicitar tarjetas de regalo es un indicio de una estafa.

Qué debe hacer si recibe una llamada de voz sospechosa?

La acción más segura es finalizar la llamada y crear distancia de la presión. Cualquier indicio de sospecha debería hacer que interrumpa su compromiso.

Cuelgue. Esto rompe el control emocional y le da tiempo para pensar con claridad. No se quede en la línea para resolverlo o hacer preguntas de seguimiento, ya que los estafadores usan la conversación para adaptar su historia y encontrar otras formas de hacer que su historia sea más convincente.

Verifique la solicitud de forma independiente utilizando los detalles de contacto de confianza. Insista en discutir las cosas a través de un número de teléfono guardado o una dirección de correo electrónico conocida. Evite continuar la conversación o llamar al mismo número. Las personas que llamen legítimamente comprenderán la verificación. Los estafadores intentarán detenerlo.

Cómo puede protegerse de las estafas de voz con IA a largo plazo?

La protección a largo plazo significa reducir la frecuencia con la que lo atacan y dificultar el éxito de los estafadores.

Las estafas de voz con IA se basan en la confianza y la urgencia. Los hábitos simples y las salvaguardias realistas ayudan a reducir el riesgo sin cambiar la forma en que usa su teléfono día a día.

Hábitos personales que reducen su riesgo

Los pequeños hábitos pueden marcar una gran diferencia. Algunas familias y contactos cercanos ahora usan palabras en clave para emergencias reales. Esto significa que una llamada genuina se puede verificar rápidamente (simplemente no filtre la palabra clave).

Tenga en cuenta las grabaciones de voz públicas. Los videos, las notas de voz y los saludos del correo de voz se pueden usar como material de origen para la clonación. No es necesario que evite compartir por completo, pero limitar las grabaciones largas o claras reduce la exposición.

Trate la verificación como algo normal y no grosero. Colgar para devolver la llamada o consultar con otra persona debería ser normal. Usar un método de contacto de confianza es una respuesta razonable y cualquier persona legítima lo entenderá. Los estafadores desalentarán esto y tratarán de mantenerlo en línea para que pueda proporcionar un filtro y una prueba útiles.

Puede el software ayudar a reducir las llamadas fraudulentas de voz con IA?

Solo hasta cierto punto. Las herramientas de filtrado de llamadas y detección de correo no deseado analizan los patrones de llamadas y el comportamiento inusual para bloquear o marcar llamadas sospechosas antes de responder. También puede buscar números de spam sospechosos o conocidos.

Las protecciones a nivel de teléfono pueden reducir la exposición al detener las campañas de estafas conocidas y advertir sobre posibles fraudes. No pueden captar todas las llamadas. Hay muchas estafas muy específicas que utilizan números nuevos.

Esta es la razón por la que el software debe verse como una capa de soporte y no como un reemplazo para su mejor juicio. La tecnología puede reducir la frecuencia con la que llegan las estafas, pero la verificación humana sigue siendo la defensa más sólida cuando una llamada parece real.

Qué debe hacer si ya compartió dinero o información?

Comuníquese con su banco o proveedor de pagos de inmediato si se transfirió dinero o si se proporcionaron los detalles de la cuenta. Cambie las contraseñas y habilite la autenticación multifactor de inmediato. Si se compartió información personal, supervise las cuentas de cerca para detectar actividades inusuales.

Actuar rápidamente después de compartir dinero o filtrar información puede limitar los daños adicionales y aumentar las posibilidades de recuperación.

Documente lo que sucedió mientras está fresco. Guarde los detalles de las llamadas, como números y horas, para tenerlos como prueba. También puede anotar las instrucciones que le hayan dado. Este registro ayuda a los proveedores y las autoridades a responder más rápido y puede evitar que la misma estafa afecte a otros.

Por qué es probable que aumenten las estafas de voz de IA y cómo mantenerse a salvo de todos modos

Es probable que las estafas de voz de IA aumenten porque la voz proporciona una forma para que los estafadores se hagan pasar por alguien de manera convincente. Es más fácil para los estafadores explotar esa confianza a gran escala y está mejorando.

La familiaridad por sí sola ya no puede utilizarse como prueba. Eso no significa que la gente sea impotente. La verificación aún funciona, incluso cuando las estafas se vuelven más convincentes. Colgar y verificar la identidad son herramientas sólidas que pueden detener una estafa en seco.

Tratar la verificación como algo normal y esperado vuelve a poner el control en sus manos. Desarrollar buenos hábitos aún puede tener un gran impacto y ayudar a las personas a evitar quedar atrapadas. La conciencia también significa saber que puede que no todo sea lo que parece cuando la gente lo llama.

Artículos relacionados:

Productos relacionados:

Preguntas frecuentes

Pueden los estafadores clonar su voz sin que usted lo sepa?

Sí. Los videos públicos o las grabaciones breves pueden ser suficientes para clonar una voz sin contacto directo.

A quiénes se dirigen más las estafas de voz de IA?

Cualquiera puede ser el objetivo, pero los estafadores a menudo se centran en personas cuyas voces o datos personales son fáciles de encontrar en línea.

Son ilegales las estafas de voz con IA?

El fraude, incluido el uso de voces clonadas para engañar, es ilegal en muchos países, incluso si la tecnología en sí es legal.

Estafas de voz de IA y deepfake: por qué ya no puede confiar en una voz familiar

Las estafas de voz de IA usan voces clonadas para hacerse pasar por personas de su confianza. Descubra cómo funcionan estas llamadas falsas, las señales de advertencia y las formas sencillas de protegerse.
Kaspersky logo