ALERTA POR NUEVA ESTAFA: CLONAN LA VOZ DE UN FAMILIAR CON IA Y TE LLAMAN POR TELÉFONO

Una llamada. La voz de tu hijo, tu hermana o tu madre. Te dicen que están en problemas y necesitan ayuda urgente. Suena real… porque es real. Pero no lo es. Es una voz clonada con inteligencia artificial.

Esta nueva modalidad de estafa, conocida como “deepfake de voz”, está creciendo en América Latina y ya se registraron casos en el país. Los delincuentes usan inteligencia artificial para imitar la voz de un familiar tuyo y, mediante una llamada telefónica, te manipulan emocionalmente para sacarte dinero.

¿Cómo funciona esta estafa?

  1. Los estafadores consiguen audios reales de tu familiar desde redes sociales, audios de WhatsApp o incluso videos públicos.
  2. Con software de clonación de voz generan una réplica muy creíble de esa voz.
  3. Te llaman y recrean una escena de urgencia: un accidente, un secuestro exprés, una detención. Te piden que no cortes, que no digas nada.
  4. Te dan una cuenta o un número para hacer una transferencia urgente.
  5. Cuando se corta la llamada y lográs contactar al familiar real… ya es tarde.

¿Por qué es tan efectiva?

Porque ataca directamente tus emociones. No hay tiempo para pensar. Solo escuchás la voz de alguien que amás, pidiéndote ayuda desesperadamente. Los estafadores saben que en ese estado, las personas no piensan racionalmente.

Además, no usan mensajes genéricos: usan nombres, datos reales, a veces hasta saludos personalizados. Todo lo obtienen desde tus redes.

¿Cómo protegerte?

  • Tené una palabra clave familiar. Algo que puedan preguntarse entre ustedes en caso de emergencia. Puede ser una fecha, un cumpleaños, el nombre de la mascota de tu infancia, pensá en algo que puedan recordar y que no sea fácil de adivinar ni esté publicado en internet. 
  • Desconfiá siempre de situaciones urgentes que involucren transferencias.
  • Cortá y llamá directamente al familiar en cuestión. Si no podés contactarlo, intentá hablar con otro pariente cercano.
  • Limitá los contenidos públicos en redes: TikTok, Reels o incluso historias pueden ser usados para clonar voces.
  • No compartas información personal sensible en comentarios o publicaciones.

Qué hacer si fuiste víctima

  1. Hacé la denuncia inmediata en tu comisaría o fiscalía más cercana.
  2. Guardá toda la información: capturas, audios, números desde los que llamaron.
  3. Avisá a tu entorno para prevenir nuevos intentos.
  4. Contactá a tu banco para intentar frenar la transferencia si fue reciente.

Educación digital: el nuevo escudo

Desde Innova, creemos que la educación digital es la mejor defensa contra estas estafas. Las tecnologías cambian, pero si sabés cómo operan estos fraudes, podés anticiparte y protegerte.

Compartí este artículo con tu familia. Hablá del tema. Practiquen juntos cómo actuar ante una llamada sospechosa.

Suscribite para recibir nuestras novedades

Contacto

fundacioninnova.info@gmail.com