Cuidado con tu voz: Así usan la inteligencia artificial para suplantar tu identidad ¿Cómo funciona esta estafa?

Delincuentes digitales clonan tu voz con solo unos segundos de audio y la usan para engañar a tus familiares o amigos.

escr.jpg
Créditos: Freepik
Viral y Tendencia
Compartir
  •   Copiar enlace

Las estafas cibernéticas evolucionan rápidamente, y ahora los delincuentes emplean tecnología de inteligencia artificial para clonar tu voz y simular que eres tú. Esta técnica, una variante sofisticada del vishing, busca generar confianza y provocar reacciones impulsivas en familiares o conocidos.

¡Hey! También estamos en Whatsapp. Comienza a seguirnos ahora 😉

¿Cómo se lleva a cabo esta estafa?

El procedimiento es más sencillo de lo que parece: los estafadores consiguen una grabación breve de tu voz a partir de redes sociales, audios guardados o videollamadas y con herramientas de IA crean un clon vacío de emoción, pero convincente. Luego, utilizan esa voz para contactar a tus allegados, solicitando dinero o datos, con excusas que apelan a una situación urgente o preocupante.

Incluso la simple respuesta de un “sí” puede ser suficiente para grabar tu entonación y usarla en futuros fraudes. Esta vulnerabilidad ha llevado al nombre de “estafa del sí”.

Casos reales que confirman el peligro

Un caso conmocionante involucró a una mujer en Estados Unidos, quien recibió una llamada con la voz clonada de su propia hija, afirmando estar secuestrada y exigiendo rescate por 50 000 dólares. Aunque finalmente se confirmó que se trataba de una estafa, la técnica demostró ser alarmantemente efectiva.

En España, una hermandad sevillana se salvó de caer víctima cuando los estafadores utilizaron la voz del obispo auxiliar para solicitar mil euros bajo una falsa emergencia. Por suerte, confirmaron la llamada con las autoridades y evitaron el fraude.

Cómo protegerte y proteger a los tuyos Las autoridades como la Policía Nacional y el INCIBE recomiendan varias estrategias para evitar ser víctimas:

  • No compartas audios tuyos fácilmente accesibles. Limita tu voz en redes públicas, audios y videos.
  • Confirma la identidad por otros canales, como una videollamada o texto, si recibes un audio inesperado.
  • Mantén actualizados tus dispositivos y evita asistentes de voz en lugares públicos, para prevenir capturas no deseadas.
  • Establece una palabra clave secreta con tus familiares o amigos de confianza, para verificar que una llamada es auténtica.
  • Desconfía de llamadas urgentes. Antes de actuar, verifica siempre mediante otro canal que la persona es en realidad quien dice ser.
  • Utiliza métodos de autenticación resistentes, como biometría con detección de vitalidad o doble verificación, en sistemas que lo permitan.

¿Por qué es tan efectiva esta técnica?

  • La IA permite obtener copias vocales muy realistas a partir de solo unos segundos de audio.
  • La imitación vocal genera una falsa sensación de confianza que hace que las personas actúen presas del pánico o la emoción.
  • El avance y accesibilidad de herramientas de clonación vocal facilitan que cualquiera con malos propósitos acceda a ellas sin conocimientos técnicos avanzados.

¿Podríamos estar compartiendo el planeta con otras civilizaciones?

[VIDEO] ¿Y si no estamos solos en la Tierra? Descubre la posibilidad de civilizaciones desconocidas conviviendo entre nosotros, en el mismo planeta.

Para esta y más información, síguenos en nuestras redes sociales como en Facebook: Azteca Guerrero, vía Twitter: @Azteca_Gro, Instagram: @tvaztecaguerrero y TikTok: @tvaztecaguerrero

Únete al nuevo canal de WhatsApp y mantente informado de todas las noticias que suceden cerca de ti.

  • Regional News US
Contenido Relacionado
×
×