Deepfake de voz: ¿Qué es y cómo funciona esta nueva estafa digital?

El deepfake de voz se ha convertido en una nueva arma para los ciberdelincuentes. Te decimos cómo puedes protegerte de las posibles estafas.

El proceso detrás de un deepfake de voz comienza con la recopilación de datos.
El proceso detrás de un deepfake de voz comienza con la recopilación de datos.Créditos: Freepik
Escrito en TENDENCIAS el

En un mundo cada vez más conectado, las estafas digitales evolucionan a un ritmo alarmante. Entre las más recientes y preocupantes está el deepfake de voz, una tecnología que imita la voz de una persona con tal precisión que puede engañar a cualquiera. 

Esta herramienta, aunque impresionante desde un punto de vista técnico, se ha convertido en una nueva arma para los ciberdelincuentes. Pero, ¿qué es exactamente un deepfake de voz y cómo funciona? Y lo más importante, ¿cómo podemos protegernos? A continuación te los explicamos.

¿Qué es un deepfake de voz? 

Un deepfake de voz es un archivo de audio creado por inteligencia artificial (IA) que replica la voz de una persona de manera casi perfecta. Esta tecnología utiliza algoritmos avanzados de aprendizaje profundo para analizar una muestra de voz y luego generar nuevos audios que suenan idénticos a la voz original. 

A diferencia de otras formas de manipulación de audio, los deepfakes de voz son tan convincentes que es difícil, incluso para expertos, distinguir entre una grabación real y una falsificada.

¿Cómo funciona el deepfake de voz?

El proceso detrás de un deepfake de voz comienza con la recopilación de datos. Los estafadores necesitan una muestra de la voz de la persona que quieren imitar, algo que pueden obtener fácilmente de redes sociales, videos públicos o grabaciones de llamadas telefónicas. Luego, la IA entrena un modelo con esta muestra, aprendiendo los patrones y características únicas de la voz. Una vez que el modelo está listo, puede generar nuevos audios en los que la voz de la víctima diga cualquier cosa que el atacante desee. Esta tecnología se utiliza en estafas como la suplantación de identidad, extorsión, phishing y manipulación de la opinión pública.

¿Cómo protegerse del deepfake de voz?

Ante esta amenaza, es crucial verificar la identidad de cualquier persona que te contacte por teléfono, incluso si parece alguien conocido. Si recibes solicitudes inusuales de dinero o información personal, sé cauteloso y utiliza un canal alternativo para confirmar la autenticidad de la solicitud. Además, evita compartir información sensible por teléfono y mantén siempre tu software actualizado para reducir el riesgo de ser víctima de este tipo de ataques.