El deepfake es una forma de realizar estafas, comenzó para video en el que se suple digitalmente a una persona, ahora también ya se pueden crear deepfakes de audio para estafas telefónicas.
Este tipo de estafa trata de suplir la voz de una persona, sin embargo, para que esto ocurra, se requiere de la voz original, con información de La Vanguardia.
Información relacionada: Apple Watch realiza llamada a emergencias y salva a usuario que se golpeó la cabeza.
Conocer el número de la persona con la que estamos hablando es una garantía para no caer en la estafa, así se puede confiar en que la voz no es simulada.
Para que el deepfake se pueda realizar, se requieren fragmentos del tono de voz de la persona que se va a imitar, además, se necesitan imágenes de la misma para que la inteligencia artificial pueda armar una falsificación sonora coherente.
Es cierto que hay empresas que experimentan con sistemas que simulan voces, pero no concretan el proyecto, ya sea por el debate que se puede generar por parte de los usuarios o falta de potencial claro.