Una nueva modalidad de estafa ha comenzado a circular en Yucatán, generando alerta entre la población. Se trata del uso de inteligencia artificial (IA) para clonar voces de seres queridos, principalmente hijos e hijas, con el fin de simular llamadas de auxilio o secuestro.
Diversos ciudadanos han reportado que reciben llamadas donde una voz muy similar casi idéntica a la de un familiar, usualmente jóvenes o adolescentes, les pide ayuda desesperadamente, asegurando que están en peligro o han sido secuestrados. Luego, una segunda voz interviene, haciéndose pasar por el supuesto captor, exigiendo dinero para liberar a la víctima.
¿Cómo funciona la estafa?
Recolectan audios reales de redes sociales, mensajes de voz, videos en TikTok o Facebook.
Con esos fragmentos, entrenan un modelo de IA para clonar la voz.
Llaman a la familia simulando una emergencia urgente, generando pánico y presión emocional.
Exigen un depósito inmediato para "liberar" a la supuesta víctima.
Autoridades ya investigan
La Fiscalía General del Estado (FGE) de Yucatán ha recibido al menos 10 reportes en las últimas dos semanas relacionados con esta nueva modalidad delictiva. Aunque en ninguno de los casos se concretó el pago, sí se generó angustia y estrés severo en las víctimas del engaño.
“La voz es tan real que uno realmente cree que está hablando con su hijo. Es aterrador”, relató una madre afectada del fraccionamiento Las Américas.
Recomendaciones de seguridad
Evita compartir audios y videos con voz en redes sociales públicas.
Establece una palabra clave familiar para confirmar emergencias.
No respondas llamadas de números desconocidos con lada foránea.
Ante cualquier llamada sospechosa, cuelga y comunícate directamente con tu familiar.
¿Qué hacer si recibes una llamada así?
Mantén la calma.
Intenta contactar de inmediato al familiar supuestamente afectado.
No proporciones datos personales ni bancarios.
Reporta el hecho al 911 o a la Fiscalía del Estado.
