Cargando, por favor espere...

¡Nuevo fraude! Clonación de voz por WhatsApp
Este fraude sigue un patrón específico.
Cargando...

Usuarios han denunciado una nueva forma de extorsión a través de WhatsApp, la cual recrea mensajes de audio simulando ser de un familiar o amigo en una situación de emergencia.

Este fraude sigue un patrón específico: a través de un mensaje de audio falso, el delincuente crea una situación de emergencia en la que la víctima cree que su familiar o amigo pide ayuda económica inmediata.

Estos mensajes suelen sonar “angustiantes”, utilizando frases como “estoy en un problema” o “necesito urgentemente dinero”, tan convincentes que logran su objetivo, el depósito económico por parte de los estafadores.

Además, la clonación de voz utiliza Inteligencia Artificial (IA) y requiere grabaciones previas para lograr una imitación convincente.

En algunos casos, los delincuentes hackean la cuenta de WhatsApp para enviar mensajes desde el número “real” de la fuente, lo que aumenta la credibilidad de la estafa, denunciaron en redes sociales.


Escrito por Fernanda Trujano Chavarría

Licenciada en Lengua y Literatura Hispánicas por la UAEM.


Notas relacionadas

Los servicios comenzaron a fallar a las 11:00 horas del tiempo del centro de México.

Los más comunes incluyen la venta falsa de productos electrónicos y ofertas engañosas de viajes.

Entre enero de 2020 y diciembre de 2024, se recibieron al menos mil 224 reportes relacionados con extorsión, fraude y otras actividades delictivas en el Centro Histórico de la Ciudad de México.

El 70 por ciento de los consumidores prefieren comprar en línea durante la temporada navideña.

En 2023, la capital mexicana reportó la tasa más alta de delitos por cada 100 mil habitantes.

“Fraude: Esto no es mantenimiento, pongamos un alto a los recomendados”.

En los primeros dos meses de 2024 se registraron 139 reportes de hackeo a la aplicación WhatsApp.

El phishing, el spoofing, y el uso de deepfake, son sólo algunos de los fraudes que han desarrollado los delincuentes con el uso de la Inteligencia Artificial (IA) para suplantar identidades y, con ello realizar estafas románticas o fraudes que afectan la economía de las víctimas.

Ocho de cada diez adultos mayores requieren apoyo cibernético para protegerse de fraudes.

los estafadores se hacen pasar por funcionarios del INBAL y solicitan pagos para acceder a presuntas vacantes laborales.

La aplicación detalló que la infección se propagó mediante un archivo PDF enviado dentro de su plataforma.

Engaña a comerciantes o consumidores.

La Secretaría de Bienestar emitió una alerta sobre un nuevo fraude que se está propagando en redes sociales y aplicaciones de mensajería instantánea.

Este fraude sigue un patrón específico.

Asociaciones civiles alertan a padres de familia y jóvenes estar alerta y no caer en delitos que abundan en redes sociales y aplicaciones como los fraudes amorosos y las sextorsiones.