Un usuario de TikTok publicó un video en el que denunció haber sido víctima de un intento de fraude con audios de WhatsApp creados con inteligencia artificial.
En el clip, el joven muestra en su celular mensajes de audio enviados por su mamá, pero asegura que ella se encuentra en el mismo lugar que él, por lo que todo se trata de una estafa.
Te podría interesar: ¡Ay el amor! Sujeto roba ramo buchón para su pareja, ella lo presume en redes y lo detienen
En el primero de los audios se escucha una voz de mujer, que el joven asegura es la de su madre, diciendo: “Hijo, me acabo de meter en un gran problema, te estoy marque y marque y no me contestas. Te estoy mandando mensajes porque te necesito, por favor, contéstame”.
Posteriormente, el muchacho explica que los audios fueron, seguramente, hechos con alguna aplicación de inteligencia artificial y revela el segundo:
“Hijo, necesito que me mandes tres mil pesos, no te preocupes, yo llegando a la casa te explico … “
El joven decidió seguir el juego a los presuntos extorsionadores y envió un audio diciendo que ya había depositado la suma de dinero a una cuenta conocida por él y su madre; sin embargo, le respondieron, aún con la supuesta voz de su madre, que ella le daría el número de cuenta de una amiga, porque en ese momento no llevaba esa tarjeta.
Te podría interesar: Prepara tu disfraz para celebrar el Día del Marciano 2024
Unos minutos después, el joven vuelve a recibir mensajes en los que su madre le pregunta con insistencia si ya realizó el depósito y además le pide en comprobante del depósito para supuestamente mostrárselo a su amiga.
Finalmente, el joven advierte a sus seguidores tener cuidado con ese tipo de mensajes que utilizan la inteligencia artificial para cometer fraude y otros delitos.
@karolortiz777♬ sonido original – Karol salinas
Se encendieron las alertas
El video ha causado preocupación en redes sociales y en usuarios de la aplicación de mensajería WhatsApp por el gran riesgo que supone la clonación de voz en el auge del uso de audios para sostener conversaciones.
Te podría interesar: Top de los mejores disfraces para Halloween
Muchos han optado por buscar la forma de inhabilitar la Meta IA de su WA ante el riesgo que representa una posible clonación tanto de su voz como de sus cuentas para ser víctimas de fraude.
Otros usuarios, se mostraron escépticos ante el video del joven al destacar que el usuario ya tenía agregado el número del que recibió los mensajes como el contacto de su madre y que la voz es demasiado realista para tratarse de un audio realizado con IA.
Actualmente, el robo de cuentas de WA y el uso de Deep Fake podría explicar este presunto nuevo método para realizar fraudes de manera remota.