¿Estafadores utilizando la inteligencia artificial? Un nuevo método de estafas ha encendido las alarmas de los expertos en ciberseguridad. Supuestos hackers están utilizando la inteligencia artificial para clonar la voz de familiares cercanos de las víctimas, con el fin de pedirles transferencias fraudulentas a través de WhatsApp. Este insólito método ha generado preocupación y cautela entre los internautas.
Recibe las principales noticias de RDN Digital por WhatsApp, Instagram y Telegram
Suscríbete a nuestros canales gratuitos hoy:
VIDEO VIRAL DESATA POLÉMICA
Recientemente, un video se volvió viral en las redes sociales, mostrando a una presunta víctima en México. Medios locales como El Universal destacaron el registro audiovisual de un usuario de TikTok, quien alertó a sus seguidores sobre esta nueva modalidad de estafa. El video muestra a la madre del tiktoker enviándole notas de voz para solicitarle una transferencia de 3.000 pesos mexicanos, aproximadamente 150 dólares.
Sin embargo, el usuario de TikTok asegura que la voz es clonada mediante inteligencia artificial, ya que su madre se encuentra a su lado y niega haber enviado esos mensajes. Esta situación ha generado una gran cantidad de dudas y discusiones en las redes sociales sobre la autenticidad del video y la veracidad del método de estafa.
INTERCAMBIO SOSPECHOSO EN WHATSAPP
La presunta víctima decide seguirle el juego al estafador, indicando que transferirá el dinero a la cuenta habitual. El estafador, sin embargo, proporciona una nueva cuenta receptora, alegando que no tiene la tarjeta consigo. Este detalle levantó aún más sospechas sobre la legitimidad de la solicitud de transferencia y la autenticidad del método de estafa.
Aunque la tecnología avanza rápidamente, la clonación de voz utilizando inteligencia artificial para estafas sigue siendo un delito focalizado y poco común en el mundo de la ciberseguridad. Este tipo de fraude requiere una considerable cantidad de esfuerzo y conocimiento técnico, lo que limita su prevalencia a nivel mundial.
POSIBLES INDICIOS DE FRAUDE EN EL VIDEO
El video en cuestión presenta varias irregularidades que han llevado a muchos a cuestionar su autenticidad. Uno de los aspectos más llamativos es que el usuario tiene el contacto agendado como “mamá”, lo que sugiere que el verdadero fraude podría ser la clonación de la cuenta de WhatsApp y no de la voz. Esto hace pensar que las notas de voz podrían haber sido creadas por la misma supuesta víctima para generar el contenido viral.
No obstante, no se puede descartar completamente la posibilidad de que los estafadores utilicen inteligencia artificial para clonar voces y engañar a sus víctimas. Los expertos en ciberseguridad recomiendan siempre verificar la autenticidad de los mensajes y llamadas, especialmente cuando se solicitan transferencias de dinero.
LA IMPORTANCIA DE LA VIGILANCIA DIGITAL
Este incidente subraya la importancia de estar alerta ante nuevas modalidades de estafa y de implementar medidas de seguridad en nuestras comunicaciones digitales. Mantenerse informado sobre los últimos avances tecnológicos y las tácticas de los ciberdelincuentes puede ayudar a prevenir ser víctima de fraudes.
¿Alguna vez has recibido un mensaje sospechoso pidiendo dinero? ¿Qué medidas de seguridad tomas para proteger tus cuentas de redes sociales? ¿Cómo verificas la autenticidad de los mensajes antes de realizar una transferencia? ¿Qué opinas sobre el uso de inteligencia artificial en estafas? ¿Crees que los videos virales pueden ayudar a prevenir fraudes o aumentar la paranoia? Déjanos tus comentarios y comparte tu experiencia con nosotros. ¡Te leemos!
Muchas gracias por leerme. Hasta pronto.
Redacción de rdndigital.com con información de fayerwayer.com
Si le gustó la columna de hoy difúndala entre sus contactos, amigos o conocidos. Si quiere recibir en su celular ésta y otras informaciones, descargue la aplicación Telegram, busque nuestro Canal: RDN Digital y PRESIONE +Unirme o click sobre la imagen a continuación.