CIUDAD DE MÉXICO.- Uno de los tipos de fraude que se han reportado recientemente incluye el envío de mensajes de audio en los que se clona la voz de una persona para engañar más fácilmente a la víctima y pedirle dinero.
“Hijo, me acabo de meter en un gran problema y necesito de tu ayuda. Te estoy marque y marque y no me contestas. Te estoy mandando mensajes porque te necesito, por favor, contéstame”, dice la voz de la supuesta mamá de un joven a quien quisieron hacer víctima de una modalidad de las estafas por WhatsApp.
“Necesito que me mandes 3 mil pesos. No te preocupes. Llegando a la casa te explico”, continúa la voz de la supuesta madre del joven. Ese audio se envió por Whatsapp. Usaron el mismo número de celular de la madre del joven, es decir, hackearon la cuenta de WhatsApp.
El joven se salvó porque al momento de recibir los mensajes, su madre estaba en la casa con él, lo que permitió identificar que se trataba de un fraude, de intento de extorsión.
Con el uso de la inteligencia artificial (IA) generativa se han creado nuevas modalidades de fraudes a través de llamadas telefónicas o en plataformas de mensajería instantánea como WhatsApp, Telegram y otras.
¿Cómo emplean la inteligencia artificial para clonar voces? ¿Cómo protegerte de los delincuentes?
Los especialistas indicaron que una pequeña muestra de audio es suficiente para que los ciberdelincuentes pueden clonar la voz de casi cualquier persona. Esto les da la posibilidad de crear mensajes de voz falsos y utilizarlos en buzones, enviar audios por WhatsApp u otros servicios de mensajería.
De acuerdo con los especialistas, el tipo de mensaje que mandan los extorsionadores es concreto: Surgió una emergencia, hay angustia y necesidad de que se deposite cierta cantidad de dinero de inmediato. Para confundir a la víctima, se hacen pasar por familiares o amigos
“Cuantos más ejemplos de la voz de la persona puedas introducir en los algoritmos, mejor y más convincente será la copia final”, detallan los especialistas de Mcafee.
Fuente: El Financiero