EspañolImageInglés
Tamaño de fuente: +
2 minutos de lectura ( 373 palabras)

CLONACIÓN DE VOCES, NUEVA ESTRATEGIA DE ESTAFA A PARTIR DE LA INTELIGENCIA ARTIFICIAL

Imágen

Un matrimonio estadounidense fue víctima de una nueva modalidad de estafa, se trata de la clonación de voz de un familiar por inteligencia artificial (IA). Greg Grace y su esposa Ruth Card de 73 años quien recibió una llamada telefónica y al contestar escucho la voz de su nieto Brandon quien les pidió ayuda asegurando que estaba en la cárcel, sin cartera ni teléfono, y necesitaba dinero para pagar la fianza en efectivo para salir en libertad.

Ambos esposos salieron de inmediato a dos sucursales de sus bancos a retirar el dinero necesario para pagar la fianza en efectivo. En el primer banco la pareja retiró cerca de 2 mil 207 dólares (más de 40 mil pesos mexicanos). Mientras que, en la segunda entidad bancaria, el gerente de la sucursal les advirtió que podría tratarse de una estafa, sin embargo, la pareja dudo que fuera un engaño porque la voz de su nieto era idéntica, este caso fue dado a conocer por The Washington Post el 05/03/23.

Cabe señalar que las estafas por suplantación de identidad en 2022 se ubicaron como el segundo fraude más común en Estados Unidos con cerca de 36.000 denuncias de víctimas estafadas, de acuerdo con los datos de la Comisión Federal de Comercio (FTC, por sus siglas en inglés).

LA FTC sostuvo que los consumidores perdieron 8.8 mil millones de dólares por fraude algún tipo de fraude en 2022, un aumento de más del 30 por ciento con respecto al 2021.

¿Cómo funciona la clonación de voz por IA?

Los softwares creados por empresas como ElevenLabs o Microsoft son capaces de generar una conversación con una sola muestra de audio de voz que incluya unas pocas oraciones que se pueden tomar de alguna grabación de cualquier plataforma social como YouTube, Discord, Instagram, TikTok, Facebook, un pódcast, etcétera.

El software de IA permite el análisis y clonación de la voz, a partir de la búsqueda en grandes bases de datos de voces hasta encontrar voces similares y replicar patrones.

El FTC recomienda que si se recibe una llamada de algún familiar o amigo pidiendo dinero con urgencia, tratemos o pongamos la llamada en espera e intentemos llamar por separado a la persona quien probablemente le esté suplantando su identidad.

Derechos de autor

© SPR

×
Mantente Informado

Al suscribirse a Blogs, te enviaremos un correo electrónico cuando haya nuevas actualizaciones en el sitio para que no te las pierdas.

RINDEN PROTESTA LOS NUEVOS COMITÉS DE DESARROLLO D...
REITERA LA PRESIDENTA NORMA OTILIA HERNÁNDEZ COMPR...
 

Comentarios

No hay comentarios por el momento. Sé el primero en enviar un comentario.
¿Ya està registrado? Ingresa Aquí
Miércoles, 25 Diciembre 2024

Imagen Captcha

This website is protected by RSFirewall!, the firewall solution for Joomla!
This website is protected by RSFirewall!, the firewall solution for Joomla!