La IA se está utilizando para «sobrealimentar» las estafas telefónicas con las voces clonadas de sus familiares


¿Alguna vez recibió un correo electrónico de alguien que dice ser su pariente perdido hace mucho tiempo, varado sin su billetera y pasaporte durante unas vacaciones, y pidiendo $ 1,000 para regresar a casa? Todos sabemos que es una estafa clásica. Pero seamos honestos, incluso los más inteligentes entre nosotros pueden caer en algo así, y la IA está haciendo que sea aún más difícil saber cuándo alguien está tratando de llevarnos a dar un paseo. La FTC (Comisión Federal de Comercio) ahora nos está avisando sobre un nuevo juego de estafa en el que los estafadores en realidad llaman a víctimas desprevenidas, fingiendo ser sus propios familiares y utilizando herramientas de IA para hacerlo más convincente.

La presidenta de la Comisión Federal de Comercio, Lina Khan (a través de Bloomberg), dijo en un evento reciente que «debemos estar atentos desde el principio» a medida que se desarrollan las herramientas de IA, porque ya hemos visto cómo estas herramientas de IA pueden «sobrecargar» el fraude.



Source link-8