Em 2023, idosos nos Estados Unidos perderam cerca de US$ 3,4 bilhões em fraudes financeiras, de acordo com dados do FBI. Um dos métodos que mais preocupa especialistas é o uso de inteligência artificial para a clonagem de voz, tornando os golpes mais convincentes e difíceis de identificar. Essa tecnologia tem sido usada para simular vozes de familiares em situações de emergência, levando vítimas a transferirem grandes quantias de dinheiro.
Um caso amplamente divulgado ocorreu no Arizona, onde Jennifer DeStefano recebeu uma ligação de golpistas que usaram a voz clonada de sua filha para pedir resgate. “Era exatamente a voz dela, chorando, pedindo ajuda”, disse DeStefano à mídia. Por sorte, ela conseguiu confirmar que a filha estava segura antes de realizar qualquer pagamento.
Mas os alvos não se limitam a idosos. Em outro caso no Canadá, um empresário transferiu US$ 200 mil após receber uma ligação de alguém que acreditava ser seu advogado. A voz clonada convenceu a vítima de que era necessário agir rapidamente para resolver uma emergência, conforme relatado pelo Washington Post.
Para evitar esses golpes, o FBI e especialistas recomendam o uso de uma “palavra-segura” — um código exclusivo que só familiares conheçam. E Eva Velasquez, CEO do Identity Theft Resource Center, ressalta a importância de verificar a identidade do interlocutor antes de tomar decisões financeiras. “Esses golpistas sabem explorar momentos de vulnerabilidade emocional, então é crucial pausar e confirmar os fatos antes de agir”, alerta.