Banco faz alerta: Milhões de pessoas podem ser alvos de golpes de clonagem de voz por IA
Esses tipos de golpes têm o potencial de “pegar milhões de pessoas”, disse o Starling Bank em um comunicado à imprensa na quarta-feira (18)
“Milhões” de pessoas podem ser vítimas de golpes que usam inteligência artificial para clonar suas vozes, alertou um banco do Reino Unido.
O Starling Bank, um credor somente online, disse que os fraudadores são capazes de usar IA para replicar a voz de uma pessoa a partir de apenas três segundos de áudio encontrados, por exemplo, em um vídeo que a pessoa postou online. Os golpistas podem então identificar os amigos e familiares da pessoa e usar a voz clonada por IA para encenar uma ligação telefônica para pedir dinheiro.
Esses tipos de golpes têm o potencial de “pegar milhões de pessoas”, disse o Starling Bank em um comunicado à imprensa na quarta-feira (18).
Eles já afetaram centenas. De acordo com uma pesquisa com mais de 3.000 adultos que o banco conduziu com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram que foram alvos de um golpe de clonagem de voz por IA nos últimos 12 meses.
A pesquisa também mostrou que 46% dos entrevistados não sabiam que tais golpes existiam e que 8% enviariam tanto dinheiro quanto fosse solicitado por um amigo ou familiar, mesmo que achassem a ligação estranha.
“As pessoas postam regularmente conteúdo online com gravações de suas vozes, sem nunca imaginar que isso as torna mais vulneráveis a fraudadores”, disse Lisa Grahame, diretora de segurança da informação do Starling Bank, no comunicado à imprensa.
O banco está incentivando as pessoas a concordarem com uma “frase segura” com seus entes queridos — uma frase simples, aleatória, fácil de lembrar e diferente de outras senhas — que pode ser usada para verificar sua identidade por telefone.
O credor recomenda não compartilhar a frase segura por mensagem de texto, o que pode facilitar a descoberta por golpistas, mas, se compartilhada dessa forma, a mensagem deve ser apagada assim que a outra pessoa a vir.
À medida que a IA se torna cada vez mais hábil em imitar vozes humanas, aumentam as preocupações sobre seu potencial de prejudicar as pessoas, por exemplo, ajudando criminosos a acessar suas contas bancárias e espalhar informações incorretas.
No início deste ano, a OpenAI, criadora do chatbot de IA generativa ChatGPT, revelou sua ferramenta de replicação de voz , Voice Engine, mas não a disponibilizou ao público naquele momento, citando o “potencial de uso indevido de voz sintética”.