Golpistas usam inteligência artificial para clonar vozes e extorquir dinheiro de vítimas
Em um dos casos, uma senhora pensou estar falando com o neto, que dizia estar preso e precisava de dinheiro para fiança
Tecnologia e Ciência|Filipe Siqueira, do R7
Golpistas começaram a utilizar inteligência artificial para enganar vítimas e ganhar milhares de dólares. Em um dos casos mais assustadores, criminosos utilizaram um software avançado para imitar a voz do neto de uma senhora de 73 anos e quase conseguiram extorquir dinheiro dela.
A canadense Ruth Card recentemente recebeu a ligação de alguém que dizia ser Brandon, um neto dela, que contou estar preso e precisava de dinheiro para fiança. Quase sem pensar, ela e o marido Greg correram para o banco.
Conseguiram sacar 3.000 dólares canadenses (R$ 11,2 mil, na cotação atual) de uma agência de Regina, no Canadá, e só não tiraram mais porque o gerente de uma segunda agência havia falando com um cliente que dissera ter recebido uma ligação semelhante, mas percebera que a voz era falsificada a tempo.
"Estávamos realmente convencidos de que conversamos com Brandon", disse Ruth Card, em entrevista ao jornal Washington Post.
Assim como no Brasil, golpes que usam identidade de conhecidos são comuns nos Estados Unidos e Canadá. Mas, recentemente, eles começaram a ficar mais sofisticados graças ao uso de inteligência artificial generativa.
Programas relativamente baratos permitem imitar vozes com pequenas amostras de áudio que podem ser obtidas de vídeos publicados online. A IA identifica características únicas da voz, como sotaque e entonação, e o que não consegue estabelecer com precisão, é preenchido com vozes semelhantes pesquisadas em imensos bancos de dados que alimentam tais programas.
Em uma ligação, basta ao golpista digitar que o programa "fala" com a vítima.
Uma dessas ferramentas mais famosas, criada pela startup EvenLabs, foi criticada por não criar formas de coibir o mau uso da ferramenta. No fim de fevereiro, um jornalista da Vice testou uma versão de 5 dólares da ferramenta e conseguiu acessar a própria conta bancária.
No fim de janeiro, a empresa afirmou no Twitter que vai criar ferramentas para identificar vozes criadas por IA.
Advogados e bitcoins
Alguns não têm tanta sorte quanto Ruth. O Washington Post relatou o caso de Benjamin Perkin, cujos pais idosos foram roubados em 21 mil dólares canadenses (R$ 78,4 mil, na cotação atual).
Os pais dele receberam a ligação de alguém que disse ser advogado e informou que Benjamin tinha se envolvido em um acidente de carro e precisava de dinheiro para pagar advogados e evitar ficar preso.
O advogado disse que Benjamin falaria ao telefone e a voz soou igual à dele, segundo o depoimento. Isso convenceu os pais a transferirem o dinheiro, por meio de bitcoins — o que torna quase impossível rastrear o destino dos fundos e investigar o caso.
Leia também
Como golpistas geralmente usam criptomoedas e podem ligar de telefones em praticamente qualquer país do mundo, rastreá-los é extremamente difícil. O pânico do momento também dificulta perceber o golpe: os pais de Benjamin afirmaram que a ligação parecia estranha, mas era convincente o bastante.
A saída, segundo alguns juristas, é criminalizar as fabricantes de softwares do tipo. Mas isso só ocorrerá quando casos como esses forem julgados, e para isso são necessários processos.
LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais