Golpe da voz: criminosos usam inteligência artificial para enganar vítimas e roubar dinheiro
Programa para computador imita a fala de pessoas e manipula frases; especialistas dão dicas de como se proteger
São Paulo|Sandra Lacerda*, do R7
Golpistas estão cada vez mais empenhados em confundir vítimas para roubar dinheiro e estudam formas complexas para isso, inclusive usando IA (inteligência artificial).
O novo golpe consiste na manipulação da voz por meio de programas que imitam respiração, pausas e tom de fala, gerando frases que são enviadas por áudio ou ligação a pessoas que possam reconhecer os sons, como amigos e familiares. O objetivo é enganar e extorquir.
Esse foi o caso do pai do influenciador Dario Centurione, que publica vídeos com dicas e curiosidades nas redes sociais. Após receber uma ligação que supostamente seria do filho que pedia dinheiro, o homem, de 71 anos, fez um Pix de R$ 600 para o golpista.
"Meu pai não desconfiou porque, segundo ele, a voz era muito parecida. Ele falou: 'Dario, eu tinha certeza de que era a sua voz. Era o mesmo tom'", conta o influenciador ao R7.
O pai de Dario só se deu conta de que havia caído em um golpe quando conversou de fato com o filho, que disse que não tinha pedido dinheiro.
Como funciona?
Arthur Igreja, especialista em tecnologia e inovação e cofundador da plataforma AAA Inovação, afirma que a principal ferramenta usada para esse tipo de golpe é a ElevenLabs, mas existem outras como Murf.ai, Respeecher e Discursar.
Os softwares, alimentados por inteligência artificial, conseguem imitar vozes e reproduzi-las de maneira fiel, usando poucos minutos de áudios reais. "Há programas que, com apenas 3 segundos, conseguem criar uma identidade, mas não são capazes de captar alguns aspectos da voz, vícios de linguagem e pequenas sutilezas. Para serem algo extremamente fidedigno, esses programas pedem de 10 a 15 minutos", ele conta.
Pessoas que publicam vídeos na internet são o principal alvo dos golpistas. "O acesso à voz delas é mais fácil e, quanto mais gravações, mais perfeita a voz artificial fica", explica o advogado Luiz Augusto D’Urso, especialista em crimes cibernéticos.
Após a ferramenta assimilar a voz original, tudo o que o golpista precisa fazer é escrever uma frase como: "Você pode fazer um Pix de R$ 600 para mim?". Então, o programa se encarrega de gerar a voz artificial que pode enganar as vítimas.
Golpes com inteligência artificial
O advogado afirma que a utilização indevida ou ilícita da inteligência artificial é um cenário inevitável. "Os criminosos se aproveitam da criação de tecnologias para desenvolver golpes. A manipulação de áudios não é algo novo para a IA, mas agora tem sido usada por pessoas mal-intencionadas, que conseguem deixar as vozes cada vez mais próximas do real para enganar e roubar", disse.
Quanto mais ferramentas disponíveis, mais golpes vão surgir. E os que já existem vão evoluir. Na visão de Igreja, as armadilhas que utilizam inteligência artificial são "extremamente preocupantes", uma vez que a tecnologia está sendo usada para roubar a privacidade, a segurança e a identidade de uma pessoa. "A partir do momento em que alguém rouba isso, tudo fica frágil", falou.
• Compartilhe esta notícia no WhatsApp
• Compartilhe esta notícia no Telegram
Como se proteger?
Entre as formas de se proteger do golpe da voz, Luiz Augusto explica que a mais eficaz é a criação de uma palavra-chave entre os amigos mais chegados e familiares. "Combinar uma palavra de segurança para ser usada todas as vezes em que o assunto envolver finanças é uma garantia de identificar se é um golpe ou não."
Após o pai ter caído no golpe da voz, Dario afirma que a família criou uma palavra-chave e agora se sente mais segura. "Eu percebi que, assim como meu pai, minha mãe e outros familiares também poderiam acreditar no golpe. Por isso, escolhemos uma palavra para usar nesses casos e estamos mais atentos."
Outra opção é realizar uma videochamada antes de efetuar qualquer tipo de transação. No entanto, o advogado Luiz Augusto adverte que logo esse método poderá ficar obsoleto, uma vez que a inteligência artificial também já é capaz de manipular imagens. "É um processo que exige tempo e profissionais experientes, mas, se ainda não está ao alcance dos golpistas, em breve estará", disse.
A Febraban (Federação Brasileira de Bancos) adverte que os golpistas utilizam a manipulação psicológica do usuário e falsas urgências para conseguir informações confidenciais, como senhas, número de cartões e transações. Sendo assim, sempre que pessoas aparecerem pedindo dinheiro ou dados por aplicativos de mensagem, a desconfiança já será uma defesa.
Caí no golpe! E agora?
Caso você seja vítima de um golpe, existem atitudes que podem ser tomadas. A Febraban orienta o cliente a notificar imediatamente o banco. Assim, medidas adicionais de segurança serão adotadas, como bloqueio do aplicativo e da senha de acesso.
Há também a possibilidade de o banco recuperar o dinheiro junto ao destino. "Sobre ressarcimento, informamos que cada instituição financeira tem sua própria política de análise e devolução, baseada em pesquisas individuais, considerando as evidências apresentadas pelos clientes e informações das transações realizadas", explicou o órgão.
O advogado sugere à vítima, assim que se der conta do golpe, também registrar um boletim de ocorrência por estelionato. Nesse caso, o criminoso pode cumprir pena de reclusão de um a cinco anos.
Veja dicas para não cair em golpes bancários e como se proteger
* Sob supervisão de Bruno Araujo