Logo R7.com
Logo do PlayPlus
Publicidade

'Era muito real': novo golpe utiliza deepfake para imitar imagens e voz de pessoas nas redes sociais

A farsa utiliza um tipo de inteligência artificial que forja vídeos e imagens para pedir dinheiro de parentes e contatos

Tecnologia e Ciência|Mariana Pacheco,* do R7

Golpe utilizou deepfake para enganar usuários
Golpe utilizou deepfake para enganar usuários Golpe utilizou deepfake para enganar usuários

Os golpes cibernéticos se tornaram extremamente comuns na atualidade, mas com o desenvolvimento contínuo de novas tecnologias, mesmo os esquemas mais manjados enganam muita gente. Uma nova maneira mais complexa e sofisticada de golpe envolve as chamadas deepfakes.

Com a tecnologia avançada, criminosos falsificam vídeos e vozes de pessoas para pedir dinheiro para parentes e contatos próximos.

O advogado Victor Del Vecchio é uma das milhões de pessoas no Brasil que já sofreram com golpes digitais. No caso dele, um número desconhecido se passou por ele, colocando sua foto no perfil, e enviou mensagens ao pai e a mãe.

Em busca de dinheiro, os criminosos explicam que aquele é um número temporário, enquanto o oficial está em conserto, e solicitam dinheiro para os familiares. "Solicitaram Pix em tom de empréstimo a ser quitado em breve. Quando meus pais demoram a responder, os golpistas ligam e desligam na hora que atendem, para dar um tom de urgência", explicou Victor Del Vecchio, em entrevista ao R7.

Publicidade

Mas o que realmente surpreendeu o advogado, de 31 anos, foi o golpe sofrido por uma amiga, no dia 10 de março. Ela avisou para Victor que o perfil dela no Instagram havia sido hackeado, e que ele ficasse atento com mensagens suspeitas.

Quando ele visualizou os stories da conta, percebeu o famoso golpe do Pix — aquele que induz os seguidores a enviar uma quantia em dinheiro à uma determinada chave para receber o dobro de volta.

Publicidade

O que chocou Victor foi que, além dos stories, um vídeo postado no feed mostrava a amiga supostamente incentivando a iniciativa.

VALE SEU CLIQUE: ChatGPT: 'corrida armamentista' pela inteligência artificial já mudou os rumos da tecnologia

Publicidade

"Era o rosto e a voz dela falando e atestando que aquele esquema era muito bom, garantindo: Nossa gente, é fantástico isso! Vocês não acreditam, eu achei que não funcionava, mas eu já ganhei muito dinheiro. Estou impressionada!", explicou ele.

Acontece que as imagens não eram reais, e haviam sido manipuladas com deepfake. "A tecnologia de deepfake pode ser usada para criar vídeos ou áudios falsos que parecem muito reais, fazendo com que as pessoas sejam enganadas", explica Cleber Marques, executivo na empresa de qualidade de software Inmetrics, em entrevista ao R7.

A qualidade da gravação que envolveu a amiga impressionou Victor, que teve trabalho para perceber os rastros de falsificação.

LEIA TAMBÉM: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais

"Era muito real. Eu olhei o vídeo muitas vezes até detectar alguma imperfeição. Não era perceptível que era uma montagem. A única parte que eu consegui identificar que não era ela foi quando apareceu a mão, diferente da dela, provavelmente de uma pessoa em quem o vídeo foi feito em cima", lembra ele.

O vídeo também tinha a voz da amiga do advogado, o que o deixou mais realista. "A voz era muito parecida. Isso eu não sei identificar se é um programa que simula ou se deram a sorte de ter uma voz parecida com a dela", relembra Victor.

Na verdade, existem programas baratos que simulam vozes a partir de pequenas amostras, encontradas em posts de redes sociais. Softwares do tipo começaram a ser usados em golpes telefônicos nos Estados Unidos.

Leia também

Segundo Victor, a dona da conta não havia acessado nenhum link ou se inscrito em nada suspeito que poderia ter causado violação de segurança.

"Tudo indica que foi um ataque hacker, o que me deixou mais assustado ainda, porque aparentemente é uma coisa a que todos nós estamos sujeitos", completa ele.

Segundo Cleber Marques, o desenvolvimento de "inteligências artificiais mais avançadas pode tornar mais fácil para os golpistas enganarem as pessoas", e por isso é preciso estar atento.

O especialista destaca alguns cuidados que devem ser tomados: "Verificar a autenticidade da solicitação, manter senhas e informações pessoais seguras, usar softwares de segurança, não clicar em links suspeitos, ficar atento aos sinais de fraude e aprender sobre as novas tecnologias de segurança. Lembre-se, é sempre melhor ser cauteloso e verificar a autenticidade de uma solicitação antes de fornecer informações pessoais ou financeiras".

Apesar de existirem ferramentas que identificam se conteúdos foram produzidos por IA, elas ainda tem um índice baixo de sucesso.

A amiga de Victor não conseguiu recuperar a conta, mesmo após diversas tentativas. "Ela teve um suporte super ruim da Meta, que cuida do Instagram, não conseguiu recuperar a conta e teve que abrir um perfil novo. Fez boletim de ocorrência, mas não conseguiu recuperar até hoje", completa o advogado.

*Estagiária do R7, sob supervisão de Filipe Siqueira.

VEJA TAMBÉM: Pix: saiba quais são os principais golpes e como se proteger

" gallery_id="60e8ab62416eb95cfa000bb2" url_iframe_gallery="noticias.r7.com/tecnologia-e-ciencia/era-muito-real-novo-golpe-utiliza-deepfake-para-imitar-imagens-e-voz-de-pessoas-nas-redes-sociais-23032023"]

Últimas

Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.