Logo R7.com
RecordPlus
R7 Brasília

Ataques com deepfake crescem no Brasil e podem influenciar eleições de 2026

Relatório aponta que ataques com essa tecnologia aumentaram 126% em 2025; materiais gerados por IA forjam rostos, vozes e vídeos

Brasília|Bruna Pauxis, do R7, em Brasília

  • Google News
Deepfakes podem comprometer a opinião dos brasileiros durante as eleições Marcello Casal Jr/Agência Brasil - Arquivo

Imagine ver um conteúdo com sua imagem, talvez sua voz, circular pela internet sem que seja, de fato, você. Agora imagine esse cenário caso você estivesse concorrendo à Presidência do país. O deepfake, técnica avançada de manipulação de mídias que utiliza IA (Inteligência Artificial) para criar conteúdos falsificados extremamente realistas, é uma realidade que circula o Brasil e o mundo e pode impactar as decisões democráticas nas eleições de 2026.

Segundo o relatório “Identity Fraud Report 2025-2026”, produzido pela Sumsubs, os ataques com essa tecnologia cresceram 126% no Brasil em 2025. Entre os materiais gerados por IA, são forjados rostos, vozes, vídeos e documentos.


Leia Mais

O especialista em Inteligência Artificial Antônio Netto explica que o deepfake tem um potencial de convencimento bem maior que um conteúdo qualquer produzido por IA. “Uma foto qualquer gerada por IA de um rosto inexistente não pretende enganar, já um vídeo alterado por IA para colocar palavras na boca de um político ou celebridade se encaixa como deepfake, pois usa a tecnologia para simular a realidade e potencialmente enganar a quem assiste”, conta Netto.

Em 2024, o DFRLab (Digital Forensic Research Lab) mapeou alguns dos impactos da IA generativa nas eleições municipais no Brasil, para descobrir se a ferramenta estava sendo usada para produção de conteúdo nocivo ao processo eleitoral.


Ao todo, foram identificados 78 casos de materiais confirmados ou alegadamente criados por meio de IA. Em 2026, a expectativa é de que cresçam os casos, uma vez que as eleições, desta vez, são para escolha do presidente do país e acontecem em meio a um cenário político extremamente polarizado.

‘Corrida armamentista’

Além disso, como conta Netto, nos últimos dois anos a tecnologia evoluiu e tornou-se mais acessível e menos identificável, traçando uma verdadeira “corrida armamentista” para identificar e regulamentar os recursos da IA.


“Há poucos anos, produzir um deepfake convincente exigia computadores potentes, muito tempo de processamento e conhecimento técnico avançado. Agora, ferramentas mais acessíveis e até serviços prontos reduziram drasticamente esse obstáculo”, relata o especialista.

“Os algoritmos de detecção simplesmente não evoluem na mesma velocidade, ficando sempre um passo atrás dos falsificadores. Além disso, os deepfakes modernos são tão realistas que muitas vezes nem o olho humano consegue distinguir”, pontua.


Ciente do impacto da inteligência artificial no contexto eleitoral, o TSE instituiu, em junho, um grupo de trabalho com o objetivo de debater e propor diagnósticos, pesquisas, programas, projetos e campanhas destinadas à implementação pelo Tribunal de medidas para o aperfeiçoamento do sistema de combate à desinformação eleitoral.

Questionado pela redação, o Tribunal não forneceu detalhes sobre mecanismos estudados, no momento, para impedir o uso de deepfakes nas eleições de 2026 e pontuou que as resoluções que vão regulamentar o processo eleitoral do ano que vem devem ser aprovadas pelo Pleno do TSE até março, após a realização de audiências públicas para receber sugestões da sociedade.

O órgão publicou, em 2024, uma resolução que proíbe o uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições, mas não há, até o momento, um plano específico que trate de deepfakes.

Desafios à frente

Para o vice-presidente do Observatório Nacional da Abracrim (Associação Brasileira dos Advogados Criminalistas), o advogado criminalista Arthur Richardisson, a norma existente é um pilar “necessário, mas não suficiente”.

“Ela dá base para remoção rápida, para responsabilizar candidatos e plataformas, e cria incentivos para transparência. Mas continua sendo norma infralegal, sua aplicação depende de capacidade técnica de detecção, de articulação com plataformas e de autocontenção judicial na hora de equilibrar combate à desinformação com liberdade de expressão e devido processo”, disse Richardisson.

Ainda de acordo com o advogado, são necessárias três frentes de atuação antes do ano eleitoral: a aprovação de tipos penais e eleitorais específicos para deepfakes, a criação de um marco geral de inteligência artificial que dialogue expressamente com a seara eleitoral e a regulação das plataformas.

“O desafio será calibrar a atuação normativa da Justiça Eleitoral para que ela não substitua o legislador, nem crie, por resolução, deveres e sanções incompatíveis com o Marco Civil e com as cláusulas pétreas da Constituição, liberdade de expressão, devido processo legal, presunção de inocência e reserva legal em matéria penal”, defendeu.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da RECORD, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.