Crimes contra mulheres com uso de IA e ‘fake nudes’ passam a ter pena mais severa
Prática é caracterizada pela criação de fotos, vídeos e áudios falsos com a ajuda da tecnologia
Brasília|Do R7, em Brasília

Os crimes contra mulheres praticados com o uso de IA (inteligência artificial) ou outras tecnologias passaram a ter penas mais severas no país. Conforme os novos parâmetros, a pena de seis meses a dois anos de prisão, além de multa, será aumentada da metade.
A mudança contempla situações que envolvem os chamados deep fakes — imagens, vídeos ou áudios falsos, mas que aparentam ser autênticos, criados com ajuda da tecnologia.
Veja mais
A mudança ocorre na redação do Código Penal que trata sobre violência psicológica, uma das formas de agressão contra mulheres reconhecidas pela legislação brasileira.
Os conteúdos falsos, geralmente, incluem a divulgação de imagens com teor pornográfico inverídicas, usadas muitas vezes como forma de ameaça, constrangimento, humilhação e chantagem.
Segundo a legislação, a violência psicológica contra a mulher é caracterizada por dano emocional que prejudique ou perturbe o pleno desenvolvimento da vítima, ou cujo objetivo seja degradar ou controlar ações, comportamentos, crenças e decisões da mulher.
Esse crime pode acontecer por meio de:
- ameaça
- constrangimento
- humilhação
- manipulação
- isolamento
- chantagem
- ridicularização
- limitação do direito de ir e vir; ou
- qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher
Aumento nos casos
Segundo o relatório Sumsub Identity Fraud Report 2023, o número de deepfakes identificadas no Brasil cresceu 830% entre 2022 e 2023. Isso significa que, na época, quase metade de todos os casos envolvendo essa prática na América Latina ocorreram no Brasil.
Outro dado mostrou que, entre o 1º e o 2º semestre de 2023, a troca de identidade — uma forma de deepfake — registrou um aumento de 704%. O levantamento consta no Relatório de Inteligência de Ameaças iProov 2024: O Impacto da IA Generativa na Verificação Remota de Identidade.
Como denunciar?
🔎 Reúna informações
O primeiro passo é confirmar se o vídeo, foto ou áudio realmente utiliza a imagem da vítima. Se isso for comprovado, salve cópias dos arquivos e prints de sites, redes sociais e plataformas onde o material foi divulgado. Também é importante registrar números de telefone e nomes de usuários envolvidos na disseminação do conteúdo falso.
📝 Registre um boletim de ocorrência
Com as provas em mãos, vá até uma delegacia para registrar um boletim de ocorrência. Se houver indício de violência contra a mulher, procure preferencialmente uma delegacia especializada. Nos casos envolvendo crianças e adolescentes, a recomendação é registrar o caso na Polícia Federal ou acionar órgãos como o Conselho Tutelar.
📱 Denuncie nas plataformas
Use as ferramentas de denúncia das próprias plataformas para solicitar a remoção do conteúdo.
⚠️ Atenção: salve todas as provas antes de fazer a denúncia, pois o conteúdo pode ser excluído após a solicitação.
⚖️ Busque orientação jurídica
Procurar orientação jurídica é fundamental. Além de garantir que os direitos da vítima sejam preservados, isso também ajuda a reduzir o sofrimento emocional e dá mais segurança em todo o processo.
Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp