Logo R7.com
Logo do PlayPlus
R7 Brasília

Crimes contra mulheres com uso de IA e ‘fake nudes’ passam a ter pena mais severa

Prática é caracterizada pela criação de fotos, vídeos e áudios falsos com a ajuda da tecnologia

Brasília|Do R7, em Brasília

Conteúdos, geralmente, incluem divulgação de imagens com teor pornográfico falsas Marcello Casal Jr/Agência Brasil/Arquivo

Os crimes contra mulheres praticados com o uso de IA (inteligência artificial) ou outras tecnologias passaram a ter penas mais severas no país. Conforme os novos parâmetros, a pena de seis meses a dois anos de prisão, além de multa, será aumentada da metade.

A mudança contempla situações que envolvem os chamados deep fakesimagens, vídeos ou áudios falsos, mas que aparentam ser autênticos, criados com ajuda da tecnologia.

Veja mais

A mudança ocorre na redação do Código Penal que trata sobre violência psicológica, uma das formas de agressão contra mulheres reconhecidas pela legislação brasileira.

Os conteúdos falsos, geralmente, incluem a divulgação de imagens com teor pornográfico inverídicas, usadas muitas vezes como forma de ameaça, constrangimento, humilhação e chantagem.


Segundo a legislação, a violência psicológica contra a mulher é caracterizada por dano emocional que prejudique ou perturbe o pleno desenvolvimento da vítima, ou cujo objetivo seja degradar ou controlar ações, comportamentos, crenças e decisões da mulher.

Esse crime pode acontecer por meio de:

  • ameaça
  • constrangimento
  • humilhação
  • manipulação
  • isolamento
  • chantagem
  • ridicularização
  • limitação do direito de ir e vir; ou
  • qualquer outro meio que cause prejuízo à saúde psicológica e à autodeterminação da mulher

Aumento nos casos

Segundo o relatório Sumsub Identity Fraud Report 2023, o número de deepfakes identificadas no Brasil cresceu 830% entre 2022 e 2023. Isso significa que, na época, quase metade de todos os casos envolvendo essa prática na América Latina ocorreram no Brasil.


Outro dado mostrou que, entre o 1º e o 2º semestre de 2023, a troca de identidade — uma forma de deepfake — registrou um aumento de 704%. O levantamento consta no Relatório de Inteligência de Ameaças iProov 2024: O Impacto da IA Generativa na Verificação Remota de Identidade.

Como denunciar?

🔎 Reúna informações


O primeiro passo é confirmar se o vídeo, foto ou áudio realmente utiliza a imagem da vítima. Se isso for comprovado, salve cópias dos arquivos e prints de sites, redes sociais e plataformas onde o material foi divulgado. Também é importante registrar números de telefone e nomes de usuários envolvidos na disseminação do conteúdo falso.

📝 Registre um boletim de ocorrência

Com as provas em mãos, vá até uma delegacia para registrar um boletim de ocorrência. Se houver indício de violência contra a mulher, procure preferencialmente uma delegacia especializada. Nos casos envolvendo crianças e adolescentes, a recomendação é registrar o caso na Polícia Federal ou acionar órgãos como o Conselho Tutelar.

📱 Denuncie nas plataformas

Use as ferramentas de denúncia das próprias plataformas para solicitar a remoção do conteúdo.

⚠️ Atenção: salve todas as provas antes de fazer a denúncia, pois o conteúdo pode ser excluído após a solicitação.

⚖️ Busque orientação jurídica

Procurar orientação jurídica é fundamental. Além de garantir que os direitos da vítima sejam preservados, isso também ajuda a reduzir o sofrimento emocional e dá mais segurança em todo o processo.

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.