Logo R7.com
RecordPlus
Tecnologia e Ciência

Guia contra deepfakes e golpes com Inteligência Artificial

Especialista ensina em 10 lições como reconhecer conteúdo falso gerado por tecnologia que simula voz e imagem e é usada por criminosos

Tecnologia e Ciência|Aline Sordilli*, especial para o R7

  • Google News

Os conteúdos deepfakes representam uma revolução tecnológica com potencial devastador quando usados para fins criminosos. A facilidade crescente de criação, combinada com a sofisticação dos resultados, cria um cenário onde qualquer pessoa pode se tornar vítima de golpes extremamente convincentes.

Atualmente, vivemos uma democratização perigosa de ferramentas antes restritas a especialistas que agora estão acessíveis a qualquer pessoa com acesso à internet. A tecnologia evolui exponencialmente, com qualidade próxima à perfeição com apenas poucos cliques e comandos.

É necessário explicar e ensinar a população sobre os riscos e malefícios. O conhecimento é a principal defesa. A sociedade precisa ser educada sobre riscos e sinais de identificação. Os protocolos de verificação devem se tornar rotina em todo tipo de comunicação.

1. O QUE SÃO DEEPFAKES


Definição

Deepfakes são vídeos ou áudios gerados por inteligência artificial que simulam falas e expressões faciais de pessoas reais com alto grau de realismo. O termo combina “deep learning” (aprendizado profundo) e “fake” (falso).


Como São Criados

  • Material necessário: Apenas 3-15 segundos de áudio ou vídeo original
  • Fonte dos dados: Redes sociais, vídeos públicos, áudios de WhatsApp
  • Processamento: IA analisa padrões de voz, movimentos faciais e expressões
  • Tempo de criação: De poucos minutos a algumas horas, dependendo da qualidade

2. COMO FUNCIONAM OS GOLPES COM DEEPFAKES


2.1 O Processo criminal

Etapa 1: Coleta de material

  • Criminosos vasculham redes sociais da vítima ou pessoa a ser imitada
  • Coletam vídeos, fotos e áudios disponíveis publicamente
  • Voice Engine da OpenAI: Precisa apenas de 15 segundos de áudio

Etapa 2: Criação do Deepfake

  • Uso de softwares especializados em IA
  • Treinamento do modelo com o material coletado
  • Geração do conteúdo falso (vídeo ou áudio)

Etapa 3: Aplicação do golpe

  • Contato com a vítima via chamada de vídeo ou áudio
  • Criação de senso de urgência
  • Solicitação de dinheiro ou informações pessoais

2.2 Modalidades Principais

Golpe do Falso Familiar

  • Criminoso se passa por filho, neto ou parente próximo
  • Simula emergência (acidente, prisão, hospital)
  • Pede dinheiro via Pix com urgência
  • Usa deepfake de voz ou vídeo para aumentar credibilidade

Golpe do Falso Sequestro

  • Criminoso simula voz de familiar “sequestrado”
  • Cria áudio de desespero e pedido de ajuda
  • Exige resgate imediato
  • Pressiona psicologicamente a vítima

3. TIPOS DE DEEPFAKES CRIMINOSOS

3.1 Deepfakes de Voz (Voice Cloning)

  • Tecnologia: Clonagem vocal usando poucos segundos de áudio
  • Qualidade: Cada vez mais realista, difícil de detectar
  • Aplicação: Ligações telefônicas fraudulentas
  • Tempo necessário: 3-15 segundos de amostra de voz

Características:

  • Reproduz tom, timbre e sotaque
  • Imita padrões de fala específicos
  • Pode ser usado em tempo real durante ligações

3.2 Deepfakes de Vídeo

  • Tecnologia: Substituição facial em vídeos
  • Aplicação: Chamadas de vídeo fraudulentas, anúncios falsos
  • Complexidade: Maior que clonagem de voz
  • Qualidade: Varia conforme ferramentas utilizadas

Características:

  • Substitui rosto mantendo expressões
  • Sincroniza movimento labial com fala
  • Pode incluir movimentos corporais

3.3 Deepfakes de celebridades e influenciadores

  • Objetivo: validação falso de produtos
  • Vítimas: Influenciadores, artistas, políticos
  • Aplicação: Anúncios de produtos milagrosos, investimentos
  • Impacto: Dano reputacional às personalidades

3.4 Deepfakes em tempo real

  • Tecnologia: Filtros aplicados durante transmissão
  • Aplicação: Chamadas de vídeo ao vivo
  • Limitações: Pode apresentar falhas de sincronia
  • Acessibilidade: Tecnologia menos complexa

4. COMO IDENTIFICAR DEEPFAKES

4.1 Sinais Visuais em Vídeos

Movimentação Facial:

  • Olhos: Piscar repetitivo, movimento não natural
  • Boca: Dessincronia com a fala
  • Expressões: Mudanças bruscas ou robóticas
  • Sorriso: Assimetrias ou artificialidade

Aspectos Técnicos:

  • Iluminação: Inconsistências na face vs. ambiente
  • Bordas: Contornos indefinidos ou “borrados”
  • Qualidade: Diferença entre rosto e resto do vídeo
  • Movimento: Falta de naturalidade geral

4.2 Sinais Auditivos

Qualidade do Áudio:

  • Muito perfeita: Ausência de ruídos naturais
  • Artificialmente distorcida: Processamento excessivo
  • Inconsistência: Mudanças abruptas de qualidade
  • Respiração: Ausência de padrões naturais

Padrões de Fala:

  • Entonação: Muito uniforme ou robótica
  • Pausas: Inexistentes ou muito regulares
  • Sotaque: Inconsistente com a pessoa real
  • Vocabulário: Diferente do padrão habitual

4.3 Sinais Comportamentais

Durante a Interação:

  • Urgência excessiva: Pressão para decisão imediata
  • Evita perguntas específicas: Não responde detalhes pessoais
  • Não usa apelidos: Omite tratamentos íntimos habituais
  • Comportamento atípico: Age diferente do normal

4.4 Testes de Verificação

Perguntas Específicas:

  • Memórias compartilhadas exclusivas
  • Detalhes sobre família/amigos
  • Eventos recentes conhecidos apenas por vocês
  • Informações sobre casa, trabalho, rotina

Solicitações de Prova:

  • Pedir para mostrar algo específico do ambiente
  • Solicitar que repita frase inusitada
  • Mudar de assunto bruscamente
  • Pedir videochamada em plataforma diferente

5. FACILIDADE DE USO É FATOR DE RISCO

Tempo para Aprender:

  • Básico: Poucos minutos com tutorial
  • Intermediário: Algumas horas de prática
  • Avançado: Dias ou semanas de dedicação
  • Especialista: Meses de desenvolvimento

Conhecimento Técnico Necessário:

  • Nível iniciante: Seguir instruções simples
  • Sem programação: Interfaces visuais intuitivas
  • Suporte disponível: Comunidades e tutoriais
  • Democratização: Cada vez mais acessível

6. POR QUE SÃO TÃO EFICAZES

6.1 Fatores Psicológicos

Confiança Familiar:

  • Reconhecimento visual/auditivo gera confiança imediata
  • Memória emocional é ativada pela familiaridade
  • Suspensão do ceticismo natural
  • Instinto protetor é explorado

Urgência e Emoção:

  • Cenários de emergência impedem reflexão
  • Pressão temporal para decisão
  • Estado emocional alterado reduz capacidade crítica
  • Medo e preocupação dominam o racional

6.2 Fatores Tecnológicos

Qualidade Crescente:

  • Realismo impressionante das criações
  • Redução de inconsistências detectáveis
  • Melhoria contínua dos algoritmos
  • Personalização específica da vítima

Facilidade de Criação:

  • Pouco material necessário (3-15 segundos)
  • Processamento rápido
  • Custo baixo de produção
  • Escalabilidade para múltiplas vítimas

6.3 Fatores Sociais

Confiança em Celebridades:

  • Credibilidade por associação
  • Empatia do público com figuras conhecidas
  • Autoridade percebida de especialistas
  • Influência social de personalidades

Vulnerabilidades Demográficas:

  • Diferentes gerações têm vulnerabilidades específicas
  • Classe social influencia tipo de golpe
  • Momentos de fragilidade financeira/emocional
  • Isolamento social aumenta dependência digital

7. MEDIDAS DE PROTEÇÃO

7.1 Proteção Preventiva

Códigos de Segurança Familiar:

  • Estabeleça palavras-chave secretas com familiares
  • Crie frases de verificação conhecidas apenas por vocês
  • Defina protocolos para pedidos de dinheiro
  • Atualize códigos periodicamente

Configurações de Privacidade:

  • Limite exposição de vídeos/áudios em redes sociais
  • Configure privacidade máxima em perfis
  • Evite compartilhar conteúdo pessoal publicamente
  • Revise regularmente configurações de apps

7.2 Verificação Durante Contato

Sempre Confirme:

  • Ligue diretamente para o número conhecido da pessoa
  • Use canal diferente do contato inicial
  • Verifique presencialmente quando possível
  • Confirme com outros familiares

Faça Perguntas Específicas:

  • Memórias exclusivas que só vocês compartilham
  • Detalhes íntimos sobre família/relacionamentos
  • Eventos recentes conhecidos apenas por vocês
  • Informações específicas sobre casa/trabalho

7.3 Sinais de Alerta

Desconfie Quando:

  • Urgência excessiva para decisões/pagamentos
  • Qualidade técnica suspeita (muito perfeita ou distorcida)
  • Comportamento atípico da pessoa
  • Evita responder perguntas específicas
  • Pede informações que nunca pediu antes

Testes Práticos:

  • Mude de assunto abruptamente
  • Peça para mostrar algo específico
  • Solicite repetir frase inusitada
  • Teste conhecimentos íntimos

7.4 Ações Imediatas

Se Suspeitar de Deepfake:

  1. Interrompa a comunicação imediatamente
  2. Verifique por canal seguro conhecido
  3. Alerte outros familiares sobre a tentativa
  4. Documente a ocorrência (prints, gravações)
  5. Denuncie às autoridades se confirmado

Se Foi Vítima:

  1. Registre Boletim de Ocorrência
  2. Bloqueie contas comprometidas
  3. Altere senhas e dados de acesso
  4. Notifique bancos e instituições
  5. Busque assessoria jurídica

8. ASPECTOS LEGAIS

8.1 Legislação Brasileira Atual

Deepfake Não é Crime Per Se:

  • Tecnologia em si não é criminalizada
  • Uso malicioso que configura crime
  • Contextualização é fundamental para tipificação

Crimes Relacionados:

  • Estelionato (Art. 171 CP): Quando usado para fraude
  • Uso indevido de imagem (Art. 20 CC)
  • Crimes contra honra: Calúnia, difamação, injúria
  • Falsidade ideológica: Em documentos/declarações

8.2 Marcos Legais Aplicáveis

Legislação Específica:

  • Marco Civil da Internet (Lei 12.965/2014)
  • Lei Geral de Proteção de Dados (Lei 13.709/2018)
  • Código Civil - Direitos da personalidade
  • Código Penal - Crimes específicos

Projetos em Tramitação:

  • PL 123/24: Combate propaganda enganosa com IA
  • Projeto Rodrigo Pacheco: Regulamentação geral da IA
  • Discussões sobre criminalização específica de deepfakes

8.3 Responsabilidades

Criadores de Ferramentas:

  • Proteção se tecnologia tem uso legítimo
  • Responsabilidade limitada pelo mau uso
  • Necessidade de avisos e controles

Usuários Maliciosos:

  • Responsabilização total pelo uso criminoso
  • Agravantes por uso de tecnologia para enganar
  • Múltiplas tipificações possíveis

Plataformas:

  • Dever de remover conteúdo denunciado
  • Políticas próprias de combate a fakes
  • Cooperação com autoridades

8.4 Investigação e Punição

Delegacias Especializadas:

  • Crimes Cibernéticos quando disponível
  • Delegacias comuns como alternativa
  • Necessidade de capacitação especializada

Desafios Investigativos:

  • Anonimato dos criminosos
  • Jurisdição em crimes online
  • Preservação de evidências digitais
  • Prova técnica da falsificação

9. FUTURO DOS DEEPFAKES

9.1 Evolução Tecnológica

Próximos 2-3 Anos:

  • · Qualidade próxima à perfeição visual/auditiva
  • · Tempo de criação reduzido para segundos
  • · Democratização total: Ferramentas em apps comuns
  • · Integração completa: Voz + vídeo + texto automatizados

Médio Prazo (5-10 anos):

  • Tempo real perfeito: Deepfakes ao vivo sem falhas
  • IA conversacional: Interação natural prolongada
  • Personalização total: Adaptação ao perfil da vítima
  • Automação completa: Golpes sem intervenção humana

Longo Prazo (10+ anos):

  • Indistinguível da realidade
  • Criação instantânea a partir de fotos
  • IA autônoma: Golpes auto-executáveis
  • Escala industrial: Milhões de vítimas simultâneas

9.2 Novos Tipos de Golpes

Deepfakes Conversacionais:

  • IA que mantém diálogo natural prolongado
  • Adaptação em tempo real às respostas da vítima
  • Conhecimento contextual obtido de redes sociais
  • Personalização extrema da abordagem

Deepfakes Multimodais:

  • Combinação voz + vídeo + texto + dados
  • Simulação completa de personalidade
  • Contexto temporal: Referências atualizadas
  • Interação multiplataforma: Diversos canais simultaneamente

Deepfakes Preventivos:

  • Antecipação de verificações da vítima
  • Preparação para perguntas específicas
  • Simulação de ambiente familiar
  • Manipulação de evidências digitais

9.3 Impactos Societais

Democracia e Política:

  • Manipulação eleitoral massiva
  • Discursos falsos de candidatos
  • Desinformação em escala industrial
  • Erosão da confiança institucional

Economia Digital:

  • Redução do comércio eletrônico
  • Aumento dos custos de verificação
  • Necessidade de novos protocolos de segurança
  • Transformação dos modelos de negócio

Relações Sociais:

  • Protocolos de verificação familiares
  • Códigos de autenticação pessoais
  • Redução da espontaneidade comunicativa
  • Nova etiqueta digital

10. TECNOLOGIAS DE DETECÇÃO {#tecnologias-deteccao}

10.1 Métodos Atuais

Análise Visual:

  • Detecção de inconsistências em iluminação
  • Análise de movimento facial natural
  • Verificação de sincronia labial
  • Identificação de artefatos digitais

Análise de Áudio:

  • Padrões espectrais não naturais
  • Análise de respiração e pausas
  • Verificação de timbres vocais
  • Detecção de processamento artificial

Análise Comportamental:

  • Padrões de piscar anômalos
  • Movimentação não natural
  • Expressões inconsistentes
  • Micro-expressões ausentes

10.2 IA para detecção custa caro e é pouco acessível

Machine Learning:

  • Treinamento com milhares de exemplos
  • Reconhecimento de padrões sutis
  • Atualização contínua dos modelos
  • Precisão crescente na identificação

Deep Learning:

  • Redes neurais especializadas
  • Análise multi-dimensional
  • Processamento em tempo real
  • Adaptação a novas técnicas

10.3 Ferramentas Disponíveis

Para Consumidores:

  • Apps móveis básicos de verificação
  • Extensões de navegador
  • Serviços web gratuitos
  • Integração em plataformas sociais

Para Empresas:

  • APIs especializadas de detecção
  • Sistemas integrados de segurança
  • Monitoramento em tempo real
  • Relatórios detalhados de análise

Para Instituições:

  • Sistemas enterprise completos
  • Integração com protocolos existentes
  • Capacitação de equipes técnicas
  • Suporte especializado 24/7

10.4 Limitações Atuais

Técnicas:

  • Sempre reativa: Detecção após criação
  • Taxa de falsos positivos ainda alta
  • Necessidade de material de comparação
  • Dificuldade com deepfakes de alta qualidade

Econômicas:

  • Custo alto de desenvolvimento
  • Necessidade de atualização constante
  • Investimento em infraestrutura
  • Recursos humanos especializados

Sociais:

  • Falta de conhecimento público
  • Resistência à adoção
  • Complexidade para usuário comum
  • Necessidade de educação massiva

*Aline Sordili é especialista em transformação digital e Inteligência Artificial

Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.