Guia contra deepfakes e golpes com Inteligência Artificial
Especialista ensina em 10 lições como reconhecer conteúdo falso gerado por tecnologia que simula voz e imagem e é usada por criminosos
Tecnologia e Ciência|Aline Sordilli*, especial para o R7
Os conteúdos deepfakes representam uma revolução tecnológica com potencial devastador quando usados para fins criminosos. A facilidade crescente de criação, combinada com a sofisticação dos resultados, cria um cenário onde qualquer pessoa pode se tornar vítima de golpes extremamente convincentes.
Atualmente, vivemos uma democratização perigosa de ferramentas antes restritas a especialistas que agora estão acessíveis a qualquer pessoa com acesso à internet. A tecnologia evolui exponencialmente, com qualidade próxima à perfeição com apenas poucos cliques e comandos.
É necessário explicar e ensinar a população sobre os riscos e malefícios. O conhecimento é a principal defesa. A sociedade precisa ser educada sobre riscos e sinais de identificação. Os protocolos de verificação devem se tornar rotina em todo tipo de comunicação.
1. O QUE SÃO DEEPFAKES
Definição
Deepfakes são vídeos ou áudios gerados por inteligência artificial que simulam falas e expressões faciais de pessoas reais com alto grau de realismo. O termo combina “deep learning” (aprendizado profundo) e “fake” (falso).
Como São Criados
- Material necessário: Apenas 3-15 segundos de áudio ou vídeo original
- Fonte dos dados: Redes sociais, vídeos públicos, áudios de WhatsApp
- Processamento: IA analisa padrões de voz, movimentos faciais e expressões
- Tempo de criação: De poucos minutos a algumas horas, dependendo da qualidade
2. COMO FUNCIONAM OS GOLPES COM DEEPFAKES
2.1 O Processo criminal
Etapa 1: Coleta de material
- Criminosos vasculham redes sociais da vítima ou pessoa a ser imitada
- Coletam vídeos, fotos e áudios disponíveis publicamente
- Voice Engine da OpenAI: Precisa apenas de 15 segundos de áudio
Etapa 2: Criação do Deepfake
- Uso de softwares especializados em IA
- Treinamento do modelo com o material coletado
- Geração do conteúdo falso (vídeo ou áudio)
Etapa 3: Aplicação do golpe
- Contato com a vítima via chamada de vídeo ou áudio
- Criação de senso de urgência
- Solicitação de dinheiro ou informações pessoais
2.2 Modalidades Principais
Golpe do Falso Familiar
- Criminoso se passa por filho, neto ou parente próximo
- Simula emergência (acidente, prisão, hospital)
- Pede dinheiro via Pix com urgência
- Usa deepfake de voz ou vídeo para aumentar credibilidade
Golpe do Falso Sequestro
- Criminoso simula voz de familiar “sequestrado”
- Cria áudio de desespero e pedido de ajuda
- Exige resgate imediato
- Pressiona psicologicamente a vítima
3. TIPOS DE DEEPFAKES CRIMINOSOS
3.1 Deepfakes de Voz (Voice Cloning)
- Tecnologia: Clonagem vocal usando poucos segundos de áudio
- Qualidade: Cada vez mais realista, difícil de detectar
- Aplicação: Ligações telefônicas fraudulentas
- Tempo necessário: 3-15 segundos de amostra de voz
Características:
- Reproduz tom, timbre e sotaque
- Imita padrões de fala específicos
- Pode ser usado em tempo real durante ligações
3.2 Deepfakes de Vídeo
- Tecnologia: Substituição facial em vídeos
- Aplicação: Chamadas de vídeo fraudulentas, anúncios falsos
- Complexidade: Maior que clonagem de voz
- Qualidade: Varia conforme ferramentas utilizadas
Características:
- Substitui rosto mantendo expressões
- Sincroniza movimento labial com fala
- Pode incluir movimentos corporais
3.3 Deepfakes de celebridades e influenciadores
- Objetivo: validação falso de produtos
- Vítimas: Influenciadores, artistas, políticos
- Aplicação: Anúncios de produtos milagrosos, investimentos
- Impacto: Dano reputacional às personalidades
3.4 Deepfakes em tempo real
- Tecnologia: Filtros aplicados durante transmissão
- Aplicação: Chamadas de vídeo ao vivo
- Limitações: Pode apresentar falhas de sincronia
- Acessibilidade: Tecnologia menos complexa
4. COMO IDENTIFICAR DEEPFAKES
4.1 Sinais Visuais em Vídeos
Movimentação Facial:
- Olhos: Piscar repetitivo, movimento não natural
- Boca: Dessincronia com a fala
- Expressões: Mudanças bruscas ou robóticas
- Sorriso: Assimetrias ou artificialidade
Aspectos Técnicos:
- Iluminação: Inconsistências na face vs. ambiente
- Bordas: Contornos indefinidos ou “borrados”
- Qualidade: Diferença entre rosto e resto do vídeo
- Movimento: Falta de naturalidade geral
4.2 Sinais Auditivos
Qualidade do Áudio:
- Muito perfeita: Ausência de ruídos naturais
- Artificialmente distorcida: Processamento excessivo
- Inconsistência: Mudanças abruptas de qualidade
- Respiração: Ausência de padrões naturais
Padrões de Fala:
- Entonação: Muito uniforme ou robótica
- Pausas: Inexistentes ou muito regulares
- Sotaque: Inconsistente com a pessoa real
- Vocabulário: Diferente do padrão habitual
4.3 Sinais Comportamentais
Durante a Interação:
- Urgência excessiva: Pressão para decisão imediata
- Evita perguntas específicas: Não responde detalhes pessoais
- Não usa apelidos: Omite tratamentos íntimos habituais
- Comportamento atípico: Age diferente do normal
4.4 Testes de Verificação
Perguntas Específicas:
- Memórias compartilhadas exclusivas
- Detalhes sobre família/amigos
- Eventos recentes conhecidos apenas por vocês
- Informações sobre casa, trabalho, rotina
Solicitações de Prova:
- Pedir para mostrar algo específico do ambiente
- Solicitar que repita frase inusitada
- Mudar de assunto bruscamente
- Pedir videochamada em plataforma diferente
5. FACILIDADE DE USO É FATOR DE RISCO
Tempo para Aprender:
- Básico: Poucos minutos com tutorial
- Intermediário: Algumas horas de prática
- Avançado: Dias ou semanas de dedicação
- Especialista: Meses de desenvolvimento
Conhecimento Técnico Necessário:
- Nível iniciante: Seguir instruções simples
- Sem programação: Interfaces visuais intuitivas
- Suporte disponível: Comunidades e tutoriais
- Democratização: Cada vez mais acessível
6. POR QUE SÃO TÃO EFICAZES
6.1 Fatores Psicológicos
Confiança Familiar:
- Reconhecimento visual/auditivo gera confiança imediata
- Memória emocional é ativada pela familiaridade
- Suspensão do ceticismo natural
- Instinto protetor é explorado
Urgência e Emoção:
- Cenários de emergência impedem reflexão
- Pressão temporal para decisão
- Estado emocional alterado reduz capacidade crítica
- Medo e preocupação dominam o racional
6.2 Fatores Tecnológicos
Qualidade Crescente:
- Realismo impressionante das criações
- Redução de inconsistências detectáveis
- Melhoria contínua dos algoritmos
- Personalização específica da vítima
Facilidade de Criação:
- Pouco material necessário (3-15 segundos)
- Processamento rápido
- Custo baixo de produção
- Escalabilidade para múltiplas vítimas
6.3 Fatores Sociais
Confiança em Celebridades:
- Credibilidade por associação
- Empatia do público com figuras conhecidas
- Autoridade percebida de especialistas
- Influência social de personalidades
Vulnerabilidades Demográficas:
- Diferentes gerações têm vulnerabilidades específicas
- Classe social influencia tipo de golpe
- Momentos de fragilidade financeira/emocional
- Isolamento social aumenta dependência digital
7. MEDIDAS DE PROTEÇÃO
7.1 Proteção Preventiva
Códigos de Segurança Familiar:
- Estabeleça palavras-chave secretas com familiares
- Crie frases de verificação conhecidas apenas por vocês
- Defina protocolos para pedidos de dinheiro
- Atualize códigos periodicamente
Configurações de Privacidade:
- Limite exposição de vídeos/áudios em redes sociais
- Configure privacidade máxima em perfis
- Evite compartilhar conteúdo pessoal publicamente
- Revise regularmente configurações de apps
7.2 Verificação Durante Contato
Sempre Confirme:
- Ligue diretamente para o número conhecido da pessoa
- Use canal diferente do contato inicial
- Verifique presencialmente quando possível
- Confirme com outros familiares
Faça Perguntas Específicas:
- Memórias exclusivas que só vocês compartilham
- Detalhes íntimos sobre família/relacionamentos
- Eventos recentes conhecidos apenas por vocês
- Informações específicas sobre casa/trabalho
7.3 Sinais de Alerta
Desconfie Quando:
- Urgência excessiva para decisões/pagamentos
- Qualidade técnica suspeita (muito perfeita ou distorcida)
- Comportamento atípico da pessoa
- Evita responder perguntas específicas
- Pede informações que nunca pediu antes
Testes Práticos:
- Mude de assunto abruptamente
- Peça para mostrar algo específico
- Solicite repetir frase inusitada
- Teste conhecimentos íntimos
7.4 Ações Imediatas
Se Suspeitar de Deepfake:
- Interrompa a comunicação imediatamente
- Verifique por canal seguro conhecido
- Alerte outros familiares sobre a tentativa
- Documente a ocorrência (prints, gravações)
- Denuncie às autoridades se confirmado
Se Foi Vítima:
- Registre Boletim de Ocorrência
- Bloqueie contas comprometidas
- Altere senhas e dados de acesso
- Notifique bancos e instituições
- Busque assessoria jurídica
8. ASPECTOS LEGAIS
8.1 Legislação Brasileira Atual
Deepfake Não é Crime Per Se:
- Tecnologia em si não é criminalizada
- Uso malicioso que configura crime
- Contextualização é fundamental para tipificação
Crimes Relacionados:
- Estelionato (Art. 171 CP): Quando usado para fraude
- Uso indevido de imagem (Art. 20 CC)
- Crimes contra honra: Calúnia, difamação, injúria
- Falsidade ideológica: Em documentos/declarações
8.2 Marcos Legais Aplicáveis
Legislação Específica:
- Marco Civil da Internet (Lei 12.965/2014)
- Lei Geral de Proteção de Dados (Lei 13.709/2018)
- Código Civil - Direitos da personalidade
- Código Penal - Crimes específicos
Projetos em Tramitação:
- PL 123/24: Combate propaganda enganosa com IA
- Projeto Rodrigo Pacheco: Regulamentação geral da IA
- Discussões sobre criminalização específica de deepfakes
8.3 Responsabilidades
Criadores de Ferramentas:
- Proteção se tecnologia tem uso legítimo
- Responsabilidade limitada pelo mau uso
- Necessidade de avisos e controles
Usuários Maliciosos:
- Responsabilização total pelo uso criminoso
- Agravantes por uso de tecnologia para enganar
- Múltiplas tipificações possíveis
Plataformas:
- Dever de remover conteúdo denunciado
- Políticas próprias de combate a fakes
- Cooperação com autoridades
8.4 Investigação e Punição
Delegacias Especializadas:
- Crimes Cibernéticos quando disponível
- Delegacias comuns como alternativa
- Necessidade de capacitação especializada
Desafios Investigativos:
- Anonimato dos criminosos
- Jurisdição em crimes online
- Preservação de evidências digitais
- Prova técnica da falsificação
9. FUTURO DOS DEEPFAKES
9.1 Evolução Tecnológica
Próximos 2-3 Anos:
- · Qualidade próxima à perfeição visual/auditiva
- · Tempo de criação reduzido para segundos
- · Democratização total: Ferramentas em apps comuns
- · Integração completa: Voz + vídeo + texto automatizados
Médio Prazo (5-10 anos):
- Tempo real perfeito: Deepfakes ao vivo sem falhas
- IA conversacional: Interação natural prolongada
- Personalização total: Adaptação ao perfil da vítima
- Automação completa: Golpes sem intervenção humana
Longo Prazo (10+ anos):
- Indistinguível da realidade
- Criação instantânea a partir de fotos
- IA autônoma: Golpes auto-executáveis
- Escala industrial: Milhões de vítimas simultâneas
9.2 Novos Tipos de Golpes
Deepfakes Conversacionais:
- IA que mantém diálogo natural prolongado
- Adaptação em tempo real às respostas da vítima
- Conhecimento contextual obtido de redes sociais
- Personalização extrema da abordagem
Deepfakes Multimodais:
- Combinação voz + vídeo + texto + dados
- Simulação completa de personalidade
- Contexto temporal: Referências atualizadas
- Interação multiplataforma: Diversos canais simultaneamente
Deepfakes Preventivos:
- Antecipação de verificações da vítima
- Preparação para perguntas específicas
- Simulação de ambiente familiar
- Manipulação de evidências digitais
9.3 Impactos Societais
Democracia e Política:
- Manipulação eleitoral massiva
- Discursos falsos de candidatos
- Desinformação em escala industrial
- Erosão da confiança institucional
Economia Digital:
- Redução do comércio eletrônico
- Aumento dos custos de verificação
- Necessidade de novos protocolos de segurança
- Transformação dos modelos de negócio
Relações Sociais:
- Protocolos de verificação familiares
- Códigos de autenticação pessoais
- Redução da espontaneidade comunicativa
- Nova etiqueta digital
10. TECNOLOGIAS DE DETECÇÃO {#tecnologias-deteccao}
10.1 Métodos Atuais
Análise Visual:
- Detecção de inconsistências em iluminação
- Análise de movimento facial natural
- Verificação de sincronia labial
- Identificação de artefatos digitais
Análise de Áudio:
- Padrões espectrais não naturais
- Análise de respiração e pausas
- Verificação de timbres vocais
- Detecção de processamento artificial
Análise Comportamental:
- Padrões de piscar anômalos
- Movimentação não natural
- Expressões inconsistentes
- Micro-expressões ausentes
10.2 IA para detecção custa caro e é pouco acessível
Machine Learning:
- Treinamento com milhares de exemplos
- Reconhecimento de padrões sutis
- Atualização contínua dos modelos
- Precisão crescente na identificação
Deep Learning:
- Redes neurais especializadas
- Análise multi-dimensional
- Processamento em tempo real
- Adaptação a novas técnicas
10.3 Ferramentas Disponíveis
Para Consumidores:
- Apps móveis básicos de verificação
- Extensões de navegador
- Serviços web gratuitos
- Integração em plataformas sociais
Para Empresas:
- APIs especializadas de detecção
- Sistemas integrados de segurança
- Monitoramento em tempo real
- Relatórios detalhados de análise
Para Instituições:
- Sistemas enterprise completos
- Integração com protocolos existentes
- Capacitação de equipes técnicas
- Suporte especializado 24/7
10.4 Limitações Atuais
Técnicas:
- Sempre reativa: Detecção após criação
- Taxa de falsos positivos ainda alta
- Necessidade de material de comparação
- Dificuldade com deepfakes de alta qualidade
Econômicas:
- Custo alto de desenvolvimento
- Necessidade de atualização constante
- Investimento em infraestrutura
- Recursos humanos especializados
Sociais:
- Falta de conhecimento público
- Resistência à adoção
- Complexidade para usuário comum
- Necessidade de educação massiva
*Aline Sordili é especialista em transformação digital e Inteligência Artificial
Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da Record, no WhatsApp