Logo R7.com
RecordPlus
Inteligência Cotidiana

Privacidade ou conveniência? O custo invisível de sorrir para a câmera

Como a tecnologia pode comprometer nossa privacidade e o que isso significa para o futuro

Inteligência Cotidiana|João GaldinoOpens in new window

  • Google News

LEIA AQUI O RESUMO DA NOTÍCIA

  • A tecnologia de reconhecimento facial se tornou comum no Brasil, oferecendo conveniência mas comprometendo a privacidade.
  • Dados biométricos, como o rosto, são irrecuperáveis em caso de vazamento, diferentemente de senhas e cartões.
  • A automação e o uso de Inteligência Artificial podem resultar em erros significativos, como o "Racismo Algorítmico".
  • É necessário estabelecer regras claras para evitar que algoritmos decidam isoladamente, como sugerido no Projeto de Lei 1225/2026.

Produzido pela Ri7a - a Inteligência Artificial do R7

A senha que você carrega no rosto (e não tem backup)

Uma fotografia realista e dramática em close-up (16:9) de um rosto humano, com um sorriso suave. A imagem está nitidamente dividida na vertical. O lado direito do rosto apresenta uma pele normal, de tons quentes. O lado esquerdo do rosto está se dissolvendo sutilmente ou se transformando em um código binário brilhante e complexo, pontos de dados e uma malha topológica digital. Do lado dos “dados” do rosto, fios de código digital estão vazando e se dissipando em um fundo escuro, semelhante a um vazio, simbolizando um vazamento de dados e a perda de controle sobre a identidade.
Privacidade ou conveniência? O custo invisível de sorrir para a câmera Imagem gerada por IA: Google Nano Banana

O que antes parecia roteiro de filme de ficção científica virou rotina no Brasil. Hoje, seu rosto abre a porta do condomínio, valida o acesso ao portal gov.br, autoriza o PIX e até marca a presença de crianças na escola. É a era da Inteligência Cotidiana, onde a tecnologia fica “invisível” para nos oferecer uma promessa sedutora: trocar nossa privacidade por alguns segundos de agilidade.

Mas há um problema central que raramente discutimos: o seu rosto é uma senha que não pode ser trocada. Se alguém rouba sua senha do banco ou clonam seu cartão, você cancela e faz um novo em minutos. Mas, se um banco de dados com a “matemática do seu rosto” vazar, você perde o controle sobre sua identidade para sempre. Não existe “reset” para o rosto. Essa é a tensão entre a facilidade do dia a dia e um risco que dura a vida toda.


Brasil: o campo de testes para tecnologias barradas lá fora

A nossa Lei Geral de Proteção de Dados (LGPD) diz que a biometria é um dado sensível e exige cuidado máximo. Porém, o Brasil tem se tornado o que especialistas chamam de “campo de testes” para empresas estrangeiras. Tecnologias que foram proibidas na Europa por serem invasivas demais estão sendo aplicadas aqui sem grande alarde.

  • O Caso das Escolas no Paraná: Uma empresa eslovaca implementou o reconhecimento facial para monitorar 1 milhão de alunos diariamente.
  • O Alerta Vermelho: Essa mesma tecnologia foi barrada na Suécia e na França. O motivo? As autoridades europeias entenderam que crianças não têm como dar um “consentimento real” para serem vigiadas o tempo todo dentro de sala de aula.
  • A Insegurança Permanente: Ao contrário de um crachá, se esses dados escolares vazarem, essas crianças terão sua identidade biométrica exposta antes mesmo de chegarem à vida adulta.

Quando a máquina erra: o “preconceito no código”

É um erro achar que a Inteligência Artificial é perfeita. Ela é, na verdade, um cálculo de probabilidade. E quando a margem de erro da máquina encontra o mundo real, as consequências são trágicas.


A pesquisadora Nina da Hora destaca o “Racismo Algorítmico”: sistemas de IA têm até 100 vezes mais chances de errar ao identificar pessoas negras e mulheres. No Brasil, essa imprecisão já mostra suas garras:

  • Vigilância nos Trilhos: O Metrô de São Paulo foi condenado por usar câmeras para “ler as emoções” dos passageiros e vender publicidade. Você não autorizou o metrô a saber se você está triste ou feliz para te empurrar um anúncio.
  • Fome Algorítmica: No Paraná, falhas no sistema de presença das escolas (com precisão abaixo do prometido) colocam em risco o recebimento do Bolsa Família, já que a presença escolar é um requisito do benefício.

“Se a tecnologia for usada de forma isolada, ela produzirá identificações incorretas em 96% das vezes.” - James Craig, ex-Chefe de Polícia de Detroit.


O fim do “olhar clínico”: estamos virando apertadores de botões?

Há um perigo invisível na automação: a preguiça mental. Se o computador sempre diz quem deve entrar ou quem cometeu um erro, o ser humano para de questionar.

Estamos eliminando as funções de entrada (os cargos “juniores”) e substituindo-os por IA. O resultado? Os profissionais do futuro podem perder o senso crítico. Se um jovem nunca aprendeu a analisar um processo manualmente, ele terá coragem de contestar a “caixa-preta” da máquina? O risco é o humano virar um mero carimbador de decisões algorítmicas, aceitando erros e preconceitos como se fossem verdades matemáticas.


Por uma vigilância com ética

O progresso não vai parar, mas ele não pode ser um “vale-tudo”. Precisamos de regras claras, como as propostas no Projeto de Lei 1225/2026 (da Deputada Ana Paula Lima), que quer proibir que o algoritmo seja o único dono da palavra final nas escolas.

Para uma cidade ser realmente inteligente, ela precisa de três pilares:

  1. Transparência: Auditorias que mostrem como o software funciona.
  2. Consentimento Real: Dar às pessoas a opção de dizer “não” ao reconhecimento facial sem serem punidas por isso.
  3. Domínio Humano: Garantir que o senso crítico e a ética humana sempre tenham o poder de desligar ou contestar a máquina.

Estamos dispostos a entregar nossa identidade permanente em troca de um pouco de conveniência? O futuro das nossas cidades depende de entendermos que eficiência sem alma é apenas vigilância.

Search Box
Os textos aqui publicados não refletem necessariamente a opinião do Grupo Record.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.