Logo R7.com
Logo do PlayPlus
Tecnologia e Ciência

Ver para crer? Mundo reage à desinformação criada por inteligência artificial

Avalanche de conteúdos falsos criados por IA acenderam o alerta de governos e empresas, que buscam formas de regulamentação

Tecnologia e Ciência|Do R7

Inteligências artificiais são acusadas de desinformação
Inteligências artificiais são acusadas de desinformação

Robôs que propagam informações erradas por meio de um chat, aplicativos que produzem vídeos pornográficos e vozes clonadas que enganam milhões de empresas: diante do auge da desinformação criada por inteligência artificial (IA), os governos começam a organizar sua resposta.

A IA está redefinindo o ditado “ver para crer”, com uma avalanche de imagens criadas do nada e declarações saindo da boca de pessoas que nunca as disseram, tudo com um realismo desconcertante. As chamadas deepfakes estão minando a confiança na internet.

Recentemente, a China adotou normas para regular as manipulações digitais, mas a maioria dos países parece lutar para se manter em dia com tecnologias de rápida evolução, em meio a preocupações de que a regulamentação prejudique a inovação ou seja mal utilizada e restrinja a liberdade de expressão.

Especialistas advertem que as ferramentas para detectar esse tipo de conteúdo são superadas por seus criadores, que atuam anonimamente graças a técnicas de IA que antes exigiam certa especialização, mas hoje são acessíveis e de baixo custo.


A Meta, proprietária do Facebook, do Instagram e do WhatsApp, anunciou no ano passado a remoção de um vídeo falso do presidente ucraniano Volodmir Zelenski em que ele convoca os cidadãos a pegar em armas contra as tropas russas.

Kate Isaacs, uma britânica que faz campanha pela retirada de pornografia sem consentimento do site Pornhub, teve em outubro um vídeo pornô falso com seu rosto publicado no Twitter.


'Armas de disrupção em massa'

A ampla possibilidade de criar de forma automatizada conteúdos enganosos em texto, áudio e vídeo e seu uso potencialmente malicioso geram sérias preocupações em todo o mundo.

Essas tecnologias foram consideradas como “armas de disrupção em massa” pela empresa de análise de riscos Eurasia Group.


Na semana passada, a startup britânica ElevenLabs, que está desenvolvendo uma ferramenta de clonagem de voz por inteligência artificial, admitiu que havia constatado um “crescente número de usos indevidos” de seu software.

O aumento de deepfakes poderia levar a um “apocalipse da informação”, um cenário em que muitos não conseguem distinguir a realidade da ficção nem saber quais fontes são confiáveis, alertou a Europol, a agência policial europeia.

Um exemplo do fenômeno ocorreu dias atrás, quando o jogador de futebol americano Damar Hamlin agradeceu em vídeo à equipe médica que o atendeu após uma parada cardíaca durante um jogo. Seguidores de teorias da conspiração, convencidos de que Hamlin havia sido afetado pela vacina contra Covid-19, consideraram se tratar de uma deepfake.

'Superpropagador'

A China anunciou em janeiro novas normas que exigem que as empresas chinesas que oferecem esse tipo de recurso obtenham a identidade real de seus usuários. Também obrigam a aplicação de um aviso sobre as deepfakes, para evitar que o público se confunda.

Nos Estados Unidos, legisladores pressionam pela criação de um grupo de trabalho voltado para o monitoramento dessas falsificações. Mas defensores dos direitos digitais temem obstáculos aos avanços tecnológicos e que conteúdos legítimos sejam afetados.

O governo do Reino Unido disse em novembro que tornaria ilegal o compartilhamento de deepfakes pornográficas sem o aval das vítimas.

Enquanto isso, a União Europeia está imersa em acaloradas discussões sobre um projeto de lei sobre IA, supostamente a fim de fomentar a inovação e evitar abusos. Segundo o texto, os usuários deverão esclarecer que estão publicando algo falso, mas alguns não acreditam que isso seja suficiente.

“As ferramentas [de detecção de deepfakes] estão chegando, e bem rápido. Porém, a tecnologia provavelmente está avançando ainda mais rápido. Assim como com a cibersegurança, nunca resolveremos este problema, podemos apenas esperar que o ritmo se mantenha”, afirmou à AFP Jason Davis, professor da Universidade de Syracuse.

Muitos custam a entender novas ferramentas como o ChatGPT, um chatbot capaz de gerar, sob demanda e em segundos, textos surpreendentemente convincentes sobre quase qualquer tema.

A NewsGuard, que classifica fontes de notícias segundo sua confiabilidade, descreveu-o como um “novo superpropagador de desinformação”, pois o ChatGPT deu respostas “falsas e enganosas” a perguntas sobre Covid-19 e tiroteios em escolas.

VEJA TAMBÉM: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.