Logo R7.com
Logo do PlayPlus
Tecnologia e Ciência

OpenAI, Google e Meta se comprometem a colocar marcas d'água em conteúdo de IA

Medida busca combater desinformação gerada pela tecnologia, e mitigar os riscos de novos programas de inteligência artificial

Tecnologia e Ciência|Do R7


As principais empresas de inteligência artificial, incluindo OpenAI, Alphabet e Meta, assumiram compromissos voluntários com a Casa Branca para implementarem medidas como inserção de marcas d'água em conteúdo gerado por sistemas de inteligência artificial para tornar a tecnologia mais segura, informou o governo norte-americano.

As empresas — que também incluem Anthropic, Inflection, Amazon.com e Microsoft, parceira da OpenAI — se comprometeram a testar minuciosamente os sistemas antes de lançá-los e compartilharem informações sobre como reduzir os riscos e investir em segurança digital.

A medida é vista como uma vitória para o esforço do governo do presidente dos EUA, Joe Biden, de regulamentar a tecnologia, que passa por um boom de investimentos e popularidade.

As marcações serão válidas para todos os conteúdos gerados por IA, como texto, áudio e vídeo
As marcações serão válidas para todos os conteúdos gerados por IA, como texto, áudio e vídeo

Desde que a IA generativa, que usa dados para criar novos conteúdos, como a conversa que soa humana do ChatGPT, tornou-se extremamente popular este ano, parlamentares de todo o mundo começaram a considerar como mitigar os perigos da tecnologia para a segurança nacional e a economia.


Em junho, o presidente do Senado dos EUA, Chuck Schumer, pediu uma "legislação abrangente" para avançar e garantir salvaguardas para a inteligência artificial.

O Congresso norte-americano está considerando um projeto de lei que exigirá que os anúncios políticos divulguem se ferramentas de IA foram usadas para criar imagens ou outros conteúdos.


Biden, que receberá executivos das sete empresas na Casa Branca nesta sexta-feira, também está trabalhando no desenvolvimento de uma ordem executiva e de uma legislação bipartidária sobre tecnologia de IA.

Como parte do esforço, as sete empresas se comprometeram a desenvolver um sistema de "marca d'água" para todas as formas de conteúdo, desde texto, imagens, áudios e vídeos gerados por IA, para que os usuários saibam quando a tecnologia foi usada.


Essa marca d'água, incorporada ao conteúdo de forma técnica, presumivelmente facilitará aos usuários identificar imagens ou áudios de deep-fake que possam, por exemplo, mostrar um ato de violência que não ocorreu ou distorcer a foto de um político para colocá-lo em uma posição desfavorável. Não está claro como a marca d'água ficará evidente no compartilhamento das informações.

Leia também

As empresas também se comprometeram a se concentrar na proteção da privacidade dos usuários à medida que a IA se desenvolve e em garantir que a tecnologia seja livre de preconceitos e não seja usada para discriminar grupos vulneráveis. Outros compromissos incluem o desenvolvimento de soluções de IA para problemas científicos, como pesquisa médica e mitigação das mudanças climáticas.

LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.