Caso do YouTube na Suprema Corte dos EUA pode afetar ferramentas de inteligência artificial
A Justiça dos EUA vai determinar se o algoritmo da plataforma deve ser responsabilizado por indicações de vídeos, o que pode criar um 'efeito cascata' em ferramentas que usam IA
Tecnologia e Ciência|Do R7

Quando a Suprema Corte dos Estados Unidos decidir, nos próximos meses, se enfraquecerá um poderoso escudo que protege as empresas de internet, a decisão também poderá ter implicações para tecnologias em rápido desenvolvimento, como o chatbot de inteligência artificial ChatGPT.
Os juízes devem definir até o fim de junho se o YouTube pode ser processado por suas recomendações de vídeo aos usuários. O caso testa se uma lei americana que protege as plataformas de tecnologia da responsabilidade legal pelo conteúdo publicado online por seus usuários também se aplica quando as empresas usam algoritmos para direcionar recomendações aos usuários.
A discussão ocorre porque os algoritmos que alimentam ferramentas de inteligência artificial generativas, como o ChatGPT e seu sucessor, o GPT-4, operam de maneira um tanto semelhante àquelas que sugerem vídeos aos usuários do YouTube, acrescentaram os especialistas.
Representantes da OpenAI, criadora do ChaGPT, e do Google não comentaram o assunto.
Durante uma audiência em fevereiro, os juízes da Suprema Corte expressaram incerteza sobre se deverão enfraquecer as proteções consagradas na lei, conhecidas como Seção 230 da Lei de Decência das Comunicações, de 1996. Embora o caso não esteja diretamente relacionado à IA generativa, o juiz Neil Gorsuch observou que as ferramentas que geram "poesias" e "polêmicas" provavelmente não usufruem de tais proteções legais.
'Consequências de suas próprias ações'
O senador democrata Ron Wyden, que ajudou a redigir a lei enquanto estava na Câmara dos Deputados, disse que o escudo de responsabilidade não deverá se aplicar a ferramentas de inteligência artificial generativas, porque essas ferramentas "criam conteúdo".
"A Seção 230 trata da proteção de usuários e sites para hospedar e organizar o discurso dos usuários. A lei não deve proteger as empresas das consequências de suas próprias ações e produtos", disse Wyden em um comunicado à Reuters.
A indústria de tecnologia pressionou para preservar a Seção 230, apesar da oposição bipartidária à imunidade. O setor disse que ferramentas como o ChatGPT funcionam como mecanismos de busca e direcionam os usuários para o conteúdo existente em resposta a uma consulta.
"A inteligência artificial não está realmente criando nada. Está pegando o conteúdo existente e colocando-o de uma maneira ou formato diferente", disse Carl Szabo, vice-presidente e conselheiro geral da NetChoice, um grupo de lobby da indústria de tecnologia.
Szabo disse que uma Seção 230 enfraquecida apresentará uma tarefa impossível para os desenvolvedores de IA, ameaçando expô-los a uma enxurrada de litígios que poderão sufocar a inovação.
Alguns especialistas preveem que os tribunais possam adotar um meio-termo, examinando o contexto no qual o modelo de IA gerou uma resposta potencialmente prejudicial.
Hany Farid, tecnólogo e professor da Universidade da Califórnia, em Berkeley, disse que é muito difícil argumentar a imunidade de desenvolvedores de IA a processos judiciais sobre modelos que eles "programaram, treinaram e implantaram".
"Quando as empresas são responsabilizadas em litígios civis por danos causados pelos produtos que produzem, elas produzem produtos mais seguros", disse Farid. "E, quando não são responsabilizados, produzem produtos menos seguros."
Leia também
O caso que está sendo decidido pela Suprema Corte envolve um recurso contra o YouTube feito pela família de Nohemi Gonzalez, uma estudante universitária de 23 anos da Califórnia que foi morta a tiros em um tumulto de 2015 por militantes islâmicos em Paris.
O processo acusa a empresa de ter fornecido "apoio material" ao terrorismo e afirma que o YouTube, por meio dos algoritmos da plataforma de compartilhamento de vídeos, recomendou ilegalmente a certos usuários vídeos do grupo militante Estado Islâmico, que reivindicou a responsabilidade pelos ataques de Paris.
LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais
Uma série de fotos publicadas em redes sociais deixou muita gente perturbada. O motivo é bastante simples e cada vez mais comum: nada do que aparece nelas é real, inclusive as pessoas. Todas as fotos foram geradas por programas de inteligência artifici...
Uma série de fotos publicadas em redes sociais deixou muita gente perturbada. O motivo é bastante simples e cada vez mais comum: nada do que aparece nelas é real, inclusive as pessoas. Todas as fotos foram geradas por programas de inteligência artificial, que criam fotos de aparência realista a partir de comandos de texto