Logo R7.com
Logo do PlayPlus
Publicidade

Inteligência artificial está longe de ser 'transparente', diz estudo

Pesquisa revelou que os novos robôs podem representar um grande risco para os aplicativos que já estavam no mercado

Tecnologia e Ciência|

Os modelos de inteligência artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19).

Um novo índice projetado e calculado por pesquisadores desta universidade californiana afirma que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de inteligência artificial lançado pela Meta em julho e reutilizável livremente.

Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo.

GPT-4, o modelo de linguagem criado pela Open AI — empresa financiada pela Microsoft por trás do famoso robô ChatGPT —, obteve apenas 48% de transparência.

Publicidade

Os outros modelos conhecidos, como o Palm-2, do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.

Clique aqui e receba as notícias do R7 no seu WhatsApp

Publicidade

Compartilhe esta notícia pelo WhatsApp

Compartilhe esta notícia pelo Telegram

Publicidade

Todos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos "de fundação".

A falta de transparência torna mais difícil para as empresas "saberem se podem criar aplicativos seguros baseados nestes modelos de negócio" e "para os acadêmicos confiarem nestes modelos para sua pesquisa", explica o estudo.

Isso também complica a tarefa dos consumidores, que querem "compreender os limites dos modelos ou pedir uma indenização pelos danos sofridos", detalha.

Leia também

Especificamente, "a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático", enfatiza.

"Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo nem estatísticas sobre os países, ou mercados, que o utilizam", destaca Bommasani.

Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras.

Estudos mostram dados preocupantes sobre as IAs
Estudos mostram dados preocupantes sobre as IAs Estudos mostram dados preocupantes sobre as IAs

União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente.

"A inteligência artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional", ressaltou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor.

A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.

Inteligência artificial 'imagina' como seriam animais robóticos espiões em miniatura

" gallery_id="651af56ec012ad925300228b" url_iframe_gallery="noticias.r7.com/tecnologia-e-ciencia/inteligencia-artificial-esta-longe-de-ser-transparente-19102023"]

Últimas

Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.