Os modelos de inteligência artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19). Um novo índice projetado e calculado por pesquisadores desta universidade californiana afirma que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de inteligência artificial lançado pela Meta em julho e reutilizável livremente. Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo.GPT-4, o modelo de linguagem criado pela Open AI — empresa financiada pela Microsoft por trás do famoso robô ChatGPT —, obteve apenas 48% de transparência. Os outros modelos conhecidos, como o Palm-2, do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.• Clique aqui e receba as notícias do R7 no seu WhatsApp • Compartilhe esta notícia pelo WhatsApp • Compartilhe esta notícia pelo Telegram Todos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos "de fundação". A falta de transparência torna mais difícil para as empresas "saberem se podem criar aplicativos seguros baseados nestes modelos de negócio" e "para os acadêmicos confiarem nestes modelos para sua pesquisa", explica o estudo. Isso também complica a tarefa dos consumidores, que querem "compreender os limites dos modelos ou pedir uma indenização pelos danos sofridos", detalha. Especificamente, "a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático", enfatiza. "Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo nem estatísticas sobre os países, ou mercados, que o utilizam", destaca Bommasani. Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras. União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente. "A inteligência artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional", ressaltou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor. A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.Inteligência artificial 'imagina' como seriam animais robóticos espiões em miniatura" gallery_id="651af56ec012ad925300228b" url_iframe_gallery="noticias.r7.com/tecnologia-e-ciencia/inteligencia-artificial-esta-longe-de-ser-transparente-19102023"]