Logo R7.com
Logo do PlayPlus
Publicidade

O que é a descoberta 'perigosa para a humanidade' que gerou alerta de pesquisadores da OpenAI?

Novidade pode estar ligada a projeto secreto que desenvolve IA para resolver problemas matemáticos de 'forma criativa'

Tecnologia e Ciência|Filipe Siqueira, do R7

Quando o momento caótico da OpenAI — uma empresa de tecnologia relativamente pequena, mas que ganhou notoriedade gigantesca após lançar o ChatGPTparecia encerrado, outro estranho detalhe surgiu. Um documento enviado por pesquisadores ao conselho da empresa, um dia antes da demissão de Sam Altman, afirmou que uma descoberta no campo da inteligência artificial (IA) poderia pôr em risco o futuro da humanidade.

Mas o que poderia ser tão revolucionário e assustador a ponto de ligar o alerta de cientistas acostumados com tecnologia avançada?

Clique aqui e receba as notícias do R7 no seu WhatsApp

Compartilhe esta notícia pelo WhatsApp

Publicidade

Compartilhe esta notícia pelo Telegram

Assine a newsletter R7 em Ponto

Publicidade

Segundo a Reuters, que divulgou a informação citando duas fontes da empresa, trata-se de um projeto secreto chamado Q* (pronuncia-se Q-Star), que experimentou um avanço descrito na carta enviada ao conselho da OpenAI, que demitiu o executivo-chefe Sam Altman um dia depois, no dia 17.

Empresa pode ter feito avanços assustadores na pesquisa de IA
Empresa pode ter feito avanços assustadores na pesquisa de IA Empresa pode ter feito avanços assustadores na pesquisa de IA

As fontes da agência especulam que a descoberta tem a ver com a resolução de problemas matemáticos do mesmo nível "de alunos de ensino fundamental". O avanço deixou pesquisadores otimistas, mesmo que o modelo de inteligência artificial geral (AGI) tenha exigido "vastos recursos de computação" para conseguir o feito.

Publicidade

Por que isso é importante?

Uma simples calculadora de bolso resolveu equações matemáticas gigantes, então qual a importância de uma inteligência artificial fazer isso?

A resposta está em como ela conseguiu fazer isso. Uma calculadora é programada estritamente para chegar a resultados matemáticos únicos. Códigos binários garantem que, mesmo que bilhões de pessoas façam o mesmo cálculo, jamais vejam resultados diferentes.

Mas uma AGI trabalha de forma diferente: os modelos de inteligência artificial coletam quantidades massivas de dados e chegam a resultados baseados em padrões que conseguem identificar.

Resumindo bem grosseiramente, essa é a mesma forma como neurônios trabalham. Após serem programadas, as redes neurais não seguem uma programação exata: cada consulta pode apresentar resultados diferentes, baseados em padrões únicos.

É por isso que as AGI são praticamente imprestáveis para transmitir informações, uma vez que foram feitas para manter uma conversa de forma contínua e consistente de acordo com nossos padrões. A veracidade das informações não é a prioridade.

Conseguir chegar a resultados matemáticos baseado nesse modelo probabilístico seria um grande passo para as IA, avaliam os principais cientistas da área.

Risco comercial

Assim como humanos possuem regras sociais, IAs precisam de modelos e freios, para evitar distorções. Responder com conteúdo de ódio é apenas uma das preocupações — pesquisadores traçam cenários mais assustadores, como uma IA que decide que programadores e a humanidade em geral são uma ameaça.

Leia também

Alguns dos membros do conselho da OpenAI, especialmente o pesquisador-chefe Ilya Sutskever — que, especula-se, esteve por trás da decisão drástica de demitir Sam Altman — entenderam que a ideia de a empresa crescer e se tornar lucrativa rapidamente pode trazer sérias consequências.

O cientista Ilya Sutskever é um dos preocupados com o desenvolvimento acelerado das IA
O cientista Ilya Sutskever é um dos preocupados com o desenvolvimento acelerado das IA O cientista Ilya Sutskever é um dos preocupados com o desenvolvimento acelerado das IA

Os primeiros dias do ChatGPT refletiram isso: respostas erradas, conteúdo de ódio e até a possibilidade de "quebrar" completamente o sistema.

Em casos recentes, estudantes de colégios do Rio de Janeiro e Minas Gerais usaram aplicativos dotados de IA para criar "nudes" realistas de colegas de classe. Em outros países, criminosos usam programas parecidos para aplicar golpes.

O maior desafio da empresa para o futuro é desenvolver um modelo de IA que seja funcional, mas não ajude ninguém a cometer tais crimes.

Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais

Últimas

Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.