Logo R7.com
Logo do PlayPlus
Tecnologia e Ciência

Uma inteligência artificial poderosa poderia destruir a humanidade? Especialistas debatem os riscos

Os sistemas atuais não representam uma ameaça à humanidade, mas programas mais robustos daqui a cinco anos talvez sejam

Tecnologia e Ciência|Cade Metz, do The New York Times

No mês passado, centenas de pessoas conhecidas no mundo da inteligência artificial assinaram uma carta aberta em que alertavam sobre o fato de que a inteligência artificial (IA) pode um dia destruir a humanidade. "Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos de escala social, como pandemias e guerra nuclear", diz o comunicado.

A carta foi o mais recente de uma série de alertas ameaçadores sobre a IA que, em geral, oferecem poucos detalhes. Os sistemas atuais de IA não podem destruir a humanidade. Alguns mal conseguem somar e subtrair. Assim, por que as pessoas que mais entendem de IA estão tão preocupadas?

O cenário assustador

Um dia, segundo os visionários da indústria de tecnologia, empresas, governos ou pesquisadores independentes poderiam desenvolver poderosos sistemas de IA para lidar com tudo, dos negócios à guerra. Esses sistemas poderiam fazer coisas que não queremos que façam. E, se os humanos tentassem interferir ou desligá-los, conseguiriam resistir ou até mesmo se replicar a fim de continuar funcionando.

"Os sistemas de hoje não estão nem perto de representar um risco existencial. Mas em um, dois, cinco anos? Há muita incerteza. A questão é essa: não dá para saber se isso não vai passar do ponto em que as coisas ficam catastróficas", disse Yoshua Bengio, professor e pesquisador de IA da Universidade de Montreal.


Os preocupados muitas vezes usam uma metáfora simples: se você pedir a uma máquina para criar o maior número possível de clipes de papel, ela pode se empolgar e transformar tudo — incluindo a humanidade — em fábricas de clipes.

Como isso se relaciona ao mundo real — ou a um mundo imaginado não muito longe no futuro? As empresas poderiam dar aos sistemas de IA cada vez mais autonomia e conectá-los a infraestruturas vitais, incluindo redes de energia, mercados de ações e armas militares. A partir de então, podem causar problemas.


Para muitos especialistas, o quadro não parecia tão plausível até o ano passado, quando empresas como a OpenAI apresentaram melhorias significativas em sua tecnologia. Isso mostrou o que poderia ser possível se a IA continuasse avançando em um ritmo tão veloz.

"A IA vai fazer cada vez mais coisas e, à medida que se torna mais autônoma, pode assumir a tomada de decisões e o pensamento dos humanos atuais e das instituições administradas por humanos. Em algum momento, ficaria claro que a grande máquina que está comandando a sociedade e a economia não está realmente sob controle humano, nem pode ser desligada, assim como o S&P 500 não pode ser desligado", afirmou Anthony Aguirre, cosmólogo da Universidade da Califórnia, em Santa Cruz, e fundador do Future of Life Institute, organização responsável por uma das cartas abertas.


Pelo menos é isso que diz a teoria. Outros especialistas em IA acreditam que essa é uma premissa ridícula. "Hipotético é uma maneira educada de expressar o que penso sobre esse papo de risco existencial", declarou Oren Etzioni, executivo-chefe fundador do Allen Institute for AI, laboratório de pesquisa em Seattle.

Há sinais de que a IA tenha essa capacidade?

Não exatamente. Mas os pesquisadores estão transformando chatbots como o ChatGPT em sistemas que podem agir com base no texto que geram. Um projeto chamado AutoGPT é o principal exemplo.

A ideia é dar metas ao sistema, como "crie uma empresa" ou "ganhe algum dinheiro". A seguir, ele continuará procurando maneiras de atingir esse objetivo, especialmente se estiver conectado a outros serviços de internet.

Um sistema como o AutoGPT pode gerar programas de computador. Se os pesquisadores lhe derem acesso a um servidor, de fato ele poderá executar esses programas. Em teoria, essa é uma maneira de o AutoGPT fazer quase tudo online — recuperar informações, usar aplicativos, criar novos aplicativos e até melhorar a si mesmo.

Leia também

Sistemas como o AutoGPT não funcionam bem por enquanto, tendendo a ficar presos em loops intermináveis. Os pesquisadores deram a um sistema todos os recursos necessários para se replicar, mas ele não conseguiu. Com o tempo, essas limitações poderiam ser corrigidas.

Onde os sistemas de IA aprendem a se comportar mal?

Sistemas de IA como o ChatGPT são desenvolvidos em redes neurais, sistemas matemáticos que podem aprender habilidades ao analisar dados.

Por volta de 2018, empresas como o Google e a OpenAI começaram a construir redes neurais que aprendiam com enormes quantidades de texto digital retirado da internet. Ao identificar padrões em todos esses dados, esses sistemas aprendem a gerar escrita por conta própria, incluindo matérias jornalísticas, poemas, programas de computador e até conversas humanas. O resultado: chatbots como o ChatGPT.

Como aprendem com mais dados do que até mesmo seus criadores podem entender, esses sistemas também exibem um comportamento inesperado. Há pouco tempo, pesquisadores mostraram que um deles foi capaz de contratar um humano online para conseguir passar por um teste de Captcha. Quando o humano perguntou se era "um robô", o sistema mentiu e disse que se tratava de uma pessoa com deficiência visual.

Alguns especialistas temem que, à medida que os pesquisadores vão tornando esses sistemas mais poderosos, treinando-os em quantidades cada vez maiores de dados, eles possam aprender mais hábitos ruins.

Quem são as pessoas por trás desses alertas?

No início da década de 2000, um jovem escritor chamado Eliezer Yudkowsky começou a advertir que a IA poderia destruir a humanidade. Suas postagens online geraram uma comunidade de seguidores crédulos. Estes, chamados de racionalistas ou altruístas efetivos, se tornaram extremamente influentes na academia, nos think tanks governamentais e na indústria de tecnologia.

Yudkowsky e seus escritos tiveram um papel fundamental na criação da OpenAI e do DeepMind, laboratório de IA que o Google adquiriu em 2014. Muitos da comunidade de "altruístas" trabalhavam nesses laboratórios e acreditavam estar em melhor posição para desenvolver a IA porque compreendiam seus perigos.

As duas organizações que há pouco divulgaram uma carta aberta alertando sobre os riscos da IA — o Center for AI Safety e o Future of Life Institute — estão intimamente ligadas a esse movimento.

Os alertas recentes também partiram de pioneiros da pesquisa e líderes do setor, como Elon Musk, que há muito fala sobre os riscos. A última carta foi assinada por Sam Altman, presidente-executivo da OpenAI, e Demis Hassabis, que ajudou a fundar o DeepMind e agora supervisiona um novo laboratório de IA que combina os principais pesquisadores do DeepMind e do Google.

Outras figuras respeitadas assinaram uma carta de advertência ou ambas, incluindo Bengio e Geoffrey Hinton, que recentemente deixou o cargo de executivo e pesquisador do Google. Em 2018, receberam o Prêmio Turing, também chamado de "Prêmio Nobel da computação", por seu trabalho sobre redes neurais.

c. 2023 The New York Times Company

LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.