Criador do ChatGPT teme que a humanidade seja destruída por uma inteligência artificial avançada
Sam Altman, fundador da OpenAI, afirmou que guarda itens para sobreviver a vários cenários apocalípticos
Tecnologia e Ciência|Filipe Siqueira, do R7
Após o sucesso estrondoso do ChatGPT, muitos colocaram os olhos nos fundadores da OpenAI, a empresa sem fins lucrativos que desenvolveu o chatbot. A organização foi fundada em dezembro de 2015 por Sam Altman, Elon Musk e Peter Thiel, entre outros.
Em 2018, Elon Musk abandonou o conselho da organização e alegou "potencial futuro conflito de interesses", uma vez que a montadora Tesla, comandada por ele, também desenvolve um sistema de inteligência artificial — atualmente investigado pelo governo dos EUA.
O bilionário, que também preside o Twitter, disse várias vezes que o desenvolvimento de inteligência artificial pode representar um dos maiores riscos para o futuro da civilização. No domingo (26), por exemplo, Musk disse que estava "sofrendo um pouco de angústia existencial" por causa de IA, pouco antes de ser revelado que ele está recrutando uma equipe para criar um chatbot.
Sam Altman, que ainda ocupa o posto de CEO da OpenAI, é menos conhecido, mesmo no ambiente do Vale do Silício, na Califórnia.
Antes de se tornar o nome mais conhecido do desenvolvimento de IA, Altman comandava a aceleradora de startups Y Combinator, que investia em empresas que desenvolviam tecnologias consideradas promissoras.
Por isso, o sucesso do chatbot fez muitos relembrarem um longo perfil do executivo publicado pela revista norte-americana New Yorker, em outubro de 2016.
No texto, Altman revelou que se prepara bastante para sobreviver a um cataclismo global — incluindo uma possível revolta violenta de inteligências artificiais. O executivo diz que seus "amigos bêbados" são os culpados por esse medo constante.
"Meu problema é que, quando meus amigos ficam bêbados, eles falam sobre como o mundo vai acabar. Depois que um laboratório holandês modificou o vírus da gripe aviária H5N1, cinco anos atrás, tornando-o supercontagioso, a chance de um vírus sintético letal ser liberado nos próximos 20 anos tornou-se, bem, acima de zero", afirma o investidor.
É possível dizer que o medo não era totalmente infundado, uma vez que testemunhamos uma pandemia global pouco mais de três anos depois de a matéria ser publicada. Mas um vírus não era a única coisa que Altman temia.
"Os outros cenários mais populares seriam uma IA que nos ataca e as nações que lutam com armas nucleares por recursos escassos", completa Altman. Sim, o mais conhecido desenvolvedor de inteligência artificial do mundo teme um ataque causado por ela.
Falando aos jornalistas, Sam enumerou que tipo de coisa estoca em caso de emergências sérias: "Tenho armas, ouro, iodeto de potássio, antibióticos, baterias, água, máscaras de gás da Força de Defesa de Israel e um grande pedaço de terra em Big Sur [no centro da Califórnia] para onde posso voar."
Leia também
Além de Musk e do próprio Altman, Stephen Hawking foi outra personalidade que alertou sobre possíveis riscos representados por uma possível inteligência artificial.
Em 2014, o físico teórico e cosmólogo disse à BBC que uma inteligência artificial avançada "poderia significar o fim da raça humana".
Na visão do cientista, falecido em 2018, o ritmo mais acelerado de desenvolvimento das IA poderia desbancar os seres humanos, "limitados pela evolução biológica lenta".
O lançamento público do ChatGPT iniciou uma "corrida armamentista" entre empresas de tecnologia. A Microsoft anunciou investimentos pesados na OpenAI e apresentou uma versão do buscador Bing com a tecnologia da IA.
Já o Google lançou de forma limitada o Bard, seu próprio chatbot, que deu informações incorretas já no lançamento, o que fez as ações da controladora Alphabet caírem 8% em um dia.
LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais