Após sucesso e turbulências, criadora do ChatGPT tenta se manter no topo
Gerenciada por novos executivos e até um ex-chefe da NSA, a organização busca superar preocupações de segurança
Tecnologia e Ciência|Cade Metz e Mike Isaac, do The New York Times
San Francisco – A OpenAI, companhia muitas vezes atribulada que lidera a incursão da indústria tecnológica na inteligência artificial (IA), vem fazendo mudanças substanciais em sua equipe administrativa e até mesmo na organização de modo geral, visando investimentos de algumas das empresas mais ricas do mundo. Nos últimos meses, a criadora do chatbot on-line ChatGPT começou a recrutar executivos tecnológicos de elite, especialistas em desinformação e pesquisadores de segurança em IA. Também adicionou sete membros ao seu conselho administrativo – um dos quais é general de quatro estrelas do Exército e já comandou a Agência Nacional de Segurança dos Estados Unidos –, enquanto reformula os esforços para garantir que suas tecnologias de IA não causem danos graves.
Veja também
Além disso, a OpenAI está em conversas com investidores como a Microsoft, a Apple, a Nvidia e a Thrive, firma de investimentos, com o objetivo de fechar um acordo que colocaria sua avaliação em US$ 100 bilhões. A empresa também está avaliando mudanças em sua estrutura corporativa para torná-la mais atraente para os investidores.
Depois de anos de conflitos públicos entre a administração e alguns de seus principais pesquisadores, a startup de San Francisco está tentando projetar a imagem de uma companhia mais sensata, pronta para liderar o avanço da indústria tecnológica rumo à IA. Também tem se empenhado em deixar para trás a notória confusão do ano passado relativa à gestão de Sam Altman, seu CEO.
Mas entrevistas com mais de 20 conselheiros, funcionários e ex-funcionários da OpenAI mostram que a transição tem sido difícil. Os empregados mais antigos continuam saindo da empresa, mesmo com a entrada de novos trabalhadores e novos executivos. E o crescimento rápido ainda não resolveu uma questão fundamental em relação à identidade da OpenAI: é um laboratório inovador de IA criado com o propósito de beneficiar a humanidade ou uma empresa cuja aspiração é se tornar uma gigante da indústria, dedicada a gerar lucros?
Atualmente, a OpenAI tem mais de 1.700 funcionários, 80 por cento dos quais começaram a trabalhar na companhia depois do lançamento do ChatGPT, em novembro de 2022. Altman e outros diretores se encarregaram de contratar os executivos, enquanto o novo presidente, Bret Taylor, ex-executivo do Facebook, supervisionou a expansão do conselho administrativo. “Embora se espere que as startups evoluam e se adaptem naturalmente à medida que seu impacto cresce, reconhecemos que a OpenAI enfrenta essa transformação em um ritmo sem precedentes. Nosso conselho administrativo e a equipe dedicada da OpenAI continuam concentrados no objetivo de construir uma IA segura, capaz de resolver problemas difíceis para todos”, afirmou Taylor em um comunicado enviado por e-mail ao “The New York Times”.
Vários dos novos executivos da OpenAI desempenharam um papel importante em outras empresas tecnológicas. Sarah Friar, nova diretora financeira, era diretora-executiva da rede social Nextdoor. Kevin Weil, novo diretor de produtos, era vice-presidente sênior de produtos do Twitter. No Facebook, Ben Nimmo liderou a batalha contra campanhas de desinformação nas redes sociais e Joaquin Candela supervisionou as medidas da plataforma para reduzir os riscos da IA. Atualmente, ambos ocupam cargos semelhantes na OpenAI. No dia 30 de agosto, os funcionários foram informados de que Chris Lehane, veterano da Casa Branca de Clinton e ex-executivo do Airbnb, que também entrou para a empresa este ano, seria o diretor de política global.
Mas das 13 pessoas que contribuíram para fundar a OpenAI no fim de 2015, com a missão de criar inteligência artificial geral (AGI, sigla em inglês) – máquina capaz de reproduzir tudo que o cérebro humano faz –, restam só três. Uma delas é Greg Brockman, presidente da empresa, que tirou licença até o fim do ano, explicando que precisava de descanso depois de quase uma década de trabalho. “É bastante comum ver essas adições – e também subtrações –, mas estamos sob holofotes tão intensos que tudo acaba sendo amplificado”, disse Jason Kwon, diretor de estratégia da OpenAI.
Desde seu início como um laboratório de pesquisa sem fins lucrativos, a OpenAI tem lidado com críticas a seus objetivos. Em 2018, Elon Musk, seu principal patrocinador, abandonou o projeto depois de um conflito com os outros fundadores. No começo de 2022, vários pesquisadores importantes, preocupados com a pressão comercial para lançar as tecnologias da OpenAI no mercado antes de estabelecer salvaguardas adequadas, saíram da empresa e criaram a Anthropic, companhia rival especializada em IA. Movido por preocupações semelhantes, o conselho de administração da OpenAI demitiu Altman abruptamente no fim do ano passado, mas ele foi reintegrado cinco dias depois.
A empresa cortou seus vínculos com muitos dos funcionários que questionaram Altman e com outros que estavam menos interessados em construir uma grande corporação tecnológica do que em fazer pesquisas avançadas. Um pesquisador, ecoando as queixas de outros funcionários, pediu demissão em razão das medidas tomadas pela OpenAI para retirar ações da companhia – que poderiam valer milhões de dólares – dos funcionários que se manifestassem publicamente contra ela. A empresa acabou abandonando a prática.
Estrutura incompatível
A OpenAI é impulsionada por duas forças que nem sempre são compatíveis. De um lado, é movida pelo dinheiro – e muito. As receitas anuais já atingiram US$ 2 bilhões, de acordo com uma pessoa informada sobre suas finanças. O ChatGPT tem mais de 200 milhões de usuários por semana, o dobro em relação a nove meses atrás. Não se sabe exatamente quanto a empresa gasta por ano, mas há uma estimativa de que o valor chegue a US$ 7 bilhões. A Microsoft, que já é a maior investidora da OpenAI, destinou US$ 13 bilhões para ela.
De toda forma, a companhia está considerando fazer mudanças importantes em sua estrutura para atrair mais investimentos. Atualmente, o conselho original da OpenAI, constituído como uma organização sem fins lucrativos, controla a organização, sem participação oficial dos investidores. Como parte das novas discussões sobre financiamento, a empresa está considerando algumas mudanças que podem tornar sua estrutura mais atraente para os investidores, segundo três pessoas a par das negociações. Mas nada ainda foi decidido.
De outro lado, o aspecto que impulsiona a OpenAI é voltado para tecnologias que preocupam muitos pesquisadores de IA, incluindo alguns funcionários da empresa. Estas, na opinião deles, podem facilitar a disseminação de desinformação, o planejamento de ciberataques ou até mesmo destruir a humanidade. Em decorrência dessa tensão, em um momento de impulso, quatro conselheiros, incluindo Ilya Sutskever, cientista-chefe e cofundador, demitiram Altman em novembro. Quando ele reassumiu o controle da empresa, uma nuvem de incerteza pairava sobre a OpenAI. Sutskever ainda não havia retornado ao trabalho.
(O “The New York Times” processou a OpenAI e a Microsoft em dezembro por violação de direitos autorais sobre conteúdo noticioso relacionado a sistemas de IA.)
Sutskever havia criado, com outro pesquisador, Jan Leike, a equipe da OpenAI chamada “Superalignment”, encarregada de explorar maneiras de garantir que suas tecnologias futuras não causassem danos. Em maio, Sutskever saiu da startup e fundou a própria empresa de IA. Poucos minutos depois, Leike também deixou a OpenAI e se juntou à Anthropic. “Os processos e a cultura de segurança ficaram em segundo plano, e o principal objetivo agora é ter produtos chamativos”, disse ele. Sutskever e Leike não responderam a uma solicitação de comentário.
A OpenAI colocou John Schulman, outro cofundador, depois da saída dos dois, no comando de suas antigas responsabilidades. Por mais que o time da Superalignment se concentrasse em possíveis danos no futuro, a nova equipe começou a explorar riscos em curto e longo prazo. Ao mesmo tempo, a OpenAI contratou Friar como diretora financeira (cargo que ocupava na Square) e Weil como diretor de produtos. Os dois não responderam às nossas solicitações de comentários.
Alguns ex-executivos, que falaram sob condição de anonimato porque assinaram um acordo de confidencialidade, declararam não estar convencidos de que o passado tumultuado da OpenAI ficou, de fato, para trás. Três deles citaram como exemplo Aleksander Madry, que liderava a equipe de preparação da OpenAI, dedicada a explorar riscos catastróficos da IA. Depois de um desacordo sobre a posição de Madry e de sua equipe dentro da empresa, ele se mudou para outro projeto de pesquisa.
Ao sair, alguns funcionários foram solicitados a assinar documentos legais afirmando que perderiam suas ações da OpenAI se falassem mal da empresa. Mesmo com a prática revogada, isso gerou novas preocupações entre os funcionários. No começo de junho, Todor Markov, pesquisador, publicou uma mensagem no sistema interno da companhia anunciando sua demissão em decorrência desse problema, segundo uma cópia da mensagem vista pelo “Times”. Ele acusou os líderes da OpenAI de terem enganado os funcionários repetidas vezes sobre essa questão, motivo pelo qual não era possível confiar nos altos executivos para construir a AGI (argumento que o próprio conselho da empresa havia usado anteriormente ao demitir Altman). “Falam frequentemente do nosso dever de desenvolver a AGI de maneira segura e distribuir amplamente seus benefícios. Como vocês esperam que possamos confiar em sua capacidade de lidar com essa responsabilidade?”, escreveu Markov.
c. 2024 The New York Times Company