Ex-pesquisador que denunciou práticas ilegais da criadora do ChatGPT é encontrado morto
Morte de Suchir Balaji, de 26 anos, é tratada como suicídio, e ocorre meses após ele acusar empresa de violação de direitos autorais
Um ex-pesquisador da OpenAI, criadora do ChatGPT, foi encontrado morto cerca de três meses após denunciar publicamente que a empresa violou leis de direitos autorais para treinar sua ferramenta de inteligência artificial. O corpo de Suchir Balaji, de 26 anos, foi encontrado no apartamento dele em São Francisco, confirmaram autoridades locais no domingo (15).
Policiais foram até o apartamento dele por volta das 13h, atendendo uma ligação que pedia que verificassem como ele estava. De acordo com o Mercury News, investigações tratam a morte como suicídio e afirmam que “não há evidência de crime”.
Em email enviado para a CNBC News, a OpenAI confirmou o falecimento do ex-funcionário e denunciante. “Estamos devastados ao saber desta notícia incrivelmente triste hoje e nossos corações estão com os entes queridos de Suchir neste momento difícil.”
A morte ocorre pouco menos de um mês após Suchir dar uma entrevista ao New York Times, onde denunciou publicamente as práticas ilegais da OpenAI na criação de sua plataforma de IA de sucesso global. Tanto o Mercury News quanto o NY Times processaram a OpenAI pelas práticas, e esperava-se que as informações dadas por Suchir ajudassem no trâmite legal. Junto com órgãos de imprensa, programadores, artistas, gravadoras e autores de livros também entraram com ações judiciais contra a empresa.
Montanhas de dados
Suchir Balaji trabalhou em pesquisas de IA na OpenAI por quatro anos, até sair da empresa em agosto.
“Este não é um modelo sustentável para o ecossistema da Internet como um todo. (…) Achei que a IA era algo que poderia ser usado para resolver problemas insolúveis, como curar doenças e impedir o envelhecimento”, afirmou Suchir em entrevista dada em outubro, ao NY Times.
Em um post no blog dele, escrito em outubro, Suchir descreve como a programação dos modelos de linguagem (LLM) evita que as IA liberem dados protegidos por direitos autorais.
Embora modelos generativos raramente produzam saídas que sejam substancialmente semelhantes a qualquer uma de suas entradas de treinamento, o processo de treinamento de um modelo generativo envolve fazer cópias de dados protegidos por direitos autorais. Se essas cópias não forem autorizadas, isso pode ser potencialmente considerado violação de direitos autorais.
Basicamente, para funcionar, um grande modelo de inteligência artificial deve ser alimentado por quantidades colossais de dados, utilizados e processados por algoritmos poderosos para responder conversas, criar imagens ou exibir resultados de buscas de forma coerente. A OpenAI argumenta que só utilizou dados disponibilizados gratuitamente na internet, mas Suchir diz que isso não é verdade.
No cerne do argumento técnico de Balaji, a internet está se tornando pior ao ser alimentada primordialmente por IA, uma vez que os resultados cuspidos por chatbots são cópias de cópias de dados. Segundo ele, somente com regulamentação de leis é possível tentar alterar ou frear esse processo.
Essa é mais uma turbulência enfrentada recentemente pela OpenAI. A empresa também é processada por Elon Musk, que fez parte do conselho da empresa, e teve uma briga de lideranças que resultou na saída de vários fundadores no final de 2023.