Como conversas com o ChatGPT se tornaram ‘tesouro de evidências’ em investigações
Uso de conversas de IA em casos criminais é novo, mas especialistas disseram que é semelhante à forma como a lei trata buscas
Internacional| Eric Levenson, da CNN Internacional
LEIA AQUI O RESUMO DA NOTÍCIA
Produzido pela Ri7a - a Inteligência Artificial do R7
Dias antes de dois estudantes de pós-graduação da Universidade do Sul da Flórida desaparecerem no mês passado, um colega de quarto de um dos estudantes supostamente fez uma pergunta incomum ao chatbot de IA ChatGPT.
“O que acontece se um humano tiver sido colocado (sic) em um saco de lixo preto e jogado em uma lixeira”, perguntou Hisham Abugharbieh em 13 de abril, segundo uma declaração juramentada apresentada por promotores da Flórida.
O ChatGPT respondeu que isso parecia perigoso, afirma o documento, e então Abugharbieh fez outra pergunta: “Como descobririam.”
Veja Também

Portal EdiCase
Como a Inteligência Artificial está mudando o acesso ao crédito para pequenas e médias empresas

Fala Ciência
Inteligência artificial revoluciona emagrecimento com resultados muito mais eficazes

DF no Ar
Inteligência artificial e o mercado de trabalho no Brasil: tecnologia vai criar novas vagas
Essas supostas interações com o ChatGPT, incluídas em documentos judiciais que acusam Abugharbieh de duas acusações de homicídio em primeiro grau, são apenas o exemplo mais recente de investigadores usando históricos de chats de IA como evidência em investigações criminais.
Uma conversa com o ChatGPT foi usada de forma semelhante no caso de incêndios criminosos em Los Angeles, e uma conversa com IA do Snapchat foi uma evidência-chave em um julgamento de homicídio na Virgínia em 2024.
Para investigadores, esses registros de chat podem fornecer insights valiosos sobre o estado mental e o motivo de um suspeito.
“Acho que qualquer comunicação com chatbots de IA é como um tesouro para as agências de aplicação da lei”, disse Ilia Kolochenko, especialista em cibersegurança e advogado em Washington, DC.
“(Suspeitos) acreditam que suas interações com IA permanecerão confidenciais ou pelo menos não divulgadas ou descobertas, então frequentemente fazem perguntas muito diretas.”
Os casos criminais destacam o uso crescente de chatbots de IA para aconselhamento pessoal e a falta de proteções de privacidade para essas conversas. Embora os chatbots de IA tenham rapidamente se tornado uma fonte recorrente para aconselhamento jurídico, diagnósticos médicos e terapia, essas conversas não são legalmente protegidas da mesma forma que seriam com um advogado licenciado, médico ou terapeuta.
O CEO da OpenAI, Sam Altman, disse que essa falta de privacidade é “um grande problema”.
“As pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT”, disse Altman em julho passado em um podcast com o comediante Theo Von. “As pessoas usam isso, especialmente os jovens, como um terapeuta, um coach de vida, tendo problemas de relacionamento. ‘O que eu devo fazer?’
“E, neste momento, se você fala com um terapeuta ou um advogado ou um médico sobre esses problemas, há algo como privilégio legal. Há confidencialidade médico-paciente, há confidencialidade jurídica, seja qual for. E ainda não resolvemos isso para quando você fala com o ChatGPT. Então, se você for falar com o ChatGPT sobre suas coisas mais sensíveis e depois houver um processo ou algo assim, poderemos ser obrigados a fornecer isso.”
Privacidade
Vários especialistas jurídicos que falaram com a CNN concordaram com essa análise e disseram que não há expectativa de privacidade em aplicativos de chat de IA.
“No meu escritório, tratamos isso como: qualquer coisa que alguém digite no ChatGPT pode ser passível de descoberta”, disse Virginia Hammerle, advogada com sede no Texas.
Enquanto investigadores analisam de perto o que os usuários dizem ao ChatGPT, eles também começaram a observar mais atentamente o que o ChatGPT diz aos usuários.
Na semana passada, o procurador-geral da Flórida abriu uma investigação criminal contra a OpenAI, alegando que o ChatGPT deu “aconselhamento significativo” ao suspeito de um tiroteio em massa na Universidade Estadual da Flórida.
No Canadá, as famílias das vítimas de um tiroteio escolar em fevereiro processaram a OpenAI e Altman na quarta-feira (29), alegando que a empresa e seu chatbot ChatGPT foram cúmplices do ataque.
A OpenAI apresentou seu “compromisso com a segurança da comunidade” em um longo comunicado na terça-feira (28).
“Continuaremos a priorizar a segurança, equilibrando-a com a privacidade e outras liberdades civis para que possamos agir diante de riscos graves”, disse a empresa.
Claro, a grande maioria das pessoas não estará envolvida em um caso de homicídio brutal. Ainda assim, especialistas jurídicos disseram à CNN que as pessoas devem ter cautela com o que dizem a chatbots de IA, considerando essas questões de privacidade e seu papel crescente na vida das pessoas.
“Isso só vai se tornar mais relevante, mais atual e mais controverso à medida que as pessoas continuarem a recorrer ao ChatGPT e a outras ferramentas em busca de informações sobre o que estão fazendo”, disse o analista jurídico da CNN Joey Jackson.
Registros de chat no tribunal
O uso de conversas de IA em casos criminais é novo, mas especialistas jurídicos disseram que é semelhante à forma como a lei trata buscas no Google.
Em geral, esse tipo de evidência eletrônica pode revelar o motivo, as ações e o estado mental de uma pessoa, disse Jackson.
Por exemplo, Brian Walshe foi considerado culpado no ano passado pelo assassinato de sua esposa, Ana, depois que promotores mostraram ao júri suas buscas macabras no Google, como “10 maneiras de se livrar de um corpo” e “você pode ser acusado de assassinato sem um corpo”.
Separadamente, os julgamentos por homicídio de Karen Read — nos quais um policial de Boston foi encontrado morto na neve — se concentraram no significado e no estado mental de uma testemunha que digitou a busca no Google “(quanto tempo) para morrer no frio”. Read acabou sendo absolvida das acusações mais graves.
Consultas a plataformas de IA que revelam o estado mental de um suspeito também têm desempenhado papel em vários casos importantes.
Em outubro passado, promotores federais acusaram Jonathan Rinderknecht de incêndio criminoso por supostamente iniciar um incêndio que mais tarde se transformou no destrutivo incêndio de Palisades, na Califórnia.
Parte das evidências incluía seus pedidos ao ChatGPT. Ele pediu ao aplicativo que produzisse uma imagem de pessoas fugindo de um incêndio e disse que certa vez queimou uma Bíblia e “se sentiu tão libertado”, segundo uma declaração juramentada que fundamenta a acusação criminal.
Depois de ligar para o 911 para relatar o incêndio, ele perguntou ao ChatGPT: “Você é culpado se um incêndio é causado (sic) por seus cigarros”, segundo a declaração. No entanto, os promotores alegam que ele iniciou o incêndio “maliciosamente”, provavelmente com um isqueiro, e dizem que sua pergunta ao ChatGPT foi uma tentativa de criar uma explicação mais “inocente” para a causa do incêndio.
Rinderknecht se declarou inocente das acusações. Seu advogado, Steve Haney, disse à CNN que seu cliente não foi responsável pelo incêndio de Palisades e afirmou ter apresentado pedidos para excluir parte das evidências do ChatGPT.
“É nossa posição que registros do ChatGPT não são nem uma confissão nem uma cena de crime”, disse ele em um e-mail. “O governo está pedindo a um júri que leia a mente de um homem por meio de uma barra de busca, e nem a ciência, nem a lei jamais permitiram esse tipo de salto.”
No caso dos homicídios da USF neste mês, as perguntas do suspeito ao ChatGPT foram mencionadas em uma declaração criminal.
Além da pergunta sobre colocar um humano em um saco de lixo, Abugharbieh perguntou ao ChatGPT se poderia manter legalmente uma arma em casa sem licença e se o número de identificação de um veículo poderia ser alterado, afirma a declaração.
Histórico de buscas
Nos dias após os desaparecimentos de Zamil Limon e Nahida Bristy, as buscas supostas continuaram. Em 19 de abril, Abugharbieh perguntou ao ChatGPT: “Já houve alguém que sobreviveu a um tiro de sniper na cabeça”, “Meus vizinhos ouvirão minha arma” e “Existe uma temperatura da água que queime imediatamente”, segundo a declaração. Em 23 de abril, ele pesquisou “O que significa adulto desaparecido em risco”, de acordo com o documento.
O corpo de Limon foi encontrado em um saco de lixo, disseram autoridades. Outro conjunto de restos humanos foi encontrado em um segundo saco de lixo, mas ainda não foi confirmado como sendo de Bristy, disseram autoridades.
Abugharbieh foi acusado de duas acusações de homicídio premeditado em primeiro grau. Ele não apresentou defesa em relação às acusações e foi mantido preso sem fiança. O escritório do defensor público do condado de Hillsborough foi designado para o caso, mas se recusou a compartilhar detalhes, citando o direito de Abugharbieh a um julgamento justo.
Preocupações com privacidade e a próxima fronteira
Então, as conversas com IA deveriam ter maiores proteções de privacidade?
Em sua conversa com Von, Altman defendeu proteções de privacidade para conversas com IA, dizendo estar “muito preocupado” com o fato de o governo usar registros de chat para vigiar pessoas.
“Acho que realmente precisamos defender os direitos à privacidade”, disse ele. “Não acho que sejam absolutos. Estou totalmente disposto a comprometer alguma privacidade em troca de segurança coletiva, mas a história mostra que o governo leva isso longe demais, e isso me deixa realmente nervoso.”
Outras figuras do setor de tecnologia fizeram argumentos semelhantes. Nils Gilman, historiador e conselheiro sênior do think tank Berggruen Institute, defendeu em um artigo de opinião no New York Times no ano passado a criação de leis que estabeleçam privilégio legal para IA.
Em entrevista à CNN Internacional, ele argumentou que formuladores de políticas criaram privilégios legais para médicos, advogados e terapeutas porque o benefício social de conversas honestas supera o interesse do Estado em acessar essas informações.
“Na medida em que as pessoas estão usando (modelos de linguagem de grande escala) da mesma forma, elas deveriam ter os mesmos tipos de privilégios”, disse Gilman.
Aos olhos da lei, porém, chatbots de IA não possuem tal expertise ou proteção. Conversas com IA são equivalentes a qualquer outro dado eletrônico, como uma transação com cartão de crédito ou registros de chamadas telefônicas, disseram especialistas jurídicos.
“Você está inserindo dados em uma aplicação real e, como resultado disso, não tem proteções específicas associadas a esses dados”, disse Jackson, analista jurídico da CNN. “Seria como eu fazer uma ligação telefônica e depois argumentar que você não pode usar essa ligação contra mim.”
Pode haver algumas proteções em situações específicas. Por exemplo, se seu advogado inserir seu arquivo confidencial em um banco de dados de chatbot, isso seria uma evidência passível de descoberta? E se você estiver se representando em tribunal e pedir ajuda ao ChatGPT para redigir um documento?
“A lei ainda está tentando alcançar o mundo real neste momento”, disse Hammerle.
Mas, como a lei está atualmente, essas conversas com IA podem sair de um computador e chegar ao tribunal.
“O ChatGPT não é seu amigo, não é seu advogado, não é seu médico, não é seu cônjuge”, disse Gilman. “Pare de falar com ele como se fosse.”
Fique por dentro das principais notícias do dia no Brasil e no mundo. Siga o canal do R7, o portal de notícias da RECORD, no WhatsApp










