Controladora do Google alerta equipe sobre uso de dados em chatbots
Funcionários da Alphabet dizem que dados confidenciais inseridos na IA podem vazar, e códigos contêm sugestões indesejadas
Tecnologia e Ciência|Do R7
A Alphabet está alertando os funcionários sobre como eles usam chatbots, incluindo o próprio Bard da empresa, ao mesmo tempo em que comercializa o programa em todo o mundo, disseram à Reuters quatro fontes familiarizadas com o assunto.
A controladora do Google aconselhou os funcionários a não inserir seus dados confidenciais em chatbots de inteligência artificial, disseram as pessoas e a empresa confirmou, citando uma política de longa data sobre proteção de informações.
Os revisores humanos podem ler os chatbots, e os pesquisadores descobriram que uma inteligência artificial semelhante pode reproduzir os dados que absorveu durante o treinamento, criando um risco de vazamento.
A Alphabet também alertou seus engenheiros para evitar o uso direto dos códigos de computador que os chatbots podem gerar, disseram algumas das fontes.
Solicitada a comentar, a empresa disse que o Bard pode fazer sugestões indesejadas de código, mas ainda assim ajuda os programadores. O Google também disse que pretende ser transparente sobre as limitações de sua tecnologia.
As preocupações mostram como o Google deseja evitar danos aos negócios com o software lançado em concorrência ao ChatGPT. Bilhões de dólares de investimento e publicidade ainda não contada e receita de nuvem de novos programas de inteligência artificial estão em jogo na corrida da Alphabet contra os responsáveis pelo ChatGPT, a OpenAI e a Microsoft.
Leia também
A cautela do Google também reflete o que está se tornando um padrão de segurança para as corporações, ou seja, alertar funcionários sobre o uso de programas de bate-papo disponíveis publicamente.
Um número crescente de empresas em todo o mundo criou proteções em chatbots de IA, entre elas Samsung, Amazon.com e Deutsche Bank, disseram as empresas à Reuters. A Apple, que não retornou pedidos de comentários, supostamente também as aderiu.
Cerca de 43% dos profissionais estavam usando o ChatGPT ou outras ferramentas de IA em janeiro, muitas vezes sem avisar seus chefes, de acordo com uma pesquisa com quase 12 mil entrevistados, incluindo as principais empresas dos Estados Unidos, feita pelo site de relacionamento Fishbowl.
Em fevereiro, o Google disse à equipe que testou o Bard antes de seu lançamento para não fornecer informações internas, informou o Insider. Agora, a empresa está lançando o programa em mais de 180 países e em 40 idiomas como um trampolim para a criatividade, e seus alertas se estendem às suas sugestões de código.
O Google disse à Reuters que teve conversas detalhadas com a Comissão de Proteção de Dados da Irlanda e está respondendo às perguntas dos reguladores, após uma reportagem do Politico na terça-feira de que a empresa estava adiando o lançamento da Bard na União Europeia esta semana, aguardando mais informações sobre o impacto do chatbot na privacidade.
Um aviso de privacidade do Google atualizado em 1º de junho também afirma: "Não inclua informações confidenciais ou sensíveis em suas conversas com o Bard".
Algumas empresas desenvolveram softwares para lidar com essas preocupações. Por exemplo, a Cloudflare, que protege sites contra ataques cibernéticos e oferece outros serviços em nuvem, está comercializando um recurso para que as empresas marquem e restrinjam o fluxo externo de alguns dados.
O Google e a Microsoft também estão oferecendo ferramentas de conversação para clientes corporativos que terão um preço mais alto, mas se abstêm de absorver dados em modelos públicos de inteligência artificial. A configuração padrão no Bard e no ChatGPT é salvar o histórico de conversas dos usuários, que os usuários podem optar por excluir.
"Faz sentido" que as empresas não queiram que seus funcionários usem chatbots públicos para trabalhar, disse Yusuf Mehdi, diretor de marketing de consumo da Microsoft.
"As empresas estão adotando um ponto de vista devidamente conservador", disse Mehdi, explicando como o chatbot gratuito Bing, da Microsoft se compara a seu software empresarial. "Lá, nossas políticas são muito mais rígidas."
A Microsoft se recusou a comentar se tem uma proibição geral de funcionários inserirem informações confidenciais em programas públicos de inteligência artificial, incluindo os seus próprios, embora um outro executivo tenha dito à Reuters que restringiu pessoalmente seu uso.
LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais