Juristas defendem regras para uso da inteligência artificial no Brasil; Pacheco avalia parecer
Presidente do Senado recebeu dos especialistas um relatório com 900 páginas; proposta tem o objetivo de responsabilizar empresas
Brasília|Ana Isabel Mansur, do R7, em Brasília
As regras para fundamentar o desenvolvimento e a aplicação da inteligência artificial no Brasil devem respeitar a capacidade de crescimento da tecnologia, segundo especialistas consultados pelo R7.
A discussão está em andamento no Congresso Nacional por meio de três projetos de lei. Uma das propostas é da Câmara dos Deputados e foi aprovada pelos parlamentares em setembro de 2021. Ao chegar ao Senado, o texto se juntou aos outros dois temas que tratam do assunto.
Os senadores criaram uma comissão de juristas para analisar os projetos, sugerir aperfeiçoamentos e fomentar a proposta que será aprovada pelo Senado. O grupo iniciou os trabalhos em março do ano passado e os concluiu em dezembro, quando entregou ao presidente do Senado, Rodrigo Pacheco (PSD-MG), o relatório final, com 900 páginas.
A relatoria do projeto de lei está a cargo do senador Eduardo Gomes (PL-TO). O R7 perguntou ao parlamentar se o texto dos juristas será acatado, mas não obteve retorno até a última atualização desta reportagem. Não há previsão de envio da matéria ao plenário.
Leia também
Especialistas defendem a tesde de que a regulação do tema precisa dar margem a que a inteligência artificial seja capaz de inovar na prestação de serviços em áreas como saúde, educação e segurança, sem deixar de respeitar os direitos dos cidadãos.
Advogado e professor da Universidade de Brasília (UnB), Thiago Luís Sombra foi um dos integrantes da comissão de juristas. Ele destaca três principais pontos do documento elaborado pelo grupo: direitos dos usuários, avaliação de impacto algorítmico e regime de responsabilidade dos desenvolvedores.
Para Sombra, o tema ganhou força nos últimos tempos. "O desenvolvimento de novas tecnologias nos setores de saúde, educação, transporte e segurança, por exemplo, tem demandado, cada vez mais, a utilização de parâmetros e padrões que somente poderão ser tratados em larga escala a partir de soluções de inteligência artificial", afirma.
A regulação, segundo o professor, pretende trazer previsibilidade, certeza e segurança para desenvolvedores e usuários de soluções de inteligência artificial.
O projeto de lei trata de responsabilidades e de direitos%2C com previsão de relatórios de avaliação algorítmica%2C para entender se uma determinada solução apresenta risco e qual o tipo. O texto transfere para as empresas desenvolvedoras a responsabilidade dos estudos prévios%2C a partir da precaução que essas ferramentas podem criar no mercado. É importante que a regulação seja feita de maneira responsável%2C para não comprometer o desenvolvimento e a inovação tecnológica
Como é em outros países
Secretária-geral da Comissão de Direito Digital, Tecnologias Disruptivas e Startups da Ordem dos Advogados do Brasil, seccional do Distrito Federal (OAB-DF), Natália Piasentin cita a experiência de outros países no assunto, como a Carta Europeia de Ética sobre o Uso da Inteligência Artificial em Sistemas Judiciais, criada pela Comissão Europeia para a Eficácia da Justiça.
"Nela, questões como não discriminação, direitos fundamentais das pessoas e qualidade sobre a segurança dos dados são avaliadas. Dessa forma, dispositivos semelhantes também poderiam ser pensados em outras esferas, para evitar implicações negativas no uso dessa tecnologia", exemplifica.
A advogada defende o uso da inteligência artificial como ponto de partida para o aperfeiçoamento tecnológico. "Tudo depende da base de dados em que é treinada, os recursos a que tem acesso e a maneira como é utilizada", afirma.
A regulação precisa ser feita por quem entende do assunto e saiba de que forma será tratado%2C para não sufocar a inovação do setor. De modo geral%2C o que precisamos é que tudo seja mais específico para que possamos controlar o desenvolvimento da tecnologia.
Estados Unidos à frente
Os Estados Unidos deram o primeiro passo para regular a inteligência artificial nesta terça-feira (11). O governo abriu uma consulta pública sobre possíveis medidas de responsabilização de sistemas do tipo. A ação ocorre em meio a dúvidas sobre o impacto da tecnologia na segurança nacional e na educação.
A Itália proibiu o robô ChatGPT, criado pela OpenAI no fim de março deste ano. Desde que surgiu, em novembro de 2022, a ferramenta tem atraído usuários pela facilidade em responder perguntas e criar narrativas.
As autoridades italianas acusaram o ChatGPT de não respeitar a legislação sobre dados pessoais e de não dispor de um sistema de verificação etária para os usuários menores de idade.
O anúncio foi feito depois de a agência policial europeia (Europol) alertar, dias antes, que criminosos podem se aproveitar da inteligência artificial, como o ChatGPT, para cometer fraudes e outros crimes cibernéticos.
Também no fim de março, imagens do papa Francisco com um casaco do estilo puffer, feitas a partir da plataforma Midjourney de inteligência artificial, começaram a circular na internet como se fossem verdadeiras.