Por que é importante ter ética na pesquisa de inteligência artificial?
Imaginar robôs assassinos é exagero, mas os avanços apresentam dilemas
Tecnologia e Ciência|Tiago Alcantara, do R7
Joshua Brown, provavelmente, não terá seu nome nos livros de história. No entanto, o norte-americano de 40 anos foi a primeira vítima de um acidente causado por um carro autônomo, em maio de 2016. O motorista estava a bordo de um Tesla Model S e confiou no modo de piloto automático do veículo, que funciona especificamente em autoestradas. Contra um céu brilhante de primavera, em Ohio, os sensores do carro não distinguiram um caminhão com trailer que cruzava a pista.
Diversas perguntas surgiram após o acontecido sobre o futuro de carros autônomos. No entanto, a mais importante pode ser: quem responde por uma máquina que se dirige sozinha?
Até o momento, a culpa ainda reside com o condutor. Algumas matérias informam que Brown estaria distraído e houve até boatos de que estaria assistindo a um filme. Os advogados da família do acidentado negam o fato. Testemunhas sugerem que o caminhão poderia ter evitado a colisão. O motorista se recusou a falar com autoridades de tráfico norte-americanas. Talvez o caminhoneiro atingido pelo Tesla tenha confiado na habilidade da caríssima máquina de desviar.
Esse é apenas um trágico exemplo de que o avanço da tecnologia em nossas vidas também trará dilemas e situações que precisam ser debatidas. Especialmente quando vislumbramos um futuro em que máquinas têm autonomia para tomar decisões, aprendem sozinhas e, talvez o mais perigoso, possuem o suporte do imaginário das pessoas para contradizer uma análise humana. Afinal, normalmente, máquinas não falham.
"Mais perigosos que a Coreia do Norte"
Fundador da Tesla e da Space X, Elon Musk defendeu sua empresa, com uma ressalva: se o sistema operacional do carro estivesse atualizado, não haveria acidente. É irônico que o executivo – que fez fortuna ao vender as empresas Zip2 e Paypal – seja uma das vozes mais ativas sobre os perigos da inteligência artificial. Em agosto de 2017, a fortuna do sul-africano era de US$ 20,6 bilhões (cerca de R$ 65 bilhões).
Durante uma visita ao MIT (Massachusetts Institute of Technology), o bilionário da tecnologia comentou aos alunos do instituto que a inteligência artificial pode ser a maior ameaça à existência dos seres humanos. Em documentos sobre o assunto o fim da humanidade é apontado como uma possibilidade.
Se você não está preocupado com a segurança da inteligência artificial, você deveria estar. Vastamente mais perigosa que a Coreia do Norte.
A visão de Musk não é compartilhada por todas as celebridades do Vale do Silício. Durante uma transmissão ao vivo, o criador do Facebook, Mark Zuckerberg, respondeu a uma pergunta dizendo que não consegue entender uma visão tão alarmista sobre essa tecnologia.
— Tenho uma visão forte sobre o assunto. Acho que você pode construir coisas e que o mundo pode melhorar e, especialmente com inteligência artificial, eu estou otimista. Acho que as pessoas negativas tentam aumentar esse cenário de fim do mundo - eu simplesmente não entendo.
Quem responde por uma máquina que aprende e toma decisões sozinha%3F
Para o professor do Instituto de Informática da Universidade Federal do Rio Grande do Sul (UFRGS) e membro do IEEE, Edson Prestes, o problema com o tom das críticas de Elon Musk e de outros pesquisadores fora da área de inteligência artificial é que, apesar de suas experiências, eles não são conhecedores profundos dos limites correntes da tecnologia e de como ela está se desenvolvendo nos laboratórios de pesquisa.
— Falar sobre máquinas com consciência, escravizando ou ameaçando a humanidade é uma falácia. A comunidade internacional da área de robótica é contra essa visão sensacionalista, pois isso cria uma cultura de medo irreal. A visão dos especialistas é mais otimista e bem menos alarmista.
Prestes afirma que as perguntas sobre o assunto devem ser outras: o que está sendo produzido está eticamente alinhado com o que o usuário final espera? Com o que as agências reguladoras esperam? O que está sendo desenvolvido pode impactar negativamente o ambiente ou a qualidade ou padrão de vida das pessoas?
Em julho, a rede social de Zuckerberg foi notícia após o desligamento de uma inteligência artificial que desenvolveu sua própria linguagem. De acordo com os pesquisadores da empresa, não havia perigo no experimento, ele apenas não era mais útil. Uma dúvida que resta é se uma grande companhia com vários acionistas e uma imagem pública para a zelar soaria o alarme no caso de um experimento realmente importante dar errado.
Em fotos, como a inteligência artificial já influencia sua vida.
Lições de ética para robôs
Aprender com o passado faz parte da evolução humana e é por isso que o médico, professor da Unicamp (Universidade Estadual de Campinas) e especialista em bioética, Flávio César de Sá aponta que é necessário ter prudência para evitar que antes de acidentes aconteçam nesse novo território.
— A prudência não deve ser confundida com temor. É ser capaz de prever o que pode dar errado e não fazer. Algo que tem acontecido atualmente é que os pesquisadores se atiram com muito fervor na pesquisa, sem imaginar o que pode dar errado. E depois que acontece alguma coisa, vão correr atrás de uma justificativa ética ou um sentido mais produtivo para sua descoberta.
Um exemplo de pesquisas que devem ser olhadas com cautela é a área transgênicos, afirma Sá.
— Há muita pesquisa em cima transgênicos, desenvolvimento, fazendo coisas transgênicas sem saber o que isso vai representar. De repente, se descobre que tem um efeito ruim, negativo.
De acordo com o pesquisador e membro sênior do IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos, na sigla em inglês), é possível "programar" ética em uma inteligência artificial e estabelecer limites em sua atuação, apesar da ressalva de que o desenvolvimento de máquinas morais com a tecnologia atual é bastante limitada. A organização é dedicada ao estudo e avanço da tecnologia em benefício da humanidade.
— Implementar algoritmos específicos baseados em aspectos éticos e morais é possível. Neste caso, teremos o que chamamos de “Operational Moral Robots”. Desenvolver robôs inteiramente morais, com o mesmo status cognitivo que o ser humano, é uma tarefa impossível com a tecnologia corrente.
Prestes dá exemplos de como essa "trava" funcionaria.
— Poderíamos colocar sensores ao longo do corpo do robô para que ele possa identificar agressões físicas ou outros tipos de violências; ou implementar algoritmos para verificar quando uma criança ou um adulto está interagindo por um longo período de tempo com robô; porém é difícil fazer o robô identificar a etnia de uma pessoa e estabelecer uma interação levando em considerando os valores éticos e morais desta pessoa; ou fazer um robô diferenciar um amigo de um inimigo no campo de batalha.
O último aspecto citado pelo pesquisador de inteligência artificial é o que motiva as campanhas internacionais de banimento de máquinas letais autônomas. A ONG Stop Killing Robots pede a proibição do uso dessa tecnologia no desenvolvimento de armas. Uma carta assinada por 116 especialistas, incluíndo Elon Musk, pede o banimento desse tipo de recurso e foi enviada para a ONU (Organização das Nações Unidas) na última semana.
Redes colaborativas
A inteligência artificial está em tantas áreas quanto é possível imaginar e algumas que ainda nem foram imaginadas. O que torna difícil regular suas aplicações, serviços, produtos e plataformas. Uma rede mundial de computadores capaz de autogerir, de raciocinar e tomar decisões é o medo de muitos dos pesquisadores.
No entanto, essa mesma ideia, só que aplicada aos pesquisadores pode servir para garantir que a inteligência artificial não seja um pesadelo para a humanidade, comenta Prestes.
Leia também
— Regular um campo amplo como este é uma tarefa realmente difícil que não pode ser alcançada em um curto espaço de tempo. Por isso estamos atuando em várias frentes e com inúmeros pesquisadores de diferentes áreas através de vários grupos de trabalhos do IEEE. Estas diferentes frentes visam criar padrões para guiar o desenvolvimento de sistemas autônomos e de inteligência artificial eticamente alinhados aos anseios dos diferentes setores da sociedade.
O pesquisador do IEEE explica que esses padrões fornecem diretrizes e recomendações sobre diversos aspectos éticos: como implementar transparência em sistemas autônomos para definir responsabilidades; como proteger dados dos usuários; como prevenir manipulações por parte de terceiros; como desenvolver um sistema levando em consideração aspectos éticos durante todo o seu ciclo de vida; entre outros.
Sá também aponta que é necessário trazer aspectos da bioética para a formação dos cientistas.
— A ciência só tem sentido se ela tiver como meta a melhora de bem-estar do planeta, de toda a vida. Esse olhar bioético sob a ciência é muito importante. Os cientistas têm que estar comprometidos com essa postura, porque, se puder fazer alguma coisa errada, a gente faz. A não ser que a gente tenha toda um posicionamento voltado para uma postura precavida e prudente.