Uma inteligência artificial avançada demais pode ser responsável por "matar todo mundo" em um futuro próximo. O alerta para o perigo representado pelo desenvolvimento acelerado de tecnologias do tipo foi dado por um grupo de cientistas da Universidade de Oxford, em depoimento ao Comitê Seleto de Ciência e Tecnologia do Parlamento do Reino Unido. O grupo alertou ainda que o desenvolvimento de programas do tipo deveria ser regulamentado, a exemplo das armas nucleares. A opinião é a mesma do falecido físico Stephen Hawking. Segundo o parecer técnico, é bem possível que num futuro próximo IAs serão capazes de "aprender" o suficiente para tomar decisões fora do escopo definido pelos desenvolvedores — isso é o que foi chamado de inteligências artificiais "sobre-humanas". O risco maior foi anunciado pelo doutorando e professor de aprendizado de máquina Michael Cohen, como revelou o jornal britânico The Telegraph. “Com a IA sobre-humana, há um risco particular de ser de um tipo diferente de classe, que é, bem, poderia matar a todos", afirmou Michael aos parlamentares. Ele deu um exemplo simples de como isso poderia funcionar: O grupo de cientistas explicou que seria difícil deter tal programa uma vez que ele chegasse nesse estágio, e por isso advertiu que o desenvolvimento deles deveria ser regulado. Os pesquisadores descreveram a criação de programas do tipo como "uma corrida armamentista literal", e revelaram que não existe limites para o desenvolvimento deles. "Sistemas artificiais podem se tornar tão bons em nos enganar geopoliticamente quanto em ambientes simples como jogos", completou o professor. Até o momento, inteligências artificiais já fazem sucesso como distrações em redes sociais, enquanto alguns afirmam que elas podem ser ameaças ao nosso sistema de educação e o mercado de arte.LEIA ABAIXO: Stephen Hawking afirma que inteligência artificial pode acabar com a humanidade