Empresas de cibersegurança lutam contra o cibercrime pelo domínio das IAs
Testes mostram como as Inteligências Artificiais podem ser usadas para criação de vírus e códigos maliciosos
Folha Vitória|Do R7
Foto: Divulgação/DINO
De acordo com especialistas em cibersegurança do Netskope Threat Labs, ferramentas de IA (Inteligência Artificial) podem ser usadas para o desenvolvimento de malware, phishing e códigos maliciosos . O levantamento do Netskope Threat Labs revela que cibercriminosos estão utilizando chatbots, assistentes virtuais e ou plataformas de Inteligência Artificial para a realização de práticas criminosas. Testes realizados pelas empresas de cibersegurança Forcepoint e Kaspersky mostraram que um assistente virtual com um modelo de linguagem de IA, ou seja, desenvolvido para processar linguagem natural e responder a perguntas e conversas online, pode criar vírus poderosos se as perguntas certas forem feitas .
André Kupfer, líder LATAM de engenharia de vendas da Hillstone Networks, explica que embora o assistente virtual não armazene dados de usuários, nem tenha acesso a informações pessoais, a menos que lhe sejam providas, gangues digitais podem utilizar técnicas de engenharia social e outras táticas para enganar os usuários e obter informações confidenciais. "Algumas pesquisas mostram que os autores de malware podem, também, desenvolver software avançado com a IA, como um vírus polimórfico, que altera seu código para escapar de detecção", relata o executivo.
Para André, a história prova que todas as ferramentas tecnológicas podem ser usadas para fins negativos. Ele conta que as estratégias das gangues digitais para manipular o chatbot são variadas e vão desde o desenvolvimento de malware, e-mails de phishing e spam até ransomware, roubo de dados e o chamado BEC (Business email compromise, Comprometimento de e-mail empresarial), ataque de engenharia social no qual um criminoso usa e-mail para enganar alguém da organização, levando a pessoa a compartilhar dados confidenciais da empresa ou enviar dinheiro. "Os softwares de segurança costumam detectar ataques de BEC identificando padrões. Entretanto, um ataque de BEC criado com a IA poderá burlar filtros de segurança", alerta Kupfer.
Segundo o executivo da Hillstone Networks, uma outra preocupação legítima é que no caso de e-mails de phishing, cibercriminosos usarão as ferramentas de IA para escrever e-mails de phishing que pareçam ter sido escritos por um profissional experiente de um banco, por exemplo. "A verdade é que em poucos segundos, o assistente virtual pode escrever textos com a expressão e o estilo de uma pessoa real. A capacidade do assistente virtual de fazer-se passar por pessoas poderia resultar em fraudes mais convincentes", ressalta o executivo.
André conta que é um fato o crescente número de esquemas, onde golpistas se passam por Elon Musk , dono do Twitter, Tesla Motors e SpaceX, e criam falsas criptomoedas ligadas ao seu nome e assim trapaceiam investidores amadores para tirar-lhes milhões. "Tais esquemas seriam ainda mais atraentes quando escritos com o estilo de Elon por um chatbot de IA", explica Kupfer.
No entanto, Kupfer conta que para vencer ataques baseados em Inteligência Artificial, em muitos casos, a melhor estratégia é usar soluções do mesmo naipe para proteger a organização. Um estudo da Precedence Research indica que o tamanho do mercado global de Inteligência Artificial em segurança cibernética foi avaliado em USD 17,4 bilhões em 2022 e deve atingir algo em torno de USD 102,78 bilhões até 2032. "A razão para isso é clara: as técnicas de IA são muito promissoras nas áreas de análise, detecção e resposta às ameaças", aclara André.
O executivo da Hillstone conta que hoje, grandes empresas já estão investindo em IA, mas, que por não terem pessoal interno qualificado, nem sempre conseguem colocar em prática seus projetos. Ele afirma isso com base no estudo da (ISC)2 , de janeiro de 2023, indicando que, em todo o mundo, há uma demanda por mais de 3,4 milhões de profissionais de cibersegurança. "Uma parte desse total diz respeito a vagas em aberto na área de projeto, implementação e gestão de soluções de segurança baseadas em IA", revela Kupfer.
O executivo explica que a implementação de um sistema de IA exige conhecimento técnico para lidar com raciocínio complexo de máquina e, a partir de uma abordagem customizada para cada negócio, implementar a solução de cibersegurança IA que contemple a heterogeneidade da organização. Para ele, a escassez de talentos treinados é um dos maiores desafios para o avanço dos projetos de IA em todos os setores, seguida por falta de financiamento, falta de acesso à tecnologia apropriada e falta de acesso a dados de usuários. André conta que por mais que a jornada de adoção de soluções de segurança baseadas em AI tenha questões a serem equacionadas, parece haver um consenso em relação ao valor que esta tecnologia aporta ao time de ICT Security.
Para o porta-voz da Hillstone, a capacidade de aplicar, em escala, técnicas avançadas de análise e baseadas em lógica pode aliviar a carga sobre os gestores de segurança. A meta é ajudar esses profissionais a atuar de forma proativa e preditiva contra ameaças construídas com ajuda de plataformas de AI.
Como um perito na área de segurança cibernética, André conta que seja por meio de chatbots, seja através de outras plataformas, a Inteligência Artificial chegou para ficar, e intensificou ainda mais a guerra cibernética. "Cabe aos gestores das organizações estudarem estratégias para garantir que essa tecnologia produza crescimento, e não as perdas em cascata causadas por ataques automatizados e customizados baseados em IA", conclui Kupfer.