Pesquisadores da Palo Alto Networks alertaram para uma nova ameaça emergente no campo da cibersegurança: grandes modelos de linguagem (LLMs) estão sendo usados para reescrever e camuflar códigos maliciosos, tornando-os praticamente invisíveis às ferramentas de detecção, como a plataforma VirusTotal. Esse avanço representa uma escalada na batalha entre criminosos e especialistas em segurança, destacando o impacto da inteligência artificial (IA) na criação de novas variantes de malware.
Leia também
Alemanha recomenda Wi-Fi separado para IoT
Bootkit UEFI ameaça o Linux kernel
Embora os LLMs não sejam capazes de desenvolver malware do zero, eles conseguem transformar e disfarçar códigos já existentes. As alterações, que incluem renomear variáveis, reorganizar linhas e adicionar elementos aparentemente inofensivos, dificultam a classificação dos códigos como ameaças. Essa habilidade foi demonstrada pela equipe da Unidade 42, que usou um LLM para gerar cerca de 10.000 variantes de JavaScript funcionalmente idênticas ao código original, mas não detectadas como maliciosas.
Entre os métodos utilizados pelos criminosos, destacam-se algoritmos que tornam os códigos mais “naturais” em sua estrutura, superando modelos de detecção convencionais, como o Innocent Until Proven Guilty (IUPG) e o PhishingJS. Em testes, essas transformações evitaram a detecção em 88% das vezes, revelando a eficácia dos LLMs em enganar sistemas de análise de malware.
Apesar dos esforços das empresas que desenvolvem LLMs, como a OpenAI, para bloquear usos maliciosos de suas plataformas, alternativas como WormGPT têm sido exploradas para atividades ilegais, incluindo a criação de e-mails de phishing e novos malwares. Isso demonstra que a sofisticação crescente das ferramentas baseadas em IA está sendo usada tanto para fins legítimos quanto para cibercrimes.
Contudo, especialistas ressaltam que a mesma tecnologia que disfarça códigos maliciosos pode ser aproveitada para reforçar defesas cibernéticas. Modelos de IA generativa podem ser usados no treinamento de sistemas de detecção para torná-los mais robustos e resilientes. Assim, a ascensão da IA apresenta não apenas novos riscos, mas também oportunidades significativas para o desenvolvimento de tecnologias de segurança mais avançadas. O futuro da cibersegurança dependerá de como essas ferramentas serão adaptadas e utilizadas em benefício das defesas digitais.