A inteligência artificial (IA) permite que as organizações automatizem tarefas, extraiam informações e criem mídias quase que indistinguíveis da realidade. Mas, como qualquer tecnologia, ela nem sempre é usada para finalidades nobres. Cibercriminosos estão utilizando a IA para aprimorar seus ataques e expandir suas campanhas de phishing.
Um estudo recente publicado por pesquisadores da Microsoft e das universidades de Purdue, nos Estados Unidos, e Ben-Gurion, em Israel, revela que hackers usando a “IA ofensiva” para explorar vulnerabilidades e disseminar ameaças nas organizações. Eles identificaram diferentes recursos que os cibercriminosos podem usar para reforçar seus ataques e classificam cada um por gravidade, fornecendo informações sobre os ataques.
A pesquisa, que analisou estudos existentes sobre IA ofensiva e respostas de organizações como IBM, Airbus e Huawei, identifica três motivações principais para uso da IA em ataques: cobertura, velocidade e sucesso. A inteligência artificial permite que os invasores “envenenem” os modelos de aprendizado de máquina corrompendo seus dados de treinamento, bem como roubem credenciais por meio da análise de canal lateral. E pode ser usado como arma para métodos de IA para detecção de vulnerabilidade, teste de penetração e detecção de vazamento de credencial.
As organizações disseram aos pesquisadores que consideram as tecnologias ofensivas de IA mais ameaçadoras para exploração de vulnerabilidades, engenharia social e a coleta de informações. Elas estão particularmente preocupadas com a IA usada para falsificação de identidade, como deepfakes, para perpetrar ataques de phishing e engenharia reversa, que pode permitir que um invasor “roube” algoritmos proprietários. Além disso, se preocupam com o fato de que, devido à capacidade da IA de automatizar processos, hackers podem mudar de algumas campanhas secretas lentas para muitas campanhas em ritmo acelerado para oprimir os defensores e aumentar suas chances de sucesso.
Mas, contraditoriamente, a preocupação e o temor de ataques não estão resultando em investimentos em defesa. De acordo com uma pesquisa conduzida pela startup de autenticação de dados Attestiv, menos de 30% das empresas disseram ter tomado medidas para mitigar as consequências de um ataque de deepfake. A luta contra deepfakes provavelmente continuará desafiadora à medida que as técnicas de geração continuam a se aperfeiçoar, apesar de inovações como o Deepfake Detection Challenge e o Microsoft Video Authenticator, diz o relatório ao qual o The Machine, da VentureBeat, teve acesso.
Na verdade, os pesquisadores preveem que as campanhas de phishing se tornarão mais violentas à medida que os bots ganham a capacidade de fazer chamadas de phishing falsas e convincentes. Eles também dizem que é provável que haja um aumento da IA ofensiva nas áreas de coleta de dados, desenvolvimento de modelo, treinamento e avaliação nos próximos anos.
Veja isso
Inteligência artificial derruba o captcha
DevSecOps acham que IA será usada em ciberataque global
Para evitar as ameaças, os pesquisadores recomendam que as organizações se concentrem no desenvolvimento de ferramentas de pós-processamento que possam proteger o software da análise após o desenvolvimento. Eles também sugerem a integração de testes de segurança, proteção e monitoramento de modelos com MLOps (Machine Learning Operations) para que as organizações possam manter sistemas seguros com mais facilidade. MLOps, um composto de “aprendizado de máquina” e “operações de tecnologia da informação”, é uma disciplina mais recente que envolve a colaboração entre cientistas de dados e profissionais de TI com o objetivo de produzir algoritmos de aprendizado de máquina“Com o rápido ritmo de desenvolvimento e acessibilidade aberta da IA, esperamos ver uma mudança perceptível nas estratégias de ataque às organizações”, escreveram os pesquisadores.
“A IA permitirá que os adversários atinjam mais organizações em paralelo e com mais frequência. Como resultado, em vez de ser dissimulados, os adversários podem optar por sobrecarregar as equipes de resposta do defensor com milhares de tentativas pela chance de um sucesso … [na verdade, à medida que] os hackers começam a usar bots habilitados para IA, os defensores serão forçados a automatizar suas defesas com bots também. Manter os humanos informados para controlar e determinar estratégias de alto nível é um requisito prático e ético. No entanto, mais discussão e pesquisa são necessárias para formar políticas seguras e agradáveis”, completam os pesquisadores.