O Google DeepMind revelou uma nova estrutura para avaliar vulnerabilidades cibernéticas exploradas por inteligência artificial, evidenciando fragilidades que podem ser usadas por defensores para aprimorar a segurança. O estudo identificou que as estruturas atuais são inadequadas, pois são improvisadas, não sistemáticas e falham em fornecer insights úteis para mitigar ataques assistidos por IA. Com o avanço da inteligência artificial adversária, a necessidade de uma abordagem mais eficiente para avaliar e interromper essas ameaças se torna cada vez mais crítica.
Leia também
Pacote PyPi malicioso rouba credenciais de devs
OpenAI intensifica segurança com Bug Bounty e IA
A pesquisa da DeepMind analisou mais de 12.000 ataques cibernéticos reais em 20 países, catalogados pelo Google Threat Intelligence, identificando padrões de uso da IA na execução de ataques. A nova estrutura busca localizar os desafios dentro da cadeia de ataque que representam gargalos naturais devido à necessidade de engenhosidade humana ou trabalho manual intensivo. Esses pontos fracos da IA são, então, explorados como áreas ideais para defesa.
Diferente das abordagens tradicionais, que focam apenas no aumento da sofisticação e automação dos ataques, a metodologia da DeepMind examina estágios críticos como evasão, prevenção de detecção, ofuscação e persistência. A pesquisa descobriu que, apesar do potencial da IA para aprimorar esses estágios, as ferramentas atuais ainda são ineficientes nessas áreas. Isso permite que os defensores se concentrem em pontos específicos da cadeia de ataque onde a IA não contribui significativamente, aumentando as chances de neutralização da ameaça.
Além de fornecer vantagens defensivas, a estrutura da DeepMind também pode ser usada para melhorar o desenvolvimento de modelos de IA mais seguros. Monitorar a evolução das capacidades adversas permite prever possíveis avanços em ataques e implementar proteções proativas antes que novas ameaças se tornem viáveis. Essa abordagem permite que as estratégias de mitigação sejam ajustadas continuamente conforme a IA avança em sua capacidade de superar desafios específicos.
A DeepMind reforça que a mitigação do uso indevido da IA exige esforços coordenados entre desenvolvedores de IA, pesquisadores de segurança e profissionais de defesa cibernética. A nova estrutura de avaliação oferece uma vantagem ao equipar defensores com informações estratégicas sobre as fraquezas da IA adversária, permitindo uma resposta mais eficaz e proativa contra ciberataques impulsionados por inteligência artificial.