A OpenAI removeu contas dos grupos de hackers patrocinados pelos governos do Irã, Coreia do Norte, China e Rússia, que usavam o chatbot de inteligência artificial ChatGPT e os serviços de grandes modelos de linguagem (LLMs, na sigla em inglês) para fins maliciosos. A medida foi tomada pela empresa após receber informações da equipe de inteligência de ameaças da Microsoft.
Em um relatório, a Microsoft lista cada um dos grupos de ameaças ligados aos governos desses países e fornece detalhes sobre como e por que usaram o ChatGPT. A seguir, são descritas as atividades de cada um dos grupos encerrada na plataforma:
- Forest Blizzard (Strôntium) [Rússia]: utilizou o ChatGPT para realizar pesquisas em tecnologias de satélite e radar pertinentes a operações militares e otimizar suas operações de crime cibernético com melhorias de script.
- Emerald Sleet (Thhallium) [Coreia do Norte]: ChatGPT era utilizado para pesquisas para a Coreia do Norte e gerar conteúdo de spear phishing, juntamente com a compreensão de vulnerabilidades (como o CVE-2022-30190 Follina) e solução de problemas de tecnologias da web.
- Crimson Sandstorm (Curium) [Irã]: utilizava o ChatGPT para assistência de engenharia social, solução de problemas de erros, desenvolvimento de .NET e desenvolvimento de técnicas de evasão.
- Charcoal Typhoon (Chromium) [China]: interagiu com ChatGPT para auxiliar no desenvolvimento de ferramentas, scripts, compreensão de ferramentas de segurança cibernética e geração de conteúdo de engenharia social.
- Salmon Typhoon (Sodium) [China]: empregou LLMs para investigações exploratórias sobre uma ampla gama de tópicos, incluindo informações confidenciais, indivíduos de alto perfil e segurança cibernética, para expandir suas ferramentas de coleta de inteligência e avaliar o potencial de novas tecnologias para fonte de informação.
Veja isso
OpenAI cria plano para combater a desinformação nas eleições
OpenAI atribui interrupções do ChatGPT a ataques DDoS
Os operadores de ameaças utilizaram os grandes modelos de linguagem basicamente para melhorar as suas capacidades estratégicas e operacionais, incluindo reconhecimento, engenharia social, tácticas de evasão e recolha de informações genéricas. Nenhum dos casos observados envolve o uso de LLMs para desenvolvimento de malware ou ferramentas completas de exploração personalizadas, mas apenas a tarefas de nível inferior, como solicitação de dicas de evasão, scripts, desligamento de antivírus e, em geral, otimização de operações técnicas.
A OpenAI afirma que continuará monitorando e interrompendo hackers apoiados pelo Estado usando tecnologia de monitoramento especializada, informações de parceiros da indústria e equipes dedicadas encarregadas de identificar padrões de uso suspeitos. “Aproveitamos as lições aprendidas com o abuso desses atores e as usamos para informar nossa abordagem iterativa à segurança”, diz a postagem da OpenAI.
Para mais informações sobre a remoção das contas dos grupos de hackers pela OpenAI clique aqui. Já para ter acesso ao relatório da Microsoft sobre os grupos de ameaças que usa a IA generativa e LLMs para operações maliciosas clique aqui.