[ 225,106 page views, 104,394 usuários nos últimos 30 dias ] - [ 5.992 assinantes na newsletter, taxa de abertura 27% ]

Pesquisar

Reino Unido diz que IA tornará ransomware mais grave e eficaz

O Centro Nacional de Segurança Cibernética (NCSC, na sigla em inglês) do Reino Unido emitiu comunicado esta semana alertando que as ferramentas de inteligência artificial (IA) terão impacto adverso no curto prazo na segurança cibernética, uma vez que contribuirão para aumentar as ameaças de ransomware.

A agência afirma que os cibercriminosos já utilizam IA para diversos fins e que o fenômeno deverá piorar nos próximos dois anos, ajudando a aumentar o volume e a gravidade dos ataques cibernéticos. O NCSC acredita que a IA permitirá que operadores de ameaças inexperientes, hackers de aluguel e hacktivistas pouco qualificados conduzam ataques mais eficazes e personalizados que, de outra forma, exigiriam tempo, conhecimento técnico e esforço operacional significativos.

A maioria das plataformas que utilizam grandes modelos de linguagem (LLMs, na sigla em inglês), como ChatGPT e Bing Chat, possuem salvaguardas que impedem a plataforma de criar conteúdo malicioso. No entanto, o NCSC alerta que os cibercriminosos estão comercializando serviços especializados de IA generativa, concebidos especificamente para reforçar atividades criminosas. Os exemplos incluem o WormGPT, um serviço LLM pago que permite que operadores de ameaças gerem conteúdo malicioso, incluindo malware e iscas de phishing.

Isso, segundo a agência britânica, indica que a tecnologia já escapou dos limites de estruturas controladas e seguras, tornando-se acessível no ecossistema criminoso mais amplo. “Os operadores de ameaças, incluindo os de ransomware, já estão utilizando IA para aumentar a capacidade e eficácia de aspectos das operações cibernéticas, tais como reconhecimento, phishing e codificação”, alerta o NCSC numa avaliação sobre as ameaças da IA feita em separado. “Essa tendência quase certamente continuará até 2025 e além.”

O relatório observa que se espera que o papel da IA no panorama do risco cibernético seja evolutivo, reforçando as ameaças existentes. Os pontos-chaves da avaliação do NCSC são os seguintes:

  • A IA provavelmente intensificará os ataques cibernéticos nos próximos dois anos, particularmente através da evolução das táticas atuais.
  • Tanto operadores de ameaças cibernéticas qualificados como os menos experientes, incluindo órgãos estatais e não estatais, estão atualmente utilizando a IA de maneira intensiva.
  • A IA melhora o reconhecimento e a engenharia social, tornando os ataques de phishing mais eficazes e difíceis de detectar.
  • A utilização sofisticada da IA em operações cibernéticas ilícitas será feita principalmente por intervenientes com acesso a dados, conhecimentos e recursos de qualidade até 2025.
  • A IA tornará os ataques cibernéticos contra o Reino Unido mais impactantes, permitindo análises de dados e treinamento de modelos de IA mais rápidos e eficazes.
  • A IA reduz as barreiras de entrada para cibercriminosos novatos, contribuindo para a ameaça global de ransomware.
  • Até 2025, a comercialização das capacidades de IA provavelmente expandirá o acesso a ferramentas avançadas tanto para criminosos cibernéticos como para intervenientes governamentais.

Veja isso
IA generativa criará phishing mais convincente em 2024, diz Google
Uso de IA generativa em ataques deve crescer em 2024, diz estudo

Para grupos de ameaças persistentes avançadas (APTs) sofisticados, o NCSC acredita que a IA os ajudará a gerar malware evasivo personalizado com mais facilidade e rapidez. “A IA tem potencial de gerar malware que pode escapar à detecção pelos filtros de segurança atuais, mas apenas se for treinada em dados de exploração de qualidade”, explica o NCSC. “Existe uma possibilidade realista de que governos altamente capazes tenham repositórios de malware grandes o suficiente para treinar efetivamente um modelo de IA para esse fim”.

Os hackers de nível intermédio obterão vantagens principalmente no reconhecimento, na engenharia social e na extração de dados, enquanto os operadores de ameaças menos qualificados verão melhorias em todos os níveis, exceto no movimento lateral, que continua a ser um desafio. “É provável que a IA ajude no desenvolvimento de malware e exploração, na pesquisa de vulnerabilidades e no movimento lateral, tornando as técnicas existentes mais eficientes”, diz a análise.

No entanto, no curto prazo, segundo do NCSC, essas áreas continuarão a depender da experiência humana, o que significa que qualquer aumento limitado será muito provavelmente restrito aos agentes de ameaças existentes que já são capazes.

No geral, o NCSC alerta que a IA generativa e os grandes modelos de linguagem tornarão altamente desafiador para todos, independentemente da experiência e do nível de habilidade, identificar tentativas de phishing, spoofing e engenharia social.

Para ter acesso ao relatório completo do NCSC, em inglês, clique aqui.