O Google Cloud prevê o uso cada vez maior da IA generativa por cibercriminosos para criar campanhas de phishing e de desinformação (fake news) mais convincentes e eficazes, enquanto os profissionais de segurança cibernética usarão a mesma ferramenta para tentar defender e fechar as lacunas de proteção.
De acordo com relatório Google Cloud Cybersecurity Forecast 2024, os sinais que uma pessoa comum usa para verificar se um e-mail é legítimo ou um golpe, conferindo se há erros ortográficos, erros gramaticais e falta de contexto cultural, serão mais difíceis de serem detectados em 2024. Os invasores continuarão a usar IA generativa e grandes modelos de linguagem (LLM) em operações de phishing, SMS e outras operações de engenharia social para fazer com que o conteúdo, incluindo voz e vídeo, pareça mais legítimo.
A IA generativa também ajudará a atividade maliciosa em escala, de acordo com o relatório. Ao ter acesso a nomes, organização, cargos, departamentos ou dados de saúde, os invasores podem nem precisar usar LLMs maliciosos, pois não há nada inerentemente malicioso no uso de IA generativa para redigir um lembrete de fatura. “Eles [invasores] usarão tudo o que puderem para borrar a linha entre aplicativos de IA benignos e maliciosos, então os defensores devem agir de forma mais rápida e eficiente em resposta”, disse Phil Venables, CISO do Google Cloud on AI, em um comunicado.
O relatório alerta para a possibilidade de aumentar o ceticismo e a desconfiança do público sobre empresas e governos devido ao uso de IA generativa para criar notícias falsas, telefonemas falsos que interagirão ativamente com os destinatários e fotos e vídeos deepfake baseados em conteúdo falso criado por IA de geração. O Google Cloud também prevê que a geração de IA e LLMs seja oferecida como um serviço pago para invasores.
A boa notícia é que os profissionais de segurança cibernética empregarão ferramentas semelhantes para combater essas ameaças. “Um grande caso de uso da IA é orientar como as organizações sintetizarão grandes quantidades de dados e os contextualizarão em inteligência de ameaças para, em seguida, produzir detecções acionáveis ou outras análises”, prevê o Google Cloud. A IA e a IA generativa fornecerão a capacidade de aumentar a capacidade humana de analisar e inferir ações a serem tomadas a partir desses grandes conjuntos de dados.
Como os invasores visam manter o acesso persistente a um ambiente pelo maior tempo possível, eles explorarão vulnerabilidades de dia zero e dispositivos de borda para manter esse acesso por mais tempo em 2024. Essa previsão é baseada na expectativa de que as vulnerabilidades de dia zero superem em 2023 o recorde anterior estabelecido em 2021.
Veja isso
IA generativa pode criar phishing ‘convincente’ em cinco minutos
QR code já é utilizado em 22% dos ataques de phishing
O crescimento do hacktivismo observado após a invasão da Ucrânia pela Rússia provavelmente continuará, já que atividades semelhantes foram observadas durante o conflito Hamas-Israel. Essas atividades incluem ataques DDoS, vazamentos de dados e desfigurações. Algumas nações podem adicionar malware limpador, como observado antes da invasão russa da Ucrânia, quando grupos russos de ameaças persistentes avançadas (APTs) ganharam acesso a alvos ucranianos e lançaram um ataque destrutivo que coincidiu com operações cinéticas. “Com as tensões no Estreito de Taiwan e outras ameaças à segurança global, 2024 verá o acesso pré-colocado de malware limpador destrutivo em alvos estrategicamente importantes”, afirma o relatório.
O Google Cloud também prevê ataques direcionados a infraestruturas baseadas no espaço, ataques a ambientes híbridos e de multinuvem, operadores de ameaças usando mais serviços sem servidor, operações contínuas de extorsão, espionagem e botnets, bem como a revitalização de técnicas mais antigas, incluindo SystemFunctionXXX, e máquina antivirtual.
Para ter acesso ao relatório Google Cloud Cybersecurity Forecast 2024, em inglês, clique aqui.