O primeiro Relatório de Segurança em IA elaborado pela Check Point Software explora como a inteligência artificial está remodelando o cenário das ameaças cibernéticas — desde ataques com deepfakes até a transformação de modelos de IA generativa em armas.
Leia também
Iran afirma ter repelido ataque cibernético complexo
Gunra: ransomware global usa táticas avançadas de extorsão
À medida que a IA transforma setores, esta tecnologia também elimina as fronteiras entre a verdade e a mentira no mundo digital. Criminosos cibernéticos agora utilizam IA generativa e grandes modelos de linguagem (LLMs) para destruir a confiança na identidade digital. No cenário atual, o que vemos, ouvimos e lemos online já não é mais tão confiável. A personificação impulsionada por IA contorna até mesmo os sistemas de verificação de identidade mais sofisticados, tornando qualquer pessoa uma vítima em potencial de fraudes em larga escala.
“A rápida adoção da IA por cibercriminosos já está transformando o cenário de ameaças”, afirma Lotem Finkelstein, diretor da Check Point Research (CPR) – divisão de inteligência de ameaças da Check Point Software. “Embora alguns serviços ilegais tenham se tornado mais avançados, todos os sinais apontam para uma mudança iminente: a ascensão dos gêmeos digitais (digital twins). Eles não são apenas semelhantes na aparência ou som, mas réplicas impulsionadas por IA, capazes de imitar o pensamento e o comportamento humanos. Isso não é um futuro distante; está logo ali na esquina.”
Principais descobertas do Relatório de Segurança em IA
Os especialistas da Check Point Software apontam que no centro desses avanços está a capacidade da IA de imitar e manipular identidades digitais de forma convincente, dissolvendo a linha entre o autêntico e o falso. O relatório revela quatro áreas principais nas quais essa erosão da confiança é mais visível:
● Personificação aprimorada por IA e engenharia social: Atores de ameaça utilizam IA para gerar e-mails de phishing realistas em tempo real, imitações de voz e vídeos deepfake. Notavelmente, atacantes recentemente imitaram o ministro da defesa da Itália com áudio gerado por IA, demonstrando que nenhuma voz, rosto ou palavra escrita online está segura de ser falsificada. No Brasil, houve o caso envolvendo sete adolescentes responsabilizados por manipulação de imagens em Maceió (AL) criando deepfake contra colegas de escola.
● Envenenamento de dados em LLMs e desinformação: Atacantes manipulam dados de treinamento de IA para distorcer os resultados. Um caso envolvendo a rede de desinformação russa Pravda mostrou que chatbots de IA repetiam narrativas falsas em 33% das vezes, destacando a necessidade de uma integridade robusta dos dados em sistemas de IA.
● Malware criado por IA e mineração de dados: Cibercriminosos utilizam IA para criar e otimizar malwares, automatizar campanhas de DDoS e aprimorar credenciais roubadas. Serviços como o Gabbers Shop utilizam IA para validar e limpar dados roubados, aumentando seu valor de revenda e eficiência de segmentação.
● Armamento e sequestro de modelos de IA: Desde contas de LLM roubadas até LLMs obscuros desenvolvidos sob medida, os atacantes estão contornando mecanismos de segurança e comercializando a IA como ferramenta de invasão e fraude na dark web.