Posts na dark web planejam uso de IA generativa no cibercrime

Da Redação
29/01/2024

Uma amostra de que o uso de ferramentas de inteligência artificial (IA) generativa para realizar ataques cibernéticos tem tudo pata explodir neste ano está em um levantamento feito pelo serviço Digital Footprint Intelligence da Kaspersky. Os pesquisadores da empresa encontraram quase 3 mil postagens na dark web em 2023 discutindo o uso do ChatGPT e outros LLMs (sigla em inglês de grandes modelos de linguagem) para atividades ilegais. 

Segundo a Kaspersky, os operadores da ameaças estão explorando esquemas que vão desde a criação de alternativas nefastas do chatbot até o jailbreak do original e muito mais. Contas e serviços roubados do ChatGPT que oferecem a criação automatizada em massa também estão inundando os canais da dark web, respondendo por outras 3 mil postagens.

As conversas na dark web discutindo o uso de ferramentas de IA para fins ilegais atingiram o pico em março de 2023, enquanto as discussões persistiram durante o restante do ano. “Os operadores de ameaças estão explorando ativamente vários esquemas para implementar ChatGPT e IA”, disse Alisa Kulishenko, analista de pegada digital da Kaspersky. “Os tópicos frequentemente incluem o desenvolvimento de malware e outros tipos de uso ilícito de modelos de linguagem, como processamento de dados roubados de usuários, análise de arquivos de dispositivos infectados e muito mais.”

Ela explica que a popularidade das ferramentas de IA levou à integração de respostas automatizadas do ChatGPT ou seus equivalentes em alguns fóruns de cibercriminosos. “Além disso, os operadores de ameaças tendem a compartilhar jailbreaks por meio de vários canais da dark web — conjuntos especiais de prompts que podem desbloquear funcionalidades adicionais — e criar maneiras de explorar ferramentas legítimas, como aquelas para pentesting, com base em modelos para fins maliciosos”, enfatiza Kulishenko.

A analista observa que considerável atenção da dark web também está sendo dada a projetos como XXXGPT, FraudGPT e outros. Esses modelos de linguagem são comercializados na dark web como alternativas ao ChatGPT, apresentando funcionalidades adicionais e ausência de limitações originais.

Veja isso
Reino Unido diz que IA tornará ransomware mais grave e eficaz
OpenAI cria plano para combater a desinformação nas eleições

Outra ameaça para usuários e empresas é o mercado de contas para a versão paga do ChatGPT. No ano passado, a Kaspersky identificou outras 3 mil postagens, além das já mencionadas, anunciando contas ChatGPT para venda na dark web e nos canais shadow do Telegram. Essas postagens distribuem contas roubadas ou promovem serviços de registro automático, criando contas em massa mediante solicitação. Notavelmente, certas postagens foram publicadas repetidamente em vários canais da dark web.

“Embora as ferramentas de IA em si não sejam inerentemente perigosas, os cibercriminosos estão tentando encontrar formas eficientes de usar os grandes modelos de linguagem, alimentando assim uma tendência de redução da barreira de entrada no crime cibernético e, em alguns casos, aumentando potencialmente o número de ataques cibernéticos”, afirmou Kulishenko. “No entanto, é improvável que a IA generativa e os chatbots revolucionem o cenário de ciberataques, pelo menos neste ano. A natureza automatizada dos ataques cibernéticos muitas vezes significa defesas automatizadas. No entanto, manter-se informado sobre as atividades dos invasores é crucial para estar à frente dos adversários em termos de segurança cibernética corporativa.”

pesquisa detalhada é apresentada no site oficial do Kaspersky Digital Footprint Intelligence.

Compartilhar: