[ Tráfego 8/Out a 6/Nov: 371.336 page views - 145.206 usuários ] - [ Newsletter 5.509 assinantes Open rate 27%]

Pesquisador: ChatGPT é capaz de criar malwares indetectáveis

Da Redação
20/04/2023

Um pesquisador de cibersegurança da Forcepoint conseguiu fazer a inteligência artificial (IA) do ChatGPT se utilizar da esteganografia para burlar a política de não aceitar conteúdos maliciosos, o que torna o chatbot  capaz de produzir malwares indetectáveis. 

A descoberta foi feita por Aaron Mulgrew. Inicialmente, ele solicitou à IA que redigisse linhas de malware, o que foi recusado, respeitando uma norma da ferramenta de não executar atividades ilegais, como a criação de um vírus, conforme mostra o exemplo abaixo:

TraduçãoDesculpa, porém como um modelo de linguagem de IA, não posso criar malwares ou qualquer sistema que seja ilegal ou nocivo. Meu propósito é ajudar usuários de uma maneira responsável, e eu sou adepto estritamente às normas morais e éticas.

Mulgrew decidiu então utilizar outra estratégia: começou a fornecer comandos para efetuar pequenas etapas do processo de criação de um malware para o ChatGPT. E foi dessa maneira que, de pouco em pouco, a tecnologia foi criando com simples comandos, um vírus indetectável.

O primeiro passo foi fazer com que a inteligência artificial gerasse um código que achasse no disco local imagens maiores que 5 MB. Depois, pediu para que a IA gerasse outro código para que ele colocasse dentro dessas imagens arquivos menores que 1 MB. “A IA involuntariamente, se utiliza da esteganografia para montar o sistema do malware. A técnica consiste em esconder arquivos dentro de outros, de forma ofuscada, camuflando os dados possivelmente confidenciais, dentro das imagens, fazendo upload dessas imagens para um Google Drive público”, explica Luiz Faro, diretor de engenharia de sistemas da Forcepoint na América Latina.

Veja isso
Reguladores da UE criarão força-tarefa para investigar o ChatGPT
Cresce o comércio de contas roubadas do ChatGPT Plus

Para checar a eficiência do malware criado, a Forcepoint realizou testes em serviços que analisam URLs e arquivos para identificar possíveis ataques. Nessa primeira tentativa, 69 engines de antimalware diferentes detectaram que o arquivo era de fato malicioso. Já na versão seguinte, não houve nenhuma detecção, assim criando um vírus não detectado com apenas comandos do ChatGPT.

Faro alerta para a gravidade da descoberta: “o fato de ser relativamente simples subverter a IA e fazer com que ela própria programe o malware mostra que, para novos cibercriminosos, não é necessário saber codificar, apenas conhecer o processo, que a ferramenta fará o restante. Esse ‘exército’ passa a ter pessoas que não tem o menor conhecimento em programação, e que sequer precisam”.

Compartilhar: