A OpenAI publicou nesta semana um relatório detalhando o uso indevido do ChatGPT por grupos apoiados por Estados, incluindo China, Rússia, Irã, Coreia do Norte e Filipinas. A empresa baniu dezenas de contas utilizadas para fins ilícitos, como refinamento de malware, golpes de emprego e campanhas de desinformação em redes sociais.
Leia também
Phishing leva £ 47 milhões do fisco da Inglaterra
Fornecedor de IA diz resolver alucinações
No campo da desinformação, contas conectadas à China foram usadas para gerar comentários em inglês, chinês e urdu sobre temas geopolíticos sensíveis, como Taiwan, a USAID e o ativismo no Baluchistão. As mensagens eram replicadas em plataformas como TikTok, X, Reddit e Facebook, com baixa repercussão. Grupos russos fizeram o mesmo em alemão, criticando a OTAN e os EUA, enquanto campanhas semelhantes foram observadas no Irã e nas Filipinas.
Grupos de hackers identificados como APT5 e APT15 utilizaram o ChatGPT para desenvolver e testar ferramentas ofensivas, como scripts de força bruta, scanners de portas, automações para redes sociais e malwares para Android. Uma dessas ferramentas, batizada de ScopeCreep, foi projetada para infectar jogadores, escalar privilégios e roubar credenciais, com comunicação via Telegram. A OpenAI desativou as contas envolvidas e compartilhou indicadores de comprometimento com parceiros.
Hackers norte-coreanos foram flagrados usando o ChatGPT para gerar currículos falsos, simular perfis profissionais e automatizar candidaturas a vagas de trabalho remoto, com o objetivo de obter acesso a dispositivos nos EUA. A empresa identificou tentativas de recrutar intermediários americanos para receber laptops e permitir o acesso remoto por operadores estrangeiros.
A OpenAI também removeu contas ligadas ao Camboja que produziam mensagens de recrutamento em vários idiomas, oferecendo salários elevados por tarefas simples. Essas mensagens são associadas a esquemas fraudulentos conduzidos por redes de tráfico humano atuantes no país, que forçam vítimas a operar golpes cibernéticos.