A OpenAI revelou em um relatório que o ChatGPT está sendo utilizado por grupos mal-intencionados para o desenvolvimento e distribuição de malware. Segundo a empresa, o chatbot tem sido empregado em diversas atividades criminosas, como depuração de malware, suporte ao desenvolvimento de ameaças para Android e criação de scripts para ataques a infraestruturas críticas. Além disso, o ChatGPT também está sendo usado para campanhas de influência e na criação de contas falsas em redes sociais.
Leia também
Máquina quântica quebrou chave de 22 bits
170 vagas para profissionais de TI (só três em cyber)
Os invasores utilizam o ChatGPT principalmente em etapas intermediárias dos ataques, conforme explica o relatório. Eles recorrem ao modelo de IA depois de já terem adquirido ferramentas básicas, como acesso à internet, endereços de e-mail e contas de mídia social. Posteriormente, o chatbot é utilizado para aprimorar os ataques, seja na criação de postagens fraudulentas ou na distribuição de malwares em diferentes canais pela internet.
Apesar dessas atividades, o relatório destaca que o uso do ChatGPT não resultou em avanços significativos no desenvolvimento de novos malwares ou em um aumento na viralização de conteúdos maliciosos. A OpenAI afirmou que, embora seu modelo esteja sendo explorado, ele ainda não trouxe mudanças substanciais na eficácia dos ataques cibernéticos.
A própria OpenAI também tem sido alvo de tentativas de ataques, conforme o relatório. Endereços de e-mail de funcionários da empresa foram alvos de spear phishing, uma técnica de ataque que visa obter informações confidenciais. No entanto, essas tentativas de invasão não foram bem-sucedidas, segundo a OpenAI.
O relatório da OpenAI ressalta a crescente sofisticação dos cibercriminosos e a necessidade de um controle rigoroso sobre o uso de ferramentas de IA, além de medidas robustas de segurança para proteger tanto empresas quanto usuários de possíveis ameaças.