Uma análise de plug-ins do ChatGPT realizada pela empresa de segurança de APIs Salt Security encontrou vários tipos de vulnerabilidades que poderiam ter sido exploradas por operadores de ameaças para obter dados confidenciais e assumir o controle de contas em outros sites.
Os plug-ins do ChatGPT permitem que os usuários acessem informações atualizadas (em vez dos dados relativamente antigos nos quais o chatbot foi treinado), bem como integrem o ChatGPT a serviços de terceiros. Por exemplo, os plug-ins podem permitir que os usuários interajam com suas contas no GitHub ou no Google Drive. Porém, quando um plugin é usado, o ChatGPT precisa de permissão para enviar os dados do usuário para um site associado ao plugin, e o plugin pode precisar de acesso à conta do usuário no serviço com o qual está interagindo.
A primeira vulnerabilidade identificada pela Salt Security impactou diretamente o ChatGPT e estava relacionada à autenticação OAuth (autorização aberta). Um invasor que conseguisse enganar uma pessoa para que ela clicasse em um link especialmente criado poderia instalar um plug-in malicioso com suas próprias credenciais na conta da vítima, e esta não precisaria confirmar a instalação. Isso resultaria no envio de qualquer mensagem digitada pela vítima, incluindo mensagens que podem incluir credenciais e outros dados confidenciais, ao plug-in e implicitamente ao invasor.
A segunda vulnerabilidade foi encontrada no plugin AskTheCode desenvolvido pela PluginLab.AI, que permite aos usuários interagir com seus repositórios GitHub. A falha de segurança poderia permitir que um invasor assumisse o controle da conta GitHub da vítima e obtivesse acesso aos seus repositórios de código por meio de uma exploração sem clique.
Veja isso
Relatório vincula ChatGPT a aumento de e-mails de phishing
OpenAI promete nível elevado de proteção com ChatGPT Enterprise
A terceira vulnerabilidade também estava relacionada ao OAuth e afetou vários plug-ins, mas a Salt demonstrou suas descobertas em um plug-in chamado Charts by Kesem AI. Um invasor que conseguisse enganar um usuário para que ele clicasse em um link especialmente criado poderia ter assumido o controle da conta da vítima associada ao plug-in.
As vulnerabilidades foram relatadas à OpenAI, PluginLab.AI e Kesem AI logo após serem descobertas no verão de 2023 e os fornecedores lançarem patches em algum momento nos meses seguintes.
A Salt Security disse que também encontrou vulnerabilidades em outros GPTs e planeja detalhá-las em uma próxima postagem no blog.
Para ter acesso à análise das vulnerabilidades identificadas pela Salta Security (em inglês) clique aqui.