A prática do jailbreaking, processo de exploração de falhas em um dispositivo bloqueado para instalar outro software que não o do fabricante, vem sendo adotada por cibercriminosos para explorar vulnerabilidades em sistemas de chatbot de inteligência artificial (IA), de acordo com um relatório da empresa de cibersegurança SlashNext.
O jailbreaking é usado com mais frequência para desbloqueio do iPhone, que é considerado o dispositivo móvel mais “bloqueado” atualmente no mercado.
O chatbots de IA, como o ChatGPT, ganharam notoriedade por suas habilidades avançadas de conversação. No entanto, alguns usuários identificaram fraquezas nesses sistemas, que lhes permite contornar os recursos de segurança. Essa manipulação dos sistemas de alerta de chatbots permite que os usuários liberem conteúdo sem censura, o que está levantando preocupações éticas.
Os chatbots de IA com jailbreaking envolvem a emissão de comandos ou narrativas específicas que acionam um modo irrestrito, permitindo que a IA responda sem restrições. Várias comunidades na internet compartilham estratégias e táticas sobre como fazer jailbreaks. Embora em princípio o objetivo dessas comunidades seja a exploração e a expansão dos limites da IA, o desbloqueio de conteúdos de terceiros é visto como antiético.
A SlashNext diz que essa prática [de jailbreaking] também atraiu a atenção de cibercriminosos, que desenvolveram ferramentas que afirmam usar grandes modelos de linguagem personalizados (LLMs) para fins maliciosos. O relatório da empresa sugere que a maioria dessas ferramentas, com a notável exceção do WormGPT, apenas se conectam a versões jailbreak de chatbots públicos, disfarçando sua verdadeira natureza e permitindo que os usuários explorem conteúdo gerado por IA, mantendo o anonimato.
Veja isso
WormGPT pode comprometer e-mails comerciais e fazer jailbreaks
Nova técnica de ataque ChatGPT espalha pacotes maliciosos
Um método popular dessa prática é o “Anarchy”, que usa um tom de comando para acionar um modo irrestrito em chatbots de IA visando especificamente o ChatGPT. De acordo com a SlashNext, organizações como a OpenAI, desenvolvedora do ChatGPT, estão tomando medidas proativas para melhorar a segurança do chatbot por meio de avaliações de vulnerabilidade e controles de acesso.
“No entanto, a segurança da IA ainda está em seus estágios iniciais, à medida que os pesquisadores exploram estratégias eficazes para fortalecer os chatbots contra aqueles que buscam explorá-los”, acrescentou a empresa. “O objetivo é desenvolver chatbots que possam resistir a tentativas de comprometer sua segurança enquanto continuam a fornecer serviços valiosos aos usuários.”