Embora muito se tenha comentado no mercado sobre os riscos de o ChatGPT vir a ser utilizado para fins maliciosos e poder representar uma ameaça à segurança cibernética, muitos especialistas avaliam que o chatbot de inteligência artificial da OpenAI, que gera respostas semelhantes às humanas, pode ser muito útil também na proteção de sistemas.
Lançado em novembro do ano passado, o ChatGPT, descrito por muitos como revolucionário, foi concebido com base na família GPT-3 da OpenAI de grandes modelos de linguagem em que os usuários podem interagir com o chatbot por meio de prompts. E justamente por seus recursos avançados, alguns avaliam que ele pode ser usado para fins maliciosos, inclusive para escrever e-mails de phishing confiáveis e criar malware.
Mas, pelo sim e pelo não, nos últimos meses, várias empresas de segurança cibernética revelaram que começaram ou planejam usar o ChatGPT. A empresa americana de segurança em nuvem Orca foi uma das primeiras a anunciar a integração do ChatGPT, especificamente o GPT-3, à sua plataforma. O objetivo é aprimorar as etapas de correção fornecidas aos clientes para riscos de segurança na nuvem.
“Ao ajustar esses poderosos modelos de linguagem aos nossos próprios conjuntos de dados de segurança, conseguimos melhorar os detalhes e a precisão de nossas etapas de correção, oferecendo um plano de correção muito melhor e ajudando as empresas a resolverem o problema de maneira ideal o mais rápido possível”, explica a empresa em um comunicado à imprensa.
A Armo, empresa de segurança de kubernetes, foi outra que ao chatbot da OpenAI. E empresa integrou a IA generativa do ChatGPT à sua plataforma para facilitar a criação de políticas de segurança pelos usuários com base no Open Policy Agent (OPA). “O Armo Custom Controls pré-treina o ChatGPT com regras de segurança e conformidade e contexto adicional, utilizando e aproveitando o poder da IA para produzir controles personalizados solicitados por meio de linguagem natural. O usuário obtém a regra OPA completa produzida pelo ChatGPT, bem como uma descrição em linguagem natural da regra e uma correção sugerida para corrigir o controle com falha”, disse a empresa à SecurityWeek.
Veja isso
ChatGPT já está sendo utilizado em golpes de phishing e BEC
Hackers usam aplicativos ChatGPT falsos para enviar malware
Outra a se curvar ao chatot da OpenAI foi a Logpoint, que recentemente anunciou a integração do ChatGPT à sua solução LogPoint SOAR, de orquestração de segurança, automação e resposta, em um ambiente de laboratório. “A integração do ChatGPT ao Logpoint SOAR permite que os clientes investiguem o potencial de usar playbooks SOAR com o ChatGPT na segurança cibernética”, disse a empresa.
Já a Accenture Security está analisando os recursos do ChatGPT para automatizar algumas tarefas relacionadas à defesa cibernética. Além da consultoria, outras empresas de segurança cibernética, como a Coro e a Trellix, também estão avaliando a possibilidade de incorporar o ChatGPT em suas ofertas. A Kaspersky, por exemplo, realizou alguns experimentos de detecção de indicadores de comprometimento (IoC) e encontrou resultados promissores em algumas áreas.
Mas a lista de testes com o chatbot não para por aí. Os pesquisadores de segurança Antonio Formato e Zubair Rahim descreveram como integraram o ChatGPT com a solução de análise de segurança e inteligência de ameaças do Microsoft Sentinel para gerenciamento de incidentes.