Pesquisa recente da Malwarebytes revela que 81% das pessoas estão preocupadas com os riscos de segurança apresentados pelo chatbot de IA generativa ChatGPT, da OpenAI, enquanto apenas 7% acham que ele melhorará a segurança na internet.
A fornecedora de software antimalware coletou um total de 1.449 respostas de uma pesquisa feita no final de maio, com 51% dos entrevistados questionando se as ferramentas de IA podem melhorar a segurança na internet e 63% desconfiando das informações do ChatGPT. Além disso, 52% querem que os desenvolvimentos do ChatGPT sejam interrompidos para que os regulamentos possam ser atualizados. Apenas 7% dos entrevistados concordaram que o ChatGPT e outras ferramentas de IA melhorarão a segurança na internet.
Em março, uma série de luminares da tecnologia assinou uma carta pedindo que todos os laboratórios de IA parassem imediatamente o desenvolvimento de sistemas de IA mais poderosos que o GPT-4 por ao menos seis meses para dar tempo para “desenvolver e implementar em conjunto protocolos de segurança por design, que seriam rigorosamente auditados e supervisionados por especialistas independentes”. A carta citava os “riscos profundos” representados por “sistemas de IA com inteligência humana competitiva”.
Os possíveis riscos de segurança em torno do uso de IA generativa para empresas estão bem documentados, assim como as vulnerabilidades conhecidas por afetar os aplicativos com grandes modelos de linguagem (LLM) que eles usam. Apesar disso, há casos de uso da tecnologia para aprimorar a segurança cibernética, como detecção e resposta generativa de ameaças à segurança aprimoradas por IA e LLM, uma tendência predominante no mercado de segurança cibernética, à medida que os fornecedores tentam ajudar a tornar seus produtos mais inteligentes, rápidos e concisos.
Veja isso
ChatGPT: mais de 100 mil contas roubadas por malware
Pesquisador: ChatGPT é capaz de criar malwares indetectáveis
Na pesquisa da Malwarebytes, apenas 12% dos entrevistados concordaram que “as informações produzidas pelo ChatGPT são precisas”, enquanto 55% discordaram, uma discrepância significativa, escreveu a fornecedora de antimalware. Além disso, apenas 10% concordaram com a afirmação “confio nas informações produzidas pelo ChatGPT”.
Uma das principais preocupações sobre os dados produzidos por plataformas de IA generativa é o risco de “alucinação” em que os modelos de aprendizado de máquina produzem inverdades. Isso se torna um problema sério para as organizações se seu conteúdo for fortemente utilizado para tomar decisões, especialmente aquelas relacionadas à detecção e resposta a ameaças.