Um estudo publicado pela Palo Alto Networks revela que funcionários em todas as organizações utilizam, em média, 6,6 aplicativos de inteligência artificial generativa de alto risco, incluindo alguns desconhecidos pelos chefes de segurança da informação (CISOs). A pesquisa da Palo Alto Networks analisou os registros de tráfego de mais de 7.000 clientes ao longo de 2024. Foi observado que a maioria das organizações apresenta, em média, um total de 66 aplicativos de IA generativa em seus sistemas. A maior parte dessas ferramentas se enquadra nas categorias de assistentes de escrita e agentes de conversação, como ChatGPT e Google Gemini, que juntas correspondem a 84% das aplicações de IA generativa identificadas no estudo.
Leia também
Os dez cursos de GenAI mais populares no Brasil
Google alerta para “uso adversarial” de GenAI
Segundo o relatório, 10% dos aplicativos de IA generativa são considerados de alto risco. Além disso, os incidentes de prevenção contra a perda de dados relacionados à IA generativa mais que dobraram este ano em comparação com 2024. O documento adverte que mesmo assistentes de escrita, se não forem integrados com os controles de segurança adequados, podem se tornar um vetor para ataques cibernéticos, explorando vulnerabilidades para acessar sistemas internos ou dados sensíveis.
Para mitigar esses riscos, o relatório recomenda que os CISOs compreendam e controlem o uso da IA generativa na empresa, implementando gerenciamento de acesso para limitar o uso de plataformas com base no risco. Também é crucial proteger dados sigilosos contra vazamentos por meio da inspeção de conteúdo em tempo real e da aplicação de políticas centralizadas. Por fim, sugere-se a adoção de uma estrutura de segurança de confiança zero para identificar e bloquear ameaças cibernéticas avançadas originadas em respostas de IA.