Uma pesquisa feita pela Salesforce indica que quase 80% dos líderes de segurança da informação no Brasil já reconhecem a necessidade de transformar suas práticas para enfrentar os desafios da era da IA. O estudo, chamado State of IT, entrevistou 2.000 líderes globais de segurança de TI, incluindo 100 brasileiros. Um elemento central dessa transformação é a adoção em larga escala de agentes de IA, que utilizam capacidades generativas para automatizar tarefas, detectar ameaças e realizar auditorias avançadas de desempenho de modelos. Atualmente, 46% das equipes de segurança no Brasil já utilizam esses agentes, e esse número deve saltar para 75% nos próximos dois anos.
Leia também
GenAI consegue empregos para Coreia do Norte
IBM investe em lab de inteligência artificial
O otimismo das lideranças em relação aos agentes de IA é unânime: todos os entrevistados identificaram ao menos uma atribuição de segurança que poderia ser aprimorada com o uso da tecnologia. Apesar disso, algumas barreiras relevantes ainda travam as jornadas de implementação nas empresas brasileiras. Quase metade (46%) dos entrevistados teme que sua base de dados ainda não esteja totalmente preparada para aproveitar o potencial máximo da IA generativa e 47% não estão totalmente confiantes de que contam com as salvaguardas necessárias para implementar os agentes de IA de maneira segura.
“Os agentes de IA têm o potencial de transformar a segurança digital, liberando equipes para focarem em desafios mais complexos. Enquanto cibercriminosos já incorporam IA no dia a dia, as empresas e profissionais de segurança podem usar essa tecnologia para o bem, automatizando tarefas manuais e aumentando a eficiência do trabalho. No entanto, é importante lembrar que a implementação da IA generativa exige um alicerce sólido de infraestrutura e governança de dados”, afirma Gabriel Dornella, Diretor Sênior de Engenharia de Soluções na Salesforce.
O estudo da Salesforce identificou outras quatro grandes tendências em segurança e IA:
Preocupação com data poisoning aumenta
Além de riscos já conhecidos, como ameaças à segurança na nuvem, malwares e ataques de phishing, os líderes brasileiros também sinalizaram preocupação com o data poisoning — quando atores mal-intencionados comprometem os conjuntos de dados usados para treinar IA. A resposta a esse cenário já é visível com um aumento de recursos: 74% das organizações brasileiras esperam ampliar seus orçamentos de segurança no próximo ano.
Incerteza com a regulação dificulta a implementação da IA
Embora quatro em cada cinco líderes de de TI (81%) acreditem que agentes de IA oferecem oportunidades para melhorar a conformidade, como o cumprimento de leis globais de privacidade, 73% afirma que esses agentes também têm desafios de conformidade. O cenário pode ser parcialmente atribuído a um ambiente regulatório complexo em torno da tecnologia (e que ainda está evoluindo).
Confiança é a base para desenvolver IA, mas está em estágio inicial
Outro estudo da Salesforce realizado com consumidores do mundo todo revelou que a confiança nas empresas está em declínio acentuado, e 60% concordam que os avanços em IA tornam a confiabilidade de uma empresa ainda mais crucial. Além disso, apenas 42% dos entrevistados confiam que as empresas utilizam IA de forma ética, uma queda em relação aos 58% registrados em 2023. Os líderes de segurança de TI reconhecem que há trabalho a ser feito para conquistar essa confiança essencial:
- 54% não estão totalmente confiantes com a precisão ou a explicabilidade dos resultados gerados por suas IAs.
- 62% não oferecem total transparência sobre como os dados dos clientes são utilizados em IA.
- 54% ainda não aperfeiçoaram suas diretrizes éticas para uso de IA.
- 62% acreditam que os clientes hesitam em adotar serviços de IA devido a preocupações com segurança ou privacidade.