Os líderes empresariais parecem ter perdido o controle sobre a implantação, supervisão e propósito da IA generativa dentro de suas organizações, sugere uma nova pesquisa da Kaspersky. Isso apesar de apenas 28% das organizações permitirem expressamente o uso de IA generativa, com ainda menos (10%) tendo uma política formal de uso de IA generativa em vigor, de acordo com novas descobertas da ISACA (Information Systems Audit and Control Association), associação internacional que patrocina o desenvolvimento de metodologias e certificações para o desempenho das atividades e auditoria e controle de sistemas de informação.
Uma nova pesquisa da ISACA com profissionais globais de confiança digital — aqueles que trabalham em segurança cibernética, auditoria de TI, governança, privacidade e risco — revela um alto grau de incerteza em torno da inteligência artificial (IA) generativa, poucas políticas das empresas em relação a seu uso, falta de treinamento e temores em torno de sua exploração por cibercriminosos. IA generativa é a inteligência artificial que pode gerar texto, imagens e outras mídias.
O levantamento descobriu que muitos funcionários entrevistados das organizações estão usando IA generativa, mesmo sem políticas em vigor para seu uso. Segundo a pesquisa, 28% dos entrevistados disseram que suas empresas permitem expressamente o uso de IA generativa e apenas 10% afirmaram que uma política formal abrangente está em vigor. Além disso, mais de uma em cada quatro organizações disseram não possuir nenhuma política ou que não tem plano para implantação de uma diretriz. Apesar disso, mais de 40% dos entrevistados admitiram que os funcionários estão usando independentemente — e o percentual provavelmente é muito maior, já que outros 35% não têm certeza.
Dos funcionários que disseram que suas empresas estão usando IA generativa, 65% citaram que estão utilizando para criar conteúdo escrito, 44% usam para aumentar a produtividade (44%), 32% para automatizar tarefas repetitivas, 29% para fornecer atendimento ao cliente e 27% utilizam para melhorar a tomada de decisão (27%).
No entanto, apesar dos funcionários avançarem rapidamente com o uso da tecnologia, apenas seis por cento das organizações dos entrevistados estão fornecendo treinamento para todos os funcionários sobre IA, e mais da metade (54%) diz que nenhum treinamento de IA é fornecido, mesmo para equipes diretamente impactadas pela IA. Apenas 25% dos entrevistados indicaram ter um alto grau de familiaridade com IA generativa.
Veja isso
IA elevará busca por profissionais de confiança digital, diz ISACA
IA generativa pode criar phishing ‘convincente’ em cinco minutos
A pesquisa também explorou as preocupações éticas e os riscos associados à IA, com 41% dizendo que não está sendo dada atenção suficiente aos padrões éticos para a implementação da IA. Menos de um terço de suas organizações considera o gerenciamento de riscos de IA uma prioridade imediata, 29% dizem que é uma prioridade de longo prazo e 23% dizem que sua organização não tem planos de considerar o risco de IA no momento, embora os entrevistados observem como principais riscos da tecnologia os seguintes problemas: desinformação (77%), violações de privacidade (68%), engenharia social (63), perda de propriedade intelectual (PI) (58%) e deslocamento de empregos e ampliação da lacuna de competências (empatados em 35%)
Mais da metade (57%) dos entrevistados indicaram que estão muito ou extremamente preocupados com a IA generativa sendo explorada por cibercriminosos. Sessenta e nove por cento dizem que os operadores de ameaças estão usando a IA com tanto ou mais sucesso do que os profissionais de confiança digital.
“Sem uma boa governança, os funcionários podem facilmente compartilhar propriedade intelectual crítica nessas ferramentas sem os controles corretos em vigor. É essencial que os líderes se atualizem rapidamente sobre os benefícios e riscos da tecnologia e equipem os membros de sua equipe com esse conhecimento também”, disse John De Santis, presidente do conselho da ISACA.
Para ter acesso ao relatório completo da ISACA, em inglês, clique aqui.