Apenas um terço das organizações no mundo aborda adequadamente os riscos de segurança, privacidade e éticos envolvendo a inteligência artificial (IA), apesar do uso crescente da tecnologia no local de trabalho, de acordo com um novo estudo da ISACA (Information Systems Audit and Control Association), associação internacional que patrocina o desenvolvimento de metodologias e certificações para o desempenho das atividades e auditoria e controle de sistemas de informação.
A pesquisa realizada com 3.270 profissionais de confiança digital descobriu que apenas 34% acreditam que as organizações estejam prestando atenção suficiente aos padrões éticos da IA, enquanto menos de um terço (32%) disse que suas organizações estão abordando adequadamente as preocupações com a implantação da IA, como privacidade de dados e preconceitos.
Mais de 60% dos entrevistados afirmaram que os funcionários da sua organização utilizam ferramentas generativas de IA no seu trabalho, com 70% afirmando que os funcionários utilizam qualquer tipo de IA. Além disso, 42% disseram que suas empresas permitem formalmente a utilização de IA generativa no local de trabalho, contra 28% que autorizavam há seis meses, de acordo com a ISACA.
As três formas mais comuns de utilização da IA atualmente são para aumentar a produtividade (35%), automatizar tarefas repetitivas (33%) e criar conteúdo escrito (33%), disseram os entrevistados.
A pesquisa identificou falta de conhecimento sobre IA entre os profissionais de confiança digital, com apenas 25% se declarando extremamente ou muito familiarizados com a tecnologia. Quase metade (46%) se autoclassificou como iniciante na IA.
Os profissionais de confiança digital reconhecem a necessidade de melhorar os seus conhecimentos sobre IA para o desempenho de suas funções, com 85% reconhecendo que precisarão expandir as suas competências e conhecimentos nessa área dentro de dois anos para progredir ou manter os seus empregos.
A maioria das organizações não possui medidas para resolver a falta de conhecimento de IA entre os profissionais de TI e a força de trabalho em geral. Quase metade (40%) não oferece qualquer formação em IA e 32% dos entrevistados afirmaram que a formação oferecida é limitada ao pessoal que trabalha em cargos relacionados com a tecnologia. Além disso, apenas 15% das organizações têm uma política governamental formal e abrangente sobre o uso da tecnologia de IA. No entanto, a ISACA lançou três novos cursos online para treinamento em IA incluindo auditoria e governança dessa tecnologia.
Veja isso
Fraude de IA e deepfakes são os principais desafios para os bancos
Gen IA é usada em 50% dos ataques a empresas brasileiras
Os profissionais de TI entrevistados na pesquisa também destacaram o impacto significativo que esperam que a IA tenha nos empregos em geral. Cerca de metade (45%) acredita que muitos empregos serão eliminados devido à IA nos próximos cinco anos, e 80% pensam que muitos empregos serão modificados como resultado do avanço da tecnologia. No entanto, 78% acreditam que a IA terá um impacto neutro ou positivo nas suas carreiras.
Os entrevistados também expressaram preocupação com o fato de operadores de ameaças usarem ferramentas de IA para atingir as organizações. Mais de quatro em cada cinco (81%) destacaram as campanhas de desinformação como a maior ameaça. Mas é preocupante que apenas 20% dos profissionais de TI tenham afirmado estar confiantes na sua própria capacidade de detectar campanhas de desinformação alimentada por IA e 23% na capacidade da sua empresa para o fazer.
Além disso, 60% disseram estar muito ou extremamente preocupados com a possibilidade de a IA generativa ser explorada por operadores de ameaças, por exemplo, para criar mensagens de phishing mais convincentes. Apesar disso, apenas 35% acreditam que os riscos da IA são uma prioridade imediata para a sua organização abordar.