Com seus 200 milhões de usuários globais, o ChatGPT da OpenAI se tornou-se o mais popular entre os grandes modelos de linguagem (LLM), chamando a atenção de muitos indivíduos interessados em como ele pode melhorar seu trabalho e sua vida pessoal. No entanto, os golpistas também notaram o surgimento da IA generativa e agora estão ansiosos para explorar a tecnologia em benefício próprio.
Em um post intitulado The Age of AI Has Begun, Bill Gates afirmou que “esta tecnologia revolucionária é a maior inovação desde o computador amigável”. Estamos testemunhando o alvorecer de uma nova era tecnológica em que a IA será integrada a todos os aspectos da vida cotidiana.
À medida que a tecnologia avança, também aumentam os métodos de fraude. Os fraudadores agora podem explorar a capacidade do ChatGPT de gerar e-mails e textos que parecem autênticos e humanos, facilitando a execução de golpes de phishing.
Com essas novas tecnologias de IA que ajudam as pessoas a escrever, é quase impossível discernir alguns desses ataques de phishing de um e-mail legítimo neste momento. As vítimas lutam para diferenciar entre e-mails fraudulentos e legítimos, mas essa não é a única preocupação.
As empresas enfrentam desafios adicionais, incluindo o uso de IA para minar a tecnologia de autenticação. Alguns serviços de IA generativa podem imitar qualquer voz humana usando uma amostra em menos de três segundos. Esse nível de representação de voz gera preocupações sobre o uso generalizado de deepfakes para fins fraudulentos. Por exemplo, os fraudadores podem empregar essa tecnologia para representar a voz de um consultor bancário e persuadir as vítimas de forma convincente a realizar transações, levando a perdas financeiras.
Os recursos da IA também representam uma ameaça potencial, pois podem conduzir fraudes em larga escala. Graças às vastas possibilidades de IA generativa, juntamente com técnicas de reconhecimento de voz e expressão, um único fraudador pode estar por trás de milhares de chamadas telefônicas fraudulentas. Atualmente, os fraudadores têm um número limitado de vítimas com as quais podem lidar, pois um golpista só pode falar com uma vítima por vez. No entanto, com a IA, os fraudadores podem atingir efetivamente mais pessoas ao mesmo tempo.
Protegendo informações confidenciais
As preocupações com a segurança dos dados são realmente proeminentes quando se trata do uso de grandes modelos de linguagem, como o ChatGPT. As empresas devem ter cuidado para evitar que seus funcionários compartilhem inadvertidamente informações confidenciais com fornecedores terceirizados de tecnologia de IA generativa.
Em um caso, um engenheiro carregou inadvertidamente um código confidencial e solicitou ao ChatGPT que identificasse e otimizasse falhas de software. Infelizmente, isso resultou no ChatGPT adicionando o código-fonte ao seu banco de dados e materiais de aprendizagem, tornando-o não mais confidencial.
Nos próximos meses e anos, a aplicação de medidas de segurança de dados será crucial para proteger efetivamente contra tentativas de fraude com IA. Medidas de segurança insuficientes criam oportunidades para que as vítimas sejam enganadas por e-mails ou telefonemas aparentemente autênticos. Fortalecer a segurança dos dados por meio de fatores de autenticação aprimorados fortalecerá a segurança geral.
Combinando ferramentas de prevenção de fraude
A batalha contra a fraude é um desafio contínuo, mas o surgimento da IA traz uma transformação nas regras de engajamento. Detectar e interromper fraudes com eficiência se tornará cada vez mais difícil à medida que o volume de ataques continua aumentando. É imperativo que as empresas e outros stakeholders eduquem o público sobre o uso seguro da IA enfatizando a importância de não compartilhar dados confidenciais que possam representar riscos à segurança cibernética.
As empresas que carecem de uma abordagem multicamada para mitigar o risco de fraude são particularmente vulneráveis a ataques. Um modelo multicamadas pode ser altamente eficaz no combate ao impacto de ataques com IA. Por exemplo, os modelos otimizados de detecção de golpes de machine learning já estão exibindo altas taxas de detecção.
As organizações podem colaborar para compartilhar inteligência em tempo real e impedir ataques replicados orquestrados por redes de fraudes organizadas. Ao combinar o comportamento off-line com a inteligência online, as organizações podem estabelecer uma rede robusta que evita com eficiência que os fraudadores explorem ferramentas com tecnologia de IA para fraudar o público e as organizações.
*Rafael Costa Abreu é diretor de identidade e fraude LATAM da LexisNexis Risk Solutions.