[ 229,037 page views, 81,838 usuários - média últimos 90 dias ] - [ 5.767 assinantes na newsletter, taxa de abertura 27% ]

GenAi distorce transações de áudio ao vivo

O surgimento da Inteligência Artificial (IA) generativa mudou significativamente nosso trabalho e nossa vida pessoal. Embora esses avanços ofereçam muitos benefícios, também apresentam novos desafios e riscos. E, para ampliar a análise sobre os avanços da IA generativa e o uso da tecnologia como uma ferramenta de ataque, a equipe IBM Security X-Force realizou um experimento para interceptar e distorcer, com sucesso, uma conversa ao vivo, relata Fernando Carbone, sócio de Serviços de Segurança da IBM Consulting na América Latina. O “audio-jacking”, segundo ele, é similar ao “thread-jacking”. Mas, em vez de obter acesso e se passar por outra pessoa nos threads de um e-mail, por exemplo, o “audio-jacking” permite que o adversário manipule, silenciosamente, os resultados de uma conversa, sem que os participantes saibam que a chamada está comprometida.

Leia também
Palo Alto firma acordo com IBM e adquire o pacote QRadar SaaS
Ferramenta IBM desenvolve apps de segurança

A distorção silenciosa

Fernando Carbone, sócio de Serviços de Segurança da IBM Consulting na América Latina

Os profissionais envolvidos no experimento descobriram um método para modificar, dinamicamente, o contexto de uma conversa ao vivo. No lugar de usar a IA generativa para criar uma voz falsa para todo o diálogo, foi possível interceptar uma conversa ao vivo e substituir apenas algumas palavras-chave, baseadas no contexto real“, explica.

A partir de um programa que atuava como um ‘intermediário’ capaz de monitorar uma conversa ao vivo, foi criada uma prova de conceito. Para tanto, as palavras-chave selecionadas foram “conta bancária” e, então, toda vez que alguém mencionava conta bancária na conversa, o LLM já estava instruído a substituir o número de conta e, com isso, passava uma falsa informação aos participantes, como se fosse o conhecido interlocutor. Assim, os criminosos responsáveis pelas ameaças também podem ser capazes de substituir os dados de qualquer conta bancária, por exemplo, por informações que os favoreçam, usando apenas uma voz clonada e sem serem detectados – graças à preservação do contexto original, que dificulta a identificação desse tipo de fraude“.

Com base neste experimento, sabemos que as modificações do LLM não precisam se limitar a informações financeiras. Afinal, também é possível modificar dados médicos, emitir ordens de compra ou venda de ações a um analista e alterar o curso de muitas outras conversas, independentemente do tema e das informações envolvidas. No entanto, é importante ter em mente que, quanto mais complexa for a conversa que um cibercriminoso tente manipular – com envolvimento de protocolos e processos, por exemplo –, mais habilidades avançadas de engenharia social serão necessárias para garantir que a distorção seja silenciosa, imperceptível e bem-sucedida“.

Vale destacar que esse tipo de ataque pode ser realizado por meio de um malware instalado no telefone das vítimas ou de um serviço de VoIP já comprometido. Também é possível que os cibercriminosos liguem para as vítimas, simultaneamente, para iniciar uma conversa – o que requer as tais avançadas habilidades de engenharia social. No entanto, com os modelos existentes que já são capazes de converter texto em vídeo, teoricamente, é possível interceptar um vídeo ao vivo e substituir o conteúdo original por um manipulado“.

Em resumo, essa prova de conceito já sinaliza um grande risco, especialmente para as ardilosas manipulações de engenharia social – que, não com pouca frequência, resultam em astuciosos golpes“.

Sinais e dicas para considerar

Assim como as tecnologias de hoje podem ajudar a identificar vídeos deep fake, o setor de Segurança também se adaptará aos novos padrões de áudios deep fake, ajudando a detectar tentativas de distorções silenciosas. Enquanto isso, é essencial estar vigilante e tomar medidas proativas, incluindo:

  • Repetir e parafrasear

A IA generativa é uma tecnologia intuitiva, mas não pode superar a intuição humana em um ambiente de linguagem natural, como em uma conversa ao vivo. Se algo soar estranho em uma conversa com dados sensíveis, repita e parafraseie o diálogo para assegurar a precisão de cada informação.

  • Boas práticas de segurança são a primeira linha de defesa

Para que os atacantes executem esse tipo de distorção, a forma mais fácil é comprometer o dispositivo de um usuário, como um telefone ou laptop. Por isso, é essencial adotar as melhores práticas, já bastantes difundidas e conhecidas atualmente, como não clicar em links suspeitos ou abrir anexos duvidosos, atualizar software e manter uma cultura permanente de senhas fortes.

  • Usar dispositivos e serviços confiáveis

As aplicações, os dispositivos e os serviços com fracas considerações de segurança são um alvo fácil para que cibercriminosos executem ataques. Certifique-se de instalar aplicativos de segurança digital e de manter as respectivas atualizações de software em dia, em todos os dispositivos utilizados. Outra questão importante é estar sempre consciente da segurança de cada ambiente acessado e jamais interagir com páginas, sistemas ou serviços desconhecidos.

A IA generativa ainda traz incógnitas sobre novas superfícies de ataque. Por isso, é tão importante trabalhar coletivamente para conhecer a verdadeira dimensão de novas possibilidades que podem surgir e nos mantermos preparados para defender e mitigar os possíveis riscos. E, neste processo, a educação em segurança é fundamental para que pessoas e empresas estejam bem conscientes, informadas e preparadas para quando essas e outras novas ameaças baterem à porta“, conclui o executivo.