fake-1909821_640-1-e1571859655510.jpg

Deepfakes e áudio sintético: os novos vilões da segurança

Da Redação
23/10/2019
Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest

Para especialistas em segurança da informação, as duas técnicas serão os próximos grandes “vetores” de violação de dados

A deepfake, que usa inteligência artificial para criar vídeo e áudio falsos ou alterados, continua a representar uma grande ameaça para as empresas, consumidores e a sociedade como um todo. A tecnologia já gerou desde conteúdos pornográficos com celebridades até discursos fictícios de políticos influentes. Para especialistas em segurança da informação, a deepfake será o próximo grande “vetor” de violação de dados.

Uma das razões para se prever um crescimento dessa modalidade de crime é que existe muito conteúdo público disponível online que pode ser reaproveitado para deepfakes e, como a tecnologia continua avançando, não demorará muito para que os criminosos tenham as ferramentas para expandir seus objetivos além dos líderes mundiais e celebridades.

O mais preocupante é que nem governos nem empresas de tecnologia estão preparados para detectar e combater deepfakes. As fornecedoras de sistemas de segurança cibernética já detectaram ataques de áudio deepfake bem-sucedidos a empresas, sugerindo que o próximo grande alvo poderá ser qualquer um.

A fraude de áudio pode custar caro para empresas e consumidores. Nos EUA, por exemplo, o roubo de identidade feito por telefone custa aos consumidores aproximadamente US$ 12 bilhões por ano. Com os contínuos avanços da tecnologia de áudio e inteligência artificial, especializadas preveem que esses ataques continuarão aumentando.

As empresas precisam criar defesas contra a tecnologia antes que ela se torne difícil de conter. Nos últimos cinco anos, a Pindrop Security, empresa americana de segurança da informação que fornece pontuação de risco para chamadas telefônicas para detectar fraudes e autenticar chamadas, verificou uma grande expansão no número de ataques de áudio sintético.

“Observando os reais perigos do áudio sintético, decidimos entender e detectar melhor esses ataques. Desenvolvemos nossas próprias deepfakes de áudio usando as vozes de líderes e celebridades populares do mundo que estão regularmente na mídia como, por exemplo, o ex-presidente Barack Obama e a apresentadora de TV Ellen DeGeneres”, disse Vijay Balasubramaniyan, CEO da Pindrop, em um artigo para o site Help Net Security.

A empresa descobriu que, embora o áudio sintético pareça normal ao ouvido humano, não é compatível com a velocidade e frequência normais com que os humanos falam. “Com o calcanhar de Aquiles identificado, aprendemos que as tecnologias biométricas de IA e voz podem analisar o áudio para diferenciar com sucesso os áudios reais dos sintéticos” disse Balasubramaniyan.

Ferramentas para detectar e combater deepfakes e áudio sintético estão disponíveis para as empresas, mas infelizmente ainda não há nada para impedir que esses ataques ocorram. Até que haja mais progresso, os consumidores devem pensar duas vezes antes de compartilhar conteúdo potencialmente falso nas mídias sociais, assim como as empresas devem analisar antes de responder a solicitações suspeitas de clientes.

Compartilhar:

Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest