Crime organizado intensificará uso de deepfakes, prevê Europol

Polícia europeia alerta que os órgãos da lei precisarão aprimorar as habilidades e tecnologias à disposição dos policiais para acompanhar o uso da nova técnica pelos criminosos
Da Redação
28/04/2022

A técnica de deepfake deve passar a ser amplamente usada pelo crime organizado nos próximos anos, de acordo com uma nova pesquisa da Europol. Deepfake é uma técnica de síntese de imagens ou sons humanos baseada em inteligência artificial usada para produzir vídeos falsos, que mostram, de forma convincente, as pessoas dizendo ou fazendo coisas que nunca fizeram — ou criam personas que nunca existiram.

A aplicação da lei e o desafio das deepfakes fazem parte da primeira análise publicada pelo Observatório do Laboratório de Inovação da Europol. A polícia europeia alerta que os órgãos da lei precisarão aprimorar as habilidades e tecnologias à disposição dos policiais para acompanhar o uso da nova técnica pelos criminosos.

A análise destacou como as deepfakes estão sendo usadas ​​de forma nefasta em três áreas principais: desinformação, pornografia não consensual e fraude de documentos. O estudo prevê que esses ataques se tornarão cada vez mais realistas e perigosos à medida que a tecnologia melhorar nos próximos anos.

1) Desinformação: a Europol deu vários exemplos de como informações falsas podem ser divulgadas usando deepfakes, levando a consequências potencialmente devastadoras. Isso inclui na esfera geopolítica, como a criação de um falso alerta de emergência que avisa sobre um ataque iminente. Em fevereiro, antes do conflito Rússia-Ucrânia, os Estados Unidos acusaram o Kremlin de um complô de desinformação para servir de pretexto para uma invasão da Ucrânia.

A tecnologia também pode ser usada para direcionar negócios, como criar um deepfake de vídeo ou áudio que faça parecer que o executivo de uma empresa está envolvido em um ato controverso ou ilegal. Em um caso bem divulgado, os criminosos fraudaram uma empresa de energia no valor de US$ 243 mil depois de se passarem pela voz do presidente-executivo.

2) Pornografia não consensual: O relatório citou um estudo da Sensity, que descobriu que 96% dos vídeos falsos envolviam pornografia não consensual. Isso normalmente envolve a sobreposição do rosto da vítima no corpo de um ator pornográfico, fazendo parecer que a vítima está participando do ato.

3) Fraude de documentos: embora os passaportes estejam se tornando cada vez mais difíceis de falsificar devido às modernas medidas de prevenção de fraudes, o relatório descobriu que “mídia sintética e imagens faciais manipuladas digitalmente apresentam uma nova abordagem para fraude de documentos”. Por exemplo, essas tecnologias podem combinar ou transformar os rostos da pessoa a quem o passaporte pertence e da pessoa que deseja obter um passaporte ilegalmente, aumentando as chances de a foto passar por verificações de identidade, incluindo as automatizadas.

Os autores acrescentaram que, da mesma forma que outras ferramentas usadas no crime cibernético, “os recursos de deepfake estão se tornando mais acessíveis para as massas por meio de aplicativos e sites deepfake”.

Veja isso
Hackers usam ‘IA ofensiva’ para criar deepfakes de phishing
Deepfake deve se tornar a próxima grande ameaça para as empresas

Além disso, o relatório observou que deepfakes podem impactar negativamente o processo legal, por exemplo, manipulando artificialmente ou gerando mídia para provar ou refutar a culpa de alguém. Em um caso recente de custódia infantil, uma mãe de uma criança manipulou uma gravação de áudio de seu marido na tentativa de convencer o tribunal de que ele se comportou de forma violenta em relação a ela.

Para lidar eficazmente com esses tipos de ameaças, a Europol disse que os órgãos da lei devem desenvolver novas habilidades e tecnologias. Isso inclui detecção manual, que envolve a procura de inconsistências, e técnicas de detecção automatizadas, incluindo software de detecção de deepfake usando inteligência artificial que está sendo desenvolvido por organizações como o Facebook e a empresa de segurança McAfee.

Os formuladores de políticas também precisam desenvolver mais legislação para definir diretrizes e impor a conformidade em torno do uso de deepfakes, acrescenta o relatório.

“Nos próximos meses e anos, é altamente provável que os agentes de ameaças façam uso crescente da tecnologia deepfake para facilitar vários atos criminosos e realizar campanhas de desinformação para influenciar ou distorcer a opinião pública. Os avanços em aprendizado de máquina e inteligência artificial continuarão aprimorando os recursos do software usado para criar deepfakes”, afirmam os pesquisadores.

Segundo eles, o aumento no uso de deepfakes exigirá que a legislação estabeleça diretrizes e imponha a conformidade. Além disso, as redes sociais e outros provedores de serviços online devem desempenhar um papel maior na identificação e remoção de conteúdo deepfake de suas plataformas. “À medida que o público se torna mais informado sobre deepfakes, haverá uma preocupação crescente em todo o mundo sobre seu impacto em indivíduos, comunidades e democracias”, dizem eles. Com agências de notícias internacionais.

Compartilhar: