artificial-intelligence-3382507_1280.jpg

IA vem sendo cada vez mais usada em ciberataques, alerta ONU

Crime organizado intensifica uso da inteligência artificial para aprimorar técnicas de ataque cibernético, diz estudo das Nações Unidas
Da Redação
27/11/2020
Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest

Grupos do crime organizado têm incorporado rapidamente novas tecnologias a seus modus operandi, em especial a inteligência artificial (IA) e o aprendizado de máquina, de acordo com um novo relatório conjunto da Europol e do Centro Interregional de Pesquisa de Justiça e Crime da Organização das Nações Unidas (ONU).

O relatório diz que, como os sistemas de inteligência artificial usam o aprendizado de máquina para que possam automatizar tarefas cada vez mais complexas que, no passado, exigiam informações humanas, estão sendo cada vez mais incorporados a esquemas maliciosos, alerta o documento.  “As técnicas de ataque cibernético suportadas ou aprimoradas pela inteligência artificial que foram estudadas são prova de que os criminosos já estão tomando medidas para ampliar o seu uso de”, diz um trecho do relatório. Um exemplo seriam os e-mails de phishing gerados por procedimentos projetados para contornar os filtros de spam.

Apesar da proliferação de novas e poderosas tecnologias, o maior trunfo de um cibercriminoso ainda é a propensão para o erro humano. Não é à toa que os tipos mais comuns de golpes cibernéticos têm como base a chamada engenharia social, ou seja, aproveitam-se da empatia, da confiança ou da ingenuidade das pessoas.

Embora no passado os golpes de engenharia social precisassem ser feitos sob medida para alvos ou públicos específicos, por meio da inteligência artificial eles podem ser implantados em massa e usar o aprendizado de máquina para se adequar a novos públicos.

Veja isso
IA pode ser usada para hackear drones e veículos não tripulados
Inteligência artificial derruba o captcha

“Infelizmente, os criminosos já têm experiência suficiente e exemplos de textos para desenvolver suas operações”, diz o relatório. Um golpista inovador pode, por exemplo, introduzir sistemas de IA para automatizar e acelerar a taxa de detecção na qual as vítimas entram ou saem do golpe. Isso permite que se concentrem apenas nas vítimas em potencial mais fáceis de enganar. Qualquer que seja a falsa pretensão que um golpista escolha para persuadir o alvo a participar, um algoritmo de aprendizado de máquina seria capaz de antecipar as respostas mais comuns de um alvo, explica o relatório.

O mais assustador de tudo, entretanto, é o conceito das chamadas “deepfakes”. Por meio de deepfakes, com pouco material de origem, o aprendizado de máquina pode ser usado para gerar rostos humanos ou vozes incrivelmente realistas e inseri-los em qualquer vídeo.

“A tecnologia é uma arma poderosa nas guerras de desinformação atuais, em que não se pode mais confiar no que se vê ou ouve”, diz o relatório. “Um efeito colateral do uso de deepfakes para desinformação é a diminuição da confiança dos cidadãos na autoridade e na mídia profissional.”

Inundadas com cada vez mais spam gerado pela IA e notícias falsas baseadas em textos preconceituosos, vídeos falsos e uma infinidade de teorias da conspiração, as pessoas podem deduzir que uma quantidade considerável de informações, incluindo vídeos, simplesmente não é confiável. O resultado é um fenômeno denominado como ‘apocalipse da informação’ ou ‘apatia da realidade’, diz o documento.

Um dos usos mais infames de deepfake tem sido sobrepor os rostos de mulheres em vídeos pornográficos.

Compartilhar:

Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest

Inscrição na lista CISO Advisor

* campo obrigatório