Site gera imagens de pessoas que não existem

Poucas vezes a tecnologia me deixou em choque. Mas hoje me deixou: imagens de pessoas MUITO REAIS são criadas instantaneamente por inteligência artificial. Você acessa https://thispersondoesnotexist.com
e aparece a imagem de uma pessoa. Cada vez que você dá refresh na página aparece outra. Ver um vídeo de uma imagem fake é uma coisa. Mas quando você mesmo consegue gerar uma, é chocante.
As imagens são criadas por ‘redes adversárias’, do mesmo modo que criaram falsos Obamas e falsos Trumps para vídeos. São imagens de pessoas que não existem e nunca existirão. O site foi criado por Philip Wang, que é engenheiro de software da Uber, usando inteligência artificial, aprendizado de máquina e modelos pré-concebidos de um projeto de Pesquisa da NVIDIA.

A rede adversária em uso é a StyleGAN, desenvolvida nesse projeto, e que foi treinada pela durante uma semana usando GPUs 8 Tesla V100, de acordo com explicação do especialista Rani Horev, da própria NVIDIA. Embora os resultados sejam impressionantes, às vezes a face gerada contém imperfeições e quebram a simetria. A StyleGAN pode ser treinada para trabalhar com qualquer coisa, sejam fontes gráficas, desenhos, imagens de gatos.

O vídeo abaixo mostra como a StyleGAN opera para gerar esses rostos falsos de pessoas que nunca existiram. Agora, pense no que os golpistas de redes sociais e outros bandidos conseguirão fazer com isso.

 

IA vem com tudo nos ataques de 2019

 

Se você é especialista da área de segurança e acha que já viu de tudo, não viu não. Principalmente o que está prometido para os ciberataques de 2019. Tem por exemplo um negócio que a Avast apontou no relatório anual sobre o cenário de ameaças, então que é ‘o bicho’. É o ‘deep attack’, baseado em rede neural adversária. O que o relatório diz sobre esse assunto é o seguinte:

[box type=”tick”]Prevemos o surgimento de uma classe de ataques conhecida como “DeepAttacks”, a qual usa conteúdo gerado por inteligência artificial para escapar dos controles de segurança da IA. Em 2018, a equipe do Laboratório de Ameaças da Avast observou muitos exemplos nos quais os pesquisadores usavam algoritmos de inteligência artificial adversária para enganar humanos. Os exemplos incluem um falso vídeo do Obama criado pelo Buzzfeed, onde o presidente é visto transmitindo frases falsas de maneira convincente. Também vimos casos de Inteligência Artificial adversária que deliberadamente confundiram os mais inteligentes algoritmos de detecção de objetos. Por exemplo, enganando um algoritmo para fazê-lo pensar que um sinal de Pare indicava um limite de velocidade de 70 km/h. Em 2019, prevemos um aumento na implantação de DeepAttacks em tentativas de evitar a detecção humana e as defesas inteligentes.[/box]

O Ciso Advisor perguntou à Avast como isso acontecerá na detecção de malwares e a resposta de Ondrej Vlcek, presidente da Área de Consumidor da Avast foi a seguinte: “Os DeepAttacks podem ser usados para adaptar automaticamente um site genérico de phishing para outro de uma determinada marca, com base no aprendizado daquele estilo visual – daquela marca – obtido a partir de uma página inicial legítima”. Isso quer dizer que a página pode se reconfigurar automaticamente, como um camaleão que muda de cor. Ou como o robô do Exterminador do Futuro, que assume a forma que quiser a qualquer momento.

Outro perigo, informou a Avast, é a criação de nomes de domínio maliciosos para as operações de phishing. “Em geral, nomes de domínio maliciosos gerados por DGAs (Algoritmos de Geração de Domínio). Eles fazem isso juntando palavras, como no caso das inglesas, criando por exemplo bluefieldcows.com. Há alguns anos as equipes de segurança já incluem algoritmos de detecção de DGA em suas defesas inteligentes. Mas agora os DeepAttacks podem gerar nomes de domínio inteligentes e adaptáveis que evitam os detectores DGA”.

Mas não é só isso. Os DeepAttacks também podem ser usados para gerar tráfego de rede com botnets, usando uma AI treinada com os firewalls e IDS conhecidos para evitar a detecção, informa a Avast. “E esses algoritmos de inteligência artificial adversária podem ser treinados para injetar código supérfluo em uma amostra de malware, até que ela não seja mais detectável pelos antivírus. Assim, a metodologia DeepAttack permite que um mau ator monte um ataque usando esse malware agora indetectável, para ter um impacto muito mais significativo”.

Para completar, o povo da Avast avisa que tem mais três grandes perigos este ano:

  • As ameaças de IoT vão ficar bem mais sofisticadas
  • O número de ataques a roteadores vai aumentar
  • O número de ameaças a dispositivos móveis IDEM

 

Inteligência artificial derruba o captcha

Cientistas da computação da Lancaster University no Reino Unido, da Northwest University dos EUA e da Universidade de Pequim, na China, desenvolveram um método capaz de quebrar a segurança do captcha onde sistemas de ataque anteriores falharam. O programa foi testado em 33 versões de captcha, dos quais 11 são usados por muitos dos sites mais populares do mundo – incluindo eBay, Wikipedia e Microsoft.

A solução pode resolver um captcha em 0,05 segundo usando apenas um PC desktop. Ela funciona usando a “Generative Adversarial Network”, ou GAN – a mesma tecnologia utilizada no desenvolvimento de ‘deep fakes’, aqueles vídeos que parecem mesmo realidade. Para isso é preciso ensinar um programa de geração de captcha a produzir um grande número de captchas para o treinamento. A solução aprende e depois é testada contra captchas reais.

A solução oferece precisão maior do que os sistemas de ataque captcha anteriores. A solução é baseada em inteligência artificial e pode significar o fim de um dos sistemas mais utilizados para a segurança de sites, formulários e outras páginas onde existem campos e recursos para o envio delas ao servidor.

Captchas baseados em texto usam um amontoado de letras e números, juntamente com outros recursos de segurança como linhas e sombras que atrapalham a visibilidade, para separar humanos de robôs e scripts maliciosos. O segredo é que as pessoas acham fácil decifrar os caracteres.

Usando um captcha gerador automático os pesquisadores conseguem reduzir muito o esforço e o tempo necessários para ‘treinar’ o software. São necessários apenas 500 captchas do gerador automático, ao invés dos milhões que normalmente seriam necessários para treinar um programa de ataque.

O documento com a pesquisa da Universidade de Lancaster está em 

http://www.lancaster.ac.uk/staff/wangz3/publications/ccs18.pdf