Apple Inc

Apple usa recurso de machine learning para proteger crianças

Emprego da tecnologia, segundo a empresa, tem como objetivo proteger crianças da exposição a materiais de abuso infantil, incluindo pornografia infantil
Da Redação
10/08/2021
Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest

A gigante da tecnologia Apple anunciou uma série de medidas de segurança baseadas no aprendizado de máquina que tem como objetivo proteger as crianças da exposição a materiais de abuso infantil, incluindo pornografia infantil. 

O primeiro deles é um novo recurso de segurança de comunicação no aplicativo de mensagens da Apple, no qual um aviso aparecerá quando uma criança que faz parte do iCloud Family receber ou tentar enviar fotos sexualmente explícitas ou de pornografia. O iCloud Family é o serviço de nuvem da empresa que pode ser compartilhado por pessoas da mesma família para armazenamento de dados, incluindo álbum de fotos.

Todas as imagens recebidas por crianças ficarão desfocadas e aparecerá uma mensagem dizendo: “pode ser sensível”. Se a criança tocar em “ver foto”, uma mensagem em forma de pop-up explicará que, se ela decidir ver a imagem, o pai e mãe receberá uma notificação. O pop-up também conterá um link para receber ajuda adicional. Um sistema semelhante foi criado para fotos sexualmente explícitas que uma criança tenta enviar.

Um sistema de aprendizado de máquina no dispositivo analisará os anexos da imagem para determinar se uma foto é sexualmente explícita. A Apple também confirmou que o iMessage permanece criptografado de ponta a ponta e que não terá acesso a nenhuma das mensagens.

O recurso opt-in será lançado ainda neste ano para contas configuradas como Family no iCloud para iOS 15, iPadOS 15 e macOS Monterey, começando pelo Estados Unidos.

A outra medida permite que a Apple detecte material de abuso sexual infantil armazenado no álbum de fotos do iCloud. O sistema faz uma primeira varredura no material e caso detecte tratar-se de foto de abuso sexual infantil um funcionário analisará o material e, se confirmado, encaminhará ao Centro Nacional de Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês). 

A nova tecnologia será usada no iOS e no iPadOS e fará a correspondência das imagens que estão no dispositivo com banco de dados de hashes de fotos de abuso sexual infantil conhecidas fornecidos pelo NCMEC. Esse banco de dados é então transformado em um conjunto ilegível de hashes armazenado com segurança nos dispositivos dos usuários.

A Apple explicou que o processo de correspondência é alimentado por uma tecnologia criptográfica chamada interseção de conjuntos privados, que determina se há uma correspondência sem revelar o resultado. Além disso, existe uma tecnologia diferente, chamada de compartilhamento secreto de limite, que visa salvaguardar a privacidade do usuário, garantindo que o conteúdo dos vouchers de segurança não possa ser interpretado pela Apple, a menos que a conta do iCloud Photos ultrapasse um limite de conteúdo.

Veja isso
Apple corrige falha que permite quebra do Wi-Fi do iPhone
Apple corrige três zero days de uma vez: no iOS, iPadOS e tvOS

A empresa declarou ainda que a nova tecnologia permite que a Apple forneça informações valiosas e acionáveis ​​ao NCMEC e aos órgãos de aplicação da lei sobre a proliferação de material de abuso sexual infantil conhecido.

A terceira novidade anunciada é a criação de um recurso na assistente virtual Siri e no Search que oferece conselhos para crianças e pais sobre como se manterem seguros online. Além disso, a Apple atualizará a Siri e o Search para intervir quando os usuários realizarem pesquisas relacionadas material de abuso sexual infantil. “Essas intervenções explicarão aos usuários que o interesse nesse tópico é prejudicial e problemático e fornecerão recursos de parceiros para obter ajuda com esse problema”, disse a empresa.

Os recursos, segundo a Apple, serão lançados ainda neste ano “em uma atualização para iOS 15, iPadOS 15, watchOS 8 e macOS Monterey”.Os defensores da privacidade demonstram preocupação com a incorporação do aprendizado de máquina a esses novos recursos. Eles alegam que, embora sejam a favor de reprimir o abuso infantil e a pornografia infantil, há preocupações em relação à violação da privacidade. Segundo eles, a tecnologia pode ser empregada por governos para usar fotos tiradas em manifestações e outros tipos de reuniões para reprimir a liberdade de expressão e o ativismo de opositores. Com agências de notícias internacionais.

Compartilhar:

Compartilhar no linkedin
Compartilhar no email
Compartilhar no whatsapp
Compartilhar no facebook
Compartilhar no twitter
Compartilhar no pinterest