Popularização da IA generativa acelera planos de regulamentação

Da Redação
21/05/2023

A explosão recente do uso de ferramentas de inteligência artificial (IA) generativas, impulsionado pelo lançamento de assistentes virtuais inteligentes no formato de chatbot online, como o ChatGPT, da OpenAI, e o Stable AI, da Stable Diffusion, tem levado vários países a acelerem os planos de regulamentação da tecnologia. As discussões e as preocupações em torno da popularização que o próprio CEO da OpenAI, Sam Altman, chegou a defender a criação de uma agência de licenciamento para empresas de IA em audiência em um comitê do Senado dos EUA na terça-feira passada,16.

Um dos temores que tem impulsionado os planos de regulamentação é o fato de as ferramentas de IA estarem sendo cada vez mais usadas para fins maliciosos e quebra de privacidade de dados. Juntamente com a privacidade, a explosão de ferramentas de IA generativas também trouxe à tona muitas preocupações com a segurança.

A audiência de Altman no Senado americano ocorre dois meses depois de o ChatGPT ter sido proibido temporariamente na Itália pela agência de proteção de dados do país. Por trás da proibição estava uma reclamação apontada pelo GPDP (Garante per la Protezione dei Dati Personali) sobre a ausência de base legal para justificar “a coleta e armazenamento em massa de dados pessoais com o objetivo de “treinar” os algoritmos subjacentes à operação [do ChatGPT].

Embora a OpenAI tenha retomado seus serviços em 28 de abril após a implementação de divulgações e controles adicionais de privacidade, o ChatGPT agora está sendo investigado por outras autoridades de proteção de dados, incluindo o Comissário de Privacidade do Canadá e o Conselho Europeu de Proteção de Dados, sendo que este último lançou uma força-tarefa dedicada a averiguar a OpenAI. 

Um outro temor é que essas ferramentas possam espalhar desinformação ao vasculhar a internet indiscriminadamente para construir os modelos de IA. Isso levou a Autoridade de Concorrência e Mercados (CMA) do Reino Unido a lançar uma revisão do mercado de IA no dia 4 deste mês.

Além disso, as ferramentas generativas de IA são capazes de fornecer conteúdo de aparência legítima, principalmente texto e imagens, que foram aproveitados para fins maliciosos, gerando malware, falsificações profundas, receitas de fabricação de drogas e kits de phishing. É possível hackear as restrições dentro do sistema usando prompts criativos projetados para contornar as regras e proteções implementadas pelos desenvolvedores — uma prática chamada ‘jailbreaking’.

A regulamentação da IA já está em andamento há vários anos em alguns países. Por exemplo, a Lei de IA da União Europeia (UE) foi introduzida em abril de 2021 e a Lei de IA e Dados do Canadá em junho de 2022. O último rascunho do regulamento da UE, aprovado pelo Comitê do Mercado Interno e pelo Comitê de Liberdades Civis no dia 11 passado, mostrou que a adoção de modelos generativos de IA já influenciou o texto.

Além das propostas iniciais, que giram em torno da adição de salvaguardas à exploração de dados biométricos, sistemas de vigilância em massa e algoritmos de policiamento, o rascunho atualizado introduziu novas medidas para controlar os “modelos fundamentais”. De acordo com a legislação proposta, os “modelos de IA de uso geral” seriam classificados em quatro categorias com base em seu nível de risco: risco baixo e mínimo, risco limitado, alto risco e risco inaceitável. 

A primeira categoria não seria regulamentada e os desenvolvedores de modelos de IA com risco limitado precisariam apenas ser transparentes em como funcionam. Os modelos de IA de alto risco, no entanto, seriam altamente regulamentados. Isso inclui a criação de um banco de dados de sistemas de IA de uso geral e de alto risco para explicar onde, quando e como eles estão sendo implantados na UE.

“Esta base de dados deve ser livre e publicamente acessível, facilmente compreensível e legível por máquina. Também deve ser amigável e facilmente navegável, com funcionalidades de pesquisa no mínimo, permitindo que o público em geral pesquise no banco de dados sistemas específicos de alto risco, locais, categorias de risco [e] palavras-chave”, diz o rascunho. Esse rascunho foi elogiado pelo grupo de defesa dos direitos digitais European Digital Rights e pela ONG Access Now, que o chamou de “uma vitória para os direitos fundamentais”.

Mas não se sabe sobre a existência de legislação equivalente do Canadá, o AI and Data Act, parte do projeto de lei federal C-27 para a implementação da Carta Digital. De acordo com um documento complementar publicado em março, no entanto, parece que a estratégia do país será diferente da abordagem da UE, pois não proíbe o uso de ferramentas automatizadas de tomada de decisão, mesmo em áreas críticas. Em vez disso, de acordo com a regulamentação do Canadá, os desenvolvedores teriam que criar um plano de mitigação para reduzir os riscos e aumentar a transparência ao usar IA em sistemas de alto risco.

Veja isso
Meta alerta usuários sobre malwares disfarçados de ChatGPT
Setor de segurança testa ChatGPT para integrá-lo a produtos

Nos EUA, o governo ainda não aprovou uma legislação federal que regule todos os aplicativos de IA. Em vez disso, a administração Biden e algumas agências federais publicaram orientações não vinculativas, incluindo o plano de outubro de 2022 para uma declaração de direitos de IA, que aborda preocupações sobre o uso indevido de IA e fornece recomendações para o uso seguro de ferramentas de IA nos setores público e privado, e o AI Risk Management Framework 1.0 do Instituto Nacional de Padrões e Tecnologia (NIST), lançado em janeiro.

Com o aumento do uso da IA generativa — e o uso indevido — as organizações de defesa da privacidade e da segurança pedem cada vez mais que o governo dos EUA aja. O Center for AI and Digital Policy, por exemplo, apresentou uma reclamação em março instando a Federal Trade Commission (FTC) dos EUA a impedir que a OpenAI lançasse novas versões comerciais além de sua iteração atual, GPT-4, e garantir o estabelecimento das proteções necessárias para proteger consumidores, empresas e o mercado comercial.

Muitos outros países, incluindo Reino Unido, China e Cingapura, ainda não anunciaram nenhuma legislação de governança de IA semelhante a AI Act da UE e à AI & Data Act do Canadá, de acordo com o Data Protection and Fairness in AI-Driven Automated Data Processing Applications, um órgão regulador visão geral publicada pela Onetrust este mês. O governo do Reino Unido havia dito em março que estava adotando “uma abordagem pró-inovação para a regulamentação da IA” e anunciou em abril que investiria £ 100 milhões (US$ 125 milhões) para lançar uma força-tarefa de Modelo de Fundação, que, espera-se, ajudará a estimular o desenvolvimento de sistemas de IA que podem impulsionar o PIB do país. Com agências de notícias internacionais.

Compartilhar: