Itália bloqueia temporariamente o ChatGPT por ferir privacidade

Da Redação
02/04/2023

A Itália bloqueou temporariamente o chatbot de inteligência artificial ChatGPT em razão de uma violação de dados. A Autoridade Italiana de Proteção de Dados disse que o bloqueio irá perdurar até as investigações concluírem se a violação infringiu as regras de proteção de dados da União Europeia.

O órgão regulador da privacidade do governo italiano disse na sexta-feira, 31 de março, que estava tomando medidas provisórias “até que o ChatGPT respeite a privacidade”, incluindo limitar temporariamente a empresa de processar dados de usuários italianos.

A OpenAI, com sede nos EUA, que desenvolveu o chatbot, disse na noite de sexta-feira que desativou o ChatGPT para usuários italianos a pedido do governo. A empresa disse acreditar que suas práticas cumprem as leis de privacidade europeias e espera disponibilizar o ChatGPT novamente em breve.

Embora algumas escolas e universidades públicas em todo o mundo tenham bloqueado o ChatGPT de suas redes locais para evitar que estudantes plageiem obras para realização de trabalhos escolares, a ação da Itália é “a primeira restrição em escala nacional de uma plataforma de IA convencional feita por uma democracia”, disse Alp Toker, diretor do grupo de defesa NetBlocks, que monitora o acesso à internet em todo o mundo.

A restrição afeta a versão web do ChatGPT, popularmente usado como assistente de redação, mas é improvável que afete os aplicativos de software de empresas que já possuem licenças com OpenAI para usar a mesma tecnologia do chatbot, como o mecanismo de busca Bing da Microsoft.

Os sistemas de IA que alimentam esses chatbots, conhecidos como grandes modelos de linguagem (LLMs, na sigla em inglês), são capazes de imitar estilos de escrita humana com base no enorme tesouro de livros digitais e escritos online que eles absorveram.

O órgão regulador italiano disse que a OpenAI deve relatar em 20 dias quais medidas foram tomadas para garantir a privacidade dos dados dos usuários ou enfrentará uma multa de até €  20 milhões (cerca de US$ 22 milhões) ou 4% da sua receita global anual.

A declaração da agência cita o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia e apontou para uma recente violação de dados envolvendo as “conversas dos usuários” do ChatGPT e informações sobre pagamentos de assinantes.

A OpenAI anunciou anteriormente que precisava colocar o ChatGPT offline em 20 de março para corrigir um bug que permitia que algumas pessoas vissem os títulos ou linhas de assunto do histórico de bate-papo de outros usuários.

“Nossa investigação também descobriu que 1,2% dos usuários do ChatGPT Plus podem ter dados pessoais revelados a outro usuário”, disse a empresa. “Acreditamos que o número de usuários cujos dados foram realmente revelados a outra pessoa é extremamente baixo e entramos em contato com aqueles que podem ser afetados.”

O órgão regulador da privacidade da Itália, conhecido como Garante, também questionou se a OpenAI tinha justificativa legal para sua “coleta e processamento maciço de dados pessoais” usados para treinar os algoritmos da plataforma. E disse que o ChatGPT às vezes pode gerar — e armazenar — informações falsas sobre indivíduos.

Por fim, observou que não há sistema para verificar a idade dos usuários, expondo as crianças a respostas “absolutamente inadequadas para sua idade e conhecimento”.

Veja isso
Europol alerta para possíveis usos criminosos do ChatGPT
OpenAI diz que bug vazou dados sensíveis de usuário do ChatGPT

A OpenAI disse em resposta que funciona “para reduzir os dados pessoais no treinamento de nossos sistemas de IA, como o ChatGPT, porque queremos que nossa IA aprenda sobre o mundo, não sobre indivíduos em particular”. “Também acreditamos que a regulamentação da IA é necessária — por isso esperamos trabalhar em estreita colaboração com o Garante e educá-los sobre como nossos sistemas são construídos e usados”, finalizou a empresa.

A ação do órgão regulador da privacidade italiano ocorre em um momento em que crescem as preocupações no mundo com o boom da inteligência artificial.

Um grupo de cientistas e líderes da indústria de tecnologia publicou uma carta na quarta-feira passada, 29 de março, pedindo que empresas como a OpenAI parem o desenvolvimento de modelos de IA mais poderosos até o outono para dar tempo para a sociedade avaliar os riscos. Com agências de notícias internacionais.

Compartilhar: