O Centro Europeu de Direitos Digitais (Noyb), com sede em Viena, na Áustria, apresentou uma queixa contra a OpenAI à Autoridade de Proteção de Dados (DSB) do país. A ONG austríaca de proteção à privacidade online acusa a empresa de inteligência artificial (IA) de não garantir a veracidade dos dados pessoais fornecidos pelo ChatGPT, segundo comunicado publicado nesta segunda-feira, 29.
O Noyb disse que a OpenAI está ciente de que seu chatbot baseado em IA fornece aos usuários informações pessoais falsas há meses, mas não conseguiu resolver o problema. “A OpenAI admite abertamente que não é capaz de corrigir informações incorretas no ChatGPT. Além disso, a empresa não pode dizer de onde vêm os dados ou quais dados o ChatGPT armazena sobre as pessoas”, diz a ONG. “A empresa está bem ciente desse problema, mas não parece se importar. Em vez disso, a OpenAI simplesmente argumenta que ‘a precisão factual em grandes modelos de linguagem (LLMs) continua sendo uma área de pesquisa ativa’”.
A Noyb afirmou que essas falhas significam que a OpenAI está violando o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia. Em sua reclamação, a ONG solicitou ao DSB que investigue o processamento de dados da OpenAI e as medidas tomadas para garantir a precisão dos dados pessoais processados no contexto do ChatGPT; force a empresa de IA a cumprir a solicitação de acesso do reclamante e alinhar seu processamento com o GDPR e aplique uma multa para garantir conformidade futura.
“É claro que as empresas atualmente não conseguem fazer com que chatbots como o ChatGPT cumpram a legislação da União Europeia, ao processar dados sobre indivíduos, se um sistema não puder produzir resultados precisos e transparentes. , não pode ser utilizada para gerar dados sobre pessoas físicas. A tecnologia tem que seguir os requisitos legais, e não o contrário”, comentou Maartje de Graaf, advogado de proteção de dados do Noyb.
O Noyb explicou que embora informações imprecisas possam ser toleráveis para determinados usos — quando um aluno usa o ChatGPT para ajudá-lo com os trabalhos de casa, por exemplo — torna-se ilegal quando os dados incorretos são informações pessoais. “Desde 1995, a legislação da União Europeia exige que os dados pessoais sejam precisos. Atualmente, isso está consagrado no artigo 5 do GDPR”, argumentou a ONG.
Veja isso
Relatório vincula ChatGPT a aumento de e-mails de phishing
Código-fonte responde por parte dos dados postados no ChatGPT
Além disso, o artigo 16 do GDPR concede aos cidadãos da UE o direito de retificação se os dados forem imprecisos. Eles também podem solicitar a exclusão de informações falsas. Finalmente, ao abrigo do “direito de acesso” previsto no artigo 15 do GDPR, as empresas devem ser capazes de demonstrar quais os dados que detêm sobre os indivíduos e quais são as fontes.
O Noyb citou o exemplo de uma figura pública que exigiu repetidamente que a OpenAI retificasse ou apagasse a data de nascimento falsa que o ChatGPT forneceu sobre ele, mas seus esforços foram em vão. “É claramente possível manter registos dos dados de formação que foram utilizados, pelo menos ter uma ideia sobre as fontes de informação. Parece que a cada ‘inovação’, outro grupo de empresas pensa que os seus produtos não têm de estar em conformidade com os requisitos da lei”, disse De Graaf.
Os esforços anteriores de várias autoridades de proteção de dados da UE foram “infrutíferos”, observou Noyb.Para acessar a queixa feita ao DSB pelo Noyb (o senão é que está em alemão austríaco) contra a OpenAI clicando aqui. Para acessar o press release (em inglês) no qual a ONG acusa a OpenAI clique aqui.