União Europeia busca acordo para regulamentar uso da IA generativa

Da Redação
23/05/2023

O Parlamento da União Europeia (UE) definiu um primeiro rascunho para regulamentar o uso da inteligência artificial (IA) nos países-membros do bloco econômico. A Lei  da IA, como está sendo chamada, agora será discutida e aperfeiçoada com cada país individualmente. No final, deve haver um corpo legislativo em toda a UE para regular o uso de tecnologias de IA generativa, como o ChatGPT.

O rascunho procurou categorizar os sistemas de IA em classes de risco específicas, variando de mínimo a sistemas com alto risco e aqueles que devem ser totalmente banidos. E quando se trata de sistemas de IA que tomam decisões importantes para as pessoas, padrões especialmente elevados devem ser aplicados, particularmente à transparência dos dados que uma IA específica foi treinada para sua tomada de decisão e como os algoritmos funcionam para tomar decisões.

Dessa forma, os parlamentares da UE querem garantir que os aplicativos de IA funcionem de forma segura e confiável e não violem os direitos humanos fundamentais. Até que um conjunto final de regras esteja em vigor, porém, haverá uma quantidade inevitável de discussões dentro dos vários órgãos do bloco econômico, até porque não há consenso.

A Itália, por exemplo, adotou uma postura mais dura e baniu a ferramenta de IA generativa da Open AI, o ChatGPT, devido à falta de controle de idade para uso e possível violação de direitos autorais nos dados de treinamento. Mais recentemente, no entanto, as autoridades italianas permitiram o uso do ChatGPT novamente sob certas condições.

Outros países da UE também seguiram a iniciativa das autoridades italianas de proteção de dados. A Alemanha levantou que o ChatGPT deve ser banido se for provado que a ferramenta viola as regras de proteção de dados aplicáveis.

Demasiada regulamentação dificulta a inovação

Enquanto os defensores do consumidor pedem regras rígidas para proteger os direitos dos cidadãos, os representantes das empresas alertam que uma regulamentação excessivamente rígida da tecnologia pode levar a uma desaceleração da inovação. De acordo com os defensores de uma interpretação menos estrita da Lei da IA, a UE pode ficar para trás em uma importante indústria voltada para o futuro.

Em uma carta aberta, representantes da Rede Aberta de Inteligência Artificial em Grande Escala (Laion eV) pediram aos parlamentares da UE que moderem a regulamentação da IA para prosseguir. Segundo eles, a intenção de introduzir uma supervisão da IA é bem-vinda, mas ela deve ser cuidadosamente calibrada para proteger a pesquisa e o desenvolvimento e manter a competitividade da Europa no campo da IA. Os signatários incluem Bernhard Schölkopf, diretor do Instituto Max Planck para sistemas inteligentes em Tübingen, e Antonio Krüger, chefe do Centro Alemão de Pesquisa em Inteligência Artificial (DFKI).

A Laion quer que os modelos de IA de código aberto, em particular, não sejam excessivamente regulamentados. Os sistemas de código aberto normalmente permitem mais transparência e segurança quando se trata do uso de IA. Além disso, a IA de código aberto impediria que algumas corporações controlassem e dominassem a tecnologia. Dessa forma, a regulamentação moderada também pode ajudar a promover a soberania digital da Europa, segundo a rede.

Por outro lado, a Federação das Organizações Alemãs de Consumidores (VZBV) exige mais direitos para os consumidores. De acordo com uma declaração de defensores do consumidor, as decisões do consumidor serão cada vez mais influenciadas por sistemas de recomendação baseados em IA e, para reduzir os riscos de IA generativa, a planejada Lei Europeia de IA deve garantir fortes direitos do consumidor e a possibilidade de risco independente avaliação.

“O risco de que os sistemas de IA levem a recomendações de compra, classificações e informações do consumidor falsas ou manipuladoras é alto”, disse Ramona Pop, membro do conselho da VZBV, ao site CIO“A inteligência artificial nem sempre é tão inteligente quanto o nome sugere. “Deve ser garantido que os consumidores sejam adequadamente protegidos contra manipulação e engano, por exemplo, por meio de sistemas de recomendação controlados por IA. Cientistas independentes devem ter acesso aos sistemas para avaliar riscos e funcionalidade. Também precisamos de direitos individuais aplicáveis dos afetados contra Operadores de IA.”

O VZBV também acrescenta que as pessoas devem ter o direito de correção e exclusão se sistemas como o ChatGPT causarem desvantagens devido a danos à reputação, e que a Lei de IA deve garantir que os aplicativos de IA cumpram as leis europeias e correspondam aos valores europeus.

Autoavaliação dos fabricantes não é suficiente

Embora a Associação de Inspeção Técnica (TÜV) veja com bons olhos os esforços do parlamento da UE para chegar a um acordo sobre a Lei de IA, ela vê mais potencial para melhorias. “É necessária uma base legal clara para proteger as pessoas das consequências negativas da tecnologia e, ao mesmo tempo, promover o uso da IA nos negócios”, disse Joachim Bühler, MD da TÜV.

Bühler diz que deve ser garantido que as especificações também sejam observadas, principalmente no que diz respeito à transparência dos algoritmos. No entanto, uma revisão independente é apenas para uma pequena parte dos sistemas de IA com alto risco pretendido. “Os aplicativos de IA mais críticos, como reconhecimento facial, software de recrutamento ou verificações de crédito, devem continuar a ser lançados no mercado com uma autodeclaração pura do fabricante”, completou.

Além disso, Bühler defende que a classificação como aplicativo de alto risco deve ser baseada em parte em uma autoavaliação dos provedores. “Equívocos são inevitáveis”, acrescenta.

De acordo com a TÜV, seria melhor ter todos os sistemas de IA de alto risco testados independentemente antes do lançamento para garantir que os aplicativos atendam aos requisitos de segurança. “Isso é especialmente verdadeiro quando aplicativos de IA são usados em áreas críticas, como medicina, veículos, infraestrutura de energia ou em certas máquinas”, disse Bühler.

Veja isso
Popularização da IA generativa acelera planos de regulamentação
Pesquisador: ChatGPT é capaz de criar malwares indetectáveis

Enquanto as discussões sobre a regulamentação da IA estão em pleno andamento, em uma reunião em Takasaki, no Japão, no fim de abril, os ministros digitais do G7 se manifestaram a favor de acompanhar o rápido desenvolvimento da IA com regras e padrões internacionais claros, de acordo com uma declaração da Ministério Federal de Assuntos Digitais e Transportes (BMDV). “Nós do G7 concordamos que, quando se trata de regulamentar a IA, devemos agir rapidamente”, disse Volker Wissing, ministro dos Transportes e Infraestrutura Digital da Alemanha.

Ele observou que a IA generativa tem imenso potencial para aumentar nossa produtividade e tornar nossas vidas melhores. “É ainda mais importante que as grandes democracias liderem o caminho e acompanhem seu desenvolvimento com regras inteligentes que protejam as pessoas de abuso e manipulação. A Inteligência Artificial deve nos servir, não manipular”, disse Wissing à CIO.

Após o acordo no parlamento da UE, as negociações entre o conselho, o parlamento e a comissão devem começar no final de junho. No entanto, ninguém sabe quando um conjunto final de regras pode ser implementado e convertido em lei aplicável. Também é questionável se o rápido desenvolvimento tecnológico da IA suplantará as tentativas de regulamentação da tecnologia.

Compartilhar: