Grupos da sociedade civil estão pressionado legisladores da União Europeia (EU) para que proíbam os sistemas de policiamento preditivo com inteligência artificial (IA), argumentando que eles visam desproporcionalmente os mais marginalizados da sociedade, além de infringirem direitos fundamentais e reforçarem a discriminação estrutural.
Em uma carta aberta às instituições da UE — que atualmente está tentando regulamentar o uso da IA por meio da Lei de Inteligência Artificial (AIA) do bloco —, 38 organizações da sociedade civil disseram que o uso crescente de sistemas automatizados de tomada de decisão para prever, traçar perfis ou avaliar a probabilidade de comportamento criminoso apresenta um “risco inaceitável” para os direitos fundamentais das pessoas. Segundo as organizações, isso inclui o direito a um julgamento justo e a presunção de inocência, o direito à vida privada e familiar e vários direitos de proteção de dados.
O grupo, liderado pela Fair Trials and European Digital Rights (EDRi), disse que “essas previsões, perfis e avaliações de risco, realizadas contra indivíduos, grupos e áreas ou locais, podem influenciar, informar ou resultar em ações de policiamento e justiça criminal, incluindo busca e apreensão, multas, interrogatórios e outras formas de controle policial”.
O grupo acrescenta ainda que, como os dados usados para criar, treinar e operar sistemas de policiamento preditivo de IA muitas vezes refletem vieses estruturais históricos e desigualdades na sociedade, sua implantação “resultará em pessoas, comunidades e áreas geográficas sendo superpoliciadas e desproporcionalmente vigiadas, interrogadas, detidas e encarceradas em toda a Europa.”
Veja isso
Tim Berners-Lee lança versão enterprise de projeto de privacidade
Bruce Schneier refaz alerta sobre tecnologia, segurança e privacidade
O diretor jurídico e de políticas da Fair Trials, Griff Ferris, disse que “a única maneira de proteger as pessoas desses danos e outras violações de direitos fundamentais é proibir seu uso”. A Fair Trials já havia pedido a proibição total do uso de IA e sistemas automatizados para “prever” comportamento criminoso em setembro de 2021.
Atualmente, a AIA lista quatro práticas consideradas “um risco inaceitável” e, portanto, proibidas, incluindo sistemas que distorcem o comportamento humano; sistemas que exploram as vulnerabilidades de grupos sociais específicos; sistemas que fornecem “pontuação” de indivíduos; e a identificação biométrica remota e em tempo real de pessoas em locais públicos.
No entanto, críticos disseram anteriormente à Computer Weekly que, embora a proposta forneça uma “ampla proibição horizontal” dessas práticas de IA, tais usos ainda são permitidos em um contexto de aplicação da lei e são “proibidos apenas na medida em que criam danos físicos ou psicológicos”.
Em sua carta, publicada em 1º de março, os grupos da sociedade civil pedem explicitamente que os sistemas de policiamento preditivo sejam incluídos nesta lista de práticas proibidas de IA, contida no artigo 5 da AIA.