O NIST, Instituto Nacional de Padrões e Tecnologia dos EUA, anunciou o lançamento de um novo programa com a finalidade de avaliar a segurança e a confiabilidade da inteligência artificial. Chamado de ARIA (Avaliando Riscos e Impactos da IA), seu objetivo é ajudar organizações e indivíduos a compreender o quão segura e eficaz será uma determinada tecnologia de IA após a sua implementação. O projeto está sendo implementado em conjunto com o AI Security Institute.
Veja isso
União Europeia aprova lei histórica sobre inteligência artificial
NIST publicará algoritmos pós-quânticos em semanas
O ARIA surgiu como uma resposta à ordem executiva do presidente Biden sobre segurança de IA, assinada em 2021. O projeto visa a criar um ecossistema seguro e justo para o desenvolvimento e aplicação de redes neurais avançadas. O principal objetivo da ordem executiva é garantir que as novas tecnologias beneficiem a sociedade e não criem ameaças.
Ela foi elaborada a partir de diversas consultas a especialistas da área de tecnologia, direito, bem como representantes de empresas e da sociedade civil. Estabelece os princípios básicos que os criadores e utilizadores de IA devem seguir: transparência, segurança, proteção de dados e justiça.
“Para compreender totalmente o impacto da IA na nossa sociedade, devemos testá-la em ambientes do mundo real – e é isso que o programa ARIA faz”, disse a Secretária de Comércio dos EUA, Gina Raimondo. Ela observou que a iniciativa faz parte dos esforços do Departamento de Comércio para implementar a ordem executiva de Biden.
Os participantes do ARIA avaliarão o desempenho das tecnologias em uma variedade de cenários do mundo real, não apenas em condições de laboratório. Isso permitirá que se identifiquem possíveis consequências negativas em um estágio inicial. Laurie E. Locascio, diretora do NIST, enfatizou que o ARIA apoiará o trabalho do Instituto dos EUA para Segurança de IA e expandirá o envolvimento do NIST com a comunidade científica.
Em janeiro de 2023, o NIST divulgou um documento chamado AI Risk Management Framework , que se tornou a base do programa ARIA. O documento descreve como utilizar métodos quantitativos e qualitativos para analisar e monitorizar os perigos do mundo moderno. A ARIA desenvolverá novas metodologias e métricas para avaliar o desempenho dos sistemas de IA em diferentes contextos sociais.
Os resultados da pesquisa ARIA ajudarão o NIST e o Instituto de Segurança de IA dos EUA a criar sistemas confiáveis, garantindo proteção e privacidade completas aos usuários.