Em resposta à crescente popularização do chatbot de inteligência artificial (IA) ChatGPT, o Europol Innovation Lab organizou uma série de workshops com especialistas no assunto de todas as unidades da agência da União Europeia para a cooperação policial, para explorar como os criminosos podem usar de modelos de linguagem ampla (LLMs) como os do ChatGPT, bem como como eles pode ajudar pesquisadores em seu trabalho diário.
As percepções do agentes foram compiladas no primeiro relatório Tech Watch Flash da Europol, publicado na segunda-feira, 27, intitulado “ChatGPT – o impacto de modelos de linguagem ampla na aplicação da lei”. O documento fornece uma visão geral sobre o potencial uso indevido do ChatGPT e oferece uma visão do que ainda pode estar por vir.
O objetivo do relatório, segundo a Europol, é aumentar a conscientização sobre o potencial uso indevido de LLMs, abrir um diálogo com empresas de IA para ajudá-las a criar melhores proteções e promover o desenvolvimento de sistemas de IA seguros e confiáveis. Uma versão mais ampla e aprofundada do relatório foi produzida apenas para os órgãos policiais.
Modelos de linguagem ampla, em sua essência, são ferramentas projetadas para executar uma variedade de tarefas de processamento de linguagem natural (NLP, na sigla em inglês) como resumir, prever e gerar texto. O treinamento de um LLM envolve fornecer grandes quantidades de dados, como livros, artigos e sites, para que ele possa aprender os padrões e as conexões entre as palavras para gerar novos conteúdos.
O ChatGPT é um LLM desenvolvido pela OpenAI e lançado como parte de uma prévia de pesquisa em novembro de 2022. O atual modelo acessível ao público subjacente ao ChatGPT é capaz de processar e gerar texto em resposta às solicitações do usuário. Especificamente, o modelo pode responder a perguntas sobre uma variedade de tópicos, traduzir texto, envolver-se em trocas de conversação (bate-papo), gerar novo conteúdo e produzir código funcional.
Como as capacidades de LLMs como as do ChatGPT estão sendo ativamente aprimoradas, a exploração potencial desses tipos de sistemas de IA por criminosos oferece uma perspectiva sombria, disse a Europol.
Veja isso
OpenAI diz que bug vazou dados sensíveis de usuário do ChatGPT
Versão falsa ChatGPT do Chrome rouba contas do Facebook
As três áreas de crime, listadas abaixo, estão entre as muitas áreas de preocupação identificadas pelos especialistas da Europol:
- Fraude e engenharia social: a capacidade do ChatGPT de redigir textos altamente realistas o torna uma ferramenta útil para fins de phishing. A capacidade dos LLMs de reproduzir padrões de linguagem pode ser usada para representar o estilo de fala de indivíduos ou grupos específicos. Essa capacidade pode ser explorada em grande escala para induzir vítimas em potencial a colocar sua confiança nas mãos de criminosos.
- Desinformação: o ChatGPT se destaca na produção de texto com som autêntico em velocidade e escala. Isso torna o modelo ideal para fins de propaganda e desinformação, pois permite aos usuários gerar e espalhar mensagens que refletem uma narrativa específica com relativamente pouco esforço.
- Cibercrime: Além de gerar linguagem semelhante à humana, o ChatGPT é capaz de produzir código em várias linguagens de programação diferentes. Para um potencial criminoso com pouco conhecimento técnico, este é um recurso inestimável para produzir códigos maliciosos.
À medida que a tecnologia avança e novos modelos se tornam disponíveis, será cada vez mais importante que as autoridades policiais permaneçam na vanguarda desses desenvolvimentos para antecipar e prevenir abusos, disse a Europol. Com agências de notícias internacionais.