OpenAI cria plano para combater a desinformação nas eleições

Com a expectativa de que eleições ocorram em mais de 50 países em 2024, a ameaça da desinformação estará no topo das preocupações
Da Redação
19/01/2024

OpenAI, desenvolvedora do chatbot de inteligência artificial ChatGPT e do gerador de imagens DALL-E, anunciou novas medidas para prevenir abusos e desinformação antes das eleições deste ano nos EUA e em todo o mundo, que valem, inclusive, para os pleitos municipais em outubro no Brasil.

Num post de segunda-feira, 15, a empresa anunciou que estava colaborando com a Associação Nacional de Secretários de Estado (NASS), a mais antiga organização profissional apartidária para funcionários públicos dos EUA, para evitar o uso do ChatGPT para desinformação antes da eleição presidencial dos EUA em novembro.

Por exemplo, quando questionados sobre a eleição, como onde votar, o chatbot da OpenAI direcionará os usuários para CanIVote.org, o site oficial sobre informações de votação nos EUA. “As lições deste trabalho informarão a nossa abordagem noutros países e regiões”, acrescentou a empresa.

Com a expectativa de que eleições ocorram em mais de 50 países em 2024, a ameaça da desinformação estará no topo das preocupações.

Em um comunicado em seu site, a OpenAI disse que “à medida que nos preparamos para as eleições em 2024 nas maiores democracias do mundo, a nossa abordagem é continuar o nosso trabalho de segurança da plataforma, elevando informações precisas sobre votação, aplicando políticas ponderadas e melhorando a transparência. Temos um esforço multifuncional dedicado ao trabalho eleitoral, reunindo conhecimentos de nossos sistemas de segurança, inteligência de ameaças, equipes jurídicas, de engenharia e políticas para investigar e resolver rapidamente possíveis abusos”.

Veja isso
Deepfakes já são vistas nos EUA como ameaças graves às eleições
Especialista alerta sobre perigos e como combater o deepfake 

A empresa enfatiza ainda que refina regularmente as políticas de uso do ChatGPT e da API à medida que aprende mais sobre como as pessoas usam ou tentam abusar da tecnologia. Algumas destacadas para as eleições são:

  • Ainda estamos trabalhando para entender a eficácia de nossas ferramentas para persuasão personalizada. Até sabermos mais, não permitimos que as pessoas criem aplicações para campanhas políticas e lobby.
  • As pessoas querem saber e confiar que estão interagindo com uma pessoa, empresa ou governo real. Por esse motivo, não permitimos que construtores criem chatbots que finjam ser pessoas reais (por exemplo, candidatos) ou instituições (por exemplo, governo local).
  • Não permitimos candidaturas que dissuadam as pessoas de participar em processos democráticos, por exemplo, deturpando processos e qualificações de votação (por exemplo, quando, onde ou quem é elegível para votar) ou que desencorajem a votação (por exemplo, alegar que um voto não tem sentido).
  • Com nossas novas GPTs, os usuários podem nos denunciar possíveis violações.

Compartilhar:

Últimas Notícias