A OpenAI publicou atualização de suas políticas na última segunda-feira, 15 de janeiro, que desautoriza os usuários a utilizarem as ferramentas de inteligência artificial da empresa para campanhas políticas, focando nas eleições presidenciais dos Estados Unidos de 2024.

A medida acontece devido à crescente preocupação em todo o mundo de que os sistemas de IA podem produzir desinformação em massa e, ao influenciar os eleitores, alterar os resultados das eleições.

Essas mudanças nas políticas da startup de IA generativa foram notadas pelo Wall Street Journal.

Leia mais:

publicidade

Segundo o comunicado, perguntas relacionadas às eleições terão respostas direcionadas para a página CanIVote.org, operada pela Associação Nacional de Secretários de Estado dos EUA (NASS, na sigla em inglês).

Entre as mudanças, a empresa delimita que a proibição de suas ferramentas para criação de chatbots que possam se passar por candidatos, governos locais, ou usuários reais. Além disso, a empresa proíbe a utilização de sua IA para desestimular os usuários a participarem de processos democráticos ao “deturpar processos e qualificações de votação”, exemplifica a companhia.

Para usuários mais técnicos, ou entusiastas da programação, há outro esforço apresentado pela OpenAI para combater a desinformação: a disponibilização da codificação de imagens produzidas por IA. Com esses dados, os usuários com algum conhecimento em programação poderão verificar detalhes sobre a origem da imagem gerada pelo Dall-E, sistema de IA generativa para criação de imagens da empresa.

Além disso, a OpenAI está testando um “classificador de proveniência”, uma ferramenta que, segundo a companhia, será capaz de detectar imagens geradas pelo Dall-E e tem sido promissora nos testes iniciais. A empresa planeja disponibilizar esse recurso para o primeiro grupo de testadores — como jornalistas e pesquisadores — em breve.

Outro esforço está relacionado ao popular chatbot de inteligência artificial. Segunda a atualização da política, o ChatGPT está fornecendo mais links e atribuições para ajudar os leitores a avaliar as informações apresentadas pelo sistema e, assim, “decidir por si próprios no que podem confiar”.