ChatGPT é de esquerda ou direta? Estudo descobriu a resposta

Assim como outras tecnologias de IA, ChatGPT aprende a partir das informações fornecidas a eles — e, então, as reproduz
Por Vitoria Lopes Gomez, editado por Ana Luiza Figueiredo 18/08/2023 05h24
ChatGPT
(Imagem: Rokas Tenys / Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Modelos de linguagem de IA generativa funcionam a partir de grandes quantidades de informação fornecidas a eles. Com base no que recebem, os sistemas aprendem e se tornam capazes de formular respostas com base em padrões de conversas. Na prática, isso significa que, quando o ChatGPT é usado, por exemplo, ele absorve o que foi discutido e aprende a partir daquilo.

No entanto, quando alimentado com certas informações (tanto durante um diálogo quanto durante o aprendizado), a tecnologia tende a reproduzir aquilo. Foi assim que alguns chatbots enviaram mensagens machistas ou preconceituosas a usuários e as desenvolvedoras estão lutando para controlá-los. A mesma coisa pode acontecer na política. Mas seria o ChatGPT de direita ou esquerda?

Leia mais:

Direita ou esquerda?

Para descobrir a resposta, pesquisadores da Universidade de East Anglia conduziram um estudo em que pediram ao ChatGPT para responder um questionário sobre crenças políticas.

O resultado mostraram que o chatbot tem um “viés político significativo e sistemático em relação aos democratas nos Estados Unidos, Lula no Brasil e o Partido Trabalhista no Reino Unido”.

ChatGPT tem partido?

  • Esse é um problema que preocupa as desenvolvedoras, ainda mais em uma época em que as eleições presidenciais de alguns países do mundo se aproximam e a IA pode influenciá-las.
  • Apesar do ChatGPT afirmar que não tem opiniões ou crenças políticas, a pesquisa mostra que os chatbots têm, sim, vieses conforme o material com o qual são treinados.
  • Segundo Fabio Motoki, professor da Universidade de East Anglia, ao Washington Post, isso pode “corroer a confiança do público ou talvez até influenciar os resultados das eleições”.
  • Já a OpenAI afirma que esses pré-conceitos do ChatGPT “são bugs, não recursos“. Executivos do Google AI, que posteriormente passaram por problemas semelhantes com o Bard, escreveram que “a tecnologia é empolgante, mas não está isenta de falhas”.
ChatGPT
ChatGPT aprende a partir de informações fornecidas a ele (Imagem: Amir Sajjad / Shutterstock)

Por que isso é preocupante?

  • Um pesquisador da Universidade Carnegie Mellon, Chan Park, estudou como diferentes modelos de linguagem têm diversos graus de viés.
  • Ele constatou que um modelo treinado com dados da internet após a eleição de Donald Trump como presidente em 2016 tende a ser mais polarizados do que os que foram treinados antes.
  • As desenvolvedoras de IA são pouco claras ao informar de onde retiram as informações para treinarem seus sistemas.
  • Assim, se aproveitando da confiança que o público geral deposita em chatbots de IA como o ChatGPT, a tecnologia pode ser usada para espalhar mensagens políticas falsas, por exemplo, seja isso de direita ou esquerda.
  • Segundo Park, ao WP, “a polarização na sociedade também está sendo refletida nos modelos”.
  • Além disso, como os chatbots são alimentados com informações inclusive deles próprios, isso poderia criar um “ciclo vicioso”.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Ana Luiza Figueiredo é repórter do Olhar Digital. Formada em Jornalismo pela Universidade Federal de Uberlândia (UFU), foi Roteirista na Blues Content, criando conteúdos para TV e internet.