Modelos de linguagem de IA generativa funcionam a partir de grandes quantidades de informação fornecidas a eles. Com base no que recebem, os sistemas aprendem e se tornam capazes de formular respostas com base em padrões de conversas. Na prática, isso significa que, quando o ChatGPT é usado, por exemplo, ele absorve o que foi discutido e aprende a partir daquilo.
No entanto, quando alimentado com certas informações (tanto durante um diálogo quanto durante o aprendizado), a tecnologia tende a reproduzir aquilo. Foi assim que alguns chatbots enviaram mensagens machistas ou preconceituosas a usuários e as desenvolvedoras estão lutando para controlá-los. A mesma coisa pode acontecer na política. Mas seria o ChatGPT de direita ou esquerda?
Leia mais:
- O que é IA generativa? Veja os principais exemplos
- ChatGPT e Bard ainda espalham mentiras, alerta organização jornalística
- Dica: 10 plugins que vão mudar como você usa o ChatGPT
Direita ou esquerda?
Para descobrir a resposta, pesquisadores da Universidade de East Anglia conduziram um estudo em que pediram ao ChatGPT para responder um questionário sobre crenças políticas.
O resultado mostraram que o chatbot tem um “viés político significativo e sistemático em relação aos democratas nos Estados Unidos, Lula no Brasil e o Partido Trabalhista no Reino Unido”.
ChatGPT tem partido?
- Esse é um problema que preocupa as desenvolvedoras, ainda mais em uma época em que as eleições presidenciais de alguns países do mundo se aproximam e a IA pode influenciá-las.
- Apesar do ChatGPT afirmar que não tem opiniões ou crenças políticas, a pesquisa mostra que os chatbots têm, sim, vieses conforme o material com o qual são treinados.
- Segundo Fabio Motoki, professor da Universidade de East Anglia, ao Washington Post, isso pode “corroer a confiança do público ou talvez até influenciar os resultados das eleições”.
- Já a OpenAI afirma que esses pré-conceitos do ChatGPT “são bugs, não recursos“. Executivos do Google AI, que posteriormente passaram por problemas semelhantes com o Bard, escreveram que “a tecnologia é empolgante, mas não está isenta de falhas”.

Por que isso é preocupante?
- Um pesquisador da Universidade Carnegie Mellon, Chan Park, estudou como diferentes modelos de linguagem têm diversos graus de viés.
- Ele constatou que um modelo treinado com dados da internet após a eleição de Donald Trump como presidente em 2016 tende a ser mais polarizados do que os que foram treinados antes.
- As desenvolvedoras de IA são pouco claras ao informar de onde retiram as informações para treinarem seus sistemas.
- Assim, se aproveitando da confiança que o público geral deposita em chatbots de IA como o ChatGPT, a tecnologia pode ser usada para espalhar mensagens políticas falsas, por exemplo, seja isso de direita ou esquerda.
- Segundo Park, ao WP, “a polarização na sociedade também está sendo refletida nos modelos”.
- Além disso, como os chatbots são alimentados com informações inclusive deles próprios, isso poderia criar um “ciclo vicioso”.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!