IA sem preconceitos? Estudos mostram que o desafio pode ser maior do que pensamos

IA livre de preconceitos é quase impossível: modelos refletem vieses humanos, políticos e culturais, mesmo quando projetados para evitá-los
Por Valdir Antonelli, editado por Layse Ventura 22/08/2025 06h30
inteligência artificial
Inteligência artificial (Créditos: WANAN YOSSINGKUM / iStock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Pensar em uma IA livre de preconceitos é o sonho da maioria dos usuários. Tanto que até mesmo o governo dos Estados Unidos busca por sistemas “objetivos de viés ideológico de cima para baixo”, segundo artigo publicado no site The Conversation.

Obviamente que o foco do decreto assinado pelo presidente Donald Trump se refere a evitar “iniciativas de diversidade, equidade e inclusão como um exemplo de ideologia tendenciosa”. Se você achou que isso é uma contradição em relação a garantir uma IA livre de preconceitos, não está errado, mas demonstra que buscar uma IA sem viés é uma fantasia.

Mulheres no corporativo.
A forma com que algoritmos são desenvolvidos contribui para que seja impossível termos uma IA livre de preconceitos. Crédito: Jacob Lund/Shutterstock)

Plataformas de IA não são livres de viés

Estudos mostram que a alguns modelos de linguagem podem distorcer suas respostas, assumindo vieses à esquerda ou à direita conforme a empresa que os desenvolve. No caso dos chatbots chineses, como o DeepSeek, por exemplo, há censura sobre temas como os protestos da Praça da Paz Celestial ou a situação política de Taiwan.

Esse cenário reforça a ideia de que a inteligência artificial dificilmente será totalmente neutra. Criar um sistema assim é praticamente impossível, já que a forma como a informação é organizada sempre reflete um ponto de vista específico.

Leia mais:

Por isso, a máxima “a história é escrita pelos vencedores”, atribuída a George Orwell, nunca fez tanto sentido. Hoje, os “vencedores” são os algoritmos que filtram dados e moldam as respostas. O resultado é que aquilo que deveria ser puramente factual pode acabar servindo como ferramenta de propaganda política.

A resposta de um único modelo de linguagem (LLM) é uma de um número indefinidamente grande de respostas que podem ser produzidas para a mesma situação ou a partir dos mesmos dados.

Declan Humphreys, professor de Segurança Cibernética e Ética na Universidade Sunshine Coast, em artigo publicado no site The Conversation.

Tentativas de organizar a história também mostram viés

biblioteca
O viés não é uma questão exclusiva da IA. Sistema utilizado pelas bibliotecas, por muitos anos, refletia os preconceitos de sua época. Crédito: Mariusz Lopusiewicz/Shutterstock

Essa não é uma questão exclusiva da inteligência artificial. O Sistema de Classificação Decimal de Dewey (DDC), usado em bibliotecas desde 1876, também reflete os preconceitos de sua época, incluindo vieses raciais e homofóbicos. Por décadas, livros LGBTQIA+ eram catalogados como “Transtornos Mentais”, “Transtornos Neurológicos” ou “Problemas Sociais”. Revisões recentes, no entanto, eliminaram termos depreciativos da classificação.

Outro exemplo é a disparidade entre seções religiosas: bibliotecas ocidentais dedicam muito mais espaço ao cristianismo do que ao islamismo, explica Humphreys, resultado do foco histórico da classificação.

A inteligência artificial aprende com os humanos

grok
Algoritmo do Grok passou a publicar discursos antissemitas em suas respostas. Crédito: JRdes/Shutterstock

A IA segue a mesma lógica. Com aprende a partir do conteúdo produzido pelas pessoas, ela replica os mesmos vieses presentes nos dados:

  • LLMs usam desde obras históricas até postagens em redes sociais e fóruns online.
  • Qualquer preconceito ou opinião presente nos textos pode afetar as respostas do modelo.
  • Os modelos aprendem a responder copiando padrões de respostas humanas.
  • Como resultado, eles tendem a reproduzir as crenças e vieses das pessoas que os treinaram.

Por exemplo, o Grok, chatbot desenvolvido pela xAI de Elon Musk que foi criado para “presumir que pontos de vista subjetivos provenientes da mídia são tendenciosos” e a não “evitar fazer afirmações politicamente incorretas, desde que sejam bem fundamentadas”.

A ideia de Musk era ter um sistema que evitasse o viés liberal de outros produtos, como o ChatGPT. Entretanto, o sistema começou a publicar discursos antissemitas, demonstrando que a tentativa de evitar vieses falhou.

Isso demonstra que, mesmo que seja construído para evitar vieses, eles apenas refletem uma visão de mundo. Aquela visão desenhada pelos “vencedores”.

Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.