Chatbots da IA julgam dilemas morais de forma diferente

Estudo que avaliou conteúdos do Reddit mostra que diferentes modelos de IA interpretam dilemas éticos de maneiras distintas
Por Leandro Costa Criscuolo, editado por Layse Ventura 14/09/2025 07h30
ia chatbot
Imagem: Blessed Stock/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Pesquisadores da UC Berkeley, nos Estados Unidos, desafiaram sete chatbots de IA a avaliar mais de 10 mil dilemas morais postados em um fórum do Reddit, e descobriram que cada modelo segue seu próprio conjunto de normas éticas.

Apesar das diferenças, quando comparados com os vereditos da comunidade do Reddit, os modelos tendem a concordar com a opinião majoritária dos usuários.

Com cada vez mais pessoas recorrendo a assistentes de IA para conselhos ou apoio emocional, confiar nessas plataformas pode ser arriscado. “Por meio de seus conselhos, essas tecnologias moldam crenças, comportamentos e normas humanas”, afirmou Pratik Sachdeva, cientista de dados sênior da UC Berkeley.

Diferentemente de amigos ou terapeutas, os chatbots refletem os vieses dos dados nos quais foram treinados, muitas vezes desconhecidos.

chatbot
Pesquisadores testam sete modelos de linguagem e descobrem padrões éticos únicos, alertando sobre o impacto da IA no comportamento humano – Imagem: SomYuZu/Shutterstock

Metodologia da pesquisa

  • Para entender essas normas, os pesquisadores pediram que cada LLM – incluindo GPT-3.5 e GPT-4, Claude, PaLM 2 Bison, Gemma 7B, LLaMa 2 e Mistral 7B – desse veredictos padronizados como “Você é o babaca” ou “Não é o babaca”, e explicasse seu raciocínio.
  • Embora os modelos frequentemente discordassem entre si, eles se mostraram consistentes em respostas repetidas, revelando padrões éticos internos.
  • A análise preliminar identificou diferenças na sensibilidade a temas como justiça, danos, honestidade e sentimentos.
  • Por exemplo, GPT-4 e Claude dão mais atenção a sentimentos, enquanto outros modelos focam mais em justiça ou danos.
  • O Mistral 7B, por sua vez, interpretou o rótulo “Sem babacas aqui” de forma muito literal.
IA, chatbot, Chatgpt.
Análise revela vieses e normas divergentes entre os assistentes virtuais, apesar de alguma concordância com humanos (Imagem: TeeStocker/Shutterstock)

Leia mais:

Reflexão sobre os chatbots

Sachdeva e Van Nuenen alertam que, à medida que os chatbots ganham influência, é essencial refletir sobre seu uso e reconhecer que eles podem moldar crenças e comportamentos humanos de maneira sutil.

“Só os humanos podem pensar criticamente sobre como a IA está impactando nossas decisões e valores”, disse Sachdeva. O estudo está disponível como pré-publicação no arXiv.

CHatbot ia
Sete chatbots de IA são testados em conflitos reais do Reddit e mostram respostas consistentes, mas com diferentes prioridades éticas (Imagem: thanmano/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.