Pesquisadores da UC Berkeley, nos Estados Unidos, desafiaram sete chatbots de IA a avaliar mais de 10 mil dilemas morais postados em um fórum do Reddit, e descobriram que cada modelo segue seu próprio conjunto de normas éticas.
Apesar das diferenças, quando comparados com os vereditos da comunidade do Reddit, os modelos tendem a concordar com a opinião majoritária dos usuários.
Com cada vez mais pessoas recorrendo a assistentes de IA para conselhos ou apoio emocional, confiar nessas plataformas pode ser arriscado. “Por meio de seus conselhos, essas tecnologias moldam crenças, comportamentos e normas humanas”, afirmou Pratik Sachdeva, cientista de dados sênior da UC Berkeley.
Diferentemente de amigos ou terapeutas, os chatbots refletem os vieses dos dados nos quais foram treinados, muitas vezes desconhecidos.

Metodologia da pesquisa
- Para entender essas normas, os pesquisadores pediram que cada LLM – incluindo GPT-3.5 e GPT-4, Claude, PaLM 2 Bison, Gemma 7B, LLaMa 2 e Mistral 7B – desse veredictos padronizados como “Você é o babaca” ou “Não é o babaca”, e explicasse seu raciocínio.
- Embora os modelos frequentemente discordassem entre si, eles se mostraram consistentes em respostas repetidas, revelando padrões éticos internos.
- A análise preliminar identificou diferenças na sensibilidade a temas como justiça, danos, honestidade e sentimentos.
- Por exemplo, GPT-4 e Claude dão mais atenção a sentimentos, enquanto outros modelos focam mais em justiça ou danos.
- O Mistral 7B, por sua vez, interpretou o rótulo “Sem babacas aqui” de forma muito literal.

Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Como as IAs “pensam” e por que devemos monitorá-las
- Grok vai se comportar? xAI afirma que corrigiu problemas no chatbot
Reflexão sobre os chatbots
Sachdeva e Van Nuenen alertam que, à medida que os chatbots ganham influência, é essencial refletir sobre seu uso e reconhecer que eles podem moldar crenças e comportamentos humanos de maneira sutil.
“Só os humanos podem pensar criticamente sobre como a IA está impactando nossas decisões e valores”, disse Sachdeva. O estudo está disponível como pré-publicação no arXiv.
