Imagem: SomYuZu/Shutterstock
Um estudo recente da empresa francesa Giskard revelou que instruções para que modelos de inteligência artificial (IA) sejam concisos podem aumentar significativamente a ocorrência de “alucinações” — respostas factualmente incorretas geradas por IA.
A pesquisa, que avaliou modelos líderes como o GPT-4o da OpenAI, Mistral Large e Claude 3.7 Sonnet da Anthropic, identificou que, ao serem orientados a responder de forma breve, esses sistemas tendem a sacrificar a precisão em favor da economia de palavras.
Isso ocorre especialmente em perguntas mal formuladas ou ambíguas, nas quais seria necessário mais contexto ou explicação para refutar premissas falsas.
Leia mais:
O estudo também revelou que os modelos são menos propensos a corrigir informações quando os usuários se expressam com confiança, e que as preferências dos usuários muitas vezes priorizam estilo ou tom, e não necessariamente a veracidade.
Isso reforça um dilema já enfrentado por empresas como a OpenAI: como equilibrar uma boa experiência de uso com a fidelidade factual das respostas?
Para a Giskard, o desafio vai além da tecnologia: trata-se de alinhar sistemas de IA com objetivos claros de verdade e responsabilidade, mesmo quando isso significa contrariar expectativas do usuário.
Esta post foi modificado pela última vez em 8 de maio de 2025 16:01