Kim Kardashian diz que ChatGPT é seu “amigo-inimigo” após falhas

Kim Kardashian revelou que o ChatGPT a fez errar exames de Direito e o chamou de "frenemy" (inimigo e amigo) em entrevista
Por Maurício Thomaz, editado por Layse Ventura 07/11/2025 19h33
Kim Kardashian culpa ChatGPT por erros em provas e o chama de “frenemy”
Kim Kardashian culpa ChatGPT por erros em provas e o chama de “frenemy” (Imagem: Wirestock Creators / Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A empresária e celebridade Kim Kardashian revelou em entrevista à Vanity Fair que considera o ChatGPT seu “frenemy” – uma mistura de amigo e inimigo.

A declaração veio após ela admitir que o uso da ferramenta de inteligência artificial a fez errar respostas em provas da faculdade de Direito, por confiar em informações incorretas. Kardashian estuda para se tornar advogada e tem compartilhado seu processo de aprendizado público há alguns anos.

Segundo Kim, ela costuma utilizar o ChatGPT para tirar dúvidas jurídicas e até envia imagens de questões para o sistema interpretar. “Eu uso [ChatGPT] para conselhos legais. Quando preciso saber a resposta para uma pergunta, tiro uma foto e coloco lá. Eles sempre erram. Isso me fez falhar em provas”, afirmou.

Logo do app do ChatGPT em um smartphone
Kim Kardashian costuma utilizar o ChatGPT para tirar dúvidas jurídicas e até envia imagens de questões para o sistema interpretar (Imagem: Teacher Photo / Shutterstock)

ChatGPT e os riscos da “alucinação” de IA

A situação relatada por Kardashian reflete um dos principais desafios da tecnologia: a chamada “alucinação” de IA. Esse termo é usado quando o sistema gera respostas falsas ou imprecisas com aparência de verdade, em vez de admitir que não tem segurança sobre o assunto.

Modelos de linguagem como o ChatGPT são treinados com grandes volumes de dados e projetados para prever respostas prováveis, e não necessariamente verdadeiras. Essa característica já causou problemas reais – alguns advogados, por exemplo, foram punidos após apresentarem petições com casos inexistentes gerados por ferramentas de IA.

Entre as principais causas das “alucinações” estão:

  • Dados desatualizados ou incompletos;
  • Interpretações incorretas de perguntas complexas;
  • Falta de verificação cruzada de informações;
  • Dependência do modelo em probabilidades linguísticas.
ChatGPT lança navegador Atlas com memórias inteligentes, mas gera alerta de privacidade
ChatGPT pode ter “alucinações” e confundir usuários (Imagem: Miha Creative / Shutterstock)

Kim Kardashian reage com humor – e frustração

Mesmo reconhecendo os erros, Kim Kardashian afirmou que tenta “apelar para o emocional” da IA, embora o esforço seja em vão. “Eu digo: ‘Você vai me fazer falhar, como se sente com isso?’. E o ChatGPT responde: ‘Isso está te ensinando a confiar nos seus instintos’”, contou a empresária, rindo da situação.

A celebridade também revelou que costuma compartilhar suas conversas mais inusitadas com amigos. “Eu tiro prints e mando no grupo: ‘Vocês acreditam que essa IA está falando assim comigo?’”, disse.

Leia mais:

Apesar dos tropeços, Kardashian mantém o bom humor e segue estudando para concluir sua formação jurídica – embora tenha aprendido, da maneira difícil, que nem toda resposta da inteligência artificial merece confiança.

Kim Kardashian disse que conversa com o ChatGPT e tenta apelar ao “emocional” da ferramenta (Imagem: Fred Duval/Shutterstock)
Maurício Thomaz
Colaboração para o Olhar Digital

Jornalista com mais de 13 anos de experiência, tenho faro pela audiência e verdadeira paixão em buscar alternativas mais assertivas para a entrega do conteúdo ao usuário.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.