Ao usar o ChatGPT como terapeuta, você abre mão de algo importante

CEO da OpenAI diz que, ao contrário de médicos e terapeutas, a IA ainda não oferece proteção legal para o que os usuários relatam
Leandro Costa Criscuolo25/07/2025 19h12
chatgpt
Imagem: Rokas Tenys/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Usuários que recorrem ao ChatGPT para suporte emocional ou questões pessoais devem ter cautela, segundo o CEO da OpenAI, Sam Altman.

Em entrevista ao podcast This Past Weekend, de Theo Von, Altman destacou que, diferente de conversas com médicos ou terapeutas, não existe proteção legal de confidencialidade nas interações com a IA.

“Pessoas compartilham detalhes profundamente pessoais com o ChatGPT, especialmente os jovens, tratando-o como terapeuta ou conselheiro”, disse Altman. No entanto, ele alertou que, ao contrário do sigilo médico ou jurídico, a IA não oferece garantias legais de privacidade, o que pode expor essas conversas em processos judiciais.

sam altman
Sam Altman alerta: não há privacidade garantida em conversas com o ChatGPT – Imagem: jamesonwu1972 / Shutterstock

Leia mais:

Polêmica sobre uso de dados

  • O CEO também comentou sobre os desafios legais que envolvem o armazenamento e a solicitação de dados de usuários.
  • A OpenAI, por exemplo, está contestando uma ordem judicial no processo com o New York Times que exigiria o acesso a chats de milhões de usuários, exceto os do ChatGPT Enterprise.
  • A empresa considera essa exigência um “exagero” que ameaça decisões internas sobre proteção de dados.
Logos de OpenAI e ChatGPT lado a lado
Ainda não há proteção legal para dados pessoais compartilhados com o ChatGPT – Imagem: Fabio Principe/Shutterstock

Altman defendeu a criação de um arcabouço jurídico para garantir aos usuários de IA o mesmo nível de confidencialidade já presente em outras profissões. “Faz sentido querer clareza jurídica sobre privacidade antes de usar a ferramenta com frequência”, afirmou.

Altman teme “crise de fraude” da IA

O CEO da OpenAI também afirmou recentemente que podemos estar à beira de uma “crise de fraude” por conta da forma como a inteligência artificial (IA) é capaz de “maquiar” a identidade de criminosos digitais. Leia mais sobre isso aqui.

Ao fundo, Sam Altman; à frente, logo da OpenAI na tela de um smartphone
Sam Altman defende criação de novas leis para proteger conversas pessoais com chatbots como o ChatGPT – Imagem: QubixStudio/Shutterstock
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.