As decisões sobre o ChatGPT que tiram o sono de Sam Altman

CEO da OpenAI admite que casos de suicídio e decisões sobre o que o ChatGPT responde são suas maiores preocupações
Por Leandro Costa Criscuolo, editado por Bruno Capozzi 16/09/2025 06h30
chatgpt celular sam altman openai
Imagen: Photo Agency/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

Em uma entrevista de quase uma hora ao ex-apresentador Tucker Carlson, o CEO da OpenAI, Sam Altman, falou abertamente sobre os dilemas éticos por trás do ChatGPT — usado diariamente por centenas de milhões de pessoas.

Altman afirmou que não teme tanto “as grandes decisões morais”, mas sim as escolhas que definem o comportamento do modelo e podem ter impacto global.

Pessoa segurando celular com logomarca da OpenAI na tela na frente de monitor exibindo foto do CEO da empresa, Sam Altman
Em entrevista, líder da OpenAI defende sigilo nas conversas com IA e alerta que empregos serão eliminados no curto prazo (Imagem: Meir Chaimowitz/Shutterstock)

Suicídio é maior preocupação

  • O CEO disse que uma das questões mais difíceis para a OpenAI é como o ChatGPT lida com temas sensíveis, como suicídio.
  • A declaração vem após um processo judicial de pais que acusam o chatbot de ter ajudado seu filho de 16 anos a buscar métodos para tirar a própria vida.
  • “Talvez pudéssemos ter dito algo melhor… talvez pudéssemos ter salvado algumas dessas vidas”, disse Altman. A empresa promete melhorar suas respostas para situações de crise.

Leia mais

Ao fundo, Sam Altman; à frente, logo da OpenAI na tela de um smartphone
CEO se diz preocupado com o uso do chatbot em crises de saúde mental e pede ajuda global para definir regras éticas (Imagem: QubixStudio/Shutterstock)

Privacidade e limites éticos

Altman defendeu que as conversas com chatbots tenham o mesmo sigilo que consultas médicas ou jurídicas. Também explicou que a OpenAI consulta filósofos e especialistas para definir quais perguntas o ChatGPT deve evitar — como instruções para fabricar armas biológicas.

Questionado sobre o impacto da IA, Altman disse acreditar que a tecnologia dará mais capacidade às pessoas, mas admitiu que muitos empregos serão eliminados no curto prazo.

CEO da OpenAI, Sam Altman, olhando para o lado durante evento
Sam Altman consulta filósofos para alinhar decisões morais do ChatGPT (Imagem: jamesonwu1972/Shutterstock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.