Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Em uma entrevista de quase uma hora ao ex-apresentador Tucker Carlson, o CEO da OpenAI, Sam Altman, falou abertamente sobre os dilemas éticos por trás do ChatGPT — usado diariamente por centenas de milhões de pessoas.
Altman afirmou que não teme tanto “as grandes decisões morais”, mas sim as escolhas que definem o comportamento do modelo e podem ter impacto global.

Suicídio é maior preocupação
- O CEO disse que uma das questões mais difíceis para a OpenAI é como o ChatGPT lida com temas sensíveis, como suicídio.
- A declaração vem após um processo judicial de pais que acusam o chatbot de ter ajudado seu filho de 16 anos a buscar métodos para tirar a própria vida.
- “Talvez pudéssemos ter dito algo melhor… talvez pudéssemos ter salvado algumas dessas vidas”, disse Altman. A empresa promete melhorar suas respostas para situações de crise.
Leia mais
- Inteligência Artificial Geral pode não estar tão perto assim
- Fala AI: OpenAI no caminho da IA geral e da superinteligência
- Regulamentação da IA: Brasil tem grande desafio pela frente

Privacidade e limites éticos
Altman defendeu que as conversas com chatbots tenham o mesmo sigilo que consultas médicas ou jurídicas. Também explicou que a OpenAI consulta filósofos e especialistas para definir quais perguntas o ChatGPT deve evitar — como instruções para fabricar armas biológicas.
Questionado sobre o impacto da IA, Altman disse acreditar que a tecnologia dará mais capacidade às pessoas, mas admitiu que muitos empregos serão eliminados no curto prazo.
