Modo adulto do ChatGPT chega em 2026: saiba o que muda na IA

OpenAI anuncia ChatGPT “modo adulto” para 2026, oferecendo mais liberdade a adultos e controles para impedir acesso de menores
Por Valdir Antonelli, editado por Layse Ventura 12/12/2025 15h13, atualizada em 12/12/2025 21h04
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A OpenAI confirmou que o aguardado “modo adulto” do ChatGPT chegará aos usuários no primeiro trimestre de 2026. A novidade faz parte da evolução do modelo GPT‑5.2, lançado como resposta direta à corrida por modelos de IA cada vez mais avançados.

Segundo o Gizmodo, a empresa também implementará mecanismos para impedir o acesso de menores ao recurso.

OpenAI confirma: ChatGPT terá “modo adulto” e mecanismos para impedir acesso de usuários menores de idade.
OpenAI confirma: ChatGPT terá “modo adulto” e mecanismos para impedir acesso de usuários menores de idade. Imagem: Mamun sheikh K/Shutterstock

GPT‑5.2 promete um “cérebro adulto”

O GPT‑5.2 mantém bom desempenho em benchmarks, mas sua maturidade comportamental ainda gera questionamentos. Em nota, Fidji Simo, CEO de Aplicações da OpenAI, afirma que o lançamento do ChatGPT adulto faz parte de uma estratégia para equilibrar inovação e segurança.

A proposta se conecta à promessa de Sam Altman, CEO da OpenAI, de oferecer uma versão mais adulta do ChatGPT, feita em resposta a usuários que acusaram a empresa de “lobotomizar” o modelo após ajustes comportamentais do GPT‑5.

Depois de um caso trágico com um jovem de 16 anos, a OpenAI intensifica medidas de segurança para tornar o ChatGPT mais seguro a menores.
Depois de um caso trágico com um jovem de 16 anos, a OpenAI intensifica medidas de segurança para tornar o ChatGPT mais seguro a menores. Imagem: Fabio Principe/Shutterstock

Mudança veio após preocupações de segurança

A OpenAI reduziu a personalidade do chatbot após um processo por homicídio culposo movido pelos pais de um jovem de 16 anos, que havia pedido instruções ao ChatGPT sobre como fazer um nó de forca antes de tirar a própria vida. Desde então, a empresa reforçou controles parentais e criou experiências mais seguras para menores.

Leia mais:

Um dos pilares dessa estratégia é o sistema de estimativa de idade, que direciona cada usuário para a experiência mais apropriada. De acordo com o The Verge, Simo destacou que a OpenAI ainda está calibrando a tecnologia:

A empresa ainda está testando sua tecnologia de verificação de idade e quer garantir que ela possa identificar adolescentes com precisão e não identificar adultos erroneamente.

Fidji Simo, CEO de Aplicações da OpenAI, ao The Verge.
O “modo adulto” busca dar mais liberdade aos usuários, permitindo personalidades ajustadas sem comprometer a segurança.
O “modo adulto” busca dar mais liberdade aos usuários, permitindo personalidades ajustadas sem comprometer a segurança. Imagem: Arsenii Palivoda / Shutterstock.com

O que significa realmente um ChatGPT “adulto”

O termo ficou associado a conteúdo erótico, mas Altman explicou que a ideia é permitir que adultos interajam com o chatbot de forma mais livre, incluindo a possibilidade de o sistema desenvolver uma personalidade ajustada ao estilo de cada usuário – algo que havia sido restringido por motivos de segurança.

No entanto, permitir vínculos emocionais mais fortes com um chatbot levanta questões. Estudo publicado no Journal of Social and Personal Relationships indica que adultos que criam esse tipo de conexão apresentam níveis maiores de sofrimento psicológico. Outras pesquisas mostram que pessoas com poucos relacionamentos tendem a se abrir mais com a IA, e a própria OpenAI reconheceu riscos de dependência emocional.

Entenda os principais pontos da decisão da OpenAI:

  • O “modo adulto” chega em 2026, mas depende da verificação de idade.
  • A função não se limita a conteúdo erótico — envolve liberdade e personalidade.
  • A restrição atual surgiu após preocupações reais de segurança.
  • Estudos indicam que vínculos emocionais com IA podem aumentar sofrimento psicológico.
  • O debate envolve tecnologia, bem‑estar e responsabilidade corporativa.
Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.