OpenAI está contratando – e vaga é para prever os riscos da IA

OpenAI reconheceu a necessidade de mais segurança no desenvolvimento de IA
Vitoria Lopes Gomez28/12/2025 10h51
Logo da OpenAI em um smartphone
(Imagem: Thrive Studios ID/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A OpenAI está contratando. A desenvolvedora abriu uma vaga para “Chefe de Preparação”, cargo criado para antecipar riscos associados à inteligência artificial e orientar decisões de segurança da empresa.

Ofertas

A movimentação acontece após vários casos associando o ChatGPT com danos à saúde mental dos usuários, incluindo um processo por negligência no suicídio do adolescente Adam Raine, nos Estados Unidos.

À esquerda, um pouco desfocado, o logo da OpenAI/ChatGPT; à direita, imagem de Sam Altman pensativo e com um dedo em sinal de silêncio na frente da boca
Sam Altman, CEO da OpenAI, admitiu que vaga é estressante (Imagem: Mijansk786/Shutterstock)

Vaga na OpenAI é para prever riscos da IA

Em uma publicação no X (antigo Twitter), o CEO da OpenAI, Sam Altman, reconheceu que o avanço acelerado dos modelos trouxe “desafios reais”, citando de forma explícita preocupações ligadas ao impacto da tecnologia na saúde mental dos usuários.

De acordo com a descrição da vaga, o “Chefe de Preparação” será responsável por liderar a chamada “estrutura de preparação” da desenvolvedora, um conjunto de práticas para identificar capacidades emergentes dos modelos de IA que possam gerar riscos graves. Isso inclui coordenar avaliações técnicas, mapear ameaças e desenvolver medidas de mitigação que possam ser aplicadas de forma escalável antes do lançamento de novas funcionalidades.

A remuneração prevista é de US$ 555 mil anuais (pouco mais de R$ 3 milhões por ano), além de participação acionária.

O salário alto tem motivo: Altman admitiu que a posição é exigente e de alta pressão, destacando que o profissional deverá assumir responsabilidades críticas praticamente de imediato. Entre as atribuições futuras, está a definição de diretrizes de segurança para áreas sensíveis, como capacidades biológicas avançadas e sistemas capazes de autoaperfeiçoamento.

OpenAI enfrenta críticas relacionas à segurança

A abertura da vaga ocorre em meio a um histórico recente de instabilidade na área de segurança da OpenAI.

O antigo responsável pela preparação, Aleksander Madry, deixou o posto em 2024, e a função passou por uma divisão temporária entre outros executivos. Desde então, mudanças internas levaram à saída de lideranças-chave do time, criando uma lacuna justamente em um momento de aumento nas críticas.

A decisão de reforçar a área acontece após uma série de episódios de grande repercussão envolvendo chatbots e adolescentes, além de críticas de especialistas que apontam riscos como dependência emocional, reforço de delírios e agravamento de transtornos psicológicos.

ChatGPT, da OpenAI
Abertura da vaga vem após casos polêmicas envolvendo o ChatGPT (Imagem: Markus Mainka / Shutterstock)

O caso de Adam Raine e o ChatGPT

Um dos casos simbólicos aconteceu em meados deste ano:

  • Adam Raine, de 16 anos, tirou a vida após meses conversando com o ChatGPT;
  • Inicialmente, ele usava o chatbot para trabalhos escolares. Depois, começou a discutir sua própria saúde mental, falando especificamente sobre métodos de suicídio; 
  • Em um dos casos, o adolescente perguntou os melhores materiais para uma corda – e o chatbot respondeu. Em vários momentos, a IA recomendou que Adam procurasse ajuda ou desabafasse sobre o que sentia, mas continuava fornecendo as respostas;
  • Adam se enforcou em uma corda presa no armário do quarto em abril deste ano. Os pais vasculharam o celular do menino e encontraram as conversas com o ChatGPT;
  • Em agosto, a família moveu um processo no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman pelo caso.

Leia mais:

O ocorrido acendeu o debate sobre o envolvimento de adolescentes com as IAs, e a responsabilidade das empresas em proteger os usuários e estabelecer limites para a tecnologia.

Na atualização mais recente do processo, a OpenAI negou responsabilidade no suicídio de Adam Raine e alegou “uso indevido” por parte do jovem. O Olhar Digital deu os detalhes aqui.

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.

Ícone tagsTags: