OpenAI lança modelos de IA para detectar riscos e proteger comunidades online

Novos modelos de peso aberto ajudam desenvolvedores a classificar riscos e aumentam a transparência das decisões da IA
Por Leandro Costa Criscuolo, editado por Layse Ventura 29/10/2025 19h47
Logo da OpenAI exibido em um smartphone que está na horizontal
(Imagem: Vitor Miranda/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A OpenAI anunciou nesta quarta-feira (29) dois novos modelos de inteligência artificial projetados para ajudar desenvolvedores a classificar riscos à segurança online em suas plataformas.

Chamados gpt-oss-safeguard-120b e gpt-oss-safeguard-20b, os modelos são versões refinadas dos gpt-oss lançados em agosto e têm tamanhos diferentes, refletidos nos nomes.

Logo da OpenAI em um smartphone
Pré-visualização para pesquisadores oferece controle e visibilidade sobre como a IA classifica riscos em plataformas digitais – Imagem: JarTee/Shutterstock

Transparência e controle com modelos de peso aberto

  • Os modelos são do tipo “peso aberto”, o que significa que seus parâmetros estão disponíveis publicamente.
  • Isso permite maior transparência e controle sobre como as saídas e previsões são geradas, embora não sejam totalmente de código aberto, cujo código-fonte pode ser modificado pelos usuários.
  • Segundo a OpenAI, as organizações podem configurar os modelos para suas políticas específicas, obtendo uma visão direta de como cada decisão é tomada.
  • Por exemplo, sites de avaliações podem filtrar comentários falsos e fóruns de videogames podem classificar postagens sobre trapaças.

Leia também:

Logo da OpenAI em um smartphone que está em cima do teclado de um notebook
Modelos permitem que desenvolvedores identifiquem conteúdos problemáticos e aumentem a segurança online (Imagem: Ascannio/Shutterstock)

Parcerias e comunidade de segurança

O desenvolvimento dos modelos contou com a colaboração da ROOST (Robust Open Online Safety Tools), do Discord e do SafetyKit.

Inicialmente, os modelos estão em pré-visualização para pesquisa, com a OpenAI buscando feedback de pesquisadores e profissionais de segurança. A ROOST também está criando uma comunidade de modelos para apoiar o uso seguro da IA em espaços online.

O lançamento surge em um momento em que a OpenAI enfrenta críticas sobre crescimento rápido e ética, após a conclusão de sua recapitalização, que consolidou sua estrutura como organização sem fins lucrativos com participação majoritária em negócios lucrativos.

Segundo Camille François, presidente da ROOST, “À medida que a IA se torna mais poderosa, as ferramentas de segurança e a pesquisa em segurança devem evoluir na mesma velocidade – e devem ser acessíveis a todos.” Usuários elegíveis podem baixar os pesos dos modelos no Hugging Face.

Logo da OpenAI em um smartphone na horizontal
Novos modelos da OpenAI fortalecem ética e segurança da IA (Imagem: jackpress / Shutterstock.com)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.