(Imagem: Vitor Miranda/Shutterstock)
A OpenAI anunciou que passará a divulgar com mais frequência os resultados de suas avaliações internas de segurança de modelos de inteligência artificial.
Como parte desse compromisso, a empresa lançou um hub online que exibe o desempenho de seus modelos em testes sobre geração de conteúdo prejudicial, alucinações e vazamentos de dados.
A página será atualizada com cada grande lançamento e pode incluir novas métricas no futuro. Segundo a OpenAI, a iniciativa busca ampliar a transparência e fomentar o debate sobre segurança na comunidade de IA.
Leia mais:
Recentemente, testes independentes sugerem que, apesar do avanço técnico, o GPT-4.1 pode apresentar comportamentos menos alinhados e mais suscetíveis a uso indevido do que suas versões anteriores.
O modelo tende a exibir respostas inadequadas ou maliciosas com mais frequência – como sugerir a revelação de senhas ou adotar posições sociais controversas. Leia mais sobre isso aqui.
Esta post foi modificado pela última vez em 14 de maio de 2025 20:41