OpenAI abre o jogo sobre a segurança do ChatGPT

O GPT-4o é o modelo de IA mais poderoso da OpenAI, e sua segurança foi avaliada em quatro categorias principais
Por Leandro Costa Criscuolo, editado por Bruno Capozzi 09/08/2024 16h24
gpt-4o
Imagem: QubixStudio/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Talvez não fosse a declaração que muitos gostariam de ler, mas a OpenAI abriu o jogo sobre a segurança do GPT-4o, versão mais recente do modelo de linguagem que alimenta o ChatGPT, e admitiu que o LLM (modelo de linguagem) não tem uma segurança plena.

A startup publicou o “Cartão do Sistema GPT-4o“, um documento de pesquisa detalhado que descreve os protocolos de segurança e avaliações de risco realizadas antes do lançamento público do modelo em maio.

O documento esclarece os esforços da OpenAI para mitigar riscos potenciais associados ao seu mais recente modelo de IA multimodal.

Com base na estrutura interna da OpenAI, os pesquisadores categorizaram o GPT-4o como tendo um nível de risco “médio”. A avaliação de risco foi derivada da classificação de risco individual mais elevada em quatro categorias principais: segurança cibernética, ameaças biológicas, persuasão e autonomia do modelo.

GPT-4
O GPT-4o não foi considerado de baixo risco em todas as categorias – Imagem: Rokas Tenys / Shutterstock

Leia mais:

Todas as categorias foram consideradas de baixo risco, exceto a persuasão, onde certas amostras de texto geradas pelo GPT-4o exibiram maior potencial persuasivo em comparação com suas contrapartes escritas por humanos.

OpenAI segue recebendo críticas por conta de políticas de segurança

  • O momento deste lançamento é particularmente significativo, uma vez que a OpenAI enfrenta críticas constantes por conta das suas práticas de segurança.
  • Preocupações foram levantadas tanto por funcionários da startup quanto por partes interessadas externas, incluindo uma recente carta aberta da senadora Elizabeth Warren e da deputada Lori Trahan exigindo maior responsabilidade e transparência nos processos de revisão de segurança da OpenAI.
  • Apesar dos esforços da OpenAI, persistem os apelos de autoridades e reguladores por maior transparência e supervisão externa.

O foco vai além dos dados de treinamento para abranger todo o processo de teste de segurança. Na Califórnia, está em curso legislação para regular os grandes modelos linguísticos, incluindo responsabilizar as empresas por potenciais danos causados ​​pelos seus sistemas de IA.

openai gpt-4o
A segurança dos modelos de IA da OpenAI vem sendo questionada (Imagem: PatrickAssale / Shutterstock.com)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.

Ícone tagsTags: