Práticas de segurança de gigantes da IA ficam aquém dos padrões globais, aponta relatório

Análise internacional mostra que práticas de segurança adotadas por empresas ficam atrás do ritmo de desenvolvimento das novas tecnologias
Matheus Chaves04/12/2025 06h00
Chatbots
Anthropic, Meta, OpenAI e xAI são algumas das principais gigantes de IA que foram testadas (Imagem: Tada Images/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Um novo relatório do Future of Life Institute (FLI) revela que empresas de Inteligência Artificial (IA) consideradas de ponta — como Anthropic, Meta, OpenAI e xAI — estão longe de atender às normas internacionais emergentes de segurança. A constatação, publicada nesta quarta-feira (3), acende um alerta sobre o rumo acelerado da IA sem salvaguardas robustas.

Desenvolvimento acelerado vs. falta de controle

  • Apesar do ritmo intenso de investimento e avanço no desenvolvimento de IAs potentes, inclusive aquelas com ambições de alcançar o nível de “superinteligência”, o estudo identificou que nenhuma das empresas avaliadas apresentou uma estratégia eficaz capaz de garantir o controle desses sistemas avançados.
  • O estudo foi publicado justamente em um momento no qual cresce a preocupação pública sobre os impactos sociais dessas tecnologias.
  • Outro ponto é que casos recentes de uso de chatbots que levaram a episódios de autoagressão e suicídio levaram à sensação de urgência sobre o tema.
Inteligência artificial
O avanço acelerado da tecnologia de inteligência artificial, sem as seguranças necessárias, é uma grande preocupação de especialistas (Imagem: IM Imagery / Shutterstock)

Leia mais:

O alerta de especialistas

Em declaração destacada na Reuters, o presidente do FLI e professor do MIT, Max Tegmark, acendeu um sinal de alerta para o fato das empresas de IA estarem “menos reguladas do que restaurantes”, e ainda assim fazerem lobby contra normas de segurança obrigatórias.

Além disso, o relatório também reforça o apelo por meio de vozes influentes da comunidade científica, como Geoffrey Hinton e Yoshua Bengio, que em outubro pediram a interrupção dos investimentos agressivos e consequentemente o desenvolvimento de IA superinteligente até que existam marcos regulatórios e estruturas seguras para seu uso.

google deepmind
O Google DeepMind foi uma das empresas que se pronunciou sobre o tema
(Imagem: Photo For Everything / Shutterstock)

Reações das empresas

Em resposta a um pedido de nota à Reuters, a big tech Google DeepMind disse que seguirá investindo em segurança e governança à medida que suas tecnologias avançam. Já a xAI reagiu com uma declaração aparentemente automática, como dito pelo portal, afirmando que as críticas da mídia seriam “mentiras”. As demais companhias citadas não se manifestaram imediatamente.

Matheus Chaves
Colaboração para o Olhar Digital

Matheus Chaves é colaboração para o olhar digital no Olhar Digital