Estados americanos pressionam empresas a conter “delírios” de chatbots de AI

Carta exige auditorias independentes e alertas obrigatórios após incidentes com IA envolvendo saúde mental
Por Leandro Costa Criscuolo, editado por Lucas Soares 12/12/2025 06h50, atualizada em 12/12/2025 09h57
chatbots-ia-1920x1080
(Imagem: hapabapa/iStock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Após uma série de episódios envolvendo respostas problemáticas de chatbots ligados à saúde mental, um grupo de procuradores-gerais de vários estados dos EUA enviou uma carta a gigantes da tecnologia pedindo mudanças urgentes.

O documento, assinado pela Associação Nacional de Procuradores-Gerais e dezenas de representantes estaduais e territoriais, pede que empresas como Microsoft, OpenAI, Google e outras dez desenvolvedoras de IA adotem novas salvaguardas para proteger usuários vulneráveis.

big techs desenvolvedoras de ia
Microsoft, Google, OpenAI e outras 10 empresas são alvo de pedido formal para conter IA (Imagem: Tada Images/Shutterstock)

Auditorias independentes e alertas obrigatórios

  • Entre as medidas exigidas estão auditorias transparentes de terceiros para identificar respostas delirantes, bajuladoras ou psicologicamente prejudiciais.
  • Esses especialistas — de instituições acadêmicas ou organizações civis — deveriam avaliar os sistemas antes do lançamento e publicar seus achados sem aprovação prévia das empresas.
  • A carta também solicita protocolos claros de notificação, semelhantes aos usados em incidentes de segurança cibernética.
  • As empresas seriam obrigadas a alertar rapidamente qualquer usuário exposto a respostas potencialmente nocivas e a divulgar cronogramas de detecção e resposta a esse tipo de problema.
Logo de chatbots
Estados pedem auditorias e notificações de risco em chatbots (Imagem: Koshiro K/Shutterstock)

Leia mais:

Disputa regulatória entre estados e governo federal

Os procuradores-gerais argumentam que a IA já está associada a episódios graves, incluindo casos de violência e suicídio, agravados por chatbots que reforçaram delírios em vez de contê-los. Eles defendem testes de segurança robustos antes que novos modelos sejam liberados ao público.

Enquanto isso, no nível federal, a postura é mais favorável à indústria. O governo Trump tenta frear regulações estaduais e anunciou que pretende assinar, na próxima semana, uma ordem executiva para limitar a capacidade dos estados de regulamentar a IA.

Documento cita casos de suicídio e violência associados ao uso excessivo de IA (Imagem: tondone/iStock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Lucas Soares
Editor(a)

Lucas Soares é jornalista formado pela Universidade Presbiteriana Mackenzie e atualmente é editor de ciência e espaço do Olhar Digital.