China apresenta regras para regular IAs que imitam comportamentos humanos

Em meio à rápida expansão da IA voltada para o consumidor, China está criando normas para minimizar riscos e impedir dependência emocional
Vitoria Lopes Gomez28/12/2025 10h07
china inteligência artificial robô
(Imagem gerada por IA via DALL-E/Olhar Digital)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

A China deu mais um passo controlar o uso de inteligência artificial voltada ao público. O órgão regulador de cibersegurança do país divulgou, no sábado (27), um projeto para consulta pública que propõe regras específicas para sistemas de IA capazes de simular comportamentos humanos e estabelecer vínculos emocionais com usuários.

Ofertas

A iniciativa faz parte da estratégia de Pequim para orientar a expansão acelerada de tecnologias de IA no mercado consumidor, com foco no fortalecimento de critérios de segurança, ética e responsabilidade.

Mão de robô com uma projeção das letras A e I em cima
Regras miram IAs que simulam comportamentos humanos (Imagem: IM Imagery / Shutterstock)

Regras são focadas em IAs que imitam humanos

O texto mira, em especial, serviços que adotam traços de personalidade, padrões de raciocínio e estilos de comunicação semelhantes aos de pessoas reais.

De acordo com a agência Reuters, as regras se aplicariam a produtos e plataformas que interagem emocionalmente com usuários por meio de diferentes formatos, como texto, imagem, áudio ou vídeo.

O objetivo é criar um marco regulatório mais rigoroso para esse tipo de aplicação, que vem ganhando espaço em assistentes virtuais, chatbots avançados e outras ferramentas digitais.

Inteligência artificial
Empresas deverão monitorar interações por parte dos usuários (Imagem: Gumbariya/Shutterstock)

Empresas deverão monitorar riscos ao usuário

Entre os pontos centrais do projeto está a exigência de que as empresas informem claramente os usuários sobre os riscos do uso excessivo dessas tecnologias. Além disso, elas seriam obrigadas a intervir quando identificarem sinais de dependência ou envolvimento emocional prejudicial.

O documento também amplia as responsabilidades das companhias ao longo de todo o ciclo de vida dos produtos de IA. Isso inclui a implementação de mecanismos de revisão de algoritmos, medidas de segurança de dados e proteção de informações pessoais. A proposta estabelece ainda que os prestadores devem monitorar o estado emocional dos usuários, avaliando níveis de estresse, dependência ou reações extremas durante a interação com os sistemas.

Caso sejam detectados comportamentos considerados problemáticos, como apego excessivo ou emoções intensas, as plataformas deverão adotar medidas para reduzir riscos psicológicos. A intenção é evitar que serviços de IA explorem vulnerabilidades emocionais ou incentivem padrões de uso prejudiciais.

As regras propostas também definem limites claros sobre o conteúdo que pode ser gerado por esses sistemas. Ficam vedadas respostas ou interações que ameacem a segurança nacional, disseminem informações falsas, estimulem a violência ou promovam conteúdos considerados obscenos.

Ao fundo, bandeira da China; à frente, pessoa teclando em um notebook
Regras vêm em meio ao rápido desenvolvimento de produtos de IA voltados para o consumidor (Imagem: DC Studio/Shutterstock)

Leia mais:

China quer regular IA em meio à rápida expansão

  • O projeto, disponível em consulta pública, visa regular a IA diante da rápida expansão deste mercado voltado para o consumidor na China;
  • Com as regras, o governo chinês sinaliza que pretende consolidar um modelo de governança mais rígido para a inteligência artificial com características humanas, buscando equilibrar inovação tecnológica com controle estatal e proteção dos usuários;
  • O país enfrenta expansão acelerada tanto no setor de IA quanto no de robôs humanoides.

Vitória Lopes Gomez é jornalista formada pela UNESP e redatora no Olhar Digital.