Siga o Olhar Digital no Google Discover
A China avançou no debate sobre regulação de inteligência artificial (IA) ao propor novas regras para limitar a atuação de chatbots com comportamento humano, especialmente em situações ligadas a suicídio, automutilação e jogos de azar. As medidas foram divulgadas no sábado pela Administração do Ciberespaço da China e colocam foco direto na forma como sistemas de IA interagem emocionalmente com usuários.
Ofertas
Por: R$ 24,75
Por: R$ 2.379,00
Por: R$ 29,89
Por: R$ 28,40
Por: R$ 15.522,79
Por: R$ 47,40
Por: R$ 140,00
Por: R$ 178,49
Por: R$ 183,99
Por: R$ 198,99
Por: R$ 1.888,99
Por: R$ 3.999,00
Por: R$ 160,65
Por: R$ 187,00
Por: R$ 368,99
Por: R$ 209,90
Por: R$ 166,19
Por: R$ 393,05
Por: R$ 14,80
O movimento ocorre em um momento de rápida expansão de serviços de IA conversacional no país e poucos dias após duas startups chinesas do setor anunciarem pedidos de abertura de capital em Hong Kong. O governo abriu um período de consulta pública que vai até 25 de janeiro, antes da possível implementação das regras.

Foco em segurança emocional
Segundo o texto preliminar, a regulamentação mira os chamados “serviços de IA interativa com características humanas”, definidos como produtos ou plataformas que simulam personalidade e estabelecem vínculos emocionais por meio de texto, imagem, áudio ou vídeo. A proposta amplia o escopo de controle já existente sobre IA generativa no país.
Winston Ma, professor adjunto da Faculdade de Direito da Universidade de Nova York, explicou ao CNBC que se trata da primeira tentativa global de regular sistemas de IA com traços antropomórficos. Em comparação com as regras chinesas de 2023, ele afirma que a nova abordagem representa um salto da segurança de conteúdo para a segurança emocional.
Entre os pontos centrais do documento, está a proibição de conteúdos que incentivem suicídio, automutilação, violência verbal ou manipulação emocional que possa prejudicar a saúde mental dos usuários. Também ficam vetadas respostas relacionadas a jogos de azar, material obsceno ou violento.
Protocolos obrigatórios em casos sensíveis
As regras estabelecem procedimentos específicos quando o usuário menciona diretamente intenção de suicídio. Nesses casos, o provedor de tecnologia deverá transferir imediatamente a conversa para um humano e entrar em contato com um responsável legal ou pessoa designada pelo usuário.

Para menores de idade, o uso de IA voltada a companhia emocional dependerá de consentimento dos responsáveis, além de limites de tempo. As plataformas também terão de identificar se o usuário é menor, mesmo que ele não informe a idade, aplicando por padrão configurações mais restritivas em situações de dúvida, com possibilidade de contestação.
O texto ainda prevê que sistemas alertem os usuários após duas horas de interação contínua e que chatbots com mais de 1 milhão de usuários registrados ou 100 mil usuários ativos mensais passem por avaliações de segurança obrigatórias.
Apesar das restrições, o documento incentiva o uso de IA com características humanas em áreas como difusão cultural e companhia para idosos, indicando que o objetivo não é barrar o desenvolvimento da tecnologia, mas direcionar seu uso.
Impacto sobre startups e IPOs
A proposta surge logo após duas empresas chinesas de chatbots anunciarem planos de abertura de capital em Hong Kong. A Minimax, conhecida internacionalmente pelo aplicativo Talkie AI, informou que a ferramenta e sua versão chinesa, Xingye, responderam por mais de um terço da receita da empresa nos três primeiros trimestres do ano, com média superior a 20 milhões de usuários ativos mensais no período.
Já a Z.ai, também chamada de Zhipu e registrada como Knowledge Atlas Technology, declarou que sua tecnologia está presente em cerca de 80 milhões de dispositivos, incluindo smartphones, computadores pessoais e veículos inteligentes. Nenhuma das duas empresas comentou como as regras propostas podem afetar seus planos de IPO, segundo a CNBC, que traduziu o documento oficial.
Leia também:
- Meta, TikTok e Snap lançam plataforma para combater conteúdos de suicídio
- Esse jogo simples pode manter a mente saudável por mais tempo
- 8 hábitos para ter uma melhor inteligência emocional
Pressão global sobre IA e comportamento humano
A influência direta de sistemas de IA sobre o comportamento das pessoas tem sido cada vez mais questionada em 2024. O CEO da OpenAI, Sam Altman, afirmou em setembro que lidar com conversas relacionadas a suicídio é um dos desafios mais complexos enfrentados pela empresa. No mês anterior, uma família nos Estados Unidos entrou com um processo contra a OpenAI após a morte por suicídio de um adolescente.

No mesmo contexto, a OpenAI anunciou recentemente a contratação de um diretor para avaliar riscos da IA, incluindo impactos sobre saúde mental e cibersegurança. O crescimento do uso de IA para relações pessoais também chama atenção, com casos como o de uma mulher no Japão que se casou simbolicamente com um namorado virtual.
Plataformas focadas em interação com personagens digitais, como Character.ai e Polybuzz.ai, apareceram entre as 15 ferramentas de IA mais populares em novembro, segundo rankings da SimilarWeb citados no artigo original.
As medidas propostas pela China se inserem em uma estratégia mais ampla do país, que ao longo do último ano tem defendido um papel ativo na definição de regras globais para governança de inteligência artificial.
Atenção: a matéria acima inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de auxílio, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.