A China tem o objetivo de se transformar no principal mercado de inteligência artificial do mundo. Isso exige enormes investimentos no setor. Mas Pequim está exigindo uma contrapartida das empresas do país. O governo quer que os modelos de IA generativa incorporem valores socialistas fundamentais”.

Montagem de pessoa escrevendo sobre desenho de inteligência artificial (IA)
Governo da China quer que IA não gere conteúdo “ilegal” (Imagem: Shutterstock)

Tecnologias passam por teste antes de serem liberadas

  • A Administração do Ciberespaço da China (CAC), principal regulador de internet do país, é a responsável por garantir que estes “ensinamentos” sejam repassados para as máquinas.
  • Os modelos de IA serão testados pelas autoridades chinesas a partir de algumas perguntas.
  • As questões são relacionadas a tópicos politicamente sensíveis e ao presidente chinês, Xi Jinping.
  • Se as respostas não estiverem de acordo com o desejado pelo governo, a empresa terá que promover uma revisão no seu modelo de inteligência artificial.
  • Depois disso, um novo teste é realizado.
  • As normas velam tanto para gigantes como a ByteDance e a Alibaba quanto para pequenas startups do setor.
  • As informações são da CNBC.

Leia mais

publicidade
Autoridades chinesas estão promovendo o que é chamado de “filtragem de segurança” (Imagem: Kitinut Jinapuck/Shutterstock)

Pequim está de olho na IA

A China foi um dos primeiros países do mundo a finalizar o processo de regulamentação da inteligência artificial generativa. Neste processo, realizado no ano passado, Pequim incluiu a exigência de que os serviços de IA sigam os “valores fundamentais do socialismo” e não gerem conteúdo “ilegal”.

Cumprir estas políticas requer uma “filtragem de segurança”. No entanto, isso é um verdadeiro desafio, já que os modelos de linguagem grande (LLMs) ainda são treinados com uma quantidade significativa de conteúdo em inglês.

publicidade

Este procedimento de adequação aos valores chineses é feito removendo informações consideradas problemáticas e, em seguida, criando um banco de dados de palavras e frases que são sensíveis. Isso faz com que os chatbots mais populares muitas vezes se recusem a responder determinadas perguntas.