Mais vagas fechadas? OpenAI quer GPT-4 moderando conteúdos no lugar de humanos

Companhia alega que tecnologia pode realizar moderação de conteúdo com muita precisão, consistência e sem emoção
Rodrigo Mozelli15/08/2023 18h44
Robô humanoide trabalhando em escritório com outras pessoas
Imagem: VesnaArt/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

A OpenAI, dona do ChatGPT, afirmou que a ferramenta que alimenta o chatbot, o GPT-4, pode fazer mais um trabalho humano.

No caso, a companhia alega que ele pode realizar moderação de conteúdo com muita precisão, consistência e sem o lado emocional que as pessoas acabam trazendo à tona quando são forçadas a ver conteúdos violentos e abusivos por horas a fio.

Leia mais:

IA como moderadora?

  • A promoção feita pela OpenAI é um exemplo de empresas detentoras da tecnologia divulgando a inteligência artificial (IA) como essencial para lidar com problemas criados (ou exacerbados) pela própria IA;
  • A empresa de Sam Altman alega estar usando o sistema de moderação de conteúdo que desenvolveu;
  • Ela se baseia no GPT-4, último modelo de linguagem lançada pela empresa;
  • Em seus usos, a OpenAI identificou que ela pode ser melhor do que um moderador humano com simples treinamentos, embora não seja tão eficaz quanto muitos humanos especializado.

O sistema foi modelado para trabalhar em uma série de passos no processo de identificação e remoção de conteúdos problemáticos; desde o desenvolvimento de políticas de moderação até sua implementação.

A chefe de sistemas seguros da OpenAI, Lilian Weng, afirmou à Axios que “você não precisa contratar dezenas de milhares de moderadores”. Para Weng, as pessoas podem atuar como conselheiros que podem garantir que o sistema baseado em IA está trabalhando de forma devida e julgar casos delicados.

Moderação humana no centro da polêmica

A moderação de conteúdo já era um grande desafio mesmo antes da chegada da IA generativa.

Inclusive, muitas pessoas são afetadas mentalmente pelos conteúdos que são obrigados a moderar. Em maio deste ano, moderadores do Facebook do Quênia pediram aumento e processaram a Meta por péssimas condições de trabalho e demissões.

A nova tecnologia ameaça exacerbar os desafios ao torar ainda mais fácil gerar desinformação e outros conteúdos indesejados.

Contudo, a IA já foi vista por alguns especialistas de tecnologia como a única resposta provável para o aumento esperado de desinformação por conta de sua habilidade de escalabilidade.

Empresas de mídia social já estão muito dependentes de tecnologias antigas de IA, como as de aprendizado de máquina (machine learning), para analisar conteúdos fora de suas diretrizes.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Rodrigo Mozelli é jornalista formado pela Universidade Metodista de São Paulo (UMESP) e, atualmente, é redator do Olhar Digital.