Ainda que o ChatGPT e a Inteligência Artificial (IA) como um todo possam realmente substituir humanos em algumas atividades, ambas as tecnologias essencialmente só funcionam por nossa causa. Uma das ações necessárias para tornar os chatbots adequados (e que é realizada antes mesmo do lançamento das ferramentas) é o treinamento para impedir conteúdos explícitos, violentos ou preconceituosos — a moderação de conteúdo. Ou seja, você só não é exposto a barbaridades porque alguém está por trás rotulando esses conteúdos como nocivos.

No entanto, uma reportagem da Times revelou como os trabalhadores responsáveis por essa tarefa, além de serem expostos a descrições perturbadoras, são explorados por big techs de IA — e a OpenAI não era a única.

Leia mais:

O que você precisa saber

  • Uma reportagem da Times mostrou como a empresa Sama, contratada pela OpenAI para a rotular os conteúdos nocivos, pagava cerca de US$ 1,32 a US$ 2 por hora para os funcionários, majoritariamente vindos do Quênia, Uganda e Índia.
  • O contrato, de novembro de 2021, prometia US$ 12,50 por hora.
  • Além disso, os trabalhadores eram expostos a cerca de 250 passagens de texto diárias que continham descrições de estupro, zoofilia, pedofilia, violência física e outros tipos de abuso.
  • A tarefa era classificar esses conteúdos como abusivos, para que eles não chegassem ao usuário final do ChatGPT.
  • Segundo a Sama, os funcionários tinham sessões individuais e com terapeutas de saúde mental, mas eles afirmam que isso era inútil e acontecia raramente.

O Olhar Digital já noticiou mais sobre este caso e você pode conferir aqui.

publicidade
OpenAI
OpenAI afirmou não saber da violação de contrato referente aos pagamentos (Imagem: Varavin88 / Shutterstock)

Moderação de conteúdo nocivo

A OpenAI, desenvolvedora do ChatGPT, não é a única que recorre a esse tipo de serviço — a Meta, dona do Instagram e do Facebook, é outra que tinha contrato com a Sama.

As empresas fecham acordos com companhias terceirizadas para treinar as IAs, uma vez que o modelo de linguagem aprende a partir de instruções de humanos quanto ao que deve ou não ser dito, bem como seu repertório.

Na prática, conhecida como “red-teaming”, são fornecidas descrições extremamente perturbadoras e os funcionários devem classificá-las para impedir a reprodução.

Defesa da moderação de conteúdo

Segundo Mark Sears, fundador e CEO da CloudFactory, uma empresa que disponibiliza trabalhadores para limpar e rotular conjuntos de dados para IA, é só através da revisão desse conteúdo nocivo que as ferramentas se tornam utilizáveis para o público. Contudo, funcionários relataram como a experiência do trabalho é degradante e traumatizante.

Meta era outra empresa que contratou a Sama para moderação de conteúdo (Imagem: mundissima/Shutterstock)

Os funcionários

  • Um porta-voz da Sama revelou que a empresa finalizou o contrato com a OpenAI em março de 2022, após entrar em contato com as preocupações dos trabalhadores.
  • A advogada que representa os trabalhadores, Mercy Mutemi, defendeu que, apesar de a empresa ter encerrado o contrato posteriormente, se aproveitou da condição financeira dos funcionários para explorá-los.
  • A OpenAI afirmou que não sabia que a Sama não pagava o que estava acordado no contrato.
  • Outros trabalhadores quenianos estão processando o Facebook, da Meta, por algo semelhante: a exposição a conteúdos nocivos sem o devido tratamento. Entre outras soluções, os funcionários querem a criação de um sindicato para moderadores de conteúdo no Quênia.
  • A Meta se recusou a comentar.
ChatGPT
Para especialistas, moderação de conteúdo é essencial para produto final (Imagem: Diego Thomazini / Shutterstock.com)

Outras empresas

Ao Wall Street Journal, Mark Sears comentou que não havia como o trabalho ser feito sem prejudicar os funcionários e que por isso a CloudFactory parou de aceitar esses projetos.

Já Jason Kwon, conselheiro geral da OpenAI, afirmou que o trabalho foi valioso para tornar o ChatGPT seguro para o público e que, no final, oferece benefícios aos usuários.

Uma porta-voz da Sama disse que o trabalho com a OpenAI começou em novembro de 2021. Ela disse que o contrato foi rompido em março de 2022, quando a liderança da Sama tomou conhecimento das preocupações em torno da natureza do projeto — e, desde então, teria saído completamente da moderação de conteúdo.

“A Sama tem convocado e apoiado de forma consistente e proativa os esforços para promulgar uma legislação que proteja os trabalhadores e estabeleça diretrizes claras para as empresas seguirem”, disse a porta-voz. “Apoiamos nossos trabalhadores de todas as maneiras possíveis.”

Com informações de Wall Street Journal

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!