O outro lado da inteligência artificial: salários baixos e jornadas exaustivas

Trabalhadores terceirizados da IA enfrentam baixos salários, pressão intensa e lidam com conteúdo perturbador para manter chatbots seguros
Por Valdir Antonelli, editado por Layse Ventura 14/09/2025 05h10
inteligência artificial
(Imagem: WANAN YOSSINGKUM/iStock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Trabalhar com inteligência artificial parece um sonho para muitas pessoas, afinal, a área oferece salários muito acima da média, principalmente para engenheiros, matemáticos, desenvolvedores de soluções, entre outros profissionais.

Mas há um outro lado com muito menos glamour: trabalhadores que são contratados para treinar a IA. Segundo o The Guardian, esses profissionais são essenciais para o desenvolvimento e moderação de modelos de IA, como o Google Gemini, mas, normalmente, são muito mal pagos e sofrem com prazos cada vez mais curtos para liberar suas análises.

Ícone do aplicativo do Gemini em um smartphone
Funcionários terceirizados que atuam na moderação e avaliação de conteúdo para o Google Gemini relatam que precisam lidar com conteúdo sensível, como textos e imagens violentas e sexualmente explícitas. Crédito: miss.cabul/Shutterstock)

Função é essencial para a segurança da inteligência artificial

Segundo a matéria, os profissionais atuam na avaliação e moderação de conteúdos gerados pela IA, lidando também com materiais sensíveis, como textos e imagens violentas ou sexualmente explícitas. Entre as principais funções desses trabalhadores, destacam-se:

  • Avaliação de respostas geradas pela IA.
  • Moderação e sinalização de conteúdos extremos.
  • Revisão de textos, imagens e vídeos feitos pela IA.
  • Verificação se as respostas seguem padrões de segurança.

Fiquei chocada ao saber que meu trabalho envolvia lidar com conteúdo tão perturbador.

Rachael Sawyer, “avaliadora generalista” de produtos de IA do Google, ao The Guardian.

Ela explica que em nenhum momento, na época de recrutamento, foi explicado que ela iria trabalhar com moderação de conteúdo.

Devido à pressão para concluir cada tarefa em menos de 10 minutos, Sawyer passou a sofrer crises de ansiedade e ataques de pânico. Segundo ela, isso ocorreu sem qualquer apoio de saúde mental do Google.

O trabalho de Sawyer e de outros milhares de trabalhadores terceirizados é, de acordo com o The Guardian, o que garante que “bilhões de usuários dos chatbots vejam apenas respostas seguras e apropriadas”.

Baixos salários e pressão por resultados

Apesar de extenuante, o trabalho é responsável por garantir que os usuários recebam respostas seguras e apropriadas. Crédito: NicoElNino/Shutterstock

O Google trabalha com diversas empresas para o trabalho de classificação de IA e os trabalhadores contratados “trabalham arduamente para verificar se as respostas do modelo são seguras para o usuário”.

Esses trabalhadores recebem a partir de US$ 16 (R$ 86) por hora – o dobro do salário mínimo nos Estados Unidos, que é de US$ 7,25 (R$ 40) –, representando um salário anual de pouco menos de US$ 34 mil (R$ 183 mil), baixo para os padrões estadunidenses.

Leia mais:

“São pessoas com expertise que estão fazendo um ótimo trabalho de escrita, mas que estão sendo pagas abaixo do que valem para criar um modelo de IA que, na minha opinião, o mundo não precisa”, afirma um trabalhador que presta serviços para o Google, pedindo anonimato.

Todos os funcionários entrevistados pelo The Guardian afirmaram ter ficado desiludidos com seus empregos devido aos prazos “cada vez mais apertados” e por sentirem que “estão lançando um produto que não é seguro para os usuários”.

Novas regras permitem discursos de ódio e preconceituosos

Fachada do Google
Mudanças na política dos produtos do Google passaram a permite a disseminação de discursos de ódio, insultos raciais e material explícito. Crédito: VDB Photos/Shutterstock

A matéria também relata uma mudança na política do Google para seus produtos de IA, permitindo que discursos de ódio, insultos raciais e material explícito (violência e sexo) sejam aceitos se fizerem parte da contribuição do usuário. Ou seja, se o conteúdo não foi criado pela inteligência artificial do Google, mas copiado de outro local, não seria tratado como uma violação grave pelas novas regras.

Ela pode replicar discurso de assédio, sexismo, estereótipos. Pode replicar material pornográfico desde que o usuário tenha inserido; ele não pode gerar esse material por si só.

Rachael Sawyer, “avaliadora generalista” de produtos de IA do Google, ao The Guardian.

O Google nega que suas políticas em relação a discurso de ódio tenham mudado, mas no final de 2024, a empresa introduziu uma cláusula em sua política de uso permitindo exceções desde que os benefícios desses discursos sejam maiores que os danos causados.

E tudo isso é decidido por funcionários mal pagos, descontentes e pressionados para cumprir prazos cada vez mais curtos, gerando desconfiança em relação aos produtos de IA desenvolvidos.

Valdir Antonelli
Colaboração para o Olhar Digital

Valdir Antonelli é jornalista com especialização em marketing digital e consumo.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.