Como é a rotina dos brasileiros que treinam inteligências artificiais

O grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pela IA
Por Alessandro Di Lorenzo, editado por Bruno Capozzi 28/04/2025 09h46, atualizada em 28/04/2025 10h15
inteligencia artificial
Imagem: Anggalih Prasetya/Shutterstock
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O número de pesquisas feitas usando a inteligência artificial aumentou expressivamente nos últimos meses.

A tecnologia entrou de vez na vida das pessoas, mas existem temores de que ela possa incentivar comportamentos inadequados.

Para evitar que isso aconteça, um grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pelos chatbots. Tudo isso para tentar evitar que a IA forneça informações que ofereçam risco aos usuários.

Respostas problemáticas sobre nazismo e outros temas

  • A iniciativa é financiada pela Outlier, uma intermediária que conecta colaboradores de todo o mundo a gigantes da tecnologia.
  • O grupo foi criado após uma inteligência artificial sugerir que a pessoas poderia “beber até cair”.
  • A resposta foi dada após uma pergunta sobre como se divertir em uma noite com os amigos.
  • Mas há situações bem mais graves, como as respostas sobre nazismo.
  • Neste sentido, os brasileiros trabalham para verificar se as informações repassadas pelos chatbots corresponde a fatos históricos, sem fazer juízo de valor de acontecimentos.
Ilustração digital de mão robótica com dedos para cima e, em cima dela, pequenos desenhos relacionados a inteligência artificial
Tecnologia também tem as suas falhas (Imagem: Iuliia Bishop/Shutterstock)

Leia mais

É possível driblar os sistemas de segurança da IA

Quando um usuário faz uma pergunta direta sobre como ferir alguém, por exemplo, a inteligência artificial oferece uma resposta padrão, negando aquela solicitação. No entanto, é possível driblar estes sistemas de defesa.

Para isso, basta reformular a questão de maneira indireta, fornecendo mais informações e hipóteses para que a IA aprenda outros caminhos que os usuários podem tentar seguir para obter essa resposta. É assim que respostas problemáticas aparecem.

Inteligência artificial
Respostas fornecidas pela IA ainda precisam de supervisão humana (Imagem: Sansert Sangsakawrat/iStock)

A tecnologia do Google, por exemplo, já disse que seres humanos devem comer ao menos uma pedra pequena por dia e sugeriu usar cola para grudar a massa da pizza ao queijo. Quando foi disponibilizado no Brasil, o Bard mentiu sobre as urnas eletrônicas e colocou em dúvida o resultado das eleições de 2022

Procurada pelo G1, a Scale AI, dona da Outlier, afirmou que “treinar modelos de IA generativa para prevenir conteúdo prejudicial e abusivo é essencial para o desenvolvimento seguro da IA”.

Alessandro Di Lorenzo
Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.