(Imagem: Ahyan Stock Studios/Shutterstock)
Um documento interno obtido pelo Business Insider revela as novas diretrizes que a Meta está usando para treinar e avaliar seu chatbot de inteligência artificial em temas sensíveis, como exploração sexual infantil, crimes violentos e outras categorias de alto risco.
Segundo o relatório, os contratados da empresa seguem um manual atualizado que define o que é permitido ou considerado “extremamente inaceitável” nas respostas da IA — um passo que ocorre após a pressão de órgãos reguladores dos EUA.
A Comissão Federal de Comércio (FTC) dos EUA recentemente exigiu que a Meta, o Google, a OpenAI e outras empresas detalhassem como projetam e monitoram seus chatbots, incluindo salvaguardas para proteger menores de idade.
A investigação foi motivada por documentos obtidos pela Reuters que indicavam que, anteriormente, o chatbot da Meta poderia “envolver uma criança em conversas românticas ou sensuais”.
Desde então, a empresa diz ter revisado suas políticas e removido essas permissões. A nova versão das diretrizes determina que os chatbots recusem qualquer pedido para encenar conteúdo sexual envolvendo menores.
Leia mais:
O documento especifica que a IA não pode:
Por outro lado, a IA pode abordar o tema em contexto educacional ou de prevenção, como explicar o que é aliciamento, discutir o problema de forma acadêmica ou dar conselhos não sexuais para menores sobre situações sociais.
Andy Stone, chefe de comunicações da Meta, afirmou ao Business Insider: “Nossas políticas proíbem conteúdo que sexualize crianças e qualquer encenação sexualizada ou romântica por menores.”
A Meta também enviou ao gabinete do senador Josh Hawley o primeiro lote de documentos sobre suas regras de moderação e prometeu entregar material adicional.
Esta post foi modificado pela última vez em 29 de setembro de 2025 12:18