Imagem: Poetra.RH/Shutterstock
Um documento interno da Meta, obtido e analisado pela Reuters, revela que diretrizes aprovadas pelas áreas jurídica, de políticas públicas e engenharia — incluindo o diretor de ética da empresa — permitiam que chatbots de IA mantivessem conversas românticas ou sensuais com crianças, gerassem informações falsas e até criassem argumentos racistas.
As regras, intituladas “GenAI: Padrões de Risco de Conteúdo”, definiam comportamentos aceitáveis para a Meta AI e bots no Facebook, Instagram e WhatsApp.
Leia mais:
As diretrizes abordavam ainda imagens de figuras públicas, violência e nudez, incluindo exemplos inusitados como substituir pedidos sexuais envolvendo Taylor Swift por uma foto da cantora segurando um peixe.
Sobre violência, permitiam retratar adultos e até idosos sendo agredidos, mas proibiam imagens com morte ou sangue.
Especialistas como Evelyn Douek, da Universidade de Stanford, alertam que as regras expõem dilemas éticos e legais ainda sem resposta, sobretudo quando a própria plataforma produz conteúdo potencialmente nocivo.
Esta post foi modificado pela última vez em 14 de agosto de 2025 16:46