(Imagem: gguy / Shutterstock.com)
O chatbot de IA Claude, da Anthropic, ganhou a capacidade de encerrar conversas consideradas “persistentemente prejudiciais ou abusivas”.
O recurso, já disponível nos modelos Opus 4 e 4.1, é acionado apenas como “último recurso” quando usuários insistem repetidamente em solicitar conteúdos nocivos, mesmo após recusas e tentativas de redirecionamento.
Leia mais:
A Anthropic ressalta que esses são casos extremos e não devem afetar a maioria dos usuários, mesmo em discussões sobre temas controversos.
Para situações de risco real de automutilação ou violência iminente, Claude não encerra a conversa — nesses casos, a startup firmou parceria com a empresa de suporte em crises Throughline para oferecer respostas adequadas.
Além disso, a Anthropic atualizou recentemente sua política de uso, proibindo que Claude seja empregado no desenvolvimento de armas biológicas, químicas, nucleares ou radiológicas, assim como na criação de malware ou exploração de falhas de segurança.
Esta post foi modificado pela última vez em 18 de agosto de 2025 17:02