Imagem: Robert Way / Shutterstock
A Anthropic atualizou a política de uso de seu chatbot Claude, em resposta a crescentes preocupações com segurança cibernética e o uso indevido da IA.
A nova versão proíbe especificamente o desenvolvimento de armas de destruição em massa, incluindo explosivos de alto poder, armas biológicas, químicas, nucleares e radiológicas (QBRN), além de manter restrições já existentes sobre outros materiais perigosos.
Leia mais:
Segundo a Anthropic, suas salvaguardas de Nível 3 de Segurança de IA, implementadas em maio junto ao modelo Claude Opus 4, visam impedir abusos em escala e proteger tanto usuários quanto o público em geral.
Com as mudanças, a empresa busca equilibrar o uso seguro da IA com a liberdade para aplicações legítimas, ao mesmo tempo em que responde a preocupações sobre armas, cibersegurança e influência política.
Esta post foi modificado pela última vez em 15 de agosto de 2025 18:16