Siga o Olhar Digital no Google Discover
A Anthropic atualizou a política de uso de seu chatbot Claude, em resposta a crescentes preocupações com segurança cibernética e o uso indevido da IA.
Ofertas
Por: R$ 22,59
Por: R$ 59,95
Por: R$ 3.099,00
Por: R$ 3.324,00
Por: R$ 799,00
Por: R$ 241,44
Por: R$ 349,90
Por: R$ 2.159,00
Por: R$ 188,99
Por: R$ 45,00
Por: R$ 379,00
Por: R$ 1.239,90
Por: R$ 943,20
Por: R$ 798,99
Por: R$ 205,91
Por: R$ 476,10
Por: R$ 1.139,05
Por: R$ 949,00
Por: R$ 7,60
Por: R$ 21,77
Por: R$ 16,63
Por: R$ 59,95
Por: R$ 7,20
Por: R$ 139,90
Por: R$ 119,90
Por: R$ 398,99
Por: R$ 79,90
Por: R$ 199,90
A nova versão proíbe especificamente o desenvolvimento de armas de destruição em massa, incluindo explosivos de alto poder, armas biológicas, químicas, nucleares e radiológicas (QBRN), além de manter restrições já existentes sobre outros materiais perigosos.

Novas regras e políticas
- A atualização também introduz regras rigorosas contra o uso do Claude para comprometer computadores ou sistemas de rede, prevenir exploração de vulnerabilidades, criação de malware e ataques cibernéticos.
- Ferramentas como o Uso do Computador e o Código Claude, que permitem ao modelo assumir o controle de sistemas ou se integrar diretamente a terminais de desenvolvedores, são citadas como potenciais riscos.
- Além das medidas de segurança, a empresa flexibilizou sua política em relação a conteúdo político.
- Agora, o Claude só é proibido para casos enganosos ou que possam prejudicar processos democráticos, como segmentação de eleitores e campanhas manipulativas.
Leia mais:
- ChatGPT vs Claude.AI: qual IA é melhor?
- Claude.AI: como usar inteligência artificial
- Quais são as principais empresas de Inteligência Artificial do mundo

Medidas de proteção
Segundo a Anthropic, suas salvaguardas de Nível 3 de Segurança de IA, implementadas em maio junto ao modelo Claude Opus 4, visam impedir abusos em escala e proteger tanto usuários quanto o público em geral.
Com as mudanças, a empresa busca equilibrar o uso seguro da IA com a liberdade para aplicações legítimas, ao mesmo tempo em que responde a preocupações sobre armas, cibersegurança e influência política.
