Siga o Olhar Digital no Google Discover
A Anthropic mantém uma equipe muito particular na linha de frente da segurança de IA: um pequeno grupo encarregado de revelar como a tecnologia pode afetar a sociedade. Criada por Deep Ganguli, o time nasceu da preocupação com o avanço acelerado dos modelos de linguagem.
Em meio ao crescimento explosivo da IA, esses pesquisadores tentam entender como sistemas como o Claude influenciam comportamentos, emoções e até decisões políticas, explica o The Verge.

Uma equipe que “diz verdades inconvenientes”
O surgimento do GPT-3 fez Ganguli imaginar um futuro em que modelos de IA moldariam a sociedade em uma velocidade inédita. Foi esse choque que o levou à Anthropic, onde ele criou a equipe de impactos sociais — um grupo que, apesar de ter apenas nove integrantes entre os mais de 2 mil funcionários, assumiu a missão de investigar o lado humano da IA.
A proposta é simples e ousada: encontrar “verdades inconvenientes” sobre como a tecnologia é usada e comunicar isso à liderança e ao público.
Vamos contar a verdade… o público merece saber.
Deep Ganguli, líder da equipe de Impactos Sociais, ao The Verge.
Eles estudam desde vieses e impactos econômicos até o poder de persuasão dos chatbots. Com a popularização do Claude, o grupo percebeu que precisava enxergar o uso real dos modelos, o que levou à criação da ferramenta Clio — uma espécie de “Google Trends” do comportamento do usuário.

O que o Clio consegue revelar
Com o Clio, a equipe passou a identificar padrões que antes não eram visíveis: desde solicitações inofensivas, como dicas de palavras-cruzadas, até usos problemáticos, como:
- criação de histórias pornográficas explícitas;
- redes de bots produzindo spam otimizados para SEO;
- buscas por apoio emocional e conversas sensíveis;
- interações que exigiam reforço das salvaguardas de segurança.
A identificação desses casos levou a melhorias diretas nos sistemas e inspirou outras equipes internas a monitorar riscos semelhantes. Miles McCain, criador do Clio, afirmou ter ficado surpreso com o nível de transparência que conseguiram alcançar.

Uma equipe minúscula, mas com grande responsabilidade
O cotidiano do grupo mistura café da manhã no escritório, debates intensos e até um “cone da incerteza” decorado com olhinhos. Essa proximidade ajuda na troca de ideias, já que muitos dos estudos exigem um olhar multidisciplinar.
Leia mais:
- Big techs lucram com IA enquanto OpenAI e Anthropic enfrentam rombo financeiro
- CEO da Anthropic faz alerta duro à indústria de IA
- Anthropic se destaca no mercado de IA e promete lucro antes da OpenAI
Ainda assim, a equipe enfrenta limitações: pouco tempo, recursos escassos e grande pressão para entender impactos que muitas vezes só aparecem fora do laboratório. Como McCain resume, eles “ficam meio que adivinhando” como as interações se traduzem no mundo real.
A cientista Esin Durmus destaca que o grupo é “uma das equipes mais colaborativas”, mas admite que gostaria de ver seus estudos influenciando mais diretamente os produtos finais da empresa.
Novos desafios pela frente
Nos próximos meses, a equipe vai aprofundar pesquisas sobre inteligência emocional — como as pessoas usam o Claude para conselhos pessoais, decisões ambíguas e conversas delicadas. Esse campo inclui investigar fenômenos graves como a chamada “psicose de IA”, quando usuários desenvolvem delírios e vínculos emocionais intensos com chatbots.
“O que significa ter uma máquina com empatia infinita?”, questiona Ganguli. Para ele, entender esse impacto é fundamental antes que a IA ocupe ainda mais espaço no cotidiano das pessoas.