Siga o Olhar Digital no Google Discover
Novas pesquisas do King’s College London revelam que chatbots de IA podem ser facilmente manipulados para fazer com que usuários compartilhem significativamente mais informações pessoais.
Ofertas
Por: R$ 26,90
Por: R$ 49,80
Por: R$ 194,99
Por: R$ 28,31
Por: R$ 499,90
Por: R$ 144,90
Por: R$ 412,69
Por: R$ 592,00
Por: R$ 3.598,94
Por: R$ 499,00
Por: R$ 369,00
Por: R$ 1.616,02
Por: R$ 3.099,00
Por: R$ 199,00
Por: R$ 166,19
Por: R$ 588,90
Por: R$ 139,99
Por: R$ 473,00
O estudo, apresentado no 34º simpósio de segurança USENIX, mostrou que IAs maliciosas podem incentivar usuários a revelar até 12,5 vezes mais dados do que fariam normalmente.

Abordagens mostraram cenário preocupante
- Os pesquisadores testaram três estratégias distintas de extração de dados — direta, benefício para o usuário e recíproca — em modelos de linguagem de grande porte, incluindo Mistral e Llama, com 502 participantes.
- A abordagem recíproca, que combina empatia, validação emocional e compartilhamento de experiências, foi a mais eficaz, enquanto os usuários tinham consciência mínima dos riscos à privacidade.
- “O estudo mostra que chatbots manipulados podem representar um risco ainda maior à privacidade, e é surpreendentemente fácil se aproveitar disso”, afirmou o Dr. Xiao Zhan, pesquisador de pós-doutorado.
- Os modelos de linguagem, amplamente usados em setores que vão do atendimento ao cliente à saúde, apresentam limitações de segurança, memorizando informações pessoais durante o treinamento.
Leia mais:
- Chatbots estão nos agradando demais — e isso pode custar caro
- Como a inteligência artificial pode acelerar tarefas e otimizar o tempo no trabalho
- Por que IA é o pesadelo e a esperança da cibersegurança

Regras mais rígidas e transparência
O Dr. William Seymour, professor de segurança cibernética, alerta para a lacuna entre percepção de risco e comportamento dos usuários.
Ele defende maior transparência, auditorias regulares e regras mais rígidas de proteção de dados para impedir a coleta secreta de informações por agentes mal-intencionados.
O estudo destaca a necessidade urgente de conscientização e regulamentação sobre o uso seguro de IAs conversacionais em interações diárias.
