Pesquisadores da empresa de segurança Radware alertaram sobre o possível uso de recursos do ChatGPT para roubar dados confidenciais das caixas de entrada do Gmail. A vulnerabilidade foi identificada em alerta divulgado nesta semana.
Segundo o relatório, este é um exemplo dos riscos relacionados ao uso da inteligência artificial. A OpenAI, responsável pelo chatbot, garantiu que a falha já foi resolvida e que o uso das ferramentas é seguro.

Agentes de IA podem ser utilizados por criminosos
- Segundo o documento, os riscos estão relacionados ao uso dos agentes de IA.
- Eles são assistentes que podem agir em nome dos usuários, navegando na web e até clicando em links.
- Apesar destas ferramentas facilitar a realização de diversos trabalhos, os pesquisadores da Radware mostraram que eles podem ser explorados para outros fins.
- Neste caso específico, o problema foi identificado no Deep Research, recurso incorporado ao ChatGPT que foi lançado no início deste ano.
- As informações são do portal The Verge.
Leia mais
- Falha no ChatGPT gerou ataques cibernéticos em massa contra bancos
- Anthropic bloqueia OpenAI por usar Claude para melhorar ChatGPT
- ChatGPT vai estimar idade de usuários para restringir conversas

Acesso a dados confidenciais
O relatório da empresa de segurança Radware aponta que instruções ocultas foram inseridas em um e-mail enviado para uma caixa de entrada do Gmail. Quando o agente de IA acessou o documento, ele involuntariamente acionou a “armadilha”.
Neste caso, o Deep Research seguiu os comandos de pesquisar e-mails de RH e detalhes pessoais, enviando estas informações para hackers. A vítima não percebe o que está acontecendo e as defesas cibernéticas não são páreo para este ataque.

Os pesquisadores ainda alertaram que outros aplicativos conectados ao Deep Research – incluindo Outlook, GitHub, Google Drive e Dropbox – podem ser vulneráveis a ataques semelhantes. Segundo eles, a mesma técnica pode ser aplicada para ter acesso a dados comerciais confidenciais.