Siga o Olhar Digital no Google Discover
Hackers estão explorando ChatGPT, Grok e até o Google para convencer usuários a rodar comandos que permitem a instalação de malware. A descoberta foi feita pela empresa de segurança Huntress.
Ofertas
Por: R$ 727,20
Por: R$ 27,81
Por: R$ 50,10
Por: R$ 67,95
Por: R$ 10,90
Por: R$ 2.069,90
Por: R$ 56,60
Por: R$ 75,85
Por: R$ 334,32
Por: R$ 23,83
Por: R$ 140,00
Por: R$ 178,49
Por: R$ 204,99
Por: R$ 198,99
Por: R$ 4.299,00
Por: R$ 160,65
Por: R$ 187,00
Por: R$ 209,90
Por: R$ 166,19
O ataque se aproveita da confiança do público em ferramentas de IA e em resultados patrocinados do Google, enganando vítimas que buscavam apenas resolver problemas comuns no computador, explica o Endgadget.

Chatbots transformados em armas
A nova técnica de ataque atua exatamente onde os usuários se sentem mais seguros: nos resultados do Google e nas respostas de chatbots populares. Segundo a Huntress, os invasores iniciam uma conversa com um assistente de IA usando um termo de busca comum — como “me ajude a formatar meu HD?”.
Durante o diálogo, eles induzem o chatbot a sugerir um comando de terminal malicioso. Em seguida, tornam a conversa pública e pagam para que ela apareça como anúncio nos resultados do Google.
Quando alguém pesquisa o mesmo termo, o link patrocinado surge no topo. Sem perceber o risco, a vítima copia e cola o comando no terminal — permitindo que os hackers instalem o malware.
A Huntress identificou o método ao investigar um ataque de exfiltração de dados contra Macs envolvendo o malware AMOS. Em um dos casos, o usuário havia clicado nesse tipo de link patrocinado e executado a instrução sugerida pela IA.

ChatGPT e Grok repetiram o mesmo comportamento
A equipe da Huntress testou o vetor de ataque em diferentes IAs. Tanto o ChatGPT quanto o Grok confirmaram o problema e, quando manipulados, repetiram as mesmas instruções perigosas.
Leia mais:
- Satélites na mira: guerra cibernética no espaço dispara em conflitos recentes
- Como hackers usam IA em ciberespionagens?
- Brecha em navegadores com IA pode levar a roubo de dados, contas e até dinheiro
Esse tipo de golpe dribla os sinais de alerta tradicionais: não há arquivos suspeitos, links estranhos ou instalações inesperadas. Tudo ocorre dentro de plataformas que os usuários já utilizam e consideram confiáveis.
Como aponta o relatório da Huntress, a dependência natural das pessoas em ferramentas como Google e ChatGPT facilita ainda mais o golpe.

Golpe se espalha rapidamente
Mesmo após a denúncia, o link malicioso permaneceu ativo no Google por pelo menos meio dia, tempo suficiente para causar novas infecções.
Ainda não há confirmação sobre a replicação do golpe em outros chatbots, mas o cenário exige atenção redobrada.
Sem soluções definitivas por enquanto, algumas recomendações ajudam a reduzir riscos. A Huntress reforça que ninguém deve executar comandos no terminal — ou colar algo na barra de endereços do navegador — sem entender exatamente sua função.
Para reforçar, aqui vai um resumo prático:
- Não execute comandos sugeridos por IA sem saber sua função.
- Evite copiar instruções diretamente de resultados patrocinados.
- Desconfie de recomendações técnicas muito simples ou “mágicas”.
- Mantenha o sistema e o antivírus atualizados.
- Consulte fontes confiáveis antes de rodar comandos no computador.