Siga o Olhar Digital no Google Discover
Hackers estão explorando ChatGPT, Grok e até o Google para convencer usuários a rodar comandos que permitem a instalação de malware. A descoberta foi feita pela empresa de segurança Huntress.
O ataque se aproveita da confiança do público em ferramentas de IA e em resultados patrocinados do Google, enganando vítimas que buscavam apenas resolver problemas comuns no computador, explica o Endgadget.

Chatbots transformados em armas
A nova técnica de ataque atua exatamente onde os usuários se sentem mais seguros: nos resultados do Google e nas respostas de chatbots populares. Segundo a Huntress, os invasores iniciam uma conversa com um assistente de IA usando um termo de busca comum — como “me ajude a formatar meu HD?”.
Durante o diálogo, eles induzem o chatbot a sugerir um comando de terminal malicioso. Em seguida, tornam a conversa pública e pagam para que ela apareça como anúncio nos resultados do Google.
Quando alguém pesquisa o mesmo termo, o link patrocinado surge no topo. Sem perceber o risco, a vítima copia e cola o comando no terminal — permitindo que os hackers instalem o malware.
A Huntress identificou o método ao investigar um ataque de exfiltração de dados contra Macs envolvendo o malware AMOS. Em um dos casos, o usuário havia clicado nesse tipo de link patrocinado e executado a instrução sugerida pela IA.

ChatGPT e Grok repetiram o mesmo comportamento
A equipe da Huntress testou o vetor de ataque em diferentes IAs. Tanto o ChatGPT quanto o Grok confirmaram o problema e, quando manipulados, repetiram as mesmas instruções perigosas.
Leia mais:
- Satélites na mira: guerra cibernética no espaço dispara em conflitos recentes
- Como hackers usam IA em ciberespionagens?
- Brecha em navegadores com IA pode levar a roubo de dados, contas e até dinheiro
Esse tipo de golpe dribla os sinais de alerta tradicionais: não há arquivos suspeitos, links estranhos ou instalações inesperadas. Tudo ocorre dentro de plataformas que os usuários já utilizam e consideram confiáveis.
Como aponta o relatório da Huntress, a dependência natural das pessoas em ferramentas como Google e ChatGPT facilita ainda mais o golpe.

Golpe se espalha rapidamente
Mesmo após a denúncia, o link malicioso permaneceu ativo no Google por pelo menos meio dia, tempo suficiente para causar novas infecções.
Ainda não há confirmação sobre a replicação do golpe em outros chatbots, mas o cenário exige atenção redobrada.
Sem soluções definitivas por enquanto, algumas recomendações ajudam a reduzir riscos. A Huntress reforça que ninguém deve executar comandos no terminal — ou colar algo na barra de endereços do navegador — sem entender exatamente sua função.
Para reforçar, aqui vai um resumo prático:
- Não execute comandos sugeridos por IA sem saber sua função.
- Evite copiar instruções diretamente de resultados patrocinados.
- Desconfie de recomendações técnicas muito simples ou “mágicas”.
- Mantenha o sistema e o antivírus atualizados.
- Consulte fontes confiáveis antes de rodar comandos no computador.