Desde o lançamento do ChatGPT, há mais de um ano, o interesse pelo cibercrime na plataforma só cresceu, como mostra um relatório de 2023 da empresa de segurança tecnológica Kapersky. Pesquisadores afirmam existir mais de três mil postagens na dark web discutindo possibilidades de atividades ilícitas com o chatbot. Ainda, desde o ano passado, há um interesse constante nos crimes usando IA.

Leia mais:

publicidade

Cibercrimes com ChatGPT

chat gpt
Imagem: T. Schneider/Shutterstock

O relatório descobriu que fóruns clandestinos na dark web têm discussões sobre como usar o chatbot e outros modelos de linguagem para apoiar cibercrimes. Foram mais de três mil postagens sobre o assunto, com um pico em março de 2023. Desde então, as conversas não pararam, o que revela um interesse contínuo nas atividades ilegais usando IA.

Segundo Alisa Kulishenko, da Kaspersky, para o site Infosecurity, as conversas em fóruns online discutem as possibilidades de uso do ChatGPT e outras IAs para diversas ações. Confira abaixo algumas das mencionadas por ela:

publicidade
  • Fazer o ChatGPT escrever códigos malware, um software malicioso de “vírus”;
  • Processar dados roubados de usuários;
  • Analisar arquivos de dispositivos infectados;
  • Desenvolver projetos alternativos de IA voltados para crimes cibernéticos, como o XXXGPT ou o FraudGPT;
  • Compartilhamento de jailbreaks, conjuntos de prompts para desbloquear funcionalidades maliciosas no ChatGPT;
  • Compartilhamento de contas roubadas.

Nesse último caso, Kulishenko lembra que o ChatGPT tem uma opção de conta gratuita e uma paga, que oferece mais recursos. Os hackers, então, vendem as contas pagas nos fóruns online.

Ainda, outros casos mostraram como a IA ajuda a sofisticar e-mails de phishing – aqueles com golpes. Antes era possível identificá-los por erros gramaticais ou frases mal formuladas. Agora, a tecnologia os refina, tornando mais difícil de detectá-los.