FBI alerta para uso de inteligência artificial na criação de malwares

O Departamento Federal de Investigação dos EUA disse em ligação com jornalistas que os cibercrimes estão se proliferando com o uso de IA
Por William Schendes, editado por Bruno Capozzi 01/08/2023 18h04, atualizada em 02/08/2023 21h07
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

O FBI (Departamento Federal de Investigação, na sigla em inglês) alertou sobre hackers que estão utilizando ferramentas de inteligência artificial generativas para criar códigos maliciosos e lançar crimes cibernéticos online.

Leia mais:

Para quem tem pressa:

  • Durante ligação com jornalistas, o FBI disse que ataques cibernéticos estão se proliferando com o auxílio de programas de IA;
  • Conforme informou o Tom´s Hardware, o órgão governamental norte-americano considera que o uso da ferramenta para ataques phishing e desenvolvimento de malwares estão aumentando em ritmo alarmante;
  • De acordo com um funcionário da agência de investigação, “à medida que a adoção e democratização dos modelos de IA continuem”, a tendência é que essas práticas aumentem ainda mais;
  • Esse funcionário acrescentou que os cibercriminosos experientes estão utilizando a tecnologia de IA para desenvolver novos ataques e aprimorar métodos de aplicá-los, como sites e páginas phishing, contendo códigos maliciosos;
  • Outro avanço cibercriminoso promovido pelas IAs é o desenvolvimento de malwares polimórficos, que não pode ser detectados por softwares de antivírus.

A agência também levantou preocupações de segurança em torno da proliferação da IA generativa em deepfakes (tecnologia que cria imagens e áudios artificialmente). Na ligação com jornalistas, o órgão disse que clonagens de voz são usadas para fraudes via chamadas telefônicas.

Outros casos

No mês passado, o FBI também emitiu um alerta sobre criminosos que usavam geradores de imagem por IA para criar fotos de pessoas nuas que seriam usados em golpes de sextortion (extorsão sexual).

O órgão não menciona especificamente quais modelos de IA são usados pelos hackers, mas destaca que cibercriminosos têm desenvolvido seus próprios programas de IA que são vendidos na Dark Web.

Exemplo disso é o FraudGPT, uma ferramenta de IA desenvolvida por cibercriminosos que é capaz de escrever e-mails, phishing e códigos malware. A software criminoso, vendido em mercados da Dark Web e canais do Telegram, já teve mais de três mil vendas. Saiba mais na matéria completa.

O FBI disse que já discutiu o tema com algumas empresas de IA resultando, por exemplo, na adoção do sistema de “marca d´água” por empresas como OpenAI, Google e Anthropic — o que facilita a identificação de imagens geradas pela tecnologia.

Com informações de Tom´s Hardware e PC Mag.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!

Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Mesmo com alguns assuntos negativos, gosta ficar atualizado e noticiar sobre diferentes temas da tecnologia.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.