Microsoft e OpenAI revelaram que grupos de hackers estão explorando novas fronteiras da cibercriminalidade ao empregar modelos de linguagem avançados, como o ChatGPT, para aprimorar seus ataques online. De acordo com estudos divulgados pelas empresas, hackers de várias origens, incluindo Rússia, Coreia do Norte, Irã e China, estão utilizando ferramentas como o ChatGPT para estudar alvos potenciais, refinar scripts e desenvolver táticas de engenharia social.

A Microsoft destaca que esses grupos criminosos estão constantemente buscando maneiras de se adaptar e contornar os controles de segurança existentes. “Os adversários estão explorando e testando diferentes tecnologias de IA à medida que surgem, em busca de vantagens para suas operações e para evitar detecções”, observa a empresa em um comunicado.

publicidade

Leia mais:

Por exemplo, o grupo Strontium, associado à inteligência militar russa, estaria utilizando modelos de linguagem para entender protocolos de comunicação via satélite e outras tecnologias sensíveis. Já o grupo hacker norte-coreano Thallium, estaria se aproveitando dessas ferramentas para pesquisar vulnerabilidades conhecidas e criar campanhas de phishing mais convincentes.

IA e ciberataques

  • Além disso, a Microsoft alerta para o risco crescente de uso de inteligência artificial em ataques cibernéticos.
  • Ferramentas como WormGPT e FraudGPT estão sendo empregadas para criar e-mails maliciosos mais sofisticados, aumentando o desafio para os sistemas de segurança.
  • Embora ainda não tenham sido detectados ataques significativos utilizando essas técnicas, a Microsoft está monitorando de perto a situação e tomando medidas proativas para impedir possíveis incidentes.
  • A empresa afirma estar desativando contas e ativos associados a grupos de hackers conhecidos e compartilhando informações com a comunidade de segurança cibernética.
  • Diante desse cenário, a Microsoft diz estar investindo em soluções baseadas em IA para fortalecer as defesas cibernéticas.
  • Um exemplo é o desenvolvimento do “Security Copilot”, um assistente de IA projetado para ajudar os profissionais de segurança a identificar ameaças e gerenciar a enorme quantidade de dados gerados pelas ferramentas de segurança.
  • Apesar dos desafios apresentados pelo uso de IA em ataques cibernéticos, a Microsoft acredita que a tecnologia também pode ser parte da solução.

Assim como os hackers estão aproveitando a IA para aprimorar seus ataques, nós também podemos utilizar a mesma tecnologia para proteger, detectar e responder a essas ameaças.

Porta-voz da Microsoft ao The Verge