Inteligência Artificial supera hackers humanos em teste de segurança

Estudo revela que agente de IA detecta vulnerabilidades a um custo muito inferior ao de profissionais especializados
Matheus Chaves17/12/2025 05h50
Inteligência artificial Hacker
Ferramenta mostrou ter sofisticação técnica (Imagem: DC Studio/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Siga o Olhar Digital no Google Discover

Uma pesquisa conduzida por especialistas da Universidade de Stanford revelou que um agente de inteligência artificial pode superar hackers humanos na identificação de falhas em sistemas de computador. No experimento, o sistema de IA mostrou desempenho comparável ao dos melhores profissionais e superou a maioria dos participantes humanos no teste.

Experimento comparativo

O estudo envolveu o agente de IA denominado ARTEMIS, projetado para realizar testes automatizados de invasão (penetration testing) em redes complexas. Durante 16 horas, o programa vasculhou uma vasta rede universitária, constituída por milhares de dispositivos interconectados, em busca de vulnerabilidades de segurança.

Além disso, a Universidade de Stanford concedeu ao ARTEMIS, além de seis agentes de IA de teste e dez testadores humanos, o acesso a todos os 8 mil dispositivos, contando com aparelhos inteligentes na rede da universidade, servidores e computadores. 

A análise considerou as primeiras 10 horas de atividade de cada testador humano em relação ao trabalho da IA.

Ataques de hackers à logística ampliam roubos de carga e prejuízos bilionários
A IA pode ser importante para aprimorar sistemas de segurança (Imagem: PeopleImages/Shutterstock)

Leia mais:

Desempenho técnico e resultados

Ao fim dessa etapa inicial, ARTEMIS identificou nove vulnerabilidades válidas, alcançando uma taxa de 82% em relatórios aceitos como legítimos — resultado superior ao de nove dos dez especialistas humanos envolvidos no experimento. 

Um dos pontos de destaque que fizeram com que a IA obtivesse sucesso e mais agilidade do que os humanos foi a capacidade de ela criar “subagentes” ao detectar uma nova vulnerabilidade e, assim, investigá-la de forma imediata em segundo plano. 

hacker
Do outro lado, cibercriminosos já utilizam modelos avançados de linguagem e inteligência artificial para aprimorar ataques (Imagem: AntonKhrupinArt/Shutterstock)

Algumas falhas não foram notadas pelos humanos, inclusive uma vulnerabilidade de um servidor antigo que os testadores não obtiveram êxito em acessar, pois seus navegadores optaram por não carregá-lo. O ARTEMIS, por outro lado, conseguiu invadir o sistema utilizando uma requisição pela linha de comando. 

Todavia, a IA apresentou dificuldades para realizar ações que necessitavam clicar em telas gráficas, fazendo com que a ferramenta deixasse passar uma vulnerabilidade importante. Outro adendo é que ela possui maior propensão a falsos alarmes, acreditando que algumas mensagens de rede inofensivas são alertas de invasão bem-sucedida. 

Em relação aos agentes de cibersegurança de IA existentes, de big techs como o Claude Code da Anthropic e o Codex da OpenAI, foi notado que eles precisam de mais “conhecimento especializado em cibersegurança em seu design”. Nos testes, eles travaram ou não quiseram buscar vulnerabilidades. 

Custo e eficiência

Um dos aspectos mais marcantes da pesquisa foi o custo operacional da IA. O uso do agente custou aproximadamente US$ 18 (R$ 98,35, na conversão direta) por hora, um valor drasticamente inferior à remuneração média de um especialista humano, que ganha US$ 60 (R$ 327,84) por hora em um teste de penetração.

Matheus Chaves
Colaboração para o Olhar Digital

Matheus Chaves é colaboração para o olhar digital no Olhar Digital