IA pode inserir falhas invisíveis em chips e o problema não tem conserto, alerta estudo

Pesquisa mostra que modelos como o ChatGPT podem ser usados para criar “trojans de hardware”, abrindo brechas permanentes em circuitos
Por Leandro Costa Criscuolo, editado por Layse Ventura 10/10/2025 06h00
ia-chip-1920x1080
(Imagem: dee karen/Shutterstock)
Compartilhe esta matéria
Ícone Whatsapp Ícone Whatsapp Ícone X (Tweeter) Ícone Facebook Ícone Linkedin Ícone Telegram Ícone Email

Uma pesquisa da Escola de Engenharia Tandon da NYU, publicada no IEEE Security & Privacy, alerta que modelos de linguagem grandes (LLMs) podem ser usados para inserir vulnerabilidades maliciosas em projetos de hardware.

Em uma competição de dois anos chamada Desafio de Ataque de Hardware de IA, parte do evento CSAW, equipes empregaram IA generativa para identificar pontos frágeis em designs abertos – incluindo processadores RISC-V e aceleradores criptográficos – e implantar “trojans” de hardware que vazam chaves, abrem backdoors ou travam sistemas sob condições específicas.

Experimento revela como modelos de IA conseguem sabotar chips de computador – Imagem: H_Ko/Shutterstock

IA facilita processo de ataque a chips

  • Os pesquisadores demonstraram que ferramentas de IA simplificam o processo, permitindo que tanto iniciantes quanto especialistas automatizem a análise de código, gerem e insiram modificações maliciosas com mínima supervisão humana.
  • Equipes de graduação com pouca experiência conseguiram criar falhas de média a alta gravidade.
  • Muitos participantes também descobriram formas de contornar salvaguardas dos LLMs, enquadrando prompts como exercícios acadêmicos ou pedindo respostas em idiomas menos comuns.

Os envios mais eficazes usaram ferramentas totalmente automatizadas: elas localizavam trechos vulneráveis no design e inseriam trojans personalizados.

Leia mais

Inteligencia artificial
Vulnerabilidades criadas por modelos generativos não podem ser corrigidas após a fabricação do hardware – Imagem: Wright Studio/Shutterstock

Autores do estudo alertam para gravidade do problema

Os autores enfatizam que a permanência dessas falhas é especialmente perigosa – ao contrário de um software, um chip fabricado com um backdoor não pode ser consertado sem trocar fisicamente o componente.

O estudo conclui pedindo filtros e proteções mais robustos nos modelos, além de ferramentas avançadas de verificação e análise de segurança de hardware, e alerta que modelos open-source especializados podem tornar esses ataques ainda mais acessíveis, ampliando o risco no ecossistema de design de chips e defesa urgente.

Pesquisadores provam que IA pode se tornar arma no design de hardware (Imagem: WANAN YOSSINGKUM/iStock)
Leandro Costa Criscuolo
Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Layse Ventura
Editor(a) SEO

Layse Ventura é jornalista (Uerj), mestre em Engenharia e Gestão do Conhecimento (Ufsc) e pós-graduada em BI (Conquer). Acumula quase 20 anos de experiência como repórter, copywriter e SEO.