A inteligência artificial (IA) é crucial para o funcionamento de veículos autônomos, ajudando na tomada de decisões e na detecção de objetos. Contudo, uma pesquisa da Universidade de Buffalo mostra que esses sistemas podem ser vulneráveis a ataques.

Por exemplo, usando objetos impressos em 3D, é possível esconder um veículo de sistemas de radar baseados em IA.

publicidade

Apesar dos testes serem realizados em um ambiente controlado e não significarem que os veículos autônomos atuais sejam inseguros, os resultados têm implicações para setores como o automotivo, tecnológico, de seguros e também para reguladores.

A pesquisa revelou que sensores como radares, lidars e câmeras usados em veículos autônomos podem ser enganados por ataques específicos.

Leia mais:

Radares de carros autônomos podem ser confundidos e abrir brecha para ataques (Imagem: metamorworks / Shutterstock.com)

Como um carro autônomo pode ser hackeado

  • Yi Zhu, especialista em segurança cibernética e autor principal do estudo, explica que o radar, embora mais eficaz em condições adversas, pode ser hackeado.
  • Em seus testes, ele e sua equipe usaram impressoras 3D para criar “máscaras de ladrilho” que confundem o radar e tornam o veículo invisível para ele.
  • Zhu destaca que a IA, ao processar informações, pode se confundir se confrontada com dados não treinados, o que pode permitir ataques direcionados.
  • Esses ataques poderiam envolver colocar objetos disfarçados em veículos ou em roupas de pedestres, apagando sua detecção pelos sistemas de IA.

Embora tais ataques sejam possíveis, eles assumem que os invasores têm conhecimento detalhado dos sistemas de detecção, o que não é comum entre o público geral.

Zhu observa que a segurança dos veículos autônomos continua aquém de outras tecnologias e os pesquisadores ainda buscam soluções para prevenir esses tipos de ataques.

carro autônomo
Solução eficaz para impedir ataques de hackers a carros autônomos ainda não foi desenvolvida – Imagem: metamorworks/Shutterstock