Imagens 'fantasma' podem causar acidentes com carros autônomos; entenda

Especialistas em segurança digital de Israel inseriram imagens de faróis vermelhos em um outdoor digital, fazendo com que carros sem motorista acionassem os freios: prática pode causar acidentes

Rafael Arbulu, editado por Cesar Schaeffer 13/10/2020 12h30
Uber autônomo
A A A

Desde que os carros autônomos entraram em fase de testes, uma das principais preocupações dos especialistas é como proteger o veículo de tentativas de invasão por parte de hackers. O problema é que, segundo um teste executado por pesquisadores de segurança digital de Israel, você não precisa hackear "o carro" para fazê-lo apresentar problemas.


De acordo com pesquisadores da Universidade Ben Gurion, automóveis sem motoristas foram forçados a frear bruscamente após um teste envolvendo a imagem de um farol vermelho ser exibida em um outdoor digital - uma prática que, disseram os especialistas à Wired, poderia trazer não apenas engarrafamentos, mas também acidentes graves.

Reprodução

Um Model X, da Tesla: veículo que conta com sistema de direção autônoma foi enganado por pesquisadores de segurança em Israel. Foto: Matthew Lamb, CC-BY-SA 2.0

“O invasor só precisa mostrar a imagem de algo na pista ou inserir alguns quadros em um outdoor digital, e o carro vai acionar os freios ou, possivelmente, desviar, e isso é perigoso”, disse Yisroel Mirsky, um dos especialistas envolvidos no teste. “O piloto ou passageiro não vai nem perceber. Então o carro de alguém vai simplesmente reagir, e as pessoas não vão entender o motivo”.

O objetivo inicial do estudo era o de inserir imagens na pista para fazer com que carros autônomos reagissem com uma ação indevida. Entretanto, conforme o teste evoluía, eles perceberam que seria mais conveniente acessar (ou invadir) um outdoor digital e reproduzir uma imagem de um farol vermelho com um ou dois segundos. No teste, eles conseguiram enganar um automóvel autônomo da Tesla que rodava a versão mais recente do software de direção autônoma da marca, o Autopilot.

O problema é que esse tipo de ataque, se feito em condições reais e por pessoas maliciosas, traria consequências graves, mas deixaria pouco no que tange ao rastro dos eventuais culpados: “Outros métodos deixam evidências forenses e exigem uma preparação mais complicada”, disse outro pesquisador da universidade, Ben Nassi. “Ataques fantasma como esse podem ser feitos remotamente, e não exigem nenhum tipo de conhecimento técnico”.

Fonte: Wired

Segurança Hackers Trânsito Carros conectados Invasão Tesla carros autônomos carros e tecnologia cibersegurança cybersegurança falha de segurança segurança cibernética carro autônomo Tesla Model X
Compras na Internet? Para aproveitar as melhores ofertas, baixe a nova extensão do Olhar Digital. Além da garantia do melhor preço, você ainda ganha descontos em várias lojas. Clique aqui para instalar a extensão Olhar Digital Ofertas em seu navegador!

Recomendados pra você