Nos últimos anos, acidentes impressionantes envolvendo veículos da Tesla viralizaram pelo mundo e principalmente nos EUA, terra natal da empresa comandada por Elon Musk. Entre os principais causadores das ocorrências, estão: o uso incorreto e bugs relacionados ao Autopilot (FSD, ou Full Self Driving), o polêmico sistema de direção semiautônoma da montadora.
Confira abaixo cinco exemplos marcantes de incidentes envolvendo os carros da marca.
Leia mais:
- Tesla filma e desvia sozinho de acidente impressionante nos EUA
- Volantes se soltam sozinhos e Tesla sofre investigação
- Como assistir corridas de moto ao vivo?
Tesla para sozinho e causa engavetamento
Em janeiro de 2023, um Model S foi notícia por simplesmente parar sozinho repentinamente dentro do túnel Bay Bridge, resultando em um engavetamento de oito veículos em São Francisco, Califórnia.
- O motorista culpou o Autopilot por “frenagem fantasma”, o que teria causado toda a confusão.
- Ironicamente, o acidente aconteceu no mesmo dia em que Elon Musk liberou a versão beta do FSD (ainda não finalizada) para todos que compraram o sistema.
- Assim que entra na via expressa, o carro freia bruscamente e para. Uma picape ainda consegue desviar, no entanto, outros automóveis que vinham logo atrás acabam colidindo.
Nove pessoas ficaram feridas, incluindo uma criança de dois anos. Veja o vídeo do acidente abaixo (Via: NewsClick):
Model Y bate em jato de quase R$ 20 milhões
Se causar um engavetamento por parar sozinho não é bizarro o suficiente, outro veículo da montadora acabou “atropelando” um jato de US$ 3,5 milhões em uma feira de aeronaves em Spokane, Washington).
- Tudo começou quando o dono do carro acionou o “Smart Summon”.O recurso permite que carro vá até o dono em distâncias de até 60 metros.
- No entanto, os sensores do Model Y não notaram a presença do avião que vale quase R$ 20 milhões no meio do caminho.
- O carro simplesmente sai andando e passa com tudo pela aeronave.
Um vídeo postado no Reddit mostra o incidente em detalhes. Felizmente ninguém se feriu.
Someone just crashed into a Vision Jet!!!
by u/smiteme in flying
Tesla com Autopilot acionado bate em carro de polícia
Em 28 de agosto de 2021, um Tesla Model 3, segundo a polícia com o piloto automático ligado, bateu na traseira de uma viatura parada no acostamento.
- O incidente ocorreu em Orlando, na Flórida (EUA).
- A viatura havia parado para atender uma Mercedes quebrada na estrada.
- Pouco antes das 5h da manhã, o Tesla bateu na lateral esquerda da viatura e ainda atingiu o outro carro.
- O policial, que estava do lado de fora, não foi atingido. Já o motorista do veículo quebrado e o do Tesla sofreram ferimentos leves.
Um acidente bem-parecido aconteceu em março do mesmo ano, quando um Tesla também com o piloto automático ativado colidiu com um carro da Polícia do Estado de Michigan.
Falha no piloto automático faz Model 3 bater em caminhão
Um Tesla Model 3 se envolveu em outro acidente estranho em junho de 2020 na Rodovia Nacional 1 de Taiwan.
- O carro bateu no teto de um caminhão tombado na pista.
- Na época, o motorista alegou falha do piloto automático, que não conseguiu detectar o obstáculo em plena luz do dia.
- Câmeras de segurança da rodovia registraram o momento do acidente.
Em um dos vídeos publicado por um site de notícias local o Tesla aparece indo na direção do caminhão, sem nenhuma interferência até chegar perto do veículo, quando a tentativa de freada não foi suficiente para evitar a batida.
Acidente envolvendo um Tesla matou duas pessoas na China
Imagens impressionantes captadas em novembro passado pelo circuito de câmeras de Guangdong, na China, mostram um Tesla Model Y tentando estacionar e depois acelerando fora de controle até 150 km/h.
- O acidente matou duas pessoas e feriu três.
- O motorista ainda tenta desviar de outros veículos, antes de derrubar um ciclista, um motociclista e colidir contra um pequeno caminhão.
- No fim, o carro derrapa e finalmente para após bater contra um prédio.
As investigações concluíram que o acidente não foi causado pelo piloto automático da Tesla ou por falha no freio, como se imaginava antes. Dados do carro revelam que, segundos antes do acidente, o pedal do acelerador foi mantido totalmente pressionado pelo motorista.
No fim, é importante ressaltar que FSD ainda não consegue guiar o carro sozinho. Para ter uma ideia, na escala de “condução autônoma” (que vai de 0 a 5), o Autopilot se enquadra no nível 2, portanto, requer monitoramento constante do motorista.
Alguns motoristas e fãs da marca pensam o oposto e, com visto antes, acabam depositando confiança demais no sistema (que já sofreu até acusação de propaganda enganosa). Em alguns casos, a ferramenta até funciona, entretanto, 70% dos acidentes com sistemas de nível 2 registrados nos EUA de junho de 2021 a maio de 2022 envolviam carros da Tesla, revela um levantamento da NHTSA.
Imagem principal: canadianPhotographer56/Shutterstock
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!