Carro da Tesla atropela boneco infantil em teste de segurança

Carro da Tesla atropela boneco infantil em teste de segurança. Veja o que aconteceu e como o sistema FDS foi colocado à prova.

A promessa de veículos totalmente autônomos, um futuro tão propagandeado por empresas como a Tesla, continua a levantar sérias preocupações, especialmente quando a segurança entra em jogo. 

Recentemente, um vídeo divulgado pelo grupo de segurança Dawn Project reacendeu o debate sobre a confiabilidade do sistema “Full Self-Driving” (FSD) da Tesla, após um de seus veículos atropelar um boneco infantil durante um teste de segurança simulado.

Carro da Tesla atropela boneco infantil em teste de segurança

O teste do Dawn Project, uma organização de segurança liderada pelo engenheiro e ex-membro do Canaltech, Dan O’Dowd. Conhecido pelo seu ceticismo em relação à capacidade autônoma dos carros Tesla, o engenheiro realizou um teste com a versão 13.2.9 do FDS. 

No experimento, um Tesla Model Y, equipado com FSD, foi conduzido em direção a um ônibus escolar parado com sinalização ativa, incluindo a placa de “pare” e luzes vermelhas piscando.

O momento crucial e mais perturbador ocorreu quando o boneco com tamanho e forma de uma criança foi colocado na faixa de travessia. O carro não exitou e simplesmente seguiu em frente atropelando o boneco como se nada estivesse ali. 

O sistema da Tesla chegou a identificar o boneco como um pedestre, o que sugere que não se tratou de uma falha de detecção. Ou seja, o carro sabia que havia “alguém” ali, mas ainda assim não ativou a frenagem de emergência. 

Problema recorrente

Este tipo de comportamento, infelizmente, não é exatamente novo. Em 2023, o Dawn Project já havia veiculado um anúncio alertando sobre a falha do FDS em parar durante a travessia de crianças ao descer de ônibus escolares. 

Meses depois um adolescente da Haliwa-Saponi Tribal School, na Carolina do Norte, foi atropelado por um Model Y quando descia do ônibus escolar. O menino sobreviveu, embora tenha sofrido ferimentos graves, como uma fratura no pescoço e perna quebrada. 

Na ocasião, as investigações revelaram que o modo Autopilot ou FSD pode estar envolvido no acidente.

Elon Musk não quer vídeos de falhas no FDS

Após o primeiro vídeo, em 2022, a Tesla exigiu que o Dawn Project retire os vídeos do ar. Em uma carta de cessação e desistência de 11 de agosto, a empresa de Elon Musk afirmou que o Projeto Dawn e seu fundador “têm menosprezado os interesses comerciais da Tesla e disseminado informações difamatórias ao público”. 

Na ocasião, a Tesla ameaçou tomar medidas legais, dizendo que os testes nos vídeos são “provavelmente fraudulentos” e “deturpam as capacidades da tecnologia da Tesla”.

Apesar das queixas, o projeto continuou. Além disso, o regulador de segurança dos EUA intensificou as investigações do sistema Autopilot da Tesla.

Aproveite e se inscreva no nosso canal do whatsapp e fique bem informado sobre o universo automotivo. É só clicar aqui!

Leia também: Tesla Cybertruck tem outro problemão para tirar o sono dos proprietários

Inscrever-se
Notificar de
guest
0 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
Entrar no canal do Whatsapp Entrar no canal do Whatsapp
Robson Quirino
Escrito por

Robson Quirino

Sou Robson Quirino. Formado em Comunicação Social pelo IESB-Brasília, atuo como Redator/ Jornalista desde 2009 e para o segmento automotivo desde 2019. Gosto de saber como os carros funcionam, inclusive a rebimboca da parafuseta.

ASSISTA AGORA