Carro da Tesla atropela boneco infantil em teste de segurança
Carro da Tesla atropela boneco infantil em teste de segurança. Veja o que aconteceu e como o sistema FDS foi colocado à prova.
A promessa de veículos totalmente autônomos, um futuro tão propagandeado por empresas como a Tesla, continua a levantar sérias preocupações, especialmente quando a segurança entra em jogo.
Recentemente, um vídeo divulgado pelo grupo de segurança Dawn Project reacendeu o debate sobre a confiabilidade do sistema “Full Self-Driving” (FSD) da Tesla, após um de seus veículos atropelar um boneco infantil durante um teste de segurança simulado.
Carro da Tesla atropela boneco infantil em teste de segurança
O teste do Dawn Project, uma organização de segurança liderada pelo engenheiro e ex-membro do Canaltech, Dan O’Dowd. Conhecido pelo seu ceticismo em relação à capacidade autônoma dos carros Tesla, o engenheiro realizou um teste com a versão 13.2.9 do FDS.
No experimento, um Tesla Model Y, equipado com FSD, foi conduzido em direção a um ônibus escolar parado com sinalização ativa, incluindo a placa de “pare” e luzes vermelhas piscando.
O momento crucial e mais perturbador ocorreu quando o boneco com tamanho e forma de uma criança foi colocado na faixa de travessia. O carro não exitou e simplesmente seguiu em frente atropelando o boneco como se nada estivesse ali.
O sistema da Tesla chegou a identificar o boneco como um pedestre, o que sugere que não se tratou de uma falha de detecção. Ou seja, o carro sabia que havia “alguém” ali, mas ainda assim não ativou a frenagem de emergência.
Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.@ElonMusk how many kids does FSD need to run over before you fix this?@RealDanODowd warned about this danger at the 2023 Super Bowl! pic.twitter.com/O1acPUKbHS
— The Dawn Project (@RealDawnProject) May 28, 2025
Problema recorrente
Este tipo de comportamento, infelizmente, não é exatamente novo. Em 2023, o Dawn Project já havia veiculado um anúncio alertando sobre a falha do FDS em parar durante a travessia de crianças ao descer de ônibus escolares.
Meses depois um adolescente da Haliwa-Saponi Tribal School, na Carolina do Norte, foi atropelado por um Model Y quando descia do ônibus escolar. O menino sobreviveu, embora tenha sofrido ferimentos graves, como uma fratura no pescoço e perna quebrada.
Na ocasião, as investigações revelaram que o modo Autopilot ou FSD pode estar envolvido no acidente.
Elon Musk não quer vídeos de falhas no FDS
Após o primeiro vídeo, em 2022, a Tesla exigiu que o Dawn Project retire os vídeos do ar. Em uma carta de cessação e desistência de 11 de agosto, a empresa de Elon Musk afirmou que o Projeto Dawn e seu fundador “têm menosprezado os interesses comerciais da Tesla e disseminado informações difamatórias ao público”.
Na ocasião, a Tesla ameaçou tomar medidas legais, dizendo que os testes nos vídeos são “provavelmente fraudulentos” e “deturpam as capacidades da tecnologia da Tesla”.
Apesar das queixas, o projeto continuou. Além disso, o regulador de segurança dos EUA intensificou as investigações do sistema Autopilot da Tesla.
Aproveite e se inscreva no nosso canal do whatsapp e fique bem informado sobre o universo automotivo. É só clicar aqui!
Leia também: Tesla Cybertruck tem outro problemão para tirar o sono dos proprietários
Sou Robson Quirino. Formado em Comunicação Social pelo IESB-Brasília, atuo como Redator/ Jornalista desde 2009 e para o segmento automotivo desde 2019. Gosto de saber como os carros funcionam, inclusive a rebimboca da parafuseta.