Notebookcheck Logo

Les ordinateurs piratés de Tesla FSD révèlent des données brutes alarmantes sur les accidents mortels d'Autopilot

Carte du système informatique FSD de Tesla (Image source : WSJ)
Carte du système informatique FSD de Tesla (Image source : WSJ)
Une enquête majeure qui a consisté à démonter des ordinateurs FSD Tesla récupérés et à pirater leurs puces pour extraire les données brutes de l'Autopilot révèle comment des décisions douteuses en matière de système d'autoconduite peuvent conduire à des accidents mortels.

Alors que la dernière Tesla FSD 12.5 est diffusée au public, deux grandes publications économiques ont publié des articles négatifs sur les systèmes d'aide à la conduite de Tesla.

L'article de Bloomberg cite des preuves anecdotiques provenant d'un analyste du côté de la vente qui a décrit son expérience lors de démonstrations de la DSF de Tesla dans une note adressée à ses clients. Il a dû intervenir à plusieurs reprises dans des situations particulières, par exemple pour obéir aux signes de la main d'un agent de la circulation, mais aussi dans des scénarios plus banals.

La Tesla Model Y a par exemple franchi à plusieurs reprises des marquages de voie ininterrompus, ou s'est engagée à vive allure dans un carrefour parce que l'ordinateur avait mal interprété une situation dans laquelle une autre voiture n'était qu'à mi-chemin d'un virage à droite. La Model Y roulait sur la FSD 12.3.6, cependant, et l'analyste a noté de nettes améliorations par rapport à la version précédente qu'ils ont testée plus tôt dans l'année.

L'autre article négatif sur les ambitions de Tesla en matière de véhicules autoguidés contient des accusations beaucoup plus graves et des preuves exclusives. Les enquêteurs du Wall Street Journal se sont procuré des ordinateurs FSD sur des Teslas récupérées et les ont envoyés à des pirates pour extraire les données brutes de l'Autopilot.

Tesla garde ce type de données secrètes, car elles montrent comment ses algorithmes d'aide à la conduite pensent et réagissent à la volée en se basant uniquement sur l'interprétation des données fournies par un petit nombre d'utilisateurs Tesla Vision .

Les enseignements tirés des données brutes de prise de décision d'Autopilot ont ensuite été associés à des séquences d'accidents provenant des caméras des voitures Tesla. Le WSJ a également comparé les rapports des États avec la base de données fédérale des accidents que la NHTSA tient à jour pour ses propres enquêtes sur les accidents enquêtele WSJ a donc réussi à reconstituer 222 accidents de Tesla.

Dans 44 d'entre eux, les accidents se sont produits lorsque les voitures Tesla sur Autopilot ont "viré brusquement", tandis que 31 se sont produits lorsque les véhicules "n'ont pas réussi à s'arrêter ou à céder le passage" L'enquête a révélé que c'est ce dernier cas qui a entraîné les accidents les plus graves avec les Teslas en mode Autopilot.

Les experts, qui ont vu les images de ces accidents et la façon dont le système Autopilot fonctionne de manière algorithmique, ont déclaré qu'il faudra du temps pour le former à tout ce qui se passe sur les routes. L'un des accidents mortels, par exemple, est dû au fait que le système n'a pas reconnu une double remorque renversée qui bloquait l'autoroute.

Le système ne savait pas de quoi il s'agissait et a foncé à pleine vitesse sur la remorque. Il existe de nombreux exemples dans lesquels Autopilot se laisse embobiner par les lumières des véhicules d'urgence et les percute à toute vitesse.

Dans l'ensemble, les conclusions soulignent que les Teslas à conduite autonome s'écrasent pour des raisons matérielles et logicielles. Les problèmes mentionnés vont de la lenteur des mises à jour d'algorithmes au calibrage insuffisant des caméras. Toutefois, il faudra peut-être attendre une couverture plus approfondie de la part de sources indépendantes pour que cette fuite de données sur l'Autopilot parvienne à remettre en question la principale hypothèse d'Elon Musk, à savoir que la fonction de conduite autonome de Tesla est en fin de compte plus sûre que les conducteurs humains.

Achetez le connecteur mural 80A Tesla Gen 2 avec câble 24' sur Amazon

Source(s)

Please share our article, every link counts!
Mail Logo
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2024 07 > Les ordinateurs piratés de Tesla FSD révèlent des données brutes alarmantes sur les accidents mortels d'Autopilot
Daniel Zlatev, 2024-07-30 (Update: 2024-09- 8)