Ce qu’on ne vous dit pas sur les 273 accidents causés par le système Autopilot de Tesla

La National Highway Traffic Safety Administration (NHTSA) a publié son premier rapport annuel sur les accidents causés lorsque le logiciel d’aide à la conduite inclus dans certains véhicules de Tesla, Honda et Toyota, entre autres, était en fonctionnement. Suite aux rapports des différents fabricants, l’administration a conclu que la pilote automatique des modèles de l’entreprise de mobilité électrique fondée et dirigée par Elon Musk ont été impliqués dans 273 accidents sur les 392 liés aux systèmes avancés d’aide à la conduite depuis juillet dernier.

Les véhicules de Tesla, donc, ont représenté environ 70 % de tous les accidents dans lesquels des systèmes ADAS (systèmes avancés d’aide à la conduite) de niveau 2 étaient en service. L’administration a également indiqué que 5 des 6 décès liés à ce type d’accidents – dont certains sont survenus en 2019, mais n’ont pas été signalés jusqu’à présent – sont liés à leurs véhicules. Grâce à ces données, les modèles de la société d’Elon Musk sont responsables de 60 % des accidents dans lesquels une ou plusieurs personnes ont été gravement blessées, et d’environ 85 % des accidents dans lesquels une personne a été tuée.

Ces données remettent en question les performances du système ADAS de niveau 2 que Tesla inclut dans ses véhicules. Cependant, même si elles peuvent sembler troublantes, elles soulèvent des inquiétudes, ne sont pas concluants. Bien que le rapport de la NHTSA soit basé sur les informations rapportées par les fabricants eux-mêmes, il y a un certain nombre de facteurs à prendre en compte qui pourraient refléter que l’Autopilot de Tesla n’est, en fait, pas moins sûr que les systèmes des autres fabricants.

👉​A lire également  Elon Musk pense que Rivian et Lucid sont sur la voie de la faillite

Le rapport de la NHTSA ne garantit pas que l’Autopilot de Tesla est pire que l’ADAS des autres véhicules

Tesla
Tout d’abord, Tesla est la seule entreprise qui reçoit des rapports d’accident détaillés par voie télématique. Ces données sont ensuite partagées avec la NHTSA. Tous les autres constructeurs sont également tenus de signaler les accidents dans lesquels leur système de pilotage automatique était actif, mais la manière dont ces données sont collectées (qui ne se fait pas toujours de manière télématique) pourrait signifier que les chiffres ne reflètent pas tous les cas réels, comme le fait Tesla lorsqu’il utilise un système automatisé.

En outre, le rapport ne précise pas le nombre total de véhicules testés ni la distance parcourue avec le système ADAS de niveau 2 actif. C’est le seul moyen de déterminer le taux d’erreur réel de chaque système ou de comparer les chiffres de Tesla avec ceux enregistrés par d’autres marques.

Le rapport de la NHTSA, quant à lui, ne précise pas si les accidents impliquant des véhicules Tesla sont causés par le système Autopilot standard ou par le système d’autodiagnostic. FSD un système de pilotage automatique plus avancé qui est actuellement en version bêta. Selon le règlement, rappelez-vous, les deux systèmes sont considérés comme étant de niveau 2, donc le rapport est susceptible de regrouper à la fois le FSD et le pilote automatique standard.

Et en quoi cela est-il pertinent ? Ce n’est pas pour autant que les accidents sont causés par un logiciel final disponible dans toutes les voitures Tesla (comme la variante standard d’Autopilot) que par le système Conduite autonome qui est accessible sur autorisation préalable de la marque et est en cours de développement. Le premier est un système final qui devrait fonctionner comme prévu, tandis que le second est une fonctionnalité en cours de développement qui n’est pas encore ouverte au public.

👉​A lire également  Voici le premier aperçu de la nouvelle DeLorean

Tesla, en fait, est le seul constructeur à disposer d’un tel système dans une sorte de version bêta publique. Les conducteurs doivent également accepter un certain nombre de conditions avant de s’inscrire à ce programme afin d’avoir accès à la version bêta. Ils doivent également veiller à rester vigilants sur la route à tout moment au cas où le logiciel prendrait une mauvaise décision.

Il est également difficile de savoir si les accidents sont dus à une faute du système de conduite lui-même – qui a pris une mauvaise décision – ou à un facteur externe -par exemple, quelque chose qui s’est passé sur la route. Il ne précise pas non plus si le conducteur aurait pu l’éviter.

Que signifie tout cela ? Déterminer que le système de conduite autonome de Tesla est inférieur ou plus dangereux que les autres uniquement sur la base du nombre total d’accidents dans lesquels il a été actif est mauvais. Il existe de nombreuses nuances ou variables à prendre en compte avant de porter un tel jugement. Et le rapport de l’agence américaine ne fournit malheureusement pas assez de détails pour effectuer une telle analyse.