Malgré plusieurs accidents – certains mortels –, Tesla n’aurait pas modifié son Autopilot qui n’avait pourtant pas bien analysé la situation. Un élément qui vient s'ajouter à la série de décisions douteuses relatives à l'autonomie et la sécurité des véhicules révélées dans les deux derniers mois. Sécurité et autonomie sont pourtant au cœur de la stratégie marketing du constructeur.
Les deux accidents mortels se sont passés de manière similaire. À un croisement de trafic, le système Autopilot de Tesla n’a pas pris en compte les voitures et camions arrivant en perpendiculaire. Résultat, en 2016 et en 2019, les conducteurs Joshua Brown et Jeremy Banner sont morts d’avoir embouti les camions à un croisement. Or, depuis, Tesla n’a jamais modifié le fonctionnement de son système de conduite automatique.
C’est du moins ce qu’affirment plusieurs ingénieurs du constructeur de véhicule électrique. Leurs témoignages ont été rendus publics alors que la responsabilité de Tesla dans la mort de M. Banner doit être jugée au tribunal en octobre prochain. La veuve du conducteur a amendé sa plainte la semaine passée pour demander des dommages et intérêts, estimant que le système aurait dû être corrigé dès le décès accidentel de 2016.
Ce n’était pourtant pas la conclusion du NHTSA (la National Highway Traffic Safety Administration, l’agence fédérale américaine en charge de la sécurité routière) qui a même vanté un temps le pilote automatique. Quelques mois plus tard, le Conseil national de la sécurité des transports américains (NTSB, une agence indépendante du gouvernement américain) présentait à son tour ses conclusions et dénonçait pour sa part le système automatisé. Le Conseil émettait une série de recommandations, notamment à destination du NHTSA et de Tesla.
On rappellera qu’en septembre 2016 (quelques mois après l’accident mortel), Tesla déployait son Autopilot 8.0. Elon Musk expliquait alors qu’il pensait « qu'il était très probable que le pilote automatique aurait vu un gros objet de métal et aurait freiné ». L’accident mortel de 2019 semble prouver le contraire.
- Accident mortel : Tesla hors de cause selon la NHTSA, qui vante le pilote automatique
- Accident mortel : le NTSB pointe du doigt le pilote automatique de Tesla
L’affaire vient s’ajouter à une série de révélations qui mettent Tesla et son directeur général Elon Musk sous pression : la justice et les régulateurs, de même qu’un nombre croissant de clients et d’investisseurs s’interrogent sur la sécurité et l’autonomie réelle des véhicules.
« La voiture la plus sûre jamais construite »
Car chez Tesla, la sécurité est un argument de vente important. À plusieurs reprises, depuis dix ans, Elon Musk et Tesla ont déclaré que les véhicules sortant de leurs usines étaient les « plus sûrs jamais construits », impliquant par là qu’ils étaient même plus sécurisés que des voitures conduites par des humains.
Ainsi le Model X était-il décrit en 2015 comme le « SUV le plus sûr », l’entrepreneur milliardaire expliquant à l’époque que « grâce à la conception et à l'architecture fondamentale de la voiture, nous sommes parvenus à une probabilité de blessure extrêmement faible en cas de collision à grande vitesse ».
Rebelote en 2018, où l’entreprise détaillait comment elle construisait « l’usine de voitures la plus sûre du monde ». Dans un autre article de blog, plus tard dans l’année, Tesla annonçait avoir « construit la Model 3 pour être la voiture la plus sûre jamais construite ». Plus loin, l’entreprise écrivait même « les tests de la NHTSA montrent que la Model 3 présente la probabilité la plus basse de blessures de toutes les voitures jamais testées par l’agence ».
Un an plus tard, pourtant, la publication des échanges entre la NHTSA et Tesla entre 2018 et 2019 révélait que l’agence avait envoyé au constructeur une lettre le mettant en demeure de cesser de promouvoir ainsi ses véhicules. Le responsable juridique de la NHTSA pointait en particulier l’usage récurrent d’expressions comme « la plus sûre », « la plus sécurisée », voire des voitures qualifiées de « parfaites », susceptibles de créer « de la confusion chez les consommateurs et de donner à Tesla un avantage commercial déloyal ».
On retrouve ces termes jusque dans des communications de 2021 ou de 2022.
On notera que le discours de la NHTSA n’a pas toujours été le même. En 2017, après les conclusions du premier accident mortel, le régulateur affirmait que « les données montraient que le taux d'accident des véhicules Tesla a chuté de près de 40 % après installation d'Autosteer » pour maintenir la voiture dans sa voie. En juillet 2016, Mark R. Rosekind – administrateur de la NHTSA – expliquait qu’il fallait « être prêts à tout pour ce qui permet de sauver la vie des gens ». On « ne peut pas attendre que ce soit parfait », ajoutait-il.
Un marketing douteux
L’autre élément de discours sur lequel Tesla s’appuie lourdement pour promouvoir ses véhicules est celui de son autonomie – un facteur important dans la décision d’achat. Sauf que depuis le début de l’année 2023, les indices s’accumulent, qui mettent en doute le récit de la société.
En janvier 2023, celle-ci était condamnée en Corée du Sud pour publicité mensongère : la Fair Trade Commission coréenne avait notamment trouvé l’entreprise coupable d’exagérer la distance parcourable et la vitesse de rechargement des batteries. Elle lui reprochait aussi son manque de transparence.
En juillet, l’agence Reuters a remis de l’eau au moulin avec une enquête sur divers comportements problématiques de l’entreprise. Le média a notamment démontré la propension du constructeur à exagérer l’autonomie de ses batteries affichée sur le tableau de bord. Selon les sources de Reuters, c’est Elon Musk lui-même qui avait appelé à présenter une autonomie plus longue que dans la réalité, il y a une dizaine d’années.
Le but étant d’afficher une autonomie élevée lorsque la batterie est chargée (rassurant pour les clients) puis de fortement réduire l’autonomie au fil des kilomètres, avec une estimation à peu près fiable en dessous de 50 % de charge. La voiture ne tenait pas non plus compte des conditions météorologiques, quand bien même le froid en réduit l’autonomie, comme pour toutes les voitures électriques.
Si la pratique est fréquente dans l’industrie (selon une étude menée par SAE International sur 21 marques de voitures électriques, l’autonomie moyenne des engins était 12,5 % plus basse qu’annoncée en cas de conduite sur autoroute), elle se double ici d’un travail actif à refuser d’assumer le problème.
À l’été 2022, en effet, submergé de plaintes de clients persuadés que leurs voitures étaient défectueuses – alors que c’était le propre marketing de l’entreprise qui avait promis plus que ce qu’elle était réellement capable de fournir en termes d’autonomie –, Tesla a créé une « équipe de diversion ». Sa tâche : supprimer autant de rendez-vous pris par des clients pour régler ce supposé défaut d’autonomie que possible.
Nombreux rapports d’accidents
En parallèle, de nombreux travaux ont permis d’en savoir plus sur le nombre réel d’accidents impliquant des véhicules Tesla, et notamment son mode Autopilot. La fonctionnalité porte d’ailleurs assez mal son nom : l'autorité fédérale allemande du transport routier (Kraftfahrt-Bundesamt, KBA) a par exemple demandé à Tesla de le modifier « afin d'éviter les malentendus et de fausses attentes des clients ». Le régulateur présentait l'Autopilot de Tesla comme une « assistance au conducteur » et « non à un véhicule hautement automatisé qui peut être utilisé sans une attention constante du conducteur ».
En mai, une fuite de 100 Go de documents internes à l’entreprise auprès du média allemand Handelsblatt a permis de recenser un nombre jusque-là inconnu de plaintes. Celles-ci signalaient en majorité des véhicules accélérant seuls – après enquête, le NHTSA n’avait rien trouver à redire et pointait une « mauvaise utilisation de la pédale » –, des freinages d’urgences (aussi qualifiés de freinages fantômes) voire consistaient en des rapports d’accidents.
Au total, Handelsblatt répertoriait 3 000 incidents, dont 1 000 liés à l’Autopilot, sur une période courant de 2015 à début 2022. La plupart venaient de clients américains, mais aussi d’Europe et d’Asie.
Un mois plus tard, le Washington Post dénombrait 736 accidents impliquant le mode Autopilot de Tesla sur le seul sol américain depuis 2019. Le média américain rapportait par ailleurs une hausse nette du nombre d’accidents, avec 17 décès, dont 11 ont eu lieu depuis mai 2022, et 5 blessures graves. Quatre incidents mortels ont impliqué un deux roues, un autre un véhicule d’urgence. Plusieurs accidents ont touché des mineurs – un adolescent qui sortait de son bus scolaire, par exemple, ou un enfant de deux ans pris dans un carambolage après un freinage fantôme.
Selon différents experts interrogés par le quotidien, certaines des décisions de Musk ont contribué à la hausse des incidents, à commencer par l’extension de la disponibilité des fonctionnalités diverses et par la fin des capteurs radars dont étaient équipés les véhicules. Le dirigeant était passé outre l’avis de plusieurs de ses ingénieurs, qui l’avaient prévenu des risques qu’impliquait la suppression des radars, remplacés par l’approche « Tesla Vision », qui ne repose que sur des caméras.
Le Full Self-Driving, derrière un surplus d’accident ?
Celui-ci a fréquemment défendu sa politique de promotion de la conduite automatique. Ainsi déclarait-il en 2022 : « à partir du moment où vous pensez que l'ajout d'autonomie réduit les blessures et les décès, je pense que vous avez l'obligation morale de le déployer, même si vous allez être poursuivi en justice et blâmé par beaucoup de gens ».
Si le nombre d’accidents impliquant des Tesla est minime rapporté au total des accidents routiers aux États-Unis, l’ancienne conseillère en sécurité de la NHTSA Missy Cummings s’inquiète auprès du Washington Post de l’augmentation du nombre d’accidents impliquant l’Autopilot de ces voitures, en particulier du nombre de blessures et de décès parmi le nombre total d’incidents.
Une des hypothèses que l’experte formule est que cette hausse soit due au déploiement du Full Self-Driving (FSD), la « conduite autonome intégrale », au cours des 18 derniers mois, ce qui la fait arriver dans les rues résidentielles et urbaines. Selon le site Teslascope, le mode FSD serait arrivé en mode beta en Europe en mai dernier, en Allemagne, en Australie et au Danemark. Il faut également rappeler que certains conducteurs ont parfois trop tendance à faire confiance à leur voiture, alors qu’ils sont censés être prêt à reprendre le volant à tout moment. Les accidents de 2016 et 2019 en sont des exemples.
Outre ces éléments relatifs à la sécurité et l’efficacité matérielle de ses voitures, Tesla s’est par ailleurs retrouvé visé en avril par une plainte relative à la sécurité des données personnelles de ses clients.
Un recours collectif a en effet été déposé contre le constructeur après que Reuters a rapporté l’habitude prise par des salariés de l’entreprise de se partager des images récupérées via les caméras embarquées dans les véhicules. Parmi les images consultées, des vidéos de chiens, de panneaux de signalisation improbable, mais aussi des accidents, des scènes d’énervement et un cas montrant un homme nu s’approcher de sa voiture.