Accident mortel : la Tesla Model S roulait trop vite, l'enquête se poursuit

Accident mortel : la Tesla Model S roulait trop vite, l’enquête se poursuit

Les préliminaires ce n'est pas toujours ce qu'il y a de plus complet

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

28/07/2016 5 minutes
123

Accident mortel : la Tesla Model S roulait trop vite, l'enquête se poursuit

Dans l'enquête sur l'accident mortel impliquant une Tesla Model S avec le pilote automatique activé, le NTSB a publié un rapport préliminaire. On y apprend que la voiture roulait trop vite au moment de l'impact. Dans le même temps, Mobileye annonce la fin de son partenariat avec Tesla.

Début mai, un accident mortel s'est déroulé sur une route de Floride. Il s'agissait, selon Tesla, du premier impliquant l'une de ses voitures avec le pilotage automatique activé. Le constructeur s'était exprimé sur les circonstances de l'accident (voir cette actualité), tandis que le régulateur américain ouvrait une enquête. Il y a peu, le Conseil national de la sécurité des transports (NTSB) publie un rapport préliminaire qui pourra être « complété ou corrigé au cours de l'enquête ».

Selon la NTSB, la Tesla Model S roulait trop vite lors de l'accident

Selon les données téléchargées depuis la voiture, on y apprend que la Model S roulait à 74 mph (environ 119 km/h) sur une route qui est normalement limitée à 65 mph (presque 105 km/h) indique le NTSB, sans préciser à quoi était dû ce dépassement de la limitation.

L'agence ajoute que les fonctions Traffic-Aware Cruise Control, qui permet à la voiture de gérer l'accélérateur et les freins afin de s'adapter automatiquement au trafic, et Autosteer, qui garde la voiture dans sa bande de circulation, étaient activées. Il ajoute que la voiture était également équipée d'un système de freinage d'urgence, qui n'a pas fonctionné avait déjà indiqué Tesla.

« Au moment de l'accident, il faisait jour avec des conditions météorologiques claires et sèches » peut-on lire dans le rapport du NTSB. Pour rappel, Tesla indiquait que ni la voiture ni le conducteur n'avaient remarqué « le flanc blanc de la remorque du semi-remorque face à un ciel très lumineux ». Il faudra certainement attendre les conclusions définitives pour avoir de plus amples informations.

Quoi qu'il en soit, des photos de l'accident confirment la présentation faite par Tesla : la voiture est venue s'encastrer sous la remorque du camion faisant de très importants dégâts au niveau du pare-brise, mais peu en dessous. Sur la remorque du camion, seuls des dégâts mineurs sont visibles sur le côté droit :

Tesla Model S NTSBTesla Model S NTSB

L'enquête est toujours en cours et devrait durer encore plusieurs mois

Le NTSB n'a pas fini son enquête et continue de récolter des données et de les analyser, afin « d'évaluer les conditions de collision ». Elle ajoute que « tous les aspects de l'accident sont encore sous le coup d'une enquête », se gardant d'ailleurs bien d'attribuer, même partiellement, les causes à la vitesse trop élevée. Elle ne fait pour le moment que donner des informations et les conclusions définitives ne devraient pas arriver avant l'été prochain.

Dans tous les cas, le régulateur américain ne souhaite pas arrêter pour le moment le développement des voitures à pilotage automatique. En effet, selon l'administrateur du NHTSA ces fonctionnalités permettent généralement de rendre les voitures plus sûres et donc de sauver des vies. Il expliquait que l'industrie automobile « ne peut pas attendre que ce soit parfait » et qu'il faut être « prêt à tout pour ce qui permet de sauver la vie des gens ».

Les Tesla n'auront pas droit aux prochaines puces de chez Mobileye

Hasard ou non, Amnon Shashua, directeur technique chez Mobileye profitait d'une conférence de presse sur les résultats de l'entreprise pour annoncer que son partenariat avec Tesla prenait fin, comme le rapporte Ars Technica. Pour rappel, cette société propose des systèmes anticollisions et produit une puce EyeQ que l'on retrouve dans plusieurs voitures équipés de systèmes de pilotage automatique.

Dans une déclaration transmise à nos confrères, la société précise que les relations commerciales entre MobileEye et Tesla n'iront pas plus loin que la troisième génération d'EyeQ que l'on retrouve actuellement dans les Model S et X. Cela ne change donc rien pour le moment, et Mobileye continuera de fournir des mises à jour logicielles à Tesla. Si l'accident mortel est pointé par certains comme l'élément qui a déclenché la procédure de divorce, rien ne permet de l'affirmer pour le moment.

Un projet de voiture autonome chez Mobileye, Tesla développera-t-il des capteurs maison ?

Il s'agit forcément d'un coup dur pour Mobileye, mais la société a largement de quoi rebondir, puisqu'elle a récemment annoncé un partenariat avec Intel et BMW afin de développer une voiture entièrement autonome d'ici cinq ans. De son côté, Telsa n'a pas encore indiqué ce qu'il comptait faire. Il pourrait développer ses propres capteurs, même si cela reste évidemment à confirmer.

Une thèse accréditée par le fait que l'actuelle génération de capteur Mobileye n'est pas conçue pour détecter correctement les véhicules traversant latéralement (comme c'était le cas de l'accident mortel). Selon Dan Galves, responsable de la communication chez Mobileye cité par Ars Technica, cette fonctionnalité arrivera avec leur prochaine génération de puces, attendue à partir de 2018.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Selon la NTSB, la Tesla Model S roulait trop vite lors de l'accident

L'enquête est toujours en cours et devrait durer encore plusieurs mois

Les Tesla n'auront pas droit aux prochaines puces de chez Mobileye

Un projet de voiture autonome chez Mobileye, Tesla développera-t-il des capteurs maison ?

Fermer

Commentaires (123)


le problème ce n’est pas qu’elle roulait trop vite c’est qu’elle s’est arrêtée trop brutalement.


ha la bonne vieille propagande française sur la vitesse. lamentable.


Si la legislation américaine rendaient obligatoire les barres de sécurité latéral et à l’arrière des camions on en serait probablement pas là …

Déjà, la voiture l’aurait peu être détecté plus facilement, mais en plus de ça , c’est l’avant de la voiture qui amortie le choc par compression comme dans un accident ‘normal’ et pas en mode guillotine …


Vu les photos elle ne s’est pas arrêté brutalement.&nbsp;<img data-src=" />








fr1g0 a écrit :



ha la bonne vieille propagande française sur la vitesse. lamentable.





&nbsp;C’est une enquête américaine qui le dit à propos d’un accident ayant eu lieu sur le sol américain concernant une voiture américaine, mais c’est une propagande française ? faut que tu m’expliques là.



\begin{gros troll}



Ah le politiquement correct ! Nxi cède à la mode du monde façon bisounours en ne montrant pas les photos du cadavre du conducteur de la voiture, ni la vidéo complète du crash. C’est pourtant de l’information, merde !



\end{gros troll}



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />








Firefly’ a écrit :



Si la legislation américaine rendaient obligatoire les barres de sécurité latéral et à l’arrière des camions on en serait probablement pas là …





1+ je ne comprends pas pourquoi ces mesures de sécurité sur les poids-lourds ne sont pas obligatoires: signalisation fluo à l’arrière,&nbsp; sticker informant de la longueur du camion, feux divers à différentes endroits (avec des colonnes de feux en cas de pluie), barres de sécurité etc.









fr1g0 a écrit :



ha la bonne vieille propagande française sur la vitesse. lamentable.





T’es perché un peu haut toi non ?



Les lois sur la sécurité (pas la surveillance) sont plus chiante à faire passer aux USA, il faut un gros procès est lieu avant.<img data-src=" />








Commentaire_supprime a écrit :



\begin{gros troll}



Ah le politiquement correct ! Nxi cède à la mode du monde façon bisounours en ne montrant pas les photos du cadavre du conducteur de la voiture, ni la vidéo complète du crash. C’est pourtant de l’information, merde !



\end{gros troll}



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



<img data-src=" />



Effectivement, il est plus correct de dire que le toit de la voiture s’est arrêté brutalement.<img data-src=" />



Sinon je vois pas pourquoi il faudrait forcément accuser la voiture d’une erreur, la personne à l’intérieur a aussi accès aux pédales non?



Sinon je me pose quand même une question, certes ni la voiture ni la personne n’ont vu le camion blanc sur un ciel clair, mais ni l’un ni l’autre n’ont été capable de repérer une ombre ou une roue? C’est quand même inquiétant…




on y apprend que&nbsp;la Model S roulait à 74 mph (environ 119 km/h) sur une

route qui est normalement limitée à 65 mph (presque 105 km/h) indique&nbsp;le

NTSB, sans préciser à quoi était dû ce dépassement de la limitation.





Ben ça roule comme ça aux États-unis, la police tolère (selon les états) jusqu’à 10mph au dessus de la vitesse limite. Du coup, les conducteurs “cruisent” environ 9mph au dessus.


Peut-être un camion furtif.<img data-src=" />


Le type regarde un film au lieu de conduire et on ouvre une enquête pour définir les responsabilités <img data-src=" />


A cause des assurances, sans responsabilités clair, personne ne paiera.








Charly32 a écrit :



Ben ça roule comme ça aux États-unis, la police tolère (selon les états) jusqu’à 10mph au dessus de la vitesse limite. Du coup, les conducteurs “cruisent” environ 9mph au dessus.





Quand c’est pas plus, en californie en général les gens roulent à 80-90 mph au lieu de 65 et tout le monde s’en fout.









bojack9512 a écrit :



Sinon je vois pas pourquoi il faudrait forcément accuser la voiture d’une erreur, la personne à l’intérieur a aussi accès aux pédales non? &nbsp;



&nbsp;

Sans vouloir rentrer dans le débat c’est la faute du conducteur/de la voiture/du pape, parce qu’on n’en saura sans doute jamais rien et que c’est pas très interessant, dire qu’il avait accès au pédales n’est pas très pertinent.

&nbsp;Si tu t’attend à ce que la voiture freine, le temps que tu te rende compte qu’elle ne le fait pas c’est largement trop tard pour le faire toi même.









Cartmaninpact a écrit :



Le type regarde un film au lieu de conduire et on ouvre une enquête pour définir les responsabilités <img data-src=" />







Faut trouver le moyen de coller ça sur TPB si le film a été téléchargé illégalement (vu que kat est mort)…



Il manque un système de détection d’obstacle par radar, un système optique ne suffit pas. Sauf que ça brouillerait les radars de la police. Donc pour continuer à mettre des PV, on préfère que les gens se tuent avec des systèmes de détection d’obstacle non fiables.








sinbad21 a écrit :



Il manque un système de détection d’obstacle par radar, un système optique ne suffit pas. Sauf que ça brouillerait les radars de la police. Donc pour continuer à mettre des PV, on préfère que les gens se tuent avec des systèmes de détection d’obstacle non fiables.





En même temps quand toutes les voitures vont se conduire toute seules, ça va en faire un manque à gagner pour l’état. Sans compter tout les radars à mettre à la poubelle…



N’importe quoi. Les deux technos (radar et lidar) peuvent être utilisées pour la conduite automatique, ils ont certainement choisi le lidar pour ses propriétés.



D’ailleurs il existe aussi des lidar de vitesse pour flasher les gens qui ne respectent pas les règles.


Les radars se rentabilisent vite, le problème ça va être le manque à gagner, pas de les jeter ;-)



D’autre part l’argent récolté est utilisé pour financer les transports publics et la prévention de la sécurité routière. Les transports en commun coûteront moins cher quand ils seront automatisés, et la prévention de la sécurité routière n’aura plus de sens quand tout sera automatique.


Troll ?

Je vois pas en quoi ça peut brouiller les radars de police, d’ailleurs j’ai cru comprendre dans une précédente news qu’il y en avais un, mais placé en dessous du pare-brise.

&nbsp;Et comme le bas du camion était plus haut -&gt; pas de detection








ErGo_404 a écrit :



Les radars se rentabilisent vite, le problème ça va être le manque à gagner, pas de les jeter ;-)



D’autre part l’argent récolté est utilisé pour financer les transports publics et la prévention de la sécurité routière. Les transports en commun coûteront moins cher quand ils seront automatisés, et la prévention de la sécurité routière n’aura plus de sens quand tout sera automatique.





les transports en communs couteront toujours aussi cher.

&nbsp;

En effet,je paie plein pot, et il manque encore 77% de mon écot pour rentabiliser mon transport.

ce qui veut dire que mes impôts paient les 77% restant aux malheureux qui n’ont pas les moyens de payer le JUSTE prix pour un JUSTE service.

Je tiens a préciser que les 40€ de transport que je paie par mois pourraient être mis dans ma voiture pour parcourir les 6km entre mon domicile et mon lieux de travail.

Mais j’ai une conscience verte.

&nbsp;

&nbsp;









ErGo_404 a écrit :



N’importe quoi. Les deux technos (radar et lidar) peuvent être utilisées pour la conduite automatique, ils ont certainement choisi le lidar pour ses propriétés.



D’ailleurs il existe aussi des lidar de vitesse pour flasher les gens qui ne respectent pas les règles.



Qui équipent entre autre les voitures-radars qui flashent en roulant <img data-src=" />



Quoiqu’il en soit c’est une fonctionnalité “Bêta” certes payée au prix fort mais tout de même. 300 Chevaux sous le capot et un âne au volant …

&nbsp;








Commentaire_supprime a écrit :



Faut trouver le moyen de coller ça sur TPB si le film a été téléchargé illégalement (vu que kat est mort)…







Parait qu’il regardait “Sleepy Hollow: La Légende du conducteur sans tête”.







  • L’humour c’est comme le café : c’est meilleur quand c’est très noir -









maxoux a écrit :



Troll ?

Je vois pas en quoi ça peut brouiller les radars de police, d’ailleurs j’ai cru comprendre dans une précédente news qu’il y en avais un, mais placé en dessous du pare-brise.

&nbsp;Et comme le bas du camion était plus haut -&gt; pas de detection





Il est vraiment très mal réglé alors. Le but du radar est de détecter une collision à venir sur n’importe quel point de la voiture, pas sur le radar lui-même.



:p



Ce n’est effectivement pas un problème de vitesse mais d’accélération (ou plutôt de décélération).








Ami-Kuns a écrit :



Peut-être un camion furtif.<img data-src=" />







Déjà qu’avec les avions furtifs ils avaient un temps d’avance sur nous.<img data-src=" />







Cashiderme a écrit :



Sans vouloir rentrer dans le débat c’est la faute du conducteur/de la voiture/du pape, parce qu’on n’en saura sans doute jamais rien et que c’est pas très interessant, dire qu’il avait accès au pédales n’est pas très pertinent.

 Si tu t’attend à ce que la voiture freine, le temps que tu te rende compte qu’elle ne le fait pas c’est largement trop tard pour le faire toi même.







Pas d’accord dans le sens ou la voiture ne doit pas freiner au dernier moment, sinon c’est que le système est mal foutu. Si on tester un nouveau parachute qui s’ouvre automatiquement, tu n’attends pas d’arriver à une hauteur trop faible pour toi même déclencher le parachute.



Mais bon sinon mon message à la base c’était par rapport à la vitesse pour savoir si le conducteur pouvait forcer un excès de vitesse alors que la voiture n’en faisait pas à la base.



Ça dit rien sur le camion qui coupe la voie ? Ou la priorité était au camion ?


Tout ça à cause d’un lecteur de DVD qui n’a pas détecté l’obstacle et prévenu le téléspectateur… c’est moche&nbsp;<img data-src=" />


119 km/h au lieu de 105… je sais pas pourquoi mais j’ai l’impression que ça n’aurait absolument rien changé.








Firefly’ a écrit :



Si la legislation américaine rendaient obligatoire les barres de sécurité latéral et à l’arrière des camions on en serait probablement pas là …

Déjà, la voiture l’aurait peu être détecté plus facilement, mais en plus de ça , c’est l’avant de la voiture qui amortie le choc par compression comme dans un accident ‘normal’ et pas en mode guillotine …







Il me semble que les barres de sécurité à l’arrière sont aussi obligatoire au USA. Mais bon, latéral, je peux comprendre que ce ne soit pas forcément obligatoire, on se prend pas souvent un camion perpendiculairement, ce n’est pas un accident courant.







Charly32 a écrit :



Ben ça roule comme ça aux États-unis, la police tolère (selon les états) jusqu’à 10mph au dessus de la vitesse limite. Du coup, les conducteurs “cruisent” environ 9mph au dessus.





En même temps, vu les longues routes toutes droites sans rien sur plusieurs 100aines de km qu’ils se tapent là bas, il y a de quoi comprendre que l’on souhaite un peu accélérer le pas.



14 km/H dans un calcul d’énergie cinétique ça doit commencer à faire une petite différence à un moment ou un autre <img data-src=" />


Je suis bien d’accord, le premier responsable c’est bien le camion qui était en travers le route ? Non parce qu’à moins d’équiper les voitures autonomes de fonction saut à la K2000 je ne vois vraiment pas ce que la voiture aurait pu faire.



D’un autre côté si ni la voiture ni le conducteur n’a pu voir le camion il vas falloir interdire ces camions “furtif”, tout ça manque d’information sur les conditions de l’accident et de témoignages d’autre automobiliste.


Dans le transport en bus j’imagine que le gros du coût c’est le conducteur. Pour les trams/trains/metros effectivement ça ne doit pas être ça, donc l’automatisation ne changera pas grand chose.


Je sais que l’énergie potentielle se calcule avec le carré de la vitesse, mais un choc au dela de 100km/h sera toujours fatal.




En effet, selon l’administrateur du NHTSA ces fonctionnalités permettent généralement de rendre les voitures plus sûres et donc de sauver des vies. Il expliquait que l’industrie automobile « ne peut pas attendre que ce soit parfait » et qu’il faut être « prêt à tout pour ce qui permet de sauver la vie des gens ».



La famille de la victime appréciera les mots choisis.


Le principale “gain” financier de l’automatisation des transport ne sera pas la suppression des conducteurs, mais l’amélioration des performances du systèmes :




  • Tu pourras adapter plus facilement, ta capacité de production.

  • Tes infrastructure seront globalement, plus performante ( surtout pour le transport guidé).

  • Tu aura une meilleur utilisation du matériel…&nbsp;


être « prêt à tout pour ce qui permet de sauver la vie des gens ».



Cette phrase m’avait déjà interpellé.

Il faut être prêt à perdre des vies pour en gagner…



Je sais que je vais me prendre des retours, mais bon, on en a déjà chez nous qui grillent des stops ou des feux sans meme regarder ce qui arrive, certains qui conduisent un camion en regardent un film, et bien d’autres. Du coup dans tout ces cas de figure, si le conducteur ne force pas, ce sera a l’auto pilote de réagir correctement de maniere fiable et en toute situation.



Donc non, ca ne me rassure pas sur comment l’être humain exploitera ce type d’équipement.



Et au dela, je vois aussi la galère en entretiens venir ^^… entre voitures électriques et ça, j’ai le sentiment que ‘ont se rapproches



-de les voitures jetables . oui, il y a un défaut, on comprend pas, ce n’es pas le capteur machin qui à été remplacé et on a déjà changé le faisceau, ça vous fait déjà une facture de 900€ mais on ne sais pas d’ou viens la panne. Apres ce n’est plus le même model donc peux être que les valeurs sont un poil différentes, il faudra peut être faire une maj du système mais on ne sait pas comment le reste va réagir (on en es au débuts… de la à ce que sa se repende c’est tout à fait possible vu les couacs occasionnels de models ou séries ^^‘).





-De la voiture qui te colle des prunes au moindre truc :)



-De la voiture qui te colle de la pub ^^’.









Ami-Kuns a écrit :



A cause des assurances, sans responsabilités clair, personne ne paiera.







Bah, techniquement le conducteur reste responsable de son vehicule pour moi ^^



Sinon ca sera le bordel si tout le monde se retourne contre tel ou tel constructeur car le conducteur ne surveillait pas ce que l’auto pilote censé surveiller ce que le pilote aurait du faire.









maxoux a écrit :



Troll ?

Je vois pas en quoi ça peut brouiller les radars de police, d’ailleurs j’ai cru comprendre dans une précédente news qu’il y en avais un, mais placé en dessous du pare-brise.

 Et comme le bas du camion était plus haut -&gt; pas de detection





Damned ! C’est pour ça !

Les radars aériens ne voient pas les avions, ils sont en dessous !!!

<img data-src=" />









Commentaire_supprime a écrit :



\begin{gros troll}



Ah le politiquement correct ! Nxi cède à la mode du monde façon bisounours en ne montrant pas les photos du cadavre du conducteur de la voiture, ni la vidéo complète du crash. C’est pourtant de l’information, merde !



\end{gros troll}



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />





Comme par hasard on a retrouvé les papiers d’identité du conducteur, c’est pourtant scientifiquement impossible vue sa vitesse de 74 mph.



Et dire que l’on aurait rien retrouvé s’il avait réussi à atteindre 88 mph <img data-src=" />


Mobileye à dégagé Tesla, c’est un coup dur pour Tesla. Tesla vends à peine 50000 voitures par ans.


Intéressante, l’information sur la vitesse excessive. En effet, le respect des vitesses légales sur la route paraît être l’une des fonctionnalités les plus évidentes à mettre en place sur une voiture automatique.



Certes, cela suppose de disposer de cartes routières à jour, ce qui semble être difficile actuellement. Cette difficulté semble cependant liée à l’absence de concertation entre les responsables des réseaux routiers et les services de cartographie. En effet, les services de cartographie ignorent souvent les travaux sur la route et la voirie, alors que ces travaux sont en principe planifiés avec plusieurs mois d’avance.



Peut-être pourrait-on augmenter la sécurité routière en anticipant l’arrivée massive des voitures autonomes ? Il est en effet probable, dans les décennies à venir, que la majorité des voitures soient autonomes. Il serait alors pertinent que les infrastructures s’adaptent à cet usage, en plus des voitures elles-mêmes.



Ceci dit, ces remarques paraissent quelque peu hors sujet ici, l’accident étant manifestement lié à un défaut d’interprétation des capteurs embarqués.








x689thanatos a écrit :



être « prêt à tout pour ce qui permet de sauver la vie des gens ».



Cette phrase m’avait déjà interpellé.

Il faut être prêt à perdre des vies pour en gagner…







Il existe déjà un parallèle simple : les ambulances. Quand je les vois forcer le passage, se jeter comme des tarés dans un carrefour en grillant le feu, etc, je me demande qui sont les réels assassins. Pire encore, ceux qui font ça sans la sirène, ce qui est normalement un abus car les deux avertisseurs (lumineux et sonore) doivent être actifs pour indiquer l’intervention urgente.









Cashiderme a écrit :



En même temps quand toutes les voitures vont se conduire toute seules, ça va en faire un manque à gagner pour l’état. Sans compter tout les radars à mettre à la poubelle…







il y a peut être mieux à faire que mettre des radars pour gagner de l’argent ?









Crysalide a écrit :



1+ je ne comprends pas pourquoi ces mesures de sécurité sur les poids-lourds ne sont pas obligatoires: signalisation fluo à l’arrière,&nbsp; sticker informant de la longueur du camion, feux divers à différentes endroits (avec des colonnes de feux en cas de pluie), barres de sécurité etc.





J’ai bcp de mal à comprendre le mécanisme de l’accident …

Je suppose que la remorque n’était pas immobilisée en travers de la chaussée … Vu le point d’impact il semble assez incompréhensible que le conducteur ne l’ai pas vu arriver



Le système autonome lit les panneaux et s’y adapte, donc c’est un faux problème. S’il y a des travaux non répertorié, il y aura de toute façon un panneau indiquant la vitesse à respecter au début de la zone de travaux et un panneau indiquant la fin de la vitesse.



Reste à voir ce qui est toléré comme différence de vitesse avec ces systèmes. Je pensais qu’il respectait à la lettre les vitesses imposés mais il faut croire que non. Ceci dit, la voiture n’a pas freiné donc la vitesse trop importante est un faux débat. Même à la moitié de la vitesse, le résultat d’un tel accident aurait été le même, le pare-brise n’est pas prévu pour amortir un choc.


Salut



Comme déja dit il était en train de regarder un film.. <img data-src=" />

&nbsp;trop confiant dans la technologie !!

A+


Il l’a bien vu mais pensait que sur le pare-brise était projeté par son lecteur video le flim fast and furious 217.

Mais non.


Pour contrer ce genre d’accident, il faudrait augmenter ou ajouter des capteurs qui prennent en compte ces cas de figures. Je me demande comment le véhicule a pu confondre le ciel et la remorque.

&nbsp; Elle s’appuie sur des capteurs visuels ? Et non pas d’autres types d’ondes que lumineuses ?

&nbsp;L’écholocation ou un mode “radar” ne sont pas présents ? :/

&nbsp; Pour la vitesse, il se peut que la prise en compte de la limitation à 65 mph ait été prise en compte trop tardivement, ça reste un gros GPS à bord. Il y a de la latence … mortelle

&nbsp; Pour l’instant, je ne suis pas trop pressé de passer à une voiture autonome ;) . Par contre, cegenre de gadget ajouté à son véhicule est peut-être plus pertinent. <img data-src=" />&nbsp; &nbsp; &nbsp; &nbsp;




Accident mortel : la Tesla Model S roulait trop vite

Pourtant en roulant plus vite, il serait passé avant que le camion ne s’engage.



<img data-src=" /><img data-src=" /><img data-src=" />








Loeff a écrit :



Le système autonome lit les panneaux et s’y adapte, donc c’est un faux problème. S’il y a des travaux non répertorié, il y aura de toute façon un panneau indiquant la vitesse à respecter au début de la zone de travaux et un panneau indiquant la fin de la vitesse.



Reste à voir ce qui est toléré comme différence de vitesse avec ces systèmes. Je pensais qu’il respectait à la lettre les vitesses imposés mais il faut croire que non. Ceci dit, la voiture n’a pas freiné donc la vitesse trop importante est un faux débat. Même à la moitié de la vitesse, le résultat d’un tel accident aurait été le même, le pare-brise n’est pas prévu pour amortir un choc.





Tu as raison, le dépassement de vitesse est un faux débat ici, puisqu’elle n’est ni la cause de l’accident, ni responsable de la mort du chauffeur.



Néanmoins, la voiture autonome “comprenait”-elle être en dépassement de vitesse ?



Quelle est la responsabilité du constructeur de la voiture autonome face au non respect du code de la route ? De manière connexe, quelle est la responsabilité légale des constructeurs permettant aux chauffeurs de régler leur régulateur de vitesse à une valeur clairement illégale sur route ?



Enfin, la voiture enregistrant déjà l’ensemble des paramètres de conduite et les communiquant au constructeur, le législateur ne sera-t-il pas enclin à imposer aux constructeurs un respect plus strict des limites légales aux voitures autonomes, voire la dénonciation automatique des “chauffeurs” humains contrevenants aux autorités ? (Notons qu’en France, malgré la présence de caméras de surveillance, et donc de capacité de constatation d’infractions, les sociétés d’autoroutes n’ont aucun rôle de police sur leur réseau, et ne dénoncent pas les délits de la route aux autorités compétentes. Du moins, à ma connaissance.)









SebGF a écrit :



Il existe déjà un parallèle simple : les ambulances. Quand je les vois forcer le passage, se jeter comme des tarés dans un carrefour en grillant le feu, etc, je me demande qui sont les réels assassins. Pire encore, ceux qui font ça sans la sirène, ce qui est normalement un abus car les deux avertisseurs (lumineux et sonore) doivent être actifs pour indiquer l’intervention urgente.







Je ne pense pas qu’il y ait de rapport. Ils disent juste que statistiquement, les voitures autonomes sont plus sécurisé/fiable que les humains au volant.



Après c’est une question de voir le verre à moitié vide ou à moitié plein. Le fait que la voiture autonome soit moins dangereuse est un fait. Après tu peux dire qu’elle cause encore des accidents ou….qu’elle en cause moins (Que l’humain) en fonction de si tu veux l’incriminer ou pas, mais les faits ne changent pas.



D’ailleurs pour les ambulances si on arrive au tout autonome, ça serait intéressant de voir les véhicules prioritaire rouler presque en ligne droite à vitesse constante très élévé et voir tous les autres véhicules se ranger bien en ordre 30s avant son passage et qui arvertirons les piétons proches “Attention, ambulance, attention, ambulance” avec le phare rouge projeté au sol.



un Américain de 40 ans qui se filmait régulièrement au volant de sa Tesla, active le mode Autopilot sur une route de l’Ohio. Sur cette «&nbsp;undivided highway&nbsp;», une sorte de route nationale, un semi-remorque arrive en sens inverse et utilise la voie centrale pour tourner à gauche. Au lieu de freiner, la Tesla «&nbsp;est passée sous la remorque [qui était perpendiculaire] et son toit a été arraché. Le conducteur est mort sur les lieux du drame&nbsp;&nbsp;Habituellement dans cette situation le véhicule qui coupe la voie doit attendre qu’elle soit dégagée, a moins que l’intersection soit régulée par des feux …


Je suis perplexe sur le fait que “statistiquement, les voitures autonomes sont plus sécurisé/fiable que les humains au volant”, cette technologie, adaptée au monde de l’automobile est très récente, quel retours peuvent avoir les contructeurs sur cette fiabilité ?

Quelle faibilité dans le temps peuvent-ils garantir sur des véhicules qui peuvent avoir été mal entretenus ou pas entretenus du tout, avoir vieillis dans de mauvaises conditions ou dans un mauvais environnement voir carrément utilisé dans des conditions non prévus par le constructeur ?

Pourquoi ces capteurs supplémentaires mettant la sécurité/vie des passagers en jeu seraient-ils plus fiables que les systèmes embarqués actuels qui ont prouvés à tous que la fiabilité dans le temps n’était pas leur atout majeur ?

&nbsp;








yakakliker a écrit :



Je suis perplexe sur le fait que “statistiquement, les voitures autonomes sont plus sécurisé/fiable que les humains au volant”, cette technologie, adaptée au monde de l’automobile est très récente, quel retours peuvent avoir les contructeurs sur cette fiabilité ?

Quelle faibilité dans le temps peuvent-ils garantir sur des véhicules qui peuvent avoir été mal entretenus ou pas entretenus du tout, avoir vieillis dans de mauvaises conditions ou dans un mauvais environnement voir carrément utilisé dans des conditions non prévus par le constructeur ?

Pourquoi ces capteurs supplémentaires mettant la sécurité/vie des passagers en jeu seraient-ils plus fiables que les systèmes embarqués actuels qui ont prouvés à tous que la fiabilité dans le temps n’était pas leur atout majeur ?

&nbsp;





Idem, par ailleurs les comparaisons en terme de “morts/km parcourus” sont biaisées, car d’une part les conducteurs sont censés toujours avoir la main (il est donc possible qu’ils aient “rattrapé” des erreurs potentielles du système “autonome” et ces véhicules sont - par définition - plus recents que la moyenne des véhicules en circulation



Je suis d’accord qu’il faudra attendre plus longtemps pour avoir des statistiques aussi fiables (et pleines de sens)&nbsp;que celles des voitures classiques, mais il ne faut pas perdre d’objectif que la visée est bien de réduire les risques.

Comme vous l’avez dit, c’est encore tout récent, cela veut aussi dire qu’il y aura des améliorations.



L’atterissage automatique des avions a, je pense (je n’ai pas de source), eu les mêmes problèmes.








x689thanatos a écrit :



être « prêt à tout pour ce qui permet de sauver la vie des gens ».



Cette phrase m’avait déjà interpellé.

Il faut être prêt à perdre des vies pour en gagner…





Je pense plutôt qu’il s’agit de l’idiome “le mieux est l’ennemi du bien” : si les véhicules autonomes sont meilleurs que les humains (postulat), il n’y a pas de raison d’attendre qu’ils soient parfait pour remplacer les conducteurs humains. Mieux vaut un système qui échoue une fois sur dix qu’un qui échoue une fois sur deux, dire qu’il faut trouver un système n’échouant jamais pour changer est contre productif.







SebGF a écrit :



Il existe déjà un parallèle simple : les ambulances. Quand je les vois forcer le passage, se jeter comme des tarés dans un carrefour en grillant le feu, etc, je me demande qui sont les réels assassins. Pire encore, ceux qui font ça sans la sirène, ce qui est normalement un abus car les deux avertisseurs (lumineux et sonore) doivent être actifs pour indiquer l’intervention urgente.





Les ambulances “simples” (ambulances privées, ambulances d’hôpitaux hors SMUR…) relèvent de la catégorie des véhicules d’intérêt général bénéficiant de facilités de passage. Elles peuvent utiliser la bande d’arrêt d’urgence et faire demi tour ou s’arrêter sur une autoroute, mais c’est à peu près tout, même avec un gyrophare. Donc si une ambulance grille un feu rouge ou force un croisement, il y a de bonne chance qu’elle soit en tord même si elle ne met personne en danger.

À ne pas confondre avec les véhicules d’intérêt général prioritaires (SMUR, ambulances des pompiers…) qui eux peuvent simplement ignorer le code de la route.



Dans les deux cas, les exemptions sont sous réserve de ne pas mettre en danger les autres usagers. On est plus dans le cas de conducteurs cowboys que dans le cas d’un gouvernement considérant qu’il est OK de tuer des gens pour en sauver d’autres <img data-src=" />









Sans intérêt a écrit :



Néanmoins, la voiture autonome “comprenait”-elle être en dépassement de vitesse ?







[la] fonctions Traffic-Aware Cruise Control, qui permet à la voiture de gérer l’accélérateur et les freins afin de s’adapter automatiquement au trafic[…] étaient activée



Il est possible qu’au vu du trafic, la voiture ai justement décidé qu’il était nécessaire d’aller au dela de la limitation, pour ne pas etre en danger.



Il peut en effet arriver des situations où, vu que toutes les autres voitures sont au dessus de la limitation de vitesse, le fait de la respecter fait de toi un danger et te met également en danger.



Autant je suis d’accord que actuellement les stats n’aient aucune valeur (trop petit échantillon, ciblé sur un nombre de véhicules haut de gamme trop restreint, et dont le mode “auto” est limité à certaines routes qui voient en général moins d’accidents au km).



Maintenant considérer que “si l’humain a sauvé la machine” ça ne compte pas … je suis pas vraiment d’accord <img data-src=" />



Indiquer le nombre de fois où l’humain a repris la main est largement plus intéressant, et c’est d’ailleurs une donnée affichée dans les rapports mensuels sur la voiture auto de Google par exemple.



Mais au final c’est bien le nombre d’accidents du couple “machine/humain” qui est interessant … tant qu’on a pas une voiture “full auto”.


Je n’ai pas dit “ça ne compte pas” … J’ai juste dit quon ne peut pas imputer le chiffre actuel (en plus des réserves) au seul automatisme …



Par ailleurs effectivement le système s’améliorera, mais par voie de conséquence plus il semblera fiable et complet, moins l’humain aura tendance à être vigilant …



Wait and see








indyiv a écrit :



Idem, par ailleurs les comparaisons en terme de “morts/km parcourus” sont biaisées, car d’une part les conducteurs sont censés toujours avoir la main (il est donc possible qu’ils aient “rattrapé” des erreurs potentielles du système “autonome” et ces véhicules sont - par définition - plus recents que la moyenne des véhicules en circulation







On manque de recul, mais rien qu’à citer les avantages de la machines par rapport à l’homme, particulièrement sur les critères très accidentogène (Alcool, fatigue, drogue, mauvaise journée, téléphone au volant etc…), la machine explose l’homme, même en phase de beta…



C’est un peu comme dire que les machines ne battront jamais un humain à tel jeu. On sait déjà que la question n’est pas de savoir si c’est possible, juste de savoir quand.



Un humain ne sera jamais capable d’avoir autant de capteur et d’analyser autant d’information qu’une machine, qui en plus le fait plus rapidement.



L’avis est forcément biaisè, mais les conférences de Google sur leur voiture sont parlantes, la voiture “voit” des choses qu’un humain ne verrait jamais ou trop tard (Piétons/cycliste derrière un arbre, enfant traversant derrière une voiture etc).



Même si la voiture autonome n’était pas déjà plus fiable qu’un humain, la question n’est pas de savoir si elle le sera…mais quand.



Et pour :





yakakliker a écrit :



Je

suis perplexe sur le fait que “statistiquement, les voitures autonomes

sont plus sécurisé/fiable que les humains au volant”, cette technologie,

adaptée au monde de l’automobile est très récente, quel retours peuvent

avoir les contructeurs sur cette fiabilité ?

Quelle faibilité dans

le temps peuvent-ils garantir sur des véhicules qui peuvent avoir été

mal entretenus ou pas entretenus du tout, avoir vieillis dans de

mauvaises conditions ou dans un mauvais environnement voir carrément

utilisé dans des conditions non prévus par le constructeur ?



Pourquoi ces capteurs supplémentaires mettant la sécurité/vie des

passagers en jeu seraient-ils plus fiables que les systèmes embarqués

actuels qui ont prouvés à tous que la fiabilité dans le temps n’était

pas leur atout majeur ?

&nbsp;







-&gt; L’ojectif des voitures autonomes est plutôt quelque chose à la UBER ou location de voiture/taxi. C’est avoir des flottes gérées par une entreprise et entretenu comme telle, aucune raison de laisser une voiture autonome à l’arrêt puisqu’elle roule toute seule.









Sans intérêt a écrit :



De manière connexe, quelle est la responsabilité légale des constructeurs permettant aux chauffeurs de régler leur régulateur de vitesse à une valeur clairement illégale sur route ?



La même que celle qui permet de rouler à vitesse (puissance, absence de bridage…) à une valeur clairement illégale sur route.



En fait, la solution simple et rapide est d’interdire les camions blancs, très clairs ou réfléchissants. Comme ça, les capteurs ne seront pas trompés.


Beaucoup de choses auraient été différentes !

La première est que l’accident n’aurait pas eu lieu car le camion n’aurait plus été sur l’intersection quand la voiture y serait passé.

La seconde, ben il y aurait une personne vivante de plus sur Terre, avec toutes les conséquences que cela peut engendrer.



Après, cette théorie est aussi vraie si la voiture roulait à 125 km/h sauf que le camion ne serait pas encore arrivé sur l’intersection !








Ramaloke a écrit :



C’est un peu comme dire que les machines ne battront jamais un humain à tel jeu. On sait déjà que la question n’est pas de savoir si c’est possible, juste de savoir quand.



Un humain ne sera jamais capable d’avoir autant de capteur et d’analyser autant d’information qu’une machine, qui en plus le fait plus rapidement.





&nbsp;Là aussi je suis un peu perplexe, question analyse, j’entends parler de l’IA depuis environ 20 ans, Microsoft à testé sa première solution en contact avec l’être humain ….. 24H00 pour la retirer ensuite, les ordinateurs existent depuis 30 ans et malgré tout les problèmes de fiabilité sont toujours les même. Alors pourquoi l’ordinateur d’un véhicule serait-il meilleur que ce même ordinateur utilisé ailleurs ?



L’être humain à une capacité d’adaptation que l’ordinateur ne possède pas (encore ?), les constructeurs obéissent à une logique économique parfois aux dépends de la logique technique, l’ordinateur obéit à des situations pré-programmées par des gens qui sont sensés penser à toutes ces situations.

&nbsp;Ca fait beaucoup de sources possibles de défaillances avant même la mise en route.



&nbsp;J’ai donc beaucoup de mal (même si je souhaite ardemment y croire) à faire confiance à un système me laissant de moins en moins la possibilité de réagir par moi-même, mais peut-être que je vieillis, tout simplement…



&nbsp;





Ramaloke a écrit :



-&gt; L’ojectif des voitures autonomes est plutôt quelque chose à la UBER ou location de voiture/taxi. C’est avoir des flottes gérées par une entreprise et entretenu comme telle, aucune raison de laisser une voiture autonome à l’arrêt puisqu’elle roule toute seule.





Je te rejoins sur ce point, mais est-ce plus rassurant de mettre sa sécurité entre les mains de salariés ou prestataires entretenant un parc de véhicules totalement autonomes d’une entreprise à but lucratif ?

Les entreprises entretiennent elles mieux les véhicules que les particuliers ?



A ce stade, on ne sait pas comment le conducteur est mort: collision de son corps avec un élément de la voiture ou du camion ayant causé une blessure mortelle ou c’est l’énergie renvoyée par la voiture (la devise nickel dehors, niqué dedans des pompiers) ou autre phénomène.



&nbsp;Je dis cela car j’ai l’impression que tout le monde se focalise sur l’Autopilot (qui porte mal son nom) alors que peut-être que Tesla a des problèmes d’absorption de l’énergie. Il ne faudrait pas qu’on en arrive à la situation où accident mortel avec autopilot (peu importe la marque de la voiture) = défaut de conception de l’autopilot et non de la voiture.


Il expliquait que l’industrie automobile « ne peut pas attendre que ce soit parfait » et qu’il faut être « prêt à tout pour ce qui permet de sauver la vie des gens »



Il veut surtout faire un max de profit, l’humain il s’en cague !

… il faut donc être surtout prêt à tout pour faire du flouze.








Ramaloke a écrit :



-&gt; L’ojectif des voitures autonomes est plutôt quelque chose à la UBER ou location de voiture/taxi. C’est avoir des flottes gérées par une entreprise et entretenu comme telle, aucune raison de laisser une voiture autonome à l’arrêt puisqu’elle roule toute seule.





Je verrais plus un service de transport public qu’un taxi/VTC.







yakakliker a écrit :



Je te rejoins sur ce point, mais est-ce plus rassurant de mettre sa sécurité entre les mains de salariés ou prestataires entretenant un parc de véhicules totalement autonomes d’une entreprise à but lucratif ?

Les entreprises entretiennent elles mieux les véhicules que les particuliers ?





T’arrive-t-il de prendre un bus, un métro, un taxi, un VTC et/ou un vélib ?

Car là dessus c’est du pareil au même !









Altair31 a écrit :



T’arrive-t-il de prendre un bus, un métro, un taxi, un VTC et/ou un vélib ?

Car là dessus c’est du pareil au même !





Oui, mais je fais confiance au conducteur qui risque sa vie autant que la mienne et qui aura toujours la possibilité d’arrêter son véhicule voir de ne pas le prendre du tout, si il considère qu’il y a un risque réel pour la sécurité des passagers.

L’être humain à encore la capacité de désobéir si la circonstance l’exige, à ma connaissance ça n’est pas le cas de l’ordinateur.









Ramaloke a écrit :



On manque de recul, mais rien qu’à citer les avantages de la machines par rapport à l’homme, particulièrement sur les critères très accidentogène (Alcool, fatigue, drogue, mauvaise journée, téléphone au volant etc…), la machine explose l’homme, même en phase de beta…





Euh …

Non, c’est une affirmation de ta part mais on ne peut clairement pas prétendre que les machines en béta explosent l’homme …



Quand elle fonctionne correctement, et a condition qu’on ait pensé a tous les elements importants (luminosité, pluviometrie, usure des capteurs embarqués, autonomie etc.), la machine est plus performante que l’homme … ça OK



Dans certaines rames de métro, t’as pas de chauffeur !

Lignes 1 et 14 à Paris, métros de Toulouse, Rennes et Lille et une ligne à Lyon.



Y monterais-tu ?


je sais pas si tu as vu mais il y a des photo dans l’article <img data-src=" />


Perso, je monterai plus dans une voiture conduite par un algo en beta, que dans une voiture conduite par un mec tout bourré <img data-src=" />


evidemment car dans une voiture avec algo en beta, on a toujours la main!








Altair31 a écrit :



Dans certaines rames de métro, t’as pas de chauffeur !

Lignes 1 et 14 à Paris, métros de Toulouse, Rennes et Lille et une ligne à Lyon.



Y monterais-tu ?





En maintenance informatique, on appelle cela de la “télémaintenance”, en effet, il n’y a pas de chauffeur physiquement présent, mais il y a encore un être humain payé pour surveiller en permanence son bon fonctionnement. C’est un peu différent, nous avons toujours cette possibilité “d’enfreindre” les règles pré-programmées dans la machine.

Ça n’est pas le cas pour la voiture totalement autonome (enfin telle que veulent nous la vendre les constructeurs).

Aura t’elle un intérêt quelconque si demain le chauffeur, au lieu de conduire, doit passer tout son trajet à contrôler que l’ordinateur conduit bien ?



Oui, on imagine le truc : grosse sirène et message en rouge clignotant “impact imminent, veuillez reprendre les commandes immédiatement”








legurt a écrit :



les transports en communs couteront toujours aussi cher.

&nbsp;

En effet,je paie plein pot, et il manque encore 77% de mon écot pour rentabiliser mon transport.

ce qui veut dire que mes impôts paient les 77% restant aux malheureux qui n’ont pas les moyens de payer le JUSTE prix pour un JUSTE service.

Je tiens a préciser que les 40€ de transport que je paie par mois pourraient être mis dans ma voiture pour parcourir les 6km entre mon domicile et mon lieux de travail.

Mais j’ai une conscience verte.

&nbsp;

&nbsp;





6km ? et le vélo ? encore plus vert et économique :p



Ah non! Il faut plutôt imposer l’usage d’utilisateurs réfléchissants <img data-src=" />


80 commentaires et personnes n’a pu penser que la voiture n’a pas eu de défaillance mais a plutôt sciemment tué son conducteur ? <img data-src=" />



Les voitures Tesla ont-elles bien intégré les lois d’Asimov ? <img data-src=" />








yakakliker a écrit :



En maintenance informatique, on appelle cela de la “télémaintenance”, en effet, il n’y a pas de chauffeur physiquement présent, mais il y a encore un être humain payé pour surveiller en permanence son bon fonctionnement. C’est un peu différent, nous avons toujours cette possibilité “d’enfreindre” les règles pré-programmées dans la machine.

Ça n’est pas le cas pour la voiture totalement autonome (enfin telle que veulent nous la vendre les constructeurs).

Aura t’elle un intérêt quelconque si demain le chauffeur, au lieu de conduire, doit passer tout son trajet à contrôler que l’ordinateur conduit bien ?







Oui enfin là on est plus dans de l’abstrait psychologique :



Faut-il surveiller son four pour s’assurer qu’il chauffe bien ?

La machine à laver ?

L’ordinateur pour s’assurer qu’il calcule bien ?



La plupart du temps ça se travail en remontée de bug et on considère qu’à un certain niveau de fiabilité le contrôle permanent n’est plus utile (Fait en phase d’Alpha/Beta) et qu’une remontée d’incident à postériori suffit.

Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.



Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.



Et :





yakakliker a écrit :



&nbsp;Là aussi je suis un peu perplexe, question analyse, j’entends parler de l’IA depuis environ 20 ans, Microsoft à testé sa première solution en contact avec l’être humain ….. 24H00 pour la retirer ensuite, les ordinateurs existent depuis 30 ans et malgré tout les problèmes de fiabilité sont toujours les même. Alors pourquoi l’ordinateur d’un véhicule serait-il meilleur que ce même ordinateur utilisé ailleurs ?



L’être humain à une capacité d’adaptation que l’ordinateur ne possède pas (encore ?), les constructeurs obéissent à une logique économique parfois aux dépends de la logique technique, l’ordinateur obéit à des situations pré-programmées par des gens qui sont sensés penser à toutes ces situations.

&nbsp;Ca fait beaucoup de sources possibles de défaillances avant même la mise en route.



&nbsp;J’ai donc beaucoup de mal (même si je souhaite ardemment y croire) à faire confiance à un système me laissant de moins en moins la possibilité de réagir par moi-même, mais peut-être que je vieillis, tout simplement…

&nbsp;



&nbsp;



Qui a parlé d’IA ? C’est de l’IA faible à la limite mais certainement pas de la forte. L’IA est un software qui apprend tout seul et comprend des principes/mécanique dont il va pouvoir se resservir. Donc une faculté d’apprentissage non limité.



Ici c’est analyser toutes les situations et prévoir des réponses adaptées à chaque fois. Donc oui la voiture va peut-être être désemparée dans une situation loufoque…comme un être humain le sera, après effectivement l’être humain devrait s’en sortir, l’ordinateur resté en mode bug. Mais c’est inévitable, et plus il y aura de kilomètre parcouru/de voiture sur le marché, moins ces situations se rencontrerons.



Tu devrais regarder les conférences de Google sur leur voiture, ils abordent beaucoup de ces sujets et problématiques, disponible sur Youtube.

&nbsp;









Ramaloke a écrit :



Ici c’est analyser toutes les situations et prévoir des réponses adaptées à chaque fois. Donc oui la voiture va peut-être être désemparée dans une situation loufoque…comme un être humain le sera, après effectivement l’être humain devrait s’en sortir, l’ordinateur resté en mode bug.







Règle n°1: Si une situation incompréhensible se présente, freiner d’urgence.



Très bonne idée, cela permettrait aussi aux caméras de vidéo-protection de détecter les camions interdits de circulation.


Dans le cas d’une voiture automatique “complete”, à la limite, mais dans le cas de l’“autopilot” de Tesla, il serait préférable de désengager l’autopilot et de rendre la main au conducteur (comme le ferai un avion par exemple).



d’où : le conducteur doit toujours être capable de reprendre la main à tout instant.








Ramaloke a écrit :



Oui enfin là on est plus dans de l’abstrait psychologique :



Faut-il surveiller son four pour s’assurer qu’il chauffe bien ?

La machine à laver ?

L’ordinateur pour s’assurer qu’il calcule bien ?



La plupart du temps ça se travail en remontée de bug et on considère qu’à un certain niveau de fiabilité le contrôle permanent n’est plus utile (Fait en phase d’Alpha/Beta) et qu’une remontée d’incident à postériori suffit.

Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.



Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.



&nbsp;

Il ne faut pas oublier de mettre en face le risque, oublier son électro ménager présente à priori moins de risques pour la vie du propriétaire qu’une défaillance dans un système à 130 sur l’autoroute.



&nbsp;





Ramaloke a écrit :



Qui a parlé d’IA ? C’est de l’IA faible à la limite mais certainement pas de la forte. L’IA est un software qui apprend tout seul et comprend des principes/mécanique dont il va pouvoir se resservir. Donc une faculté d’apprentissage non limité.



Ici c’est analyser toutes les situations et prévoir des réponses adaptées à chaque fois. Donc oui la voiture va peut-être être désemparée dans une situation loufoque…comme un être humain le sera, après effectivement l’être humain devrait s’en sortir, l’ordinateur resté en mode bug. Mais c’est inévitable, et plus il y aura de kilomètre parcouru/de voiture sur le marché, moins ces situations se rencontrerons.





Visiblement, Microsoft lui-même a eu la prétention (?) de la qualifier d’IA :



http://www.zdnet.fr/actualites/ia-tay-de-microsoft-fait-un-petit-tour-sur-twitter-et-puis-s-en-va-39834678.htm



&nbsp;





Ramaloke a écrit :



Tu devrais regarder les conférences de Google sur leur voiture, ils abordent beaucoup de ces sujets et problématiques, disponible sur Youtube.

&nbsp;





Merci pour l’info, je vais fouiner un peu sur Youtube.



De toutes façon, un bon automatisme est un automatisme débrayable…









atomusk a écrit :



Dans le cas d’une voiture automatique “complete”, à la limite, mais dans le cas de l’“autopilot” de Tesla, il serait préférable de désengager l’autopilot et de rendre la main au conducteur (comme le ferai un avion par exemple).



d’où : le conducteur doit toujours être capable de reprendre la main à tout instant.







Un avion, tu prends le manche, le pilote auto se débraye tout seul.



il y a justement eu des crash à cause de ça, dont celui-là est le plus connu.









Ramaloke a écrit :



Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.





Je ne connais pas suffisamment leur métier pour savoir comment ça se passe (c’est peut-être mieux comme ça)



&nbsp;





Ramaloke a écrit :



Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.





Nous sommes entièrement d’accord.



Il y a confusion ici, ce n’est pas une IA forte&nbsp;qui est utilisée dans les voitures autonomes. l’AI Tay (IA forte)&nbsp;de microsoft n’est pas utilisé pour les voitures autonomes et n’a pas la prétention de le faire.


Au contraire pour critiquer de manière constructive un système et trouver des failles on se doit de bien comprendre le système actuel. Sinon on discute sur des “on dit” “on pense” “un jour” et des si.



Ensuite pour le risque de hack, on est sur un tout autre problème, ne venons pas compliquer quelque chose de complexe en partant dans tous les sens.








Pictou a écrit :



Il y a confusion ici, ce n’est pas une IA forte&nbsp;qui est utilisée dans les voitures autonomes. l’AI Tay (IA forte)&nbsp;de microsoft n’est pas utilisé pour les voitures autonomes et n’a pas la prétention de le faire.





Fort heureusement, cependant il est probable, vue la multiplicité des situations d’urgences qu’un véhicule peut rencontrer, que ces véhicules autonomes finissent très rapidement par être connectés en permanence avec une pseudo IA qui apprendra et analysera au fur et à mesure les situations afin de mettre “à jour” les réactions à effectuer.&nbsp;



Mieux, oui. Plus facile, non…








coucou_lo_coucou_paloma a écrit :



La même que celle qui permet de rouler à vitesse (puissance, absence de bridage…) à une valeur clairement illégale sur route.





Il est possible de conduire sur circuit avec une voiture. La différence ici est qu’une voiture autonome sait qu’elle roule bien sur une route publique où s’applique le code de la route, et qu’elle décide de ne pas le respecter, que cette décision soit directe (algorithme brut fourni par le constructeur), indirecte (paramètres modifiés par le chauffeur) ou passive (laisser faire du chauffeur).



Suite à un accident mortel provoqué par un chauffard, un patron de bar a déjà été condamné d’avoir servi de l’alcool à un client ivre.&nbsp;Qu’en sera-t-il quand&nbsp;une voiture autonome, “consciente” d’une conduite dangereuse, est impliquée dans un accident provoqué par son chauffeur ?









Sans intérêt a écrit :



Suite à un accident mortel provoqué par un chauffard, un patron de bar a déjà été condamné d’avoir servi de l’alcool à un client ivre. Qu’en sera-t-il quand une voiture autonome, “consciente” d’une conduite dangereuse, est impliquée dans un accident provoqué par son chauffeur ?





on met la voiture en prison ? <img data-src=" />



Si il n’est question que de “vitesse”, interdire à une voiture “automatique” de dépasser les limites de vitesse “imposera” de faire de même avec les véhicules “manuels” … ou au moins appliquer une limitation aux vitesses “clairement excessives” (genre interdiction de dépasser 170km/h). Ca le problème serait le même <img data-src=" />









Sans intérêt a écrit :



Suite à un accident mortel provoqué par un chauffard, un patron de bar a déjà été condamné d’avoir servi de l’alcool à un client ivre.&nbsp;Qu’en sera-t-il quand&nbsp;une voiture autonome, “consciente” d’une conduite dangereuse, est impliquée dans un accident provoqué par son chauffeur ?





Du coup on intègre des capteurs aptes à réagir aux faiblesses des conducteurs (fatigue, stress, drogues), tartine beurrée à 02 ça passe, 04 bon ok mais plombé à 20kmh rapport au temps de réaction etoussa, 4.5 la voiture te dit va vomir ailleurs et ne s’ouvre même pas&nbsp;<img data-src=" />









Ramaloke a écrit :



Oui enfin là on est plus dans de l’abstrait psychologique :



Faut-il surveiller son four pour s’assurer qu’il chauffe bien ?

La machine à laver ?

L’ordinateur pour s’assurer qu’il calcule bien ?



La plupart du temps ça se travail en remontée de bug et on considère qu’à un certain niveau de fiabilité le contrôle permanent n’est plus utile (Fait en phase d’Alpha/Beta) et qu’une remontée d’incident à postériori suffit.

Les gars de la RATP ou des rames de métro ne font que gérer une fois l’alerte reçu, ils ne check pas en permanence les rames avec les yeux sur l’écran. C’est juste des outils de supervision avec de jolis lignes vertes, rouges et bleue et des petits écrans d’indicateurs.



Le VRAI risque est plutôt selon moi au niveau du hack des voitures, prise de contrôle à distance etc. Par exemple un hacker qui enverrait 200 voitures autonomes à un point de chute au lieu d’une seule, un beau bordel en perspective.



Et :

 



Qui a parlé d’IA ? C’est de l’IA faible à la limite mais certainement pas de la forte. L’IA est un software qui apprend tout seul et comprend des principes/mécanique dont il va pouvoir se resservir. Donc une faculté d’apprentissage non limité.



Ici c’est analyser toutes les situations et prévoir des réponses adaptées à chaque fois. Donc oui la voiture va peut-être être désemparée dans une situation loufoque…comme un être humain le sera, après effectivement l’être humain devrait s’en sortir, l’ordinateur resté en mode bug. Mais c’est inévitable, et plus il y aura de kilomètre parcouru/de voiture sur le marché, moins ces situations se rencontrerons.



Tu devrais regarder les conférences de Google sur leur voiture, ils abordent beaucoup de ces sujets et problématiques, disponible sur Youtube.







Tu devrais un jour essayer de développer un soft ^^



Tu verrais que ce tu racontes ne marche malheureusement pas dans la plupart des cas.









Mimmo D.DN a écrit :



Du coup on intègre des capteurs aptes à réagir aux faiblesses des conducteurs (fatigue, stress, drogues), tartine beurrée à 02 ça passe, 04 bon ok mais plombé à 20kmh rapport au temps de réaction etoussa, 4.5 la voiture te dit va vomir ailleurs et ne s’ouvre même pas <img data-src=" />







Et on en arrive à une situation ou les gens ne sont plus maitre de leur véhicule.



Cela dépend de ce que tu entends par “maître de leur véhicule”, personnellement même aujourd’hui je ne me sens pas du tout maître de mon véhicule, je ne sais pas conduire sous la neige, je ne sais pas réagir quand je passe sur du verglas/aquaplaning, je ne sais pas réagir quand une voiture arrive en contre-sens sur ma voie (généralement je fige et je ne ralentis que bien trop tard) et bien d’autre cas.








Pictou a écrit :



Cela dépend de ce que tu entends par “maître de leur véhicule”, personnellement même aujourd’hui je ne me sens pas du tout maître de mon véhicule, je ne sais pas conduire sous la neige, je ne sais pas réagir quand je passe sur du verglas/aquaplaning, je ne sais pas réagir quand une voiture arrive en contre-sens sur ma voie (généralement je fige et je ne ralentis que bien trop tard) et bien d’autre cas.







Alors dans ce cas, tu n’as que 2 solutions :




  • passer ton permis de conduire.

  • vendre ta voiture.



On ne m’a jamais appris à faire ces choses pendant le permis, seulement à circuler en respectant le code de la route et les précautions d’usage.



Tu sais faire tout ça toi?








Pictou a écrit :



On ne m’a jamais appris à faire ces choses pendant le permis, seulement à circuler en respectant le code de la route et les précautions d’usage.



Tu sais faire tout ça toi?







A chaque fois que j’ai du affronté des conditions inconnues (la première fois sur la neige, je ne faisais pas le fière), j’ai appliqué ce que j’ai appris à l’auto école…. et bizarrement, aucun problème.



Et si tu ne te sens pas suffisamment sur de toi, il existe des stages de perfectionnement à la conduite, pour apprendre notamment à conduire dans des conditions extrêmes.









eliumnick a écrit :



Tu devrais un jour essayer de développer un soft ^^



Tu verrais que ce tu racontes ne marche malheureusement pas dans la plupart des cas.







Si ça ne marchait pas, on aurait jamais réussi à faire des ordinateurs avec des portes logiques et des algorithmes&nbsp; sur des milliards de transistors ?



Pas parce que la majorité du temps les projets sont montés/gérées/finalisées n’importe comment à la truelle que c’est la faute du projet ou de l’outil…



Vu la masse de donnée en jeu, j’ose espérer que les équipes de Google sont quand capable de gérer le truc à peu près correctement et pas niveau PME débauché pour rusher un truc à faire pour la veille :)



Et on t’as appris quoi à l’auto-école pour conduire dans la neige? moi, rien du tout. En 8 ans il a dû neiger une fois chez moi.



Je sais parfaitement qu’il existe des stages de perfectionnement, mais je faisais le parallèle avec ton expression “maitre du véhicule”. C’était la définition qu’on m’avait donné pour le permis, si tu as le permis, c’est que tu es maître de ton véhicule, or c’est totalement faux.

C’est pourquoi j’ai dit dans mon premier post “cela dépend de ce que tu entends par maître de ton véhicule”.



Pour en revenir sur cette partie : “j’ai appliqué ce que j’ai appris à l’auto école…. et bizarrement, aucun problème.” C’est comme ton message précédant où tu évoquais le développement d’un soft, en&nbsp;théorie ça marche d’une façon, en pratique c’est autre chose.








yakakliker a écrit :



…L’être humain à une capacité d’adaptation que l’ordinateur ne possède pas (encore ?)…







L’être humain a un instinct de survie surtout, ce que n’aura jamais la machine <img data-src=" />









Ramaloke a écrit :



Si ça ne marchait pas, on aurait jamais réussi à faire des ordinateurs avec des portes logiques et des algorithmes  sur des milliards de transistors ?



Pas parce que la majorité du temps les projets sont montés/gérées/finalisées n’importe comment à la truelle que c’est la faute du projet ou de l’outil…



Vu la masse de donnée en jeu, j’ose espérer que les équipes de Google sont quand capable de gérer le truc à peu près correctement et pas niveau PME débauché pour rusher un truc à faire pour la veille :)







Vas y identifie tous les cas d’utilisation possible de la voiture, les cas d’erreur, bref les plans de tests, histoire de voir si tout les cas ont bien été pris en compte lors de la phase de beta…









Pictou a écrit :



Et on t’as appris quoi à l’auto-école pour conduire dans la neige? moi, rien du tout. En 8 ans il a dû neiger une fois chez moi.



Je sais parfaitement qu’il existe des stages de perfectionnement, mais je faisais le parallèle avec ton expression “maitre du véhicule”. C’était la définition qu’on m’avait donné pour le permis, si tu as le permis, c’est que tu es maître de ton véhicule, or c’est totalement faux.

C’est pourquoi j’ai dit dans mon premier post “cela dépend de ce que tu entends par maître de ton véhicule”.



Pour en revenir sur cette partie : “j’ai appliqué ce que j’ai appris à l’auto école…. et bizarrement, aucun problème.” C’est comme ton message précédant où tu évoquais le développement d’un soft, en théorie ça marche d’une façon, en pratique c’est autre chose.







Bah le truc qu’on m a toujours dit à l’auto école : dans le doute roule doucement, freine doucement, tourne doucement, accélère doucement, bref être le plus prudent et le plus fluide possible.



Et j’habite sur Nantes, ca fait 10 ans que j’ai mon permis, et y’a qu’une année (soit environ 4-5 jours) ou j’ai conduit sur la neige ^^



Oui donc tu as eu les mêmes précautions que moi et que dans n’importe quel cas, que ce soit pluie, neige, verglas, route sinueuse etc…

Quand j’ai vu la différence de niveau entre ma conduite sur la neige et les gens qui ont l’habitude… je ne me suis pas senti maître de mon véhicule par rapport&nbsp;à ces gens là. En clair, la façon dont je roulais, je n’appelais pas ça rouler.



Est-ce que ton niveau de conduite sur la neige était le meilleur de ta ville? loins du meilleur? car moi personnellement j’étais très loin d’être au top.








Cartmaninpact a écrit :



L’être humain a un instinct de survie surtout, ce que n’aura jamais la machine <img data-src=" />





N’en sois pas si sûr. Ce robot-ci refuse d’exécuter les ordres qui le mettent en danger.









eliumnick a écrit :



Vas y identifie tous les cas d’utilisation possible de la voiture, les cas d’erreur, bref les plans de tests, histoire de voir si tout les cas ont bien été pris en compte lors de la phase de beta…






Pourquoi crois-tu que google utilise un reseau de neuronne pour l'apprentissage et utilise leur voiture dans la circulation ?     



&nbsp;

Pas parce que tu vois/gère tous tes projets par dessus la jambe que c’est impossible de bien faire avec des équipes qui suivent les consignes que c’est une vérité absolue. On coderait rien de complexe à ce niveau, vas-y faire atterie une fusée sur une barge en mer c’est bien trop compliqué à coder on y arrivera jamais ! Oh wait !



-&gt; NB : Même si, je sais, vérifier un logiciel complexe c’est impossible et qu’au moins un bug existera toujours, mais dans ce cas là, un humain aussi peut buger (malaise, douleur, paralysie au volant…), rien n’est parfait.



Et s’il doit choisir entre se mettre en danger lui et mettre en danger l’humain à côté de lui, il choisit quoi ?


Il refuse, il refuse…. “vas y je vais t’attraper”, okay j’y vais comme si de rien n’était. Je pense que la description de la vidéo se veut légèrement provocatrice.








V_E_B a écrit :



Les ambulances “simples” (ambulances privées, ambulances d’hôpitaux hors SMUR…) relèvent de la catégorie des véhicules d’intérêt général bénéficiant de facilités de passage. Elles peuvent utiliser la bande d’arrêt d’urgence et faire demi tour ou s’arrêter sur une autoroute, mais c’est à peu près tout, même avec un gyrophare. Donc si une ambulance grille un feu rouge ou force un croisement, il y a de bonne chance qu’elle soit en tord même si elle ne met personne en danger.

À ne pas confondre avec les véhicules d’intérêt général prioritaires (SMUR, ambulances des pompiers…) qui eux peuvent simplement ignorer le code de la route.





D’ailleurs les sirènes ne sont pas les mêmes pour les deux types de véhicule <img data-src=" />.







yakakliker a écrit :



Je te rejoins sur ce point, mais est-ce plus rassurant de mettre sa sécurité entre les mains de salariés ou prestataires entretenant un parc de véhicules totalement autonomes d’une entreprise à but lucratif ?

Les entreprises entretiennent elles mieux les véhicules que les particuliers ?





Tu mets déjà ta sécurité entre les mains de salariés ou prestataires d’une entreprise à but lucratif fournissant un véhicule lorsque tu achètes une voiture <img data-src=" />.









Firefly’ a écrit :



Si la legislation américaine rendaient obligatoire les barres de sécurité latéral et à l’arrière des camions on en serait probablement pas là …

Déjà, la voiture l’aurait peu être détecté plus facilement, mais en plus de ça , c’est l’avant de la voiture qui amortie le choc par compression comme dans un accident ‘normal’ et pas en mode guillotine …





120 Km/h a zéros&nbsp; avec juste pour dissiper l’énergie cinétique le châssis à déformation programmé, le conducteur serait mort suite à la transformation de son cerveau en gelée à l’intérieur de la boite crânienne.



Si il avait survécus, le choc du cerveau sur la boite crânienne se serait accompagné de pas mal de lésions sur la zone d’impact avec en plus des saignement diffus&nbsp; à l’intérieur du cerveau.



Enfin, l’absence casque et de protection cervicale comme en formule 1 se serait accompagné de méchantes lésions cervicales. C’est lourd une tête.









Pictou a écrit :



Oui donc tu as eu les mêmes précautions que moi et que dans n’importe quel cas, que ce soit pluie, neige, verglas, route sinueuse etc…

Quand j’ai vu la différence de niveau entre ma conduite sur la neige et les gens qui ont l’habitude… je ne me suis pas senti maître de mon véhicule par rapport à ces gens là. En clair, la façon dont je roulais, je n’appelais pas ça rouler.



Est-ce que ton niveau de conduite sur la neige était le meilleur de ta ville? loins du meilleur? car moi personnellement j’étais très loin d’être au top.







Ah bah évidement, au début je faisais pas le fier, et nantes est une grande ville, mais j’étais pas le plus nul ni le meilleur ^^ L’assurance vient avec le temps.



Mais effectivement, je vois ou tu veux en venir, il y a une différence entre maitriser son véhicule (lui faire faire ce qu’on veut), et être maitre de son véhicule (avoir le contrôle sur lui à chaque instant).



Du coup j’aurais tendance à dire que le code de la route parle du second cas, et avec les conseils reçu à l’auto école, normalement on peut respecter ce cas.









Ramaloke a écrit :



Pourquoi crois-tu que google utilise un reseau de neuronne pour l’apprentissage et utilise leur voiture dans la circulation ?

 

Pas parce que tu vois/gère tous tes projets par dessus la jambe que c’est impossible de bien faire avec des équipes qui suivent les consignes que c’est une vérité absolue. On coderait rien de complexe à ce niveau, vas-y faire atterie une fusée sur une barge en mer c’est bien trop compliqué à coder on y arrivera jamais ! Oh wait !



-&gt; NB : Même si, je sais, vérifier un logiciel complexe c’est impossible et qu’au moins un bug existera toujours, mais dans ce cas là, un humain aussi peut buger (malaise, douleur, paralysie au volant…), rien n’est parfait.







Nan mais cherche pas, picatrix te battra toujours.



vivement la Tesla Model S… 2.0, faut toujours laisser les earlys adopters faire le sale boulot <img data-src=" />








bojack9512 a écrit :



Déjà qu’avec les avions furtifs ils avaient un temps d’avance sur nous.<img data-src=" />







Pas d’accord dans le sens ou la voiture ne doit pas freiner au dernier moment, sinon c’est que le système est mal foutu.



&nbsp;

Nan mais on parle de délais de l’ordre du quart de seconde là. “Oh merde le cami” sprotch la cervelle

Tu peux bien théoriser autant que tu veux sur la mal foutitude du système, si ça à pas le temps d’atteindre au pire la moëlle epinière t’es mort tout pareil <img data-src=" />



Dire que le conducteur doit reprendre le volant à tout moment en cas de problème c’est utopique.

Une fois habitué à la voiture, ayant pris confiance, le conducteur se relâchera forcément (au moins par moment).



C’est à mon avis hypocrite d’essayer ça, il faudrait plutôt partir sur des voitures totalement autonomes sans volant (même s’il faut attendre 10 ans de plus !) et que ça soit la responsabilité du fabricant.


À partir du moment où le conducteur s’est retrouvé “headless”, il n’a pas pu reprendre la main en ligne de commande assez vite et le drame était inévitable. On peut penser que rien de tout cela ne serait arrivé dans un tunnel SSH, bien plus sécurisé que les nationales.