Tesla : un premier accident mortel avec le pilotage automatique activé

Tesla : un premier accident mortel avec le pilotage automatique activé

« Des conditions extrêmement rares »

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

01/07/2016 4 minutes
179

Tesla : un premier accident mortel avec le pilotage automatique activé

Il y a quelques semaines, un accident mortel a impliqué une Tesla Model S avec le pilotage automatique activé, une première selon la société. Cette dernière revient sur les circonstances et elle rappelle que l'Autopilot est une fonctionnalité encore en version bêta.

Début mai, un accident un peu particulier a eu lieu aux États-Unis. En effet, il s'agit selon Tesla du premier aux conséquences mortelles pour le conducteur de la voiture alors que le pilotage automatique était activé. Pour rappel, cette option (facturée tout de même 2 800 euros à l'achat) permet normalement à la « Model S de suivre parfaitement la route, de changer automatiquement de voie en actionnant simplement le clignotant et d'adapter sa vitesse grâce à son régulateur de vitesse dynamique qui réagit en fonction du trafic » selon la présentation de Tesla.

Suite à cela, la National Highway Traffic Safety Administration (NHTSA) — une agence fédérale chargée de la sécurité routière — a décidé d'ouvrir une enquête. « Cette action est simplement une évaluation préliminaire afin de déterminer si le système fonctionnait conformément aux attentes » tient à souligner le constructeur.

Des circonstances extrêmement rares, un camion blanc et un ciel lumineux...

Dans un billet de blog, ce dernier donne quelques détails sur les conditions de l'accident : « De ce que nous savons, le véhicule se trouvait sur une route à chaussées séparées avec l'Autopilot activé quand un semi-remorque est passé sur la route, perpendiculairement à la voiture Model S. Ni le pilote automatique, ni le conducteur n'ont remarqué le flanc blanc de la remorque du semi-remorque face à un ciel très lumineux, de sorte que les freins n'ont pas été actionnés ».

La conséquence ne s'est pas fait attendre : « La hauteur de caisse de la remorque combinée à son positionnement sur la route et à des conditions extrêmement rares au moment de l'impact, ont conduit la Model S à passer sous la remorque, avec un impact entre le bas de la remorque et le pare-brise de la voiture ». Tesla ne donne pas de détails supplémentaires sur les tenants et les aboutissants de ce drame, mais ajoute que « si la Model S avait percuté l’avant ou l’arrière de la remorque, même à grande vitesse, son système de sécurité avancé en cas d'accident aurait probablement évité de graves blessures, comme cela s’est déjà produit dans plusieurs accidents ».

L'Autopilot, une fonctionnalité encore en bêta

Dans tous les cas, le constructeur automobile ajoute que son Autopilot est encore en phase de bêta-test public et qu'il est désactivé par défaut. Afin de baliser le terrain pour une éventuelle action en justice, Tesla ajoute que, au moment d'activer cette fonctionnalité, il est précisé qu'il s'agit d'une « fonction d'assistance qui vous oblige à garder vos mains sur le volant en tout temps » et que « vous devez conserver le contrôle ainsi que la responsabilité de votre véhicule ».

De plus, Tesla rappelle que vous devez « toujours garder vos mains sur le volant » et être « prêt à prendre le relais à tout moment ». La voiture vérifie normalement que les mains sont bien sur le volant et envoie des alertes si ce n'est pas le cas. Ces protections ont-elles fonctionné correctement ? Ce n'est pas précisé.

Pilotage automatique Tesla

Tesla indique également que son Autopilot « s'améliore tout le temps », mais qu'il n'est « pas parfait » et qu'il exige donc que le conducteur soit toujours alerte. C'est le premier accident mortel au bout d'un peu plus de 200 millions de km avec l'Autopilot activé selon Tesla. L'entreprise ajoute que, en moyenne, un accident mortel arrive tous les 150 millions de km aux États-Unis et tous les 96 millions de km au niveau mondial.

L'identité de la personne décédée n'est pas précisée par le fabricant qui se contente d'indiquer qu'il s'agit d'un « ami de Tesla » et d'une personne qui a dédié une partie de sa vie aux nouvelles technologies. Selon plusieurs de nos confrères américains (Bloomberg et Forbes par exemple) qui ont pu obtenir des confirmations auprès de diverses autorités, il s'agirait de Joshua Brown.

Ironie du sort, il a deux mois à peine, il avait posté une vidéo sur son compte YouTube où l'on pouvait voir l'Autopilot de sa Model S éviter un autre véhicule qui arrivait sur sa gauche. Elle avait d'ailleurs été partagée sur Twitter par Elon Musk, l'emblématique PDG de Tesla.

Dans tous les cas, cela devrait relancer (s'il en était besoin), le débat sur les voitures autonomes et les choix qui peuvent être faits ou non par l'intelligence artificielle. Il conviendra maintenant d'attendre les conclusions du NHTSA pour avoir de plus amples informations.

179

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Des circonstances extrêmement rares, un camion blanc et un ciel lumineux...

L'Autopilot, une fonctionnalité encore en bêta

Commentaires (179)


Je suis sur qu’il y avait impliqué dans l’accident




  • un ravin

  • un groupe de piéton

    (voire un chaton <img data-src=" /> )






Tesla indique&nbsp;également que son&nbsp;Autopilot&nbsp;« s’améliore&nbsp;tout le temps », mais qu’il n’est&nbsp;« pas parfait »&nbsp;et qu’il exige donc que le conducteur soit toujours alerte.





C’est là la faiblesse du système IMO. Difficile de rester concentré quand tu n’a rien à faire.&nbsp;

Il y a déjà ce soucis sur l’autoroute avec l’accélérateur automatique. Très vite l’esprit s’égare et on fait moins gaffe.


J’ai du mal à comprendre ce que cette histoire de couleur fait ici.

Le camion blanc avec un ciel très lumineux peuvent induire le conducteur en erreur, mais je ne vois pas en quoi ça joue sur le radar qui, normalement, aurait du détecter le camion non ? (ondes & co)


me suis poser la même question. Normalement ça fonctionne avec des infra rouge pour détecter les mouvements. Est ce que par ce que le camion était blanc et que la soleil tapait dans la même sens ça a perturbé le système? Mystère…


Je me suis posé exactement la même question.&nbsp;



Rader couplé avec une caméra ?


Bref, l’ordinateur ne l’a pas vu, mais le conducteur non plus. Le résultat aurait donc été identique avec n’importe quel autre modèle de véhicule.



Mais du coup, je suis étonné de voir que le logiciel utilise l’image en lumière visible pour analyser l’environnement, je pensais qu’il y avait au minimum un radar actif anticollision à l’avant.


Idem, cette “explication” n’a aucun sens (à minima il manque des éléments d’explication…)

Par ailleurs j’ai un peu de mal à comprendre quel est le véhicule respo (le camion ou le Tesla?)




La hauteur de caisse de la&nbsp;remorque combinée à son positionnement

sur la route et à des&nbsp;conditions extrêmement rares au moment de

l’impact, ont conduit la Model&nbsp;S à passer sous la remorque, avec

un&nbsp;impact entre le bas de la remorque et le pare-brise&nbsp;de la voiture





Il n’existe pas de réglementation contre ça ?

Du genre placer des barres de renfort en bas du camion.








L3 G33K a écrit :



je pensais qu’il y avait au minimum un radar actif anticollision à l’avant.





Mais s’il teste à hauteur de pare-choc et que le faisceau passe sous la remorque du semi, entre le train arrière et celui du tracteur … y-a comme un espace où c’est juste la hauteur qui manque.

Dommage pour la tête du conducteur (*)



(*) Peut-on encore appeler “conducteur” quelqu’un qui ne conduit plus ? Ou doit-on dire “passager avant gauche” ?



Si le camion s’est engagé comme ça en mode “yolo”, il est pas étonnant que l’autopilot n’ai pas eu le temps de le détecter aussi ou alors trop tardivement.


2éme place du mort pour le coup.




Dans tous les cas, le constructeur automobile ajoute que son Autopilot est encore en phase de bêta-test public et qu’il est désactivé par défaut. Afin de baliser le terrain pour une éventuelle action en justice, Tesla ajoute que, au moment d’activer cette fonctionnalité, il est précisé qu’il s’agit d’une « fonction d’assistance qui vous oblige à garder vos mains sur le volant en tout temps » et que « vous devez conserver le contrôle ainsi que la responsabilité de votre véhicule ».



Une option à 2800 € appelée “autopilot” qui n’est pas à utiliser comme un auto-pilote, pas sûr que ça passe comme défense.





Cette dernière revient sur les circonstances et elle rappelle que l’Autopilot est une fonctionnalité encore en version bêta.



Et le mec il est mort en recette ?


Dans tous les systèmes autonomes automobiles il y a au moins un radar. Dans le cas présent, ça n’a pas fonctionné…


De ce que je comprend, le véhicule a des capeurs ultrason “autour” de la voiture, mais aujourd’hui elle n’a pas encore de “lidar”, et s’appuie sur une camera. Ce qui est clairement insuffisant pour en faire une vraie “voiture autonome”.



En considérant que la portée des ultrason est trop courte (ou que la forme du camion faisait que les capteurs ultrason ne “voyaient pas” le camion - la voiture serait passé entre 2 trains de roue par exemple), et que la camera n’arrivait pas à détecter la forme du camion, il n’est pas “impossible” que le camion était “invisible” pour les capteurs.



l’enquête en tout cas sera intéressante, mais clairement, avec la techno actuelle, on est encore TRES loin du “je lance ma voiture sur l’autoroute, je vais me faire une petite sieste <img data-src=" />)



Aussi avec l’arrivée des lidar plus compact et “solid state” on peut esperer que Tesla “upgrade” ses véhicules …








L3 G33K a écrit :



Bref, l’ordinateur ne l’a pas vu, mais le conducteur non plus. Le résultat aurait donc été identique avec n’importe quel autre modèle de véhicule.



Mais du coup, je suis étonné de voir que le logiciel utilise l’image en lumière visible pour analyser l’environnement, je pensais qu’il y avait au minimum un radar actif anticollision à l’avant.





Ou si le conducteur conduisait il aurait pu voir le camion est freiner a temps. Mais je suppose que lorsque tu as le pilote auto tu as tendance a faire autre chose que regarder la route.



Oui, le conducteur ne l’a pas vu.



Parce que le mort a été interrogé, donc on sait de source sûr qu’il n’a pas vu le camion.



C’est d’une évidence.


L’info importante est quand même que le conducteur humain, aveuglé, n’a rien capté non plus à ce qui se passait. Mais là où le pilotage automatique a continué pépère, un humain aurait dû au moins ralentir.


Pour ma part je pense que c’est quand même “la faute” du conducteur de la Tesla. Même si la voiture est pilotée de manière autonome, ça ne dispense pas d’être vigilant. A défaut de logique il y a un rappel quand on active la fonctionnalité…



Déjà à la base mettre sa vie dans les mains d’un outil en bêta, faut être joueur …









Inny a écrit :



L’info importante est quand même que le conducteur humain, aveuglé, n’a rien capté non plus à ce qui se passait.



&nbsp;

Pas forcément. comme dit plus haut, il était peut-être pas attentif puisque la voiture est censée éviter les obstacles.

Il n’est pas dit qu’il a été aveuglé, juste qu’il n’a pas vu le camion.&nbsp;

Qui dit qu’il n’aurait rien vu dans un véhicule “classique” où il faut être attentif?&nbsp;



il faut surtout voir que du point de vue de la loi, c’est lui qui était considéré comme le conducteur du véhicule …



Ca n’est pas parce que ma voiture a un régulateur de vitesse et un algo pour “suivre les lignes” que je peux demander réparation si je me prend un platane …


Le fait qu’il n’ait pas freiné semble impliqué qu’il ne l’a pas vu / qu’il ne regardait pas ou … qu’il était sucidaire, il est vrai <img data-src=" />


Quand on lis ce que les gens font en suivant aveuglément un GPS, ça ne m’étonnerait qu’à moitié que certains soient totalement inactifs lorsque l’auto-pilote est activé sur la Tesla (malgré que ce soit en bêta)








DownThemAll a écrit :



Pour ma part je pense que c’est quand même “la faute” du conducteur de la Tesla. Même si la voiture est pilotée de manière autonome, ça ne dispense pas d’être vigilant. A défaut de logique il y a un rappel quand on active la fonctionnalité…



Déjà à la base mettre sa vie dans les mains d’un outil en bêta, faut être joueur …





Mettre ce genre d’outil en Beta dans la main de clients c’est pas vraiment responsable. Après légalement ils sont blinde je pense mais moralement c’est pas forcement brillant.



Ca ne m’étonne pas. Avec l’algo primitif avec le quel l’autopilote détecte les obstacles il ne peut y avoir que des plantages. Et en plus dire que ce sont des circonstance rares c’est n’importe quoi. La route est bien l’endroit ou l’on croise tout les type de circonstances justement.








Dr.Wily a écrit :



Ca ne m’étonne pas. Avec l’algo primitif avec le quel l’autopilote il détecte les obstacles il ne peu y avoir que des plantages. Et en plus dire que ce sont des circonstance rares c’est n’importe quoi. La route est bien l’endroit ou l’on croise tout les type de circonstances. N’importe quoi !





Tu as accès aux algo des voitures Tesla ?



Si je comprends bien le radar est placé trop bas et le pilote automatique se base sur les différences de couleurs ?








djludo61 a écrit :



Si le camion s’est engagé comme ça en mode “yolo”, il est pas étonnant que l’autopilot n’ai pas eu le temps de le détecter aussi ou alors trop tardivement.





Oui, comment est-ce qu’un tel accident arrive si les deux respectent la signalisation?

Si le camion a grillé son feu, due d’anticiper suffisamment…



Pour moi, beta ou non, dans sa version actuelle (même quand ils seront sorti de beta test à 100%), sans changer le hardware, il faudra “toujours” rester vigilant, et le véhicule te demandera toujours régulièrement de s’assurer que tu as les mains sur le volant.



Tesla n’a jamais promis que “une fois sorti de beta test” tu pourras dormir pendant que la voiture te conduit … l’enquête essayera sans doute d’identifier si c’est un “bug”, une limitation physique des capteurs ou quoi que ce soit … mais je pense qu’avant tout, c’était au conducteur de sauver la situation.








Dr.Wily a écrit :



Ca ne m’étonne pas. Avec l’algo primitif avec le quel l’autopilote détecte les obstacles il ne peut y avoir que des plantages. Et en plus dire que ce sont des circonstance rares c’est n’importe quoi. La route est bien l’endroit ou l’on croise tout les type de circonstances justement.







&nbsp; De toute façon 100% de fiabilité cela n’existera jamais, il y aura toujours des accidents, pour une raison ou pour une autre. La seule vérité c’est que la conduite automatique est plusieurs dizaines de fois moins accidentogène que l’humain.



Donc même en l’état actuel de la technologie, qui est encore en beta, si on remplçait tous les conducteurs par les algo de conduites automatiques, on réduirait déjà par 10 ou 20 le nombre d’accident de la route, minimum.



&nbsp;









seb2411 a écrit :



Mettre ce genre d’outil en Beta dans la main de clients c’est pas vraiment responsable. Après légalement ils sont blinde je pense mais moralement c’est pas forcement brillant.





Ou pas… Il faut faire la part des choses entre le nombre de fois ou une Tesla à planté son conducteur et le nombre de fois où elle a sauvé son conducteur.

Le système de Tesla n’est pas un système autonome, mais un système de sécurité suffisamment élaboré pour donner à la voiture des fonctions ressemblant à de l’autonomie. A partir du moment où tu lâches le volant tu te mets volontairement en danger.









DownThemAll a écrit :



Pour ma part je pense que c’est quand même “la faute” du conducteur de la Tesla. Même si la voiture est pilotée de manière autonome, ça ne dispense pas d’être vigilant. A défaut de logique il y a un rappel quand on active la fonctionnalité…



Déjà à la base mettre sa vie dans les mains d’un outil en bêta, faut être joueur …





Ben lui il a eu son screen de Game Over…



Ou qu’il ne pouvait pas imaginer que la technologie qu’il vantait ne soit pas capable de voir un semi.



Mon post n’était là que pour pointer du doigt la non certitude de cette information affirmer par Tesla, mais c’est normal de la part de Tesla, de la même façon qu’aucun politicien n’a dit “Oui, j’ai un compte en Suisse”, Tesla ne va pas dire “Oui, notre tech a tué quelqu’un”.



Perso, je suis pour le pilote automatique, mais il savoir garder un esprit critique sur l’information.


Avant de pointer du doigt le système autonome en beta de Tesla, certes justifié, ce serait également l’occasion de revoir la sécurité sur les poids-lourd outre-atlantique. Des barre anti-collision sur les flancs, comme c’est le cas en Europe, pour éviter que le premier point d’INpact se fasse au niveau du pare-brise, c’est pour quand?



Hollywood ne veut pas de ça car 99% de leur cascade mettant en scène un poids-lourd ne pourraient plus se faire?     



&nbsp;“wouhouuuuu, glissade sous la remorque avec ma motoooooo… et je repars tranquillement!”


Il avait suffisamment confiance pour laisser faire l’auto-pilot pour en faire des videos et les poster. (cf les précédentes…)

Le temps de se dire “Eh merde elle freine pas cette fois…”, c’est déjà trop tard !








seb2411 a écrit :



Tu as accès aux algo des voitures Tesla ?



Dans l’état actuel de la techno de reconnaissance visuelle, pas besoin d’avoir accès à leurs travaux pour savoir comment ça fonctionne. Et cette façon de fonctionner est loin d’être fiable. Bien moins que l’attention humaine.







Ramaloke a écrit :



De toute façon 100% de fiabilité cela n’existera jamais, il y aura toujours des accidents, pour une raison ou pour une autre.







Je suis d’accord sur ce premier point. Si un humain n’est pas 100% fiable dans un domaine ou les variables sont innombrables, alors une machine ne risque pas de faire mieux.







Ramaloke a écrit :



La seule vérité c’est que la conduite automatique est plusieurs dizaines de fois moins accidentogène que l’humain.







Il y a des stats à ce sujet ? J’ai un doute, étant donné que la techno n’est pas assez rependue pour la comparer à la conduite humaine.







Ramaloke a écrit :



Donc même en l’état actuel de la technologie, qui est encore en beta, si on remplçait tous les conducteurs par les algo de conduites automatiques, on réduirait déjà par 10 ou 20 le nombre d’accident de la route, minimum.







Même chose, spéculation sans fondement.



Pas aux US apparemment….








Spaz001 a écrit :



Oui, le conducteur ne l’a pas vu.



Parce que le mort a été interrogé, donc on sait de source sûr qu’il n’a pas vu le camion.



C’est d’une évidence.









Et dire que certains doutent encore de l’intérêt de la nécromancie….



De toute manière… si vous confiez votre vie à un ordinateur… y’a pas a tergiverser…

Ca reste un ordinateur capable de bug, de plantage, de reboot et j’en passe…&nbsp;

Manquer de vigilance dans un véhicule autonome car on a confiance, c’est comme jouer à la roulette russe avec un glock…








Spaz001 a écrit :



Ou qu’il ne pouvait pas imaginer que la technologie qu’il vantait ne soit pas capable de voir un semi.



Mon post n’était là que pour pointer du doigt la non certitude de cette information affirmer par Tesla, mais c’est normal de la part de Tesla, de la même façon qu’aucun politicien n’a dit “Oui, j’ai un compte en Suisse”, Tesla ne va pas dire “Oui, notre tech a tué quelqu’un”.



Perso, je suis pour le pilote automatique, mais il savoir garder un esprit critique sur l’information.









C’est légale d’avoir un compte en suisse, ce qui est interdit : c’est de le cacher au fisc.









Spaz001 a écrit :



Oui, le conducteur ne l’a pas vu.



Parce que le mort a été interrogé, donc on sait de source sûr qu’il n’a pas vu le camion.



C’est d’une évidence.





En général, lorsque je vois un obstacle devant moi, qui plus est un semi-remorque qui, latéralement, présente une surface d’environ 70m², je freine.

Donc s’il n’a pas freiné, c’est qu’il ne l’a manifestement pas vu, en tout cas pas assez tôt pour avoir eu le temps de freiner. Pourquoi ne l’a t-il pas vu, ça on sait pas. Est-ce que le camion a surgit à grande vitesse en lui coupant la route, est-ce que le conducteur ne regardait pas la route, est-ce qu’il était ébloui par le soleil en face? Ça, y’a que l’enquête qui le déterminera.









atomusk a écrit :



Pour moi, beta ou non, dans sa version actuelle (même quand ils seront sorti de beta test à 100%), sans changer le hardware, il faudra “toujours” rester vigilant, et le véhicule te demandera toujours régulièrement de s’assurer que tu as les mains sur le volant.



Tesla n’a jamais promis que “une fois sorti de beta test” tu pourras dormir pendant que la voiture te conduit … l’enquête essayera sans doute d’identifier si c’est un “bug”, une limitation physique des capteurs ou quoi que ce soit … mais je pense qu’avant tout, c’était au conducteur de sauver la situation.





Je suis tout à fait d’accord, ça n’empêche que j’ai déjà lu plusieurs articles de personnes se retrouvant dans des situations cocasses car ils ont suivi sans réfléchir leur GPS qui est censé être également une aide et pas un remplacement <img data-src=" />



Donc tu n’as pas accès à leurs algos? c’est quand même couillu de dire qu’ils ont un algo de merde sans l’avoir en main non?



Et pour avoir été dans une voiture&nbsp;avec pilotage automatique&nbsp;(pas longtemps&nbsp;certes 45 minutes), au contraire j’ai remarqué que je faisais beaucoup plus attention, car je n’avais que la route et les rétros à surveiller, le reste était en stand-by à part le pied sur le frein, et c’était fou le nombre de détails que j’ai pu noter sur un chemin que je connnaissais déjà.


Alors au niveau du “code de la route”, il est en tord.

C’est con à dire, mais c’est comme ça, tu dois toujours être maître de ton véhicule, même si tu as un véhicule bardé de capteurs, même si ta voiture sait freiner d’elle même, le fait de ne pas être capable de freiner par tes propres moyens est un tord.



Maintenant je ne dis pas que ce n’est pas ma grande crainte par rapport aux voitures auto (j’en parlais d’ailleurs dans la news précédente, que j’étais plus inquiet par l’implémentation actuelle chez Tesla que de l’idée que mon véhicule dans un scénario imaginaire pourrait me faire avoir un accident plutôt que de tuer 3 chaton 12), et ayant le régulateur sur ma voiture, je suis sensible au fait que ça entraîne une perte de vigilance … mais dans tous les cas, je ne serai pas du genre à mettre la faute sur la technologie … mais sur la manière dont on l’utilise.


Au delà de la détection des main sur le volant, une caméra qui analyse l’attention du conducteur (micro sommeil par exemple) serait à ajouter comme des capteurs “rectiligne” au niveau supérieur de la voiture (pour ce que ça coute). Un accident bien con qui aurait pu être éviter… si il avait déjà eu lieu… Il faudra essuyer les plâtres comme cela a été fait dans l’aviation grand public.








Ramaloke a écrit :



&nbsp; De toute façon 100% de fiabilité cela n’existera jamais, il y aura toujours des accidents, pour une raison ou pour une autre. La seule vérité c’est que la conduite automatique est plusieurs dizaines de fois moins accidentogène que l’humain.



Donc même en l’état actuel de la technologie, qui est encore en beta, si on remplçait tous les conducteurs par les algo de conduites automatiques, on réduirait déjà par 10 ou 20 le nombre d’accident de la route, minimum.



&nbsp;





On en sait rien, on a jamais fait le test grandeur nature.

Parfois les mises en situation réelles donnent des résultats … surprenants.

Pourtant je ne suis pas technophobe, bien au contraire mais la voiture autonome <img data-src=" />

&nbsp;



Quand la visibilité baisse, on ralenti, ordinateur ou humain, si il y a du soleil on roule moins vite, point !!



C’est une erreur de programmation par des gens ne connaissant pas le code de la route.


On est d’accord, mais dans ce cas, on entre dans un autre débat, et perso, je crains plus la personne qui fait marche arrière sur une bretelle d’autoroute parce qu’elle ne “est perdue si elle ne prend pas cette sortie, parce qu’elle ne connais que cette route” que par le mec qui est bloqué dans un champ de patates parce que son GPS lui a dit d’y aller <img data-src=" />



Perso, le GPS me permet de me “détendre” en voiture (surtout en région Parisienne) parce que je sais que même si je loupe une sortie, un embranchemeent ou quoi, mon GPS me donnera la route à suivre par la suite …



Et pour avoir déjà eut une sortie de l’A86 fermée sur “la route que je prend tous les jours” et eut la panique de “merde comment je vais retrouver” quand j’avais pas encore de GPS, je suis heureux de ce que ça m’apporte <img data-src=" />


Les stats c’est deux accidents (celui la compris) pour les véhicules automatiques. Il suffit de faire les proba en prenant juste l’année 2015 et on a de bonnes stats.



Ensuite il n’y a pas une seule manière de faire de la reconnaissance visuel avec des ordinateurs, donc dire que tu connais les algos c’est un peut présomptueux.








Dr.Wily a écrit :



Dans l’état actuel de la techno de reconnaissance visuelle, pas besoin d’avoir accès à leurs travaux pour savoir comment ça fonctionne. Et cette façon de fonctionner est loin d’être fiable. Bien moins que l’attention humaine.







Je suis d’accord sur ce premier point. Si un humain n’est pas 100% fiable dans un domaine ou les variables sont innombrables, alors une machine ne risque pas de faire mieux.







Il y a des stats à ce sujet ? J’ai un doute, étant donné que la techno n’est pas assez rependue pour la comparer à la conduite humaine.







Même chose, spéculation sans fondement.







En fait on a déjà plus d’une année de retour des google car en Californie. Et même si tu ne le crois pas il suffit de se dire :



-Un ordinateur ne s’endort pas au volant

-Ne boit pas / Drogue pas

-Respect les distances de sécurité

-Est toujours calme/reposé (Pas énervé/passif pour une raison x ou y)

-Roule toujours à la vitesse adéquate (Pas à 70 dans une zone 30…)

&nbsp;

http://www.lemonde.fr/pixels/article/2015/05/12/les-voitures-sans-conducteur-de-…

“Les statistiques dévoilées par Google sont

donc de 6,5&nbsp;accidents pour 1&nbsp;million de miles&nbsp;; un chiffre important,

comparé à la moyenne américaine de 2,8&nbsp;calculée en&nbsp;2012 par la National

Highway Traffic Safety Administration. Mais, comme le souligne Chris

Urmson, la comparaison est plus que hasardeuse. En effet, une grande

partie de ces petits accidents, impliquant peu de dégâts matériels et ne

générant aucune blessure, ne sont jamais signalés, et ne sont donc pas

comptabilisés dans les statistiques.”



Et c’est encore pire car il me semble que les accidents pour lesquelles l’ordinateur était en cause se compte sur les doigts de la main depuis que le projet fonctionne.









Pictou a écrit :



Donc tu n’as pas accès à leurs algos? c’est quand même couillu de dire qu’ils ont un algo de merde sans l’avoir en main non?




   Et pour avoir été dans une voiture&nbsp;avec pilotage automatique&nbsp;(pas longtemps&nbsp;certes 45 minutes), au contraire j'ai remarqué que je faisais beaucoup plus attention, car je n'avais que la route et les rétros à surveiller, le reste était en stand-by à part le pied sur le frein, et c'était fou le nombre de détails que j'ai pu noter sur un chemin que je connnaissais déjà.





&nbsp;&nbsp;&nbsp;



&nbsp;Tu étais plus attentif car c'était une première mais peut-être que la personne décédée dans cet accident l'utilisait depuis sa sortie, tous les jours et sur le même tracé =&gt; à force, on est de moins en moins attentif puisque tout allait bien jusque là (monotonie, routine, etc.)    





Quand je vois le nombre de personnes sur leur téléphone ou lisant un livre dans les ralentissements/bouchons, ça ne m’étonnerai pas que certains fassent pareil si la voiture peut “conduire toute seule”.



genre camion à droite qui tourne à gauche (ou inversement) au dernier moment sans faire attention en dessous et paf la voiture

et là autopilot ou pilote ou conducteur du dredi c’est pareil c’est crash


En effet, mon message avait pour but avant tout que l’explication n’est pas aussi simple que “Ah bah c’est le conducteur, il faisait pas attention”. La vérité c’est qu’on ne sait pas grand chose sur les circonstances.

Mais tu as parfaitement raison.


Encore une fois, je suis à 100% d’accord que c’est un gros souci de cette “génération” d’auto-pilote (car j’espere bien que les suivantes permettront d’avoir une autonomie complete, et qu’on pourra relacher la responsabilité sur les constructeurs).



Mais considérer que c’est de la faute de Tesla, quand pour l’activer tu as un gros popup “attention c’est toi qui conduit”, quand tu laches les mains du volant tu as une sonnerie pour te dire “rappelle toi, je suis pas seul ici !”, et considérer que si tu n’es pas capable de freiner quand tu es en danger est la faute de Tesla, c’est un peu facile …


le problème c’est surtout que le camion n’avait pas d’autopilot. Si tout le monde était piloté par des algos, il n’y aurait plus d’accident.


Je ne comprends pas l’intérêt de ces voitures vu que pendant qu’elle conduit toute seule, faut quand même avoir la boule au ventre et tenir la main au volant. On patauge entre le “je me détends” et “je reste vigilant”, finalement, autant conduire et être maître de la route.



En plus, les “conditions extrêmement rares” &gt; parfois sur la route, il se passe des choses de dingues et meme le meilleur algorithme au monde peut foirer son calcul et t’envoyer au fond d’un ravin. La y a qu’une petite poignet de gens qui conduisent ces véhicules, mais imaginez des millions de conducteurs et que ces véhicules, de temps en temps, a cause de “conditions extrêmement rares”, fait plus de victime qu’une conduite manuelle…



Bref, un algorithme n’est pas humain, n’a pas de conscience et ne peut voir devant soi la réalité des choses et réagir face a des millions de cas possibles… et rares!


“Ni le pilote automatique, ni le conducteur n’ont remarqué le flanc blanc de la remorque”

Et comment peuvent ils le savoir? ils l’ont interrogé? <img data-src=" />


Il faudrait un frein de l’homme mort, si le système est utilisé régulièrement, pas de souci, sinon avertissement et freinage au bout du second avertissement.


Euh la visibilité était bonne. Mais là on a un camion “camouflé” (par sa couleur qui se confondait avec celle du ciel) en travers de la route.


Pour moi c’est surtout un régulateur de vitesse++, ça te retire de la tête le besoin de surveiller ton compteur toutes les 30 secondes, tu te concentres sur la route, tu anticipes la connerie qu’un autre conducteur pourrait faire …

Au final l’autopilot de Tesla c’est juste :




  • régulateur avec détection de panneau pour recaler la vitesse

  • suivi des lignes blanches

  • gestion des changements de voie en sécurité

  • détection de collisions “quand c’est évitable”



    C’est largement insuffisant pour considérer qu’on doit relâcher son attention, mais c’est un pas dans l’arrivée d’un vrai autopilote. Et il faut bien commencer par quelque-part.








Eric_V a écrit :



“Ni le pilote automatique, ni le conducteur n’ont remarqué le flanc blanc de la remorque”

Et comment peuvent ils le savoir? ils l’ont interrogé? <img data-src=" />





Vu qu’apparemment la voiture n’a pas du tout freinée c’est que le mec ne l’a pas vu. Toi tu ne freines pas si tu vois un obstacle sur la route ? La voiture est bardée de télémétrie, de là ils ont pu en conclure que le mec ne l’avait pas vu (ou bien dormait peut-être).



de ce que j’ai vu des video, il y en a un.



Quand tu laches le volant, la voiture bippe, si tu ne réagis pas la voiture met ses warning, si tu ne réagis pas , elle va changer de voie et se placer (de memoire) dans la bande d’arret d’urgence et ralentir.



C’est pas parfait, mais c’est un bon début <img data-src=" />








atomusk a écrit :



de ce que j’ai vu des video, il y en a un.



Quand tu laches le volant, la voiture bippe, si tu ne réagis pas la voiture met ses warning, si tu ne réagis pas , elle va changer de voie et se placer (de memoire) dans la bande d’arret d’urgence et ralentir.



C’est pas parfait, mais c’est un bon début <img data-src=" />





Pas parfait mais déjà carrément mieux que la voiture qui fonce dans le décors quand un mec s’endort au volant d’une voiture “traditionnelle” <img data-src=" />



Je ne dirai pas le contraire…

Comme pour beaucoup de choses dès qu’on parle de sécurité, tout est une question de confiance.

Et visiblement il semblait assez confiant envers ce système pour en montrer les effets, positifs comme négatifs.

Malheureusement, il a négligé que les effets négatifs extrêmes (bug du système? circonstances imprévues?) pouvaient lui couter la vie.



Vaut mieux de toutes façons attendre les résultats de l’enquête avant de mettre ça sur le dos de qqun/qqch…


Du coup, je propose :





  • d’interdire les camions blancs

  • d’interdire les intersections

  • d’interdire les ciels lumineux



    De rien&nbsp;<img data-src=" />



    PS : et ptet aussi interdire les circonstances extrêmement rares, c’est dangereux ça aussi.&nbsp;








grundoc a écrit :



Les stats c’est deux accidents (celui la compris) pour les véhicules automatiques. Il suffit de faire les proba en prenant juste l’année 2015 et on a de bonnes stats.



Ensuite il n’y a pas une seule manière de faire de la reconnaissance visuel avec des ordinateurs, donc dire que tu connais les algos c’est un peut présomptueux.







Dans reconnaissance visuelle il y a “reconnaissance”. Et jusque là la reconnaissance se fait par analogie et sans anticipation. Et quand il y a anticipation, là encore elle est effectuer par rapport à un modèle existant. A partir de là, on est très loin de ce que peut appliqué un humain, a savoir la réactivité et l’improvisation dans une situation de danger. Chose que la machine est incapable de faire quand ce n’est pas dans ses modèles.







Ramaloke a écrit :



En fait on a déjà plus d’une année de retour des google car en Californie. Et même si tu ne le crois pas il suffit de se dire :



-Un ordinateur ne s’endort pas au volant

-Ne boit pas / Drogue pas

-Respect les distances de sécurité

-Est toujours calme/reposé (Pas énervé/passif pour une raison x ou y)

-Roule toujours à la vitesse adéquate (Pas à 70 dans une zone 30…)







Tout a fait, mais parfois il faut savoir rouler plus vite que la vitesse limitée. Par exemple rien que pour doubler ou éviter un obstacle. Chose que la machine ne risquera pas de faire. De plus, il est impossible de comparer des chiffres provenant de Google qui mène sa propre expérience et qui ne va certainement pas aller contre ses recherches, au million d’automobilistes de part le monde.



Je met bien au défit une Google Car ou une Telsa de conduire dans des pays comme le Maroc. On en reparlera après ! <img data-src=" />







Damberrnnnn a écrit :



Du coup, je propose :





  • d’interdire les camions blancs

  • d’interdire les intersections

  • d’interdire les ciels lumineux



    De rien <img data-src=" />



    PS : et ptet aussi interdire les circonstances extrêmement rares, c’est dangereux ça aussi.







    Et voila tout est dit ! Merci !



En effet, donc erreur humaine, on ne peut pas forcément contrôler que le conducteur n’est pas un abrutit !!








Dr.Wily a écrit :



Je met bien au défit une Google Car ou une Telsa de conduire dans des pays comme le Maroc. On en reparlera après ! <img data-src=" />







Attention, l’autopilot de Tesla ne doit pas être activer sur toutes les routes. C’est indiqué par Tesla : trafic en sens unique, marquage correcte etc.



ou passer le hardware à un LIDAR de nouvelle génération

http://www.spar3d.com/news/lidar/vol14no1-velodyne-solid-state-ultra-puck-debuts…



et hop la camera ne servirait qu’à voir les lignes sur la route et ce genre de souci ne devrait plus se produire .


Donc la visibilité était mauvaise, il est impossible de ne pas voir un camion ainsi, sauf mauvaise condition de luminosité (manque de contraste).

Surtout si aucune action de freinage n’a été entreprise, le conducteur ne conduisait juste pas …



De toutes manière il n’y a aucun intérêt à automatiser ainsi les véhicules si le système n’est pas parfait car le conducteur sera toujours inattentif, sinon pourquoi automatiser ?&nbsp;



Il faudrait que l’automatisation soit plus limitée.


Tout en pouvant augmenter la vitesse moyenne…








Dr.Wily a écrit :



Je met bien au défit une Google Car ou une Telsa de conduire dans des pays comme le Maroc. On en reparlera après ! <img data-src=" />



&nbsp;



Je mets au défi n’importe quel occidental de rouler au maroc et/ou en inde…



Dans l’absolu tu pourrais adapter le logiciel à n’importe quelle situation, tout comme nous sommes capables d’apprendre et de nous adapter (Même si ça varie selon les individus).



Cependant, remplace toutes les voitures au maroc par des voitures autonomes, tu n’auras plus d’accident. Même sans feux rouges, stop, intersections etc comme en inde.



T’as juste besoin d’implémenter un mécanisme de céder le passage dans chaque voiture qui en laisse passer une avant d’y aller. Comme on est censé le faire dans une intersection à 4 stop…même si chez nous c’est plus au plus culotté qui y va en premier…



&nbsp;









CryoGen a écrit :



Attention, l’autopilot de Tesla ne doit pas être activer sur toutes les routes. C’est indiqué par Tesla : trafic en sens unique, marquage correcte etc.







J’avais bien compris, dans un situation “idéale”. Mais la route est loin d’être une situation idéale… peu être à part la route 66 ? <img data-src=" />



C’est en grande partie faux. Dans le cas de Tesla c’est différent car le système est relativement basique mais dans le cas des Google Car par exemple le système se comporte largement mieux que l’humain même dans des conditions particulières. Et surtout tu ne peux pas réagir face a des millions de possibilités et tu n’as pas besoin de conscience pour conduire (je vois pas trop le rapport).


C’est toujours statistiquement moins pire que la conduite avec des humains, d’ailleurs on devrait éradiquer tous les humains de la planète et laisser les robots à la place…



<img data-src=" /><img data-src=" /><img data-src=" />








CryoGen a écrit :



Vu qu’apparemment la voiture n’a pas du tout freinée c’est que le mec ne l’a pas vu. Toi tu ne freines pas si tu vois un obstacle sur la route ? La voiture est bardée de télémétrie, de là ils ont pu en conclure que le mec ne l’avait pas vu (ou bien dormait peut-être).





C’est bien le problème : la formulation de Tesla laisse entendre que l’on ne pouvait pas remarquer le camion alors qu’il est tout à fait possible que le conducteur n’avait pas les yeux sur la route



Tu as déjà utilisé le régulateur de vitesse? Car chez moi ca me fait l’effet inverse, beaucoup plus de vigilance car le temps de réaction serra augmenté, le besoin d’anticiper augmente.


Vous oubliez le plus important : il est mort a cause de l’espace inter essieux de la remorque, ce qui n’est pas possible en europe suite a la réglementation qui oblige des barrieres de protection 

(en image&#160https://sc01.alicdn.com/kf/HTB1d0GiLXXXXXc5XpXXq6xXFXXXK/Side-Protection-Barrier… )


Les barres anti-encastrement c’est à l’arriere du camion seulement. Percuter un camion latéralement c’est quand même relativement rare.








seb2411 a écrit :



C’est en grande partie faux. Dans le cas de Tesla c’est différent car le système est relativement basique mais dans le cas des Google Car par exemple le système se comporte largement mieux que l’humain même dans des conditions particulières. Et surtout tu ne peux pas réagir face a des millions de possibilités et tu n’as pas besoin de conscience pour conduire (je vois pas trop le rapport).





+1. J’ai l’impression que beaucoup critiquent le pilotage automatique en se basant uniquement sur leur intuition (“l’algo est primaire” -&gt; ahah! &nbsp;“Algo imaginé par des gens qui ne connaissent rien au code de la route” -&gt; <img data-src=" />&nbsp;?).

&nbsp;A priori l’algo de Google est capable de distinguer un policier sur le bord de la route, &nbsp;il apprend en temps réel ce qu’est une poussette, et en quoi elle réagit différemment d’un vélo), etc, et il n’existe pas vraiment de “condition particulière” puisque la voiture analyse et anticipe tout en temps réel. Et bien sûr, penser qu’un cerveau humain est capable d’analyser des millions de possibilités plus vite qu’un ordinateur est troublant de benoiterie :) ). &nbsp;

De ce que j’ai pu voir, l’autopilote Google est capable de mieux réagir que n’importe quel humain, et des tests filmés l’ont prouvé.

Voici ce que voit une voiture Google:

https://www.youtube.com/watch?v=tiwVMrTLUWg

&nbsp;





Par contre, pour coller de plus près au sujet, je crois que l’autopilote de Tesla n’est pas présenté comme un autopilote à proprement parler, mais comme une “assistance à la conduite”, ce qui n’est pas du tout la même chose en terme d’obligations de fiabilité.



L’un des plus grands défis du pilotage automatique, ce n’est pas de respecter le code de la route, c’est, au contraire, de parvenir à y faire de petites entorses lorsque ça peut éviter l’accident. Et là, il y a une bonne part de culturel, à adapter à chaque pays.



&nbsp;



Sauf erreur de ma part les barre anti-encastrement ne sont pas obligatoire sur les cotés…


Ou l’auteur d’un certain dossier, qui, voyant que cela ne décollait pas, s’est dit qu’il pourrait provoquer un cas d’école.&nbsp;<img data-src=" />



Sinon, je suis quand même étonné que les capteurs ne l’aient pas vu. Il n’y a pas de système laser/infra-rouge/toussa/toussa ? Après, dans le cas de la remorque, il n’y en avait peut-être pas pointé dans la bonne direction, ce qui constituerait une faille mortelle pour le coup.



Quid du camion tout noir dans une nuit sombre avec un précipice et des piétons ?!








Dr.Wily a écrit :



Tout a fait, mais parfois il faut savoir rouler plus vite que la vitesse limitée. Par exemple rien que pour doubler





Si la vitesse de celui de devant ne te permets pas de le doubler en restant toi-même sous la limite, tu es censé rester derrière (genre si quelqu’un roule à 80 sur une nationale, tu doubles pas). C’est écrit dans le code de la route.







Dr.Wily a écrit :



ou éviter un obstacle.





Un exemple? J’arrive pas à imaginer de situation où ce serait nécessaire.









quegorosoit a écrit :



Quand la visibilité baisse, on ralenti, ordinateur ou humain, si il y a du soleil on roule moins vite, point !!



C’est une erreur de programmation par des gens ne connaissant pas le code de la route.





Ou alors un cas auquel personne n’avait pensé (camion blanc sur ciel très clair)





atomusk a écrit :



On est d’accord, mais dans ce cas, on entre dans un autre débat, et perso, je crains plus la personne qui fait marche arrière sur une bretelle d’autoroute parce qu’elle ne “est perdue si elle ne prend pas cette sortie, parce qu’elle ne connais que cette route” que par le mec qui est bloqué dans un champ de patates parce que son GPS lui a dit d’y aller <img data-src=" />





J’étais la semaine dernière dans un pays où il est apparemment normal de prendre les bretelles d’autoroute à contresens pour entrer/sortir de l’autoroute (j’ai vu une dizaine de cas en 3 jours). J’attends de voir comment les constructeurs de voitures autonomes vont pouvoir adapter lers algos pour ce marché &nbsp;<img data-src=" />



Apres tout est question d’algo … et pour le coup, il semble que Google “y ait pensé”

http://www.bbc.com/news/technology-28851996

<img data-src=" />


Un peu facile pour Tesla. C’est en bêta donc on est responsable de rien si ça foire.


Un camion en travers de la route, ça me rappelle l’accident de Coluche.

Sa moto était en autopilote ?


Interdire une voiture automatique qui a eu un incident sur 150-200 millions de km….quand on voit la libre circulation des armes aux US alors qu’elles tuent 10x plus de gens, no comment.


Rahh, si même les ordis sont programmés à se plier à la pression sociale des autres véhicules…

Effectivement, ça peut être nécessaire si la majorité des gens conduisent n’importe-comment. Cela dit, en bientôt 10 ans de conduite, je n’ai jamais rencontré de situation où respecter les limitations était dangereux, ça ne doit pas être extrêmement courant.


Y a eu 3 filmes a ce sujet, c’est vieux trouve autre chose <img data-src=" />








colonelc4 a écrit :



Y a eu 3 filmes a ce sujet, c’est vieux trouve autre chose <img data-src=" />







4 <img data-src=" />



https://fr.m.wikipedia.org/wiki/Terminator_Renaissance




Je ne connais pas les chiffres, mais je dirais qu’au contraire ça doit être l’un des accidents les plus courants entre camions et voitures, le camionneur ne voyant généralement pas la voiture à coté de lui.


Euhhh, on parle d’encastrement mortel là…


Quand tu passes sous un camion parce qu’il se décale sur toi, c’est mortel généralement…

Y a pas que la vitesse qui tue.








Kako78 a écrit :



Ou alors un cas auquel personne n’avait pensé (camion blanc sur ciel très clair)



J’étais la semaine dernière dans un pays où il est apparemment normal de prendre les bretelles d’autoroute à contresens pour entrer/sortir de l’autoroute (j’ai vu une dizaine de cas en 3 jours). J’attends de voir comment les constructeurs de voitures autonomes vont pouvoir adapter lers algos pour ce marché &nbsp;<img data-src=" />





J’ai du mal à visualiser comment vous imaginez les algos de voitures autonomes, pour croire qu’une simple voiture en contresens puisse être un cas aux limites de l’ingérable.

Y’a rien de plus simple à éviter pour un odrdinateur.



La voiture Google va déjà beaucoup plus loin que ça:

https://youtu.be/tiwVMrTLUWg?t=471

&nbsp;



Les voitures autonomes n’ont jamais effectué 150-200 millions de kilomètres mais à peine 2 millions, ce qui est déjà collossal.



<img data-src=" />


oui, mais dans la news, il est question d’un camion “perpendiculaire” à la trajectoire de la voiture … donc je pense que ça n’est pas un “changement de voie” mais sans doute plus une intersection.


C’est pas cela qui va m’empecher d’en acheter une : ça reste une bagnole super sur et quel plaisir d’éclater un kéké au feu avec sa Golf GTI pimpée versus une Tesla Model X familiale avec les 3 banbins à l’arrière*



* En réponse aux futurs commentaires de la police morale disant “Tu fais un démarrage de fou avec 3 enfants à l’arrière..t’es trop co…ou tu dois lire le Figaro”. Je leur répond que ce sont 3 mannequins de type Monique http://www.dollstory.eu/).

&nbsp;


Oui, pour l’accident en question c’est un camion qui arrivait d’en face (doubles voies séparées par une bande de terre centrale) et qui a tourné en coupant la route à la voiture.

Mais là on parlait des barres anti-écrasement latérales, qui ne servent pas que pour une collision perpendiculaire.








Krogoth a écrit :



Tu as déjà utilisé le régulateur de vitesse? Car chez moi ca me fait l’effet inverse, beaucoup plus de vigilance car le temps de réaction serra augmenté, le besoin d’anticiper augmente.





Oui, et au bout d’un moment je me fais tellement chier que je commence à penser à ce que je vais faire de mon WE etc.



Et comment peuvent ils savoir que le conducteur lui même n’a pas vu la remorque du camion ?

Ils ont interrogé le mort ?








Charly32 a écrit :



C’est là la faiblesse du système IMO. Difficile de rester concentré quand tu n’a rien à faire.&nbsp;

Il y a déjà ce soucis sur l’autoroute avec l’accélérateur automatique. Très vite l’esprit s’égare et on fait moins gaffe.





Accélérateur automatique : de quoi s’agit-il ?









OlivierJ a écrit :



Accélérateur automatique : de quoi s’agit-il ?





Tu donne une consigne de vitesse, et la voiture la garde elle même.



C’est sûr qu’avec un bagnole coûtant 3 fois le prix de la caisse du “kéké”, t’as plutôt interêt à l’enrhumer, sinon t’as l’air bien con (voire plus que ledit “kéké”).


Le conducteur matais un film sur DVD: Harry Potter l’a tuerhttp://www.dallasnews.com/business/autos-latest-news/20160701-tesla-owner-killed…








Charly32 a écrit :



Tu donne une consigne de vitesse, et la voiture la garde elle même.



En somme, un régulateur de vitesse quoi.

Non ?









cyberscooty a écrit :



le problème c’est surtout que le camion n’avait pas d’autopilot. Si tout le monde était piloté par des algos, il n’y aurait plus d’accident.







A défaut d’autopilot le camion était incapable d’indiquer à la tesla qu’il était présent…

C’est surtout lorsque toutes les voitures communiqueront entre elles ainsi qu’avec la route que le système sera sûr.



Des accidents il y en aura toujours. Un système (véhicule) complet ou un capteur en panne (à n’importe quel niveau) et t’as déjà un bug important dans le système (dans son ensemble)… Mais ça sera toujours un système moins accidentogène que s’il n y avait que de l’humain !



les armes blanches tuent encore plus de gens que les armes à feu aux US, mais bon, on voit que vous êtes “dans le sens” du vent… une feuille morte quoi….








L3 G33K a écrit :



En général, lorsque je vois un obstacle devant moi, qui plus est un semi-remorque qui, latéralement, présente une surface d’environ 70m², je freine.

Donc s’il n’a pas freiné, c’est qu’il ne l’a manifestement pas vu, en tout cas pas assez tôt pour avoir eu le temps de freiner. Pourquoi ne l’a t-il pas vu, ça on sait pas. Est-ce que le camion a surgit à grande vitesse en lui coupant la route, est-ce que le conducteur ne regardait pas la route, est-ce qu’il était ébloui par le soleil en face? Ça, y’a que l’enquête qui le déterminera.











trash54 a écrit :



genre camion à droite qui tourne à gauche (ou inversement) au dernier moment sans faire attention en dessous et paf la voiture

et là autopilot ou pilote ou conducteur du dredi c’est pareil c’est crash







A priori, le camion cisaillait la voie de la Tesla pour tourner vers une sortie perpendiculaire à l’axe de circulation de la voie de la voiture.







kazord a écrit :



Vous oubliez le plus important : il est mort a cause de l’espace inter essieux de la remorque, ce qui n’est pas possible en europe suite a la réglementation qui oblige des barrieres de protection 

(en image&#160https://sc01.alicdn.com/kf/HTB1d0GiLXXXXXc5XpXXq6xXFXXXK/Side-Protection-Barrier… )







Exact. C’est surtout cela qu’il faut revoir à mon avis. Avec ce genre d’équipement, le mec serait salement amoché à l’hosto, mais encore vivant.









Charly32 a écrit :



Tu donne une consigne de vitesse, et la voiture la garde elle même.





ça s’appelle un régulateur de vitesse, cher ami :-) .









calarfe a écrit :



les armes blanches tuent encore plus de gens que les armes à feu aux US, mais bon, on voit que vous êtes “dans le sens” du vent… une feuille morte quoi….







Source STP. J’ai une moyenne annuelle de 30000 morts par armes à feu pour les USA.









OlivierJ a écrit :



ça s’appelle un régulateur de vitesse, cher ami :-) .





Grilled <img data-src=" />









calarfe a écrit :



les armes blanches tuent encore plus de gens que les armes à feu aux US, mais bon, on voit que vous êtes “dans le sens” du vent… une feuille morte quoi….





C’est plus facile d’empêcher la vente d’armes à feu que d’armes blanches non ?

Autant s’appuyer sur ce qui est pertinent pour enrayer tout ça.



Tiens…personne pour la thèse de l’attentat terroriste ?&nbsp;<img data-src=" />








calarfe a écrit :



les

armes blanches tuent encore plus de gens que les armes à feu aux US,

mais bon, on voit que vous êtes “dans le sens” du vent… une feuille

morte quoi….





Vu qu’un couteau de cuisine est une arme blanche, bon courage pour faire interdire ça.

&nbsp;

Et la différence sensible avec une arme à feu, c’est qu’il faut généralement être en contact avec la personne (sauf les pros en lancer de couteau mais ça ne s’improvise pas). Alors qu’avec une arme à feu tu tues quelqu’un en passant dans la rue à 10 m voire plus.

&nbsp;



Solix a écrit :



C’est plus facile d’empêcher la vente d’armes à feu que d’armes blanches non ?

Autant s’appuyer sur ce qui est pertinent pour enrayer tout ça.










kamomille a écrit :



Le conducteur matais un film sur DVD: Harry Potter l’a tuerhttp://www.dallasnews.com/business/autos-latest-news/20160701-tesla-owner-killed…





C’est ce que je pensais : le coupable est Voldemort et pas Elon Musk !!



Est ce que l’on sait si le gars a pu voir la fin de la série Harry Poter?








calarfe a écrit :



dans tes 30000, il y a 20000 suicides.



http://www.liberation.fr/planete/2016/01/05/non-les-homicides-par-armes-a-feu-n-augmentent-pas-aux-etats-unis_1424465



&nbsp;





Ah ben c’est bon alors, les attaques par armes à feu aux US sont usurpées, merci de l’information…









Solix a écrit :



En somme, un régulateur de vitesse quoi.

Non ?









OlivierJ a écrit :



ça s’appelle un régulateur de vitesse, cher ami :-) .





Oui :)









calarfe a écrit :



dans tes 30000, il y a 20000 suicides.



http://www.liberation.fr/planete/2016/01/05/non-les-homicides-par-armes-a-feu-n-augmentent-pas-aux-etats-unis_1424465







Combien n’auraient pas eu d’issue tragique avec le même genre de règlementation qu’en France ?










Damberrnnnn a écrit :



Du coup, je propose :





  • d’interdire les camions blancs

  • d’interdire les intersections

  • d’interdire les ciels lumineux



    De rien&nbsp;<img data-src=" />



    PS : et ptet aussi interdire les circonstances extrêmement rares, c’est dangereux ça aussi.&nbsp;





    Non attends j’ai bien mieux ! On va taxer tout ça !

    Comme ça les gens feront plus attention et ça fera des sous en plus !&nbsp;<img data-src=" />









kamomille a écrit :



Le conducteur matais un film sur DVD: Harry Potter l’a tuerhttp://www.dallasnews.com/business/autos-latest-news/20160701-tesla-owner-killed…







On a donc :




  • Regarder un film en “conduisant”

  • A priori, excès de vitesse

  • l’Autopilot lui a déjà permit d’éviter un accident

  • On ne peut pas regarder de film sur l’écran de la Tesla quand elle roule



    Ca se confirme : le mec roulait n’importe comment, et cette fois c’est pas passé.



En fait il s’agit d’une sombre machination visant à discréditer Tesla tout en éliminant un membre influent du consortium. Il paraîtrait que Google serait derrière tout ça.

Mode Colombo off



Mais le coup de la bêta à on faut être joueur quand même ou <img data-src=" />


Ou simplement rajouter un capteur sur les plaques d’immatriculations.


Parait que l’ia a crié “.ll.h .kb.r” avant de commerre son forfait.


Fallait pas s’inscrire à la bêta de l’Autopilot, le early access mortel&nbsp;<img data-src=" />








OlivierJ a écrit :



Vu qu’un couteau de cuisine est une arme blanche, bon courage pour faire interdire ça.

&nbsp;

Et la différence sensible avec une arme à feu, c’est qu’il faut généralement être en contact avec la personne (sauf les pros en lancer de couteau mais ça ne s’improvise pas). Alors qu’avec une arme à feu tu tues quelqu’un en passant dans la rue à 10 m voire plus.

&nbsp;





Tu as eut un génocide de plusieurs centaine de millier de personnes à la machette. Si la personne ne peut se défendre s’approcher d’elle ne pose aucun problèmes.



Après tuer une cible mobile même à 10 mètres n’est pas donné à tout le monde.&nbsp; Pour le bataclan, même avec des armes automatiques dans un milieu fermé, tu as globalement 3 blessés pour 1 mort dont bcp de morts suite à leur blessures dans les heures qui ont suivis. Pour être mortel, il faut avoir le cerveau, le cœur ou toucher des vaisseaux sanguins. Les blessures au niveau de l’intestin ne sont pas mortelles tout de suite, mais le deviennent par la septicémie provoquée.









Commentaire_supprime a écrit :



A priori, le camion cisaillait la voie de la Tesla pour tourner vers une sortie perpendiculaire à l’axe de circulation de la voie de la voiture.







Exact. C’est surtout cela qu’il faut revoir à mon avis. Avec ce genre d’équipement, le mec serait salement amoché à l’hosto, mais encore vivant.





110 kilomètre heure sur voie rapide, face à un camion perpendiculaire qui va peu bouger, ca fait bcp d’énergie cinétique qui va avoir du mal à être disséminée même avec la conception actuelle des châssis.



Rien que l’énergie liée au mouvement de la boite crânienne pose de gros problèmes face aux lésions cérébrales potentiellement mortelles.



Potentiellement, il vaut mieux passer sous le châssis de la remorque si tu protège la tête de la décapitation.









CryoGen a écrit :



On a donc :




  • Regarder un film en “conduisant”

  • A priori, excès de vitesse

  • l’Autopilot lui a déjà permit d’éviter un accident

  • On ne peut pas regarder de film sur l’écran de la Tesla quand elle roule



    Ca se confirme : le mec roulait n’importe comment, et cette fois c’est pas passé.





    En effet, c’était quand même louche que le conducteur n’ai rien pu faire.



    Et je me doute bien qu’il ne devait pas être le seul a faire ça. J’ai déjà pu voir une autre vidéo il y a quelques semaines d’un conducteur en Tesla qui roupille pendant un bouchon et laisse l’autopilot faire avancer la voiture.



    Donc, bref, avoir une voiture qui peut aider la conduite c’est bien, mais faudrait aussi responsabiliser les conducteurs qui font n’importe quoi au volant (pioncer, écrire un SMS, regarder un film, faire un selfie, etc, etc…).









CryoGen a écrit :



On a donc :




  • Regarder un film en “conduisant”

  • A priori, excès de vitesse

  • l’Autopilot lui a déjà permit d’éviter un accident

  • On ne peut pas regarder de film sur l’écran de la Tesla quand elle roule



    Ca se confirme : le mec roulait n’importe comment, et cette fois c’est pas passé.



    Un Darwin Award, en somme.









RedlanceEQ a écrit :



En effet, c’était quand même louche que le conducteur n’ai rien pu faire.



Et je me doute bien qu’il ne devait pas être le seul a faire ça. J’ai déjà pu voir une autre vidéo il y a quelques semaines d’un conducteur en Tesla qui roupille pendant un bouchon et laisse l’autopilot faire avancer la voiture.



Donc, bref, avoir une voiture qui peut aider la conduite c’est bien, mais faudrait aussi responsabiliser les conducteurs qui font n’importe quoi au volant (pioncer, écrire un SMS, regarder un film, faire un selfie, etc, etc…).







La vidéo du mec qui dort je l’ai vu aussi, apparemment c’était scripté en fait.









CryoGen a écrit :



La vidéo du mec qui dort je l’ai vu aussi, apparemment c’était scripté en fait.





Ah, autant pour moi.



En y regardant de plus prêt dans cette histoire, les médias ont tendance a oublier la responsabilité du camionneur&nbsp; qui a tourné alors qu’une voiture arrivait en face. Mais bon, c’est plus simple de taper sur Tesla…



&nbsp; “ 200&nbsp;millions de&nbsp;km&nbsp;avec l’Autopilot activé selon Tesla.

L’entreprise&nbsp;ajoute que, en moyenne, un accident mortel arrive tous les

150 millions de km aux États-Unis ”



Ha ouais ! Tesla est vraiment largement plus sur qu’une voiture sans pilote automatique ! <img data-src=" />

<img data-src=" /><img data-src=" />


Et sinon c’est un publi-communiqué de Tesla cet article ?

&nbsp;Car il y a beaucoup de citations de la marque… Entre le conducteur qui ne remarque pas le flanc blanc, le mec qui décède mais ce n’est pas grave car le système s’améliore… <img data-src=" />




Ni le pilote automatique, ni le conducteur n’ont remarqué le flanc&nbsp;blanc de la remorque





Comment en être sûr ? Le gars est mort sur le coup, ils ne lui ont pas demandé. Si c’est parce qu’ils ont analysé sa réaction (donc sa non-réaction), cela peut aussi venir d’un problème technique, genre l’action humaine qui n’a pas prévalu sur le pilotage auto (le gars freine ou tourne le volant, mais pas la voiture qui n’a rien détecté donc n’obéit pas comme elle le devrait).


Donc à la lecture de certains commentaires…



Ce n’est pas un auto pilote mais une assistance à la conduite.



Du coup quel intéret ?



Je veux dire si je veux rester concentré sur la conduite et avoir les meilleures réactions possibles, autant ne pas se servir de cette fonction. Parce qu’une fois activé, il fait quoi le conducteur, il doit faire comme un mono de conduite accompagnée ?



En fait je viens de réaliser que j’étais même contre ce genre d’équipement (même pour les autres) car à force de km la plupart des conducteurs perdront leur attention.



Et l’excuse de la beta… bref.



(Oui, c’est un accident et il y en a des milliers avec conducteurs… Mais ça représente combien de véhicules automatisés en proportion ?).





Ca va ete joli. Les personnes à bord en train de mater un film pendant que la voiture se tape un délire. Et dans le meme temps les flics qui relèvent les défauts de conduite de la voiture et envoyent le pv au gars qui ne conduisait pas ^^‘.


Mais… mis a part le darwin au conducteur de la voiture… le chauffeur du camion à coupé la voie en fait ?


En même temps, Tesla est un peu ravagé du citron pour proposé une option en version bêta.

Là, Tesla est coupable tout simplement !


C’est une révolution, il y a 2 places du mort à l’avant maintenant <img data-src=" />


S’il y a si peu d’accident impliquant des voitures autonomes, c’est tout simplement parce qu’il y a si peu de voiture autonome en circulation.


Vivement la moto avec pilotage automatique, qui se penche toute seule dans les virages <img data-src=" />


Sur l’écran de l’ordinateur de bord ils ont retrouvé le message: “si ça passait c’était beau” :oui2:


En Thaïlande l’algo sera simple à écrire: le véhicule le plus GROS a toujours la priorité <img data-src=" />


Tout d’abord, j’ai une pensée pour la famille de Joshua Brown… sa passion pour l’AutoPilot lui a coûté sa vie mais je suis certain que cet accident fera progresser les assistants à la conduite. Merci…

&nbsp;

Je suis également passionné par toutes ces technologies. Depuis 3 ans, j’ai parcouru près de 50 000 km avec le système Mercedes (Distronic plus et assistant directionnel) sur une Classe E. J’ai appris à connaitre les limites et apprécié la sécurité que m’apportaient ces technologies, voir :https://youtu.be/qUBIyrHnipg

&nbsp;

J’ai aussi eu l’occasion de conduire une Tesla S pendant un week-end sur 500km…https://youtu.be/siB_g8KqZ-w



Contrairement à Mercedes qui ne tolère qu’on lâche le volant que pendant 20 à 30 secondes au delà de 30 km/h, Tesla ne fait qu’afficher le message “Mettez les mains sur le volant” et ne tiens pas compte du respect ou non de cette consigne. J’ai donc fait près de 100km sans tenir le volant, inévitablement, on est moins attentif que dans une Mercedes qui impose au minimum un main “molle” sur le volant.

Mercedes est à ma connaissance la seule marque à mettre deux caméras stéréo sur le pare-brise, aurait-elle mieux réagi que la Tesla ?

&nbsp;

Autre remarque&nbsp; : comment peut-on parler de version béta d’un tel système !

on a perdu le sens du développement du logiciel.

Parce que l’internet permet de corriger un bug, les développeurs n’hésitent pas à lancer version sur version. Je suis content que ma Mercedes ne se mette pas à jour toute seule. C’est plus contraignant pour les développeurs et donc certainement plus fiable !


En même temps combien de temps il va falloir répéter que les Early accès ne sont jamais un bon plan !



<img data-src=" />








Aces a écrit :



En même temps, Tesla est un peu ravagé du citron pour proposé une option en version bêta.

Là, Tesla est coupable tout simplement !



Un routier GC qui ne regarde pas avant de tourner. Un conducteur GC qui regarde un film au lieu d’être attentif à la route. Mais c’est Tesla qui est coupable. Logique…









Patch a écrit :



Un routier GC qui ne regarde pas avant de tourner. Un conducteur GC qui regarde un film au lieu d’être attentif à la route. Mais c’est Tesla qui est coupable. Logique…





C’est exactement la même réflexion que j’ai quand je vois certain commentaires ou articles sur le sujet sur le Net. Le routier et le conducteur sont en tort, mais c’est Tesla qui en prend plein la gueule…&nbsp;<img data-src=" />



A croire que l’on vit dans une société où les gens ne sont plus responsables de rien.



&nbsp;Et si le chauffeur de la Tesla avait tué une personne en la renversant, vous pensez vraiment que l’argument de “c’est pas ma faute, l’autopilote de ma voiture n’a pas réagi. Moi j’étais trop pris par ma série sur mon lecteur DVD…” marcherait? Non, le mec se retrouve en taule.



Mais, bon, c’est plus facile de taper sur une société. <img data-src=" />



Oui parce que proposer une option dans sa version non terminée peut faire du gros dégâts comme ici présent.

Qu’un soft sur PC soit en bêta, on s’en cogne, le machin plante et on le relance et dans le pire, on paume un peu de données, rien de grave.

On ne risque pas de perdre la vie pour si peu.



Mais dans cette circonstance, comment Tesla peut-il oser dire que ça vient d’un camion blanc et tout ça ??

Et comment fonctionne leur soft bêta, je le rappelle ?

Une fois activé, peut-on reprendre la main immédiatement ou il faut attendre un temps (genre, quelques secondes) ?



Et là, ça change la donne car si juste en touchant le volant, le système se désactive immédiatement, le conducteur est coupable mais si le soft ne permet pas une prise en main immédiate de la voiture (latence de quelques secondes), c’est le constructeur qui est coupable (ou le dev du soft).


Un minimun de bon sens voudrais qu’il n’y ait pas de latences, beta ou pas



Quoi qu’il en soit, si le camion à commis une infraction, il doit être sanctionné, autopilot ou pas, sinon dans 6 mois toutes les voitures qui on l’autopilot (ou équivalent) se feront couper la route car ils sont censés êtres safes








Aces a écrit :



Oui parce que proposer une option dans sa version non terminée peut faire du gros dégâts comme ici présent.

Qu’un soft sur PC soit en bêta, on s’en cogne, le machin plante et on le relance et dans le pire, on paume un peu de données, rien de grave.

On ne risque pas de perdre la vie pour si peu.



Mais dans cette circonstance, comment Tesla peut-il oser dire que ça vient d’un camion blanc et tout ça ??

Et comment fonctionne leur soft bêta, je le rappelle ?

Une fois activé, peut-on reprendre la main immédiatement ou il faut attendre un temps (genre, quelques secondes) ?



Et là, ça change la donne car si juste en touchant le volant, le système se désactive immédiatement, le conducteur est coupable mais si le soft ne permet pas une prise en main immédiate de la voiture (latence de quelques secondes), c’est le constructeur qui est coupable (ou le dev du soft).



-C’est une assistance de conduite, pas une voiture autonome. Tu es donc censé être concentré sur la route, pas sur ton film (d’ailleurs un message indique bien qu’il faut mettre les mains sur le volant, si tu les enlèves plus de 10 secondes).

-Avoir un assistant de conduite activé n’excuse absolument en rien la connerie des gens. et ne l’excusera jamais.

-Et au passage, l’assistant de conduite lui avait déjà évité un premier accident. Ce qui excuse encore moins la connerie.



Donc comme je l’ai dit, quand 2 GC de la route à qui on n’aurait jamais dû filer un permis sont coupables à 150%, accuser Tesla alors que c’est du pur Darwin Award, c’est fort de café.



@patch



ouaip…

Tu sais ce que ça va donner ce genre d’assistance à la conduite.

Exactement ce qui s’est passé ici. Combien de personnes resteront concentrées.



Et comme je l’ai dit précédemment, même pour les personnes qui sauront rester concentrées, cela veut dire qu’il faut jouer les moniteurs de conduite pour l’assistance à la conduite !



C’est moi ou il y a juste un énorme défaut de concept ^^‘.





/ personnellement lorsqu’il y a beaucoup de route je préfère conduire car je vois moins le temps qui passe. cela veut également dire que mon attention es totale sur la route. Ce qui n’es clairement pas le cas lorsque je suis passager / et même avec assistance, je doute de pouvoir rester concentré pendant 1-2 heures à fixer la route). Du coup, je suis définitivement contre ce système tel qu’il es présenté. Que ce soit pour moi ou pour les autres véhicules que je vais devoir côtoyer sur la route.








Eric_V a écrit :



“Ni le pilote automatique, ni le conducteur n’ont remarqué le flanc blanc de la remorque”

Et comment peuvent ils le savoir? ils l’ont interrogé? <img data-src=" />







Oui, il est hallucinant de lire autant de spéculations hasardeuses.



Dans ce genre de cas impliquant un mélange complexe de circonstances et de technologie, il faut typiquement des mois d’enquête pour connaitre les circonstances précises.



D’ailleurs, pour tout ceux qui font des spéculations sur ce forum, réalisez que vous ne savez même pas vraiment de quel type de capteurs sont équipés ces dispositifs.



Spéculer à partir de presque rien ne vous mènera nulle part.












x689thanatos a écrit :



@patch



ouaip…

Tu sais ce que ça va donner ce genre d’assistance à la conduite.

Exactement ce qui s’est passé ici. Combien de personnes resteront concentrées.



Et comme je l’ai dit précédemment, même pour les personnes qui sauront rester concentrées, cela veut dire qu’il faut jouer les moniteurs de conduite pour l’assistance à la conduite !



C’est moi ou il y a juste un énorme défaut de concept ^^‘.





/ personnellement lorsqu’il y a beaucoup de route je préfère conduire car je vois moins le temps qui passe. cela veut également dire que mon attention es totale sur la route. Ce qui n’es clairement pas le cas lorsque je suis passager / et même avec assistance, je doute de pouvoir rester concentré pendant 1-2 heures à fixer la route). Du coup, je suis définitivement contre ce système tel qu’il es présenté. Que ce soit pour moi ou pour les autres véhicules que je vais devoir côtoyer sur la route.







Il faut apprendre à lire entre les lignes. Il parait évident que le but à terme de ce genre de dispositif est de conduire à ta place et sans ton intervention.



C’est juste que tant qu’ils sont encore un peu “vert”, les constructeurs se couvrent juridiquement au maximum. N’oublions pas qu’aux USA on ne plaisante pas avec le risque juridique car les tribunaux n’y vont pas avec le dos de la cuillère pour accorder d’importants dommages et intérêts.



En gros, si tu laisse le calculateur conduire, c’est toi qui endossera le risque juridique.










saladiste a écrit :



La tension va monter entre Tesla et ses clients. <img data-src=" />





U = R x I&nbsp;&nbsp; ?



C’est exactement ça, Tesla n’utilise pour l’instant pas de radar Lidar, et selon les premiers “analyses” de Tesla, le conducteur ce serait aussi planter, auto-pilote ou non. (Situation à la con qui m’est malheureusement arrivée et dont j’espère des détecteurs plus performant à l’avenir pour éviter ce risque).








x689thanatos a écrit :



@patch



ouaip…

Tu sais ce que ça va donner ce genre d’assistance à la conduite.

Exactement ce qui s’est passé ici. Combien de personnes resteront concentrées.



Et comme je l’ai dit précédemment, même pour les personnes qui sauront rester concentrées, cela veut dire qu’il faut jouer les moniteurs de conduite pour l’assistance à la conduite !



C’est moi ou il y a juste un énorme défaut de concept ^^‘.



Il n’y a pas plus de défaut de concept qu’avec un limiteur ou un régulateur de vitesse, ou qu’une correction électronique de trajectoire. Juste des gens avec un cerveau et qui savent l’utiliser, et ceux qui n’en ont pas/qui le coupent une fois au volant.

Quand j’ai fait plusieurs A/R Val-de-Marne/Bouches-du-Rhône, j’étais content d’avoir un régulateur de vitesse. Et j’aurais été encore plus content avec ce système. Mais ca n’aurait pas été pour ca que je me serais mis à regarder un film : je tiens encore à ma vie et à ma voiture, qui m’est encore d’une bonne aide.









Krogoth a écrit :



Sauf erreur de ma part les barre anti-encastrement ne sont pas obligatoire sur les cotés…





Si les barres anti-encastrement latérales sont obligatoires depuis plus de 20 ans, seulement ce ne sont pas les mêmes que celles qui sont à l’arrière des poids-lourds, elles servent uniquement pour repousser les vélos et les piétons, et en aucun cas, elles ne peuvent résister à une voiture



Donc on est d’accord que même en France cet accident aurait pu se produire… C’est pas juste ces “cons de ricains” qui ont une réglementation trop souple…



Quoiqu’il en soit je persiste à dire qu’une voiture qui va s’encastrer latéralement dans un camion de façon fatale…ca reste assez rare.








Patch a écrit :



Il n’y a pas plus de défaut de concept qu’avec un limiteur ou un régulateur de vitesse, ou qu’une correction électronique de trajectoire. Juste des gens avec un cerveau et qui savent l’utiliser, et ceux qui n’en ont pas/qui le coupent une fois au volant.

Quand j’ai fait plusieurs A/R Val-de-Marne/Bouches-du-Rhône, j’étais content d’avoir un régulateur de vitesse. Et j’aurais été encore plus content avec ce système. Mais ca n’aurait pas été pour ca que je me serais mis à regarder un film : je tiens encore à ma vie et à ma voiture, qui m’est encore d’une bonne aide.







Donc cas ce n’est pas un auto pilote mais une assistance à la conduite.

Auquel cas soit la boite vend quelque chose avec un mauvais nom, soit l’usage envisagé au niveau des commentaires n’es pas au niveau de ce que la boite espère produire.



Pour les équipements que tu cites ce n’es pas vraiment comparable.

Au delà du fait qu’ils ont une action sur le comportement de la voiture, ils ne “permettent” en aucun cas de lâcher le volant pour autant (et le limitateur à encore moins sa place dans cette comparaison vu qu’il se contente de bloquer la vitesse maximum, contrairement au régulateur qui peux contrôler l’accélération / que j’ai déjà utilisé).

Après,que certains routiers (entre autres) utilisent ce genre d’équipement de cette façon alors que le train reste libre de se déplacer au gré des défauts de la route… ^^



Le seul comparable qui me vient en tête serait le stationnement automatique. Enfin, selon les pubs ou ils montrent de façon exagérée que le volant peux être lâché ^^‘.





Définitivement, ça ne change pas mon avis sur la chose.

Si il s’agit uniquement d’assistante à la conduite, alors il faudrait que soit mis en place quelque chose de similaire à ce que l’on trouves dans les trains (pédale de l’homme mort) mais au niveau du volant. En plus de changer le nom pour quelque chose qui corresponde réellement à son usage.









x689thanatos a écrit :



Donc cas ce n’est pas un auto pilote mais une assistance à la conduite.



Ca ne fait que au moins 10 pages qu’on le dit… <img data-src=" />







x689thanatos a écrit :



Auquel cas soit la boite vend quelque chose avec un mauvais nom, soit l’usage envisagé au niveau des commentaires n’es pas au niveau de ce que la boite espère produire.



Quand je disais que certains n’avaient pas de cerveau ou le coupaient.

Tesla n’a jamais parlé de voiture autonome. Seulement d’une assistance à la conduite appelée “autopilot” en anglais. Pas plus. L’autopilot, c’est juste un régulateur adaptatif, couplé à une correction électronique de trajectoire et un détecteur de collisions. 3 fonctionnalités qui existent depuis un moment déjà et qui ont simplement été associées entre elle…







x689thanatos a écrit :



Pour les équipements que tu cites ce n’es pas vraiment comparable.



En quoi, sachant que ce sont justement des fonctionnalités de l’autopilot?





x689thanatos a écrit :



Au delà du fait qu’ils ont une action sur le comportement de la voiture, ils ne “permettent” en aucun cas de lâcher le volant pour autant (et le limitateur à encore moins sa place dans cette comparaison vu qu’il se contente de bloquer la vitesse maximum, contrairement au régulateur qui peux contrôler l’accélération / que j’ai déjà utilisé).



Ca tombe bien, l’autopilot non plus ne “permet” pas non plus de lâcher le volant (il y a un beau message qui s’affiche pour te dire de remettre tes mains sur le volant si tu les retires plus de 10 sec. Mais ca ne fait que 4 ou 5 fois que je le dis ici, une paille quoi!) <img data-src=" />









x689thanatos a écrit :



Le seul comparable qui me vient en tête serait le stationnement automatique. Enfin, selon les pubs ou ils montrent de façon exagérée que le volant peux être lâché ^^‘.



Là par contre ca n’est pas comparable.









x689thanatos a écrit :



Définitivement, ça ne change pas mon avis sur la chose.

Si il s’agit uniquement d’assistante à la conduite, alors il faudrait que soit mis en place quelque chose de similaire à ce que l’on trouves dans les trains (pédale de l’homme mort) mais au niveau du volant. En plus de changer le nom pour quelque chose qui corresponde réellement à son usage.



en même temps si tu es de ceux qui utilisent un produit nouveau avant même de lire le manuel d’instruction, je comprends ton point de vue… Mais ce n’est pas dans ce sens que ca fonctionne, normalement <img data-src=" />



Bon bah il semblerait clair maintenant pourquoi ni la voiture, ni le conducteur n’ont repéré la remorque du poids-lourd : les circonstances ont fait que les capteurs étaient aveugles, et le conducteur était occupé à regarder un DVD, il n’avait donc pas son regard sur la route :



http://www.clubic.com/mag/transports/actualite-811056-tesla-victime-premier-accident-pilotage-auto-regardait-dvd.html


Vu le prix de la bagnole, c’est clair, un petit radar 70GHz comme il en existe désormais c’était trop demander?!

Mais bon, voiture de légume quoi…


j’ai tellement de cas en tête qu’on pourrait considérer comme “extrêmement rare” qui peuvent mettre un pilote automatique de voiture en défaut avec les technologies actuelles qu’on n’est pas prêt de voir une voiture autonome sur nos routes. le pire étant que j’avais espoir en un super assistant qui fait quasi tout le travail a ta place mais la connerie humaine a démontrer l’impossibilité d’utiliser ce genre de système, la preuve puisque ma voiture fait le job =&gt; je peux faire autre chose =&gt; je meurs.



on sait faire avec des trains : environnement parfaitement contrôler (l’imprévu n’existe pas).

on sait faire plus ou moins bien avec des avions : l’environnement est malgré tout plutôt bien contrôler et quand il ne l’est pas =&gt; ça tombe, mais les stats sont plutôt bonne.



en revanche, sur terre, c’est quasi mission impossible.



le jour où on verra un pilote automatique battre Sébastien Loeb sur les routes en sous bois ou même Rossi sur circuit alors on pourra envisager quelque chose, mais pour le moment on en est très très loin car avec des &nbsp;radars c’est pas possible, il faut de l’analyse d’image et là-dessus, les machines sont nettement plus mauvaises que l’humain.


En effet la législation impose la présence de barres anti-cyclistes sur les camions (c’est le vrai nom).

Elles sont là pour empêcher les cyclistes (entre autres) de passer sous les roues, surtout de se faire happer en fait.

&nbsp;

Après aux US et en fonction des états la législation PL est différente, et en général moins contraignante.








illidanPowa a écrit :



le jour où on verra un pilote automatique battre Sébastien Loeb sur les routes en sous bois ou même Rossi sur circuit alors on pourra envisager quelque chose, mais pour le moment on en est très très loin car avec des  radars c’est pas possible, il faut de l’analyse d’image et là-dessus, les machines sont nettement plus mauvaises que l’humain.





Quand on lit ça, on se dit que ça va arriver un jour et peut-être plus vite que prévu, même si le contexte est un peu différent.









fred42 a écrit :



Quand on lit ça, on se dit que ça va arriver un jour et peut-être plus vite que prévu, même si le contexte est un peu différent.





Tu ne fais pas que de l’analyse d’image car les avions d’un coalition sont équipées aussi de balises qui permettent leur identification.



A ce moment là ca simplifie bcp la recherche de cible par l’ordinateur puisque les cibles n’ont pas à etre identifiées visuellement mais en grande partie par leur caractéristiques.



Je suis technophile et favorable à la généralisation des aides à la conduite mais de mon point de vue Tesla est le seul responsable de cet accident : s’ils n’avaient pas “marketé” leur système en tant qu’“autopilot” mais plutôt “régulateur de vitesse adaptif avec aide au maintien en file” comme le font les marques haut de gamme européennes, aucun idiot ne penserait que la voiture va s’auto-piloter. Bien sûr ils ont pris soin d’indiquer dans le manuel qu’il ne faut pas lâcher le volant, que le conducteur est responsable de la maîtrise du véhicule, que le système ne doit être utilisé que sur autoroute, etc… manuel que personne ne lit plus car rendu illisible par la multiplication de conseils du style “ne pas ouvrir les portes en roulant”, “ne sortez pas la tête par la vitre à haute vitesse : risque de blessure”, “Ne vous engagez pas sur une route inondée”, “En cas d’incendie, évacuez le véhicule”…

Tesla (le service marketing, certainement pas les ingénieurs) a volontairement choisi “autopilot” un terme hype qui claque bien, impressionne le quidam, attire la presse et ridiculise la concurrence, alors que son système n’est ABSOLUMENT PAS une voiture autonome.

Ce n’est pas pour rien que les VRAIES voitures autonomes en développement par des constructeurs “historiques” comme Volvo, BMW, Audi, Mercedes, Peugeot, Toyota ne sont pas encore commercialisées comme telles : La techno n’est pas encore parfaitement mûre. Même Google, avec ses années d’avance dans ce domaine estime qu’il est encore tôt, mais Tesla, pressée de marquer les esprit et de graver dans le marbre son image d’avant-gardisme a pris le risque d’induire en erreur les conducteurs confiants avec une fausse promesse d’autonomie, tout en se couvrant à coup d’astérisques et de “petits caractères” sur le manuel d’utilisation.

Il faudrait qu’ils fassent un communiqué remettant clairement les choses à leurs place, mais est-ce que le service Commercial sera d’accord, toute la question est là ?








illidanPowa a écrit :



on sait faire avec des trains : environnement parfaitement contrôler (l’imprévu n’existe pas).



en fait, l’imprévu peut arriver avec un train. La proba est extrêmement faible, mais ca peut. C’est comme ca qu’une fois suite à une série d’erreurs (humaines et informatiques) un train qui n’avait plus de frein est arrivé à vitesse folle dans un autre à quai en gare…



Tu confond la reconnaissance visuelle et les algorithmes de décision. Reconnaitre le terrain et décider ce sont deux choses différentes.


Si on regarde la page Wiki sur l’Autonomie d’un véhicule, on constate que la Tesla est un véhicule autonome de niveau 2 (tout comme la Mercedes citée par docteur-informatique) flirtant avec le niveau 3 donc non, le nom Autopilot n’est pas usurpé.


@ sr17

@patch



/ meme si dans le cas présent ca n’aurais sans doute rien changé, je rejoins totalement le commentaire de mailme_dz







@patch

je ne veux pas lancer un duel mais le problème es justement la.

Tesla vend une option dénommée autopîlot qui ne correspond pas à la définition de ce genre d’appareil.



Si j’appelle un chat un chien et vice versa, on me le fera la remarque (et sur NXI on te fera même remarque si tu fais des fautes… mais ça s’es calmé car j’en tres certainement un paquet).

Auto pilot ce n’es pas juste un mot inventé par tesla mais un équipement qui existe depuis bien longtemps et qui dispose déjà d’une définition précise.

Donc si tesla vend une option nommé auto pilote, qu’elle soit à même de remplir ce que ce mot signifie.

Si l’option ne fait que de l’assistance, qu’i;ls l’appelle pilot assist.



https://www.teslamotors.com/fr_FR/blog/your-autopilot-has-arrived

nous avons commencé à équiper la Model S de toutes les technologies nécessaires permettant de déployer progressivement des fonctionnalités de conduite autonome

Je ne vais pas jeter la pierre, parfois je me renseigne après coup et je me rend compte que je dis une bêtise.





Encore une fois, de base ces fonctions sont de l’assistance à la conduite. Pas de l’auto pilote comme le vend tesla (cf paragraphe juste au dessus).

Dans le cas présent tesla a clairement l’intention de vendre un équipement avec la mention votre voiture se conduit toute seule.

Pas comme tu l’indique : votre voiture vous aide a mieux conduire.



J’avais exclu le régulateur de vitesse car ce dernier n’a pas seulement une action de limitation ou de Control temporaire du fait qu’une dois actif, il va essayer de maintenir la vitesse du véhicule sur la consigne. Il demande donc plus de prudence à son usage qu’un limitateur. ce qui correspond aux cas présent



pourquoi le stationnement automatique n’es pas comparable a ce que devrait être un auto pilote alors qu’il remplit parfaitement al définition de ce terme ?



L’autopilot ne permet pas de lâcher le volant car un message s’affiche.

C’est pourtant c’est ce qui s’es passé non ?

Quand je parlais de la pédale de l’homme mort, la fonction de cette dernière n’es pas juste d’afficher un message, elle aura un impact direct sur le véhicule si la personne n’agit plus sur cette dernière.

Dans le cas présent, la personne n’avait visiblement pas les mains sur le volant, la voiture se déplaçait toute seule et a aucun moment elle n’a ralentie, enclenchée les warning ou tout autre fonction pour dire attention, le conducteur n’a plus aucune main sur le volant depuis quelques instants.





Je ne vois pas ce que viens faire ton dernier paragraphe dans le sujet.



Apres effectivement, le manuel de ma voiture doit faire dans les 100 pages et j’ai du en lire les 34. Chose que j’ai fais une fois rentré chez moi du fait qu’il y avait genre 500km entre la garage et ma maison et que si je l’avais lu, je pense qu’il aurait été préférable de reprendre une nuit d’hôtel pour ne pas être dans les vapes(achat fin de matinée, repas, lecture du bouqin… 1h30-2h +5 heures de route derriere).



Apres, ce n’es pas dans ce sens que ce fonctionne… Lis toutes les clufs, le moindre manuel du moindre appareil que tu achète, de A à Z, avec les pages légales, les textes de lois qui y sont indiqués ?

Franchement même si tu me dis que tu le fais, j’aurais du mal à te croire sur parole ^^








grundoc a écrit :



Tu confond la reconnaissance visuelle et les algorithmes de décision. Reconnaitre le terrain et décider ce sont deux choses différentes.







Voir n’est pas reconnaitre. Si je te montre un objet que tu n’a jamais vu auparavant tu le verras mais ton cerveau ne sera pas quoi en faire.



le fait que l’humain intervienne et provoque une erreur n’est plus du ressort de la machine.



mais si l’imprévu n’existe pas, par contre il y a toujours un risque de défaillance, mais l’expérience nous a démontré qu’il est très faible.



Pour l’exemple que tu cites, l’humain a isolé les freins, ce qui fait que la protection automatique n’a pu agir par son seul moyen =&gt; les freins.


tu as déjà piloté un avion? c’est quand même vachement plus facile que de piloter un véhicule au sol, parce que à part les autres obstacles volants aisément détectables des radars longue portée et les défaillances matériels qui font tomber l’avion (et encore dans le cas du militaire on s’en fou pour ce dernier). globalement éviter et détecter un obstacle et beaucoup plus simple dans les airs que au sol. et le gap entre les 2 est énorme. &nbsp;



tes radars sont arrêtes par des obstacles naturels, tu as beaucoup d’obstacles de types différents à détecter, des natures de sols différentes, etc….








illidanPowa a écrit :



Pour l’exemple que tu cites, l’humain a isolé les freins



Non, défaillance totale.



je ne sais pas si c’est du même accident que je vais parler -je me souviens plus des sources :( je cherche encore - mais il y a eu un mort en autopilot Tesla qui matait un dvd a bord de son vehicule, selon le temoignage des premiers gens sur les lieux, ce que meme la police locale a confirmé puisqu’il fonctionnait encore à leur arrivée… (faut vraiment que je les retrouve ces sources)…








Patch a écrit :



Non, défaillance totale.







Si c’est celui-là auquel tu penses, c’est assez complexe. Et, effectivement, l’absence d’indications claires en cabine sur l’état effectif du système de freinage à air a contribué à l’accident. Ainsi que des robinets de circuit de freinage ne permettant pas de voir sans ambivalence leur état effectif.