Model S : Tesla envisage deux pistes pour expliquer l'accident mortel

Model S : Tesla envisage deux pistes pour expliquer l’accident mortel

Il faut sauver le soldat pilote automatique

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

01/08/2016 3 minutes
242

Model S : Tesla envisage deux pistes pour expliquer l'accident mortel

Des représentants de Tesla ont été entendus par des sénateurs américains sur l'accident mortel de la Model S avec le pilotage automatique activé. Deux pistes sont actuellement privilégiées par le fabricant automobile.

Dans l'enquête sur le premier accident mortel impliquant une Tesla Model S avec le pilotage automatique activé, les choses avancent doucement. Le fabricant a expliqué les conditions « extrêmement rares » de l'accident, tandis que le Conseil national de la sécurité des transports (NTSB) indiqué que la voiture roulait trop vite dans un rapport préliminaire. Alors que l'enquête suit son cours, des représentants du constructeur ont eu un rendez-vous avec des sénateurs américains pour s'expliquer sur cette affaire.

Deux hypothèses retenues par Tesla pour expliquer l'accident

Selon des sources concordantes (dont une au moins est membre du personnel du Congrès) citées par nos confrères de Reuters et du New York Times, Tesla envisage actuellement deux scénarios possibles pour expliquer cet accident et le fait que les freins n'aient pas été actionnés.

Le premier, le plus simple, est que la voiture n'a pas détecté qu'un camion traversait la route. Dans la seconde hypothèse, la Model S a bien identifié l'obstacle, mais elle l'aurait – à tort – classé comme un pont ou un panneau de signalisation placé en hauteur au-dessus de la route.

Une séparation des fonctions pour mieux gérer l'image de marque de Tesla ? 

Comme l'a expliqué Elon Musk le mois dernier sur Twitter, le radar de la voiture ne tient en effet pas compte de ce qui ressemble à ces éléments pour éviter de nombreux freinages inutiles :

Dans les deux cas, la conséquence est la même : les freins n'ont pas été actionnés et la voiture est passée sous la remorque du camion, tuant le conducteur (qui n'a pas non plus actionné les freins).

Quel que soit le scénario, les sources de nos deux confrères américains ajoutent que, selon les représentants de Tesla, le freinage automatique en cas d'urgence et le pilotage automatique sont deux fonctionnalités distinctes l'une de l'autre. Une « séparation » de deux systèmes, censés fonctionner de concert, qui peut s'expliquer de manière simple pour Kelley Blue Book, un spécialiste du domaine automobile interrogé par nos confrères du New York Times.

Pour lui, c'est lié à l'image de marque de la société : « Le pilote automatique est un élément clé de l'image que Tesla veut projeter. C'est un sujet très important. Ils ne veulent donc pas être en position de dire qu'il y a quelque chose qui ne va pas avec un élément qui fait partie de l'image de l'ensemble de l'entreprise ». 

De son côté, Tesla a confirmé à nos confrères qu'une rencontre avait bien eu lieu avec des sénateurs, mais le fabricant automobile a refusé d'en dire plus sur le contenu de cet échange.

Tesla inaugure sa Gigafactory dans le Nevada

Notez enfin que, dans un registre différent, Tesla a inauguré sa Gigafactory il y a quelques jours à peine. Les travaux ont débuté il y a deux ans, mais elle n'est pas encore terminée. Le début de la production y est prévu pour 2017 avec une capacité maximale en 2020.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Deux hypothèses retenues par Tesla pour expliquer l'accident

Une séparation des fonctions pour mieux gérer l'image de marque de Tesla ? 

Tesla inaugure sa Gigafactory dans le Nevada

Commentaires (242)


C’est le genre d’accident qui peut totalement tuer un concept :/

Un peu comme le tourisme spatial (crash de SpaceShipTwo).








Obidoub a écrit :



C’est le genre d’accident qui peut totalement tuer un concept :/

Un peu comme le tourisme spatial (crash de SpaceShipTwo).





Tuer est le bon mot.



Confondre un camion et un pont, il faut déjà un bon grammage pour y arriver en tant qu’humain.


il faisait quoi le conducteur ? il dormait ?








Obidoub a écrit :



C’est le genre d’accident qui peut totalement tuer un concept :/

Un peu comme le tourisme spatial (crash de SpaceShipTwo).





Tuer je ne suis pas sur, mettre un coups de bambou à la production de tesla peut être.  Après il faudra voir les autre voiture autonomes, apparemment celle de google sont mieux desservies niveau capteurs. 









fr1g0 a écrit :



il faisait quoi le conducteur ? il dormait ?





Il regardait Harry Potter en DVD.









darkbeast a écrit :



Confondre un camion et un pont, il faut déjà un bon grammage pour y arriver en tant qu’humain.





Surtout pour le radar. Encore les camera, par effet d’éblouissement ok. Mais le radar aurait du voir le camion.







fr1g0 a écrit :



il faisait quoi le conducteur ? il dormait ?





Il me semble qu’il regardait un film.







Obidoub a écrit :



C’est le genre d’accident qui peut totalement tuer un concept :/

Un peu comme le tourisme spatial (crash de SpaceShipTwo).





Tuer peut être pas mais faire perdre plusieurs années a une décennie oui…





Tesla envisage deux pistes pour expliquer l’accident mortel







  1. la voiture tourne sous W10



    <img data-src=" />








garn a écrit :





  1. notre OS tourne sous W10



    <img data-src=" />





    l’os était w7 et il a fait une maj forcée en w10 lors de l’accident



ah oui c’est mieux

(j’ai aussi corrigé mon troll mal formulé je suis pas sur qu’on puisse parler d’OS dans le cas de W10)

<img data-src=" /><img data-src=" />








garn a écrit :





  1. la voiture tourne sous W10



    <img data-src=" />





    Non, sous W7, mais quelques instants avant le crash, la mise à jour vers W10 avait démarrée “accidentellement”, plantant le pilote du radar <img data-src=" />



il regardait Harry Potter sur son laptop.








hadoken a écrit :



Il regardait Harry Potter en DVD.





pour peu qu’il y ait eu 9 34 d’écrit sur le camion, c’est raccord <img data-src=" />









fr1g0 a écrit :



il faisait quoi le conducteur ? il dormait ?





il regardait ce film



le mec a pas freiné, tant pis pour sa gueule. Next !








fr1g0 a écrit :



il faisait quoi le conducteur ? il dormait ?





Il regardait un DVD.

Evidemment cela n’est pas recommandé par le fabricant mais à partir du moment où ce dernier vante partout la qualité de son autopilot, que le systeme autorise la lecture d’un DVD en roulant, ça devait forcéement arrive run jour.

&nbsp; Perso je dirais:




  1. Tesla a trop vanté les qualités de son autopilot pour en faire un argument marketing. L’impact a été tel que les utilisateurs ont eu trop confiance en ce systeme et l’ont surestimé. Tesla aurait du être plus clair sur les limites de son système, sur les risque, sur l’aspect “beta test”, et parler de système d’assistance à la conduite plutot que d’autopilot. Tesla aurait du bloquer certaines fonctions comme la lecture d’un film en roulant.

  2. Je reste surpris que les ingénieurs de Tesla en arrive à dire que leur systme a confondu un camion ave cun pont, ou un portique. C’est dire à) quel point eux meme n’ont pas de certitude sur les performance et la qualité de leur système. D’ailleurs le fabricant a lui meme avoué que Tesla avait surestimé les capacités du capteur et que ce dernier n’était pas adapté pour des détections à moyenne et longue distance. bien qu’il en existe de meilleur, Tesla a choisi ce capteur car il était le moins cher.

  3. De mon point de vue, si ce système est en beta test comme l’a finalement avoué Tesla, il n’aurait jamais du être proposé en série au public. La clientèle n’a pas pour vocation de jouer le rôle de testeur. Un tel système de conduite aurait du être fiabilité au maximum en usine avant une commercialisation.

    &nbsp;









garn a écrit :





  1. la voiture tourne sous W10



    <img data-src=" />





    c’est Cortana qui conduisait ?



    comme quoi : femme au volant …









jb18v a écrit :



le mec a pas freiné, tant pis pour sa gueule. Next !





Ca fait plaisir de voir autant d’empathie dans un seul post !









Mustard27 a écrit :



(…)




  1. De mon point de vue, si ce système est en beta test comme l’a finalement avoué Tesla, il n’aurait jamais du être proposé en série au public. La clientèle n’a pas pour vocation de jouer le rôle de testeur. Un tel système de conduite aurait du être fiabilité au maximum en usine avant une commercialisation.

    &nbsp;





    Je n’ai pas trop d’avis technique sur la question (honnetement j’aurais plutot tendance à penser qu’ils sont trés vifs chez Tesla, pas sur que ce soit aussi évident que ça). Par contre, je pense que le client qui a accepté une tesla en test doit avoir signé une clause lui stipulant qu’il est moins qu’un rat de labo <img data-src=" />



Les gens pensent vraiment qu’il n’y aurait pas du avoir de victimes dans ce genre de concept ? C’est moche pour la vie de cette personne, mais c’était évident que ça allait arriver.&nbsp; Reste à trouver les causes, les régler et optimiser la bête.

Le risque 0 n’existe pas.


Bah son comm est peut être un peu trop “sec” , mais faut quand même avouer que ça en fait un bon candidat pour les Darwin’s Award ….





PS : 2 belles erreurs (signalées) dans le texte, faîtes gaffe avec la relecture :)

PS 2: c’est bien d’avoir changer l’icône de signalement :)



edit : le temps d’écrire et c’était corrigé, gg :)


J’ai envie de dire que c’est 100% de sa faute du coup. C’est un système encore à ses balbutiements et complètement expérimental et Tesla le répète assez. Dans 1020 ans peut être qu’on pourra blâmer le constructeur mais en attendant ce n’est que du gadget qui requiert toujours l’attention du conducteur.



Sinon il n’y a pas des logs qui permettent à Tesla de savoir ce que la voiture a justement interprété (ou pas si elle n’a rien détecté)?



En tout cas elle claque leur nouvelle usine.



EDIT: C’est pour quand leur patch de sécurité? <img data-src=" /> A quand les voitures qui ne démarrent plus si t’as oublié de faire la dernière update?


Il me semble qu’il n’y a pas de radar dans les Tesla. (Comme un Lidar)


Tout à fait, après reste aussi la question de la responsabilité à éclaicir.



Mais apparemment les résultat de l’auto pilotes sont quand même concluant par rapport à un conducteur lambda <img data-src=" />


Pour l’automobile, c’est peut être pour l’image de marque, mais pour l’aéronautique, c’est la base de la base de séparer pilotage et élément de sécurité.


Non il y a des sonar de faible portée et un camera.

Apres le Lidar n’est pas exempt de défauts (en particulier souci en cas de pluie / poussières), mais si c’est possible.



Il semble que Tesla se dirige plus vers le sonar de “plus grande portée” et qu’ils arriveraient à avoir un resultat similaire.



Wait & see …








Bobmoutarde a écrit :



Les gens pensent vraiment qu’il n’y aurait pas du avoir de victimes dans ce genre de concept ? C’est moche pour la vie de cette personne, mais c’était évident que ça allait arriver.&nbsp; Reste à trouver les causes, les régler et optimiser la bête.





Le problème c’est que pour préserver l’image de marque de Tesla, pour préserver le marketing, ces grandes société ont toujours tendance à rejeter la faute sur le conducteur. Et cela est d’autant polsu facile que c’est eux seul qui ont accès à la boite noire et fournissent les infos à la justice. C’est comme si ils étaient juge et parti.

Pour ces histoires de “c’est la faute à l’utilisateur”, pour préserver l’image de la société, on se souvient tous du fameux Antennagate de l’iphone 4, où Jobs affirmait que c’était la faute à l’utilisateur qui tenait mal le smartphone dans sa main. Il aura fallu un bon moment et de nombreuses plaintes et tests indépendants pour qu’Apple reconnaisse un défaut majeur de conception.









AltreX a écrit :



Tout à fait, après reste aussi la question de la responsabilité à éclaicir.



Mais apparemment les résultat de l’auto pilotes sont quand même concluant par rapport à un conducteur lambda <img data-src=" />





En quoi sont ils concluants ?



C’est ce que j’avais entendu, un système via une caméra et un autre similaire au niveau du fonctionnement aux radars de stationnement avec une portée un peu augmentée.


Et sinon on oblige les barres anti-rapprochement sur camions US et le problème est régler.

car bon ya qu’aux US que tu peut rouler sous un camion à la FAST & Furious hein, en Europe ya des barres AR et des soutes (a migrant <img data-src=" /> ) sous les remorques, du coup il aurais juste frotté, mais sera en vie pour aller chez le carrossier (et faire un procès à Tesla :wistle: )


Rejeter la faute sur le conducteur ? <img data-src=" />



Tu as un véhicule, qui pour activer la conduite auto te dis “attention TU es le conducteur, la fonctionnalité est toujours experimentale”, si tu laches le volant il te rappelle avec un bip que tu dois être au controle du véhicule (et si tu ne remet pas les mains sur le volant il met la voiture sur le bas coté de lui même), et le mec va sortir un ordi portable pour regarder un DVD ?



Et ça doit être la faute de Tesla ? <img data-src=" />



Qu’on parle de risque de somnolence avec la conduite “automatique”, qu’on parle du fait que le mec n’a pas le même temps de réaction, ok … mais ne pas regarder la route “du tout” ? <img data-src=" />


Apparement, ils ont un taux d’accident/Mkm plus faible que sans auto pilote. Mais leur mesure est amha statistiquement incorrecte : ils ont eu 1 seul accident, alors que la conduite manuelle a un échantillon malheureusement plus grand, et la mesure est plus fiable. Quand ils auront atteint 1000 accidents, la mesure sera bien plus fiable.


De toute façon, Tesla a toujours revendiqué que son pilotage automatique était en bêta et je pense que quand on l’actionne on doit avoir un message du genre : “Cette fonctionnalité est encore à l’état de test, il en va de votre responsabilité de garder le contrôle sur votre véhicule”.



Autant dans un monde où tous les véhicules fonctionneraient ainsi et auraient des balises pour se positionner l’un à l’autre, ça n’aurait pas posé de problèmes.



Par contre pourquoi personne ne remet en cause le camion ? Le mec a traversé une voie alors qu’un véhicule arrivait en face. Certes ça aurait pu être éviter si le véhicule était piloté par le conducteur (qui aurait fait un écart et aurait peut être fini en tonneau mais vivant). Mais à aucun moment on parle de la responsabilité du chauffeur du camion …








ZeHiro a écrit :



Apparement, ils ont un taux d’accident/Mkm plus faible que sans auto pilote. Mais leur mesure est amha statistiquement incorrecte : ils ont eu 1 seul accident, alors que la conduite manuelle a un échantillon malheureusement plus grand, et la mesure est plus fiable. Quand ils auront atteint 1000 accidents, la mesure sera bien plus fiable.





Faudrais surtout qu’il y ai autant de trilliards de Km parcouru. Sans ça toute tentative de statistique est juste bonne à jeter.



Ha mais sur ce point là je suis tout à fait d’accord. Difficile de savoir qui a raison, qui a tord etc… Je dis juste que j’ai vu des gens (ou plutôt lu) s’insurgeaient sur le fait que ça “tue” des gens.&nbsp; Je tenais à rappeler que le risque 0 n’existe pas et que c’est dans ce sens qu’on améliore le produit (oui il faut des victimes et de multiples cas de figure).

&nbsp;








Cashiderme a écrit :



Faudrais surtout qu’il y ai autant de trilliards de Km parcouru. Sans ça toute tentative de statistique est juste bonne à jeter.





C’est vrai, quoique excessif.&nbsp;&nbsp;

Les données actuelles montrent tout de même que la gamme de fiabilité de ce pilote automatique est comparable à celle de l’humain.&nbsp;

&nbsp;

Etant donné qu’on parle d’une première expérimentation, ça laisse une perspective d’amélioration énorme.&nbsp;









ZeHiro a écrit :



Apparement, ils ont un taux d’accident/Mkm plus faible que sans auto pilote. Mais leur mesure est amha statistiquement incorrecte : ils ont eu 1 seul accident, alors que la conduite manuelle a un échantillon malheureusement plus grand, et la mesure est plus fiable. Quand ils auront atteint 1000 accidents, la mesure sera bien plus fiable.





La comparaison a été démonté pour plusieurs raisons: notamment le fait que les chiffres sont trop faibles et comparent des choses pas forcement comparable. Il faudrait avoir suffisamment de kilomètres, et comparer le profil de conducteurs par exemple. Sachant que tout le monde ne peut pas s’acheter une Tesla S. Il est fort probable que ce genre de catégorie de voiture + profil conducteur ai moins d’accidents que la moyenne nationale.



La problématique final étant (a mon avis) d’expérimenter ce genre de technos sans plus de données et de tests. L’utilisateur faisant le bêta-testeurs.



Qu’il me prête une TESLA, je veux bien augmenter les stats Km/profil !








Faith a écrit :



C’est vrai, quoique excessif.&nbsp;&nbsp;

Les données actuelles montrent tout de même que la gamme de fiabilité de ce pilote automatique est comparable à celle de l’humain.&nbsp;

&nbsp;

Etant donné qu’on parle d’une première expérimentation, ça laisse une perspective d’amélioration énorme.&nbsp;





excessif peut-être. A la place de “autant” lire “comparable”. Pour le reste, le facteur est tellement abyssal qu’il n’y a rien à tirer des stats. Tu te rends compte combien de Km ont été parcouru en voiture depuis qu’elle existe, comparé a ces technos toute nouvelles ? Le moindre petit glitch te balance un erreur de quoi ? 1e10 %, au bas mot ? J’appelle ça du random personellement. Même si mon commentaire reste “à vue de nez” parce que j’ai la flemme de mathématiser tout ça, ça me parrait pas déconnant.



Et ils ont été mis au courant, ça leur a été expliqué à l’achat (parce qu’ils ont payé l’option en plus), on leur rappel à chaque activation de la fonction …



Et pourtant ils se plaignent pas …



Est ce que le problème est pas chez toi plutôt ?








thomgamer a écrit :



Par contre pourquoi personne ne remet en cause le camion ? Le mec a traversé une voie alors qu’un véhicule arrivait en face. Certes ça aurait pu être éviter si le véhicule était piloté par le conducteur (qui aurait fait un écart et aurait peut être fini en tonneau mais vivant). Mais à aucun moment on parle de la responsabilité du chauffeur du camion …







Parce qu’il n’y a eu qu’un mort, et pas 84.



——————– oui, je connais le chemin, merci —————————-&gt; []



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



Next im(n)pact même …








atomusk a écrit :



Et ils ont été mis au courant, ça leur a été expliqué à l’achat (parce qu’ils ont payé l’option en plus), on leur rappel à chaque activation de la fonction …



Et pourtant ils se plaignent pas …



Est ce que le problème est pas chez toi plutôt ?





Il a aussi était démontré que les utilisateurs perdent l’attention sur la route quand ils n’ont rien a faire. Car passer un temps long a regarder dans le vide sans rien faire c’est pas ce qu’il y a de mieux pour garder quelqu’un alerte.



C’est sur, par contre avec la nouvelle Tesla Model 3 qui est au prix d’une berline haut de gamme (A3 si on prend pas la basique sans option), on devrait commencer à avoir un panel de profil de conducteurs plutôt correct. Après il y aura toujours un facteur humain, si un mec dépasse au dernier moment et tu te le manges en contresens, on pourra analyser ce qu’on veut, c’est très difficilement évitable.



Bon après on pourra jamais exclure les kékés du dimanche qui roulent comme des tanches.

&nbsp;


L’humour c’est comme le café, plus c’est noir, mieux c’est (sans dépasser une certaine quantité bien sur).



Mais faut aussi prendre en compte si le chauffeur du poids lourd s’était rasé ces derniers jours, ça peut avoir un impact non négligeable sur l’enquête.


Quel est le rapport avec ce que je dis ? <img data-src=" />



Au passage, ce n’est pas comme si tu n’avais “rien à faire” … la voiture ne gére pas seule les dépassement, par exemple … si tu vois que le véhicule devant toi est trop lent, c’est à toi de “demander” un dépassement.



Et ce n’est pas parce que “l’autoroute c’est monotone et ça favorise l’assoupissement qu’on considére que “le conducteur n’est pas en cause” dans les accidents sur l’autoroute <img data-src=" />


Ce n’est pas quelques morts qui freineront (ou plutôt décapiteront…) le développement des voitures autonomes.&nbsp;

C’est normal qu’il y en ai et il y en aura toujours quelques uns même quand la technologie sera fiable et bien avancée.&nbsp;

Mais cela restera toujours beaucoup beaucoup plus performant que l’Homme.&nbsp;



Mais malheureusement, ce n’est pas demain la veille que 90% du parc auto (dans les pays développés) sera composé de voitures autonomes…








thomgamer a écrit :



L’humour c’est comme le café, plus c’est noir, mieux c’est (sans dépasser une certaine quantité bien sur). &nbsp;



&nbsp;

Mais les bonnes blagues, comme une levrette, sont toujours meilleurs tirées par les cheveux.









Cashiderme a écrit :



Tu te rends compte combien de Km ont été parcouru en voiture depuis qu’elle existe, comparé a ces technos toute nouvelles ?



Ca n’a aucun sens de parler du nombre de km “depuis qu’elle existe”.&nbsp;

L’accidentologie a énormément évolué “depuis qu’elle existe”.&nbsp;&nbsp;

&nbsp;

Le nombre de tués étant relativement régulier, une étude sur 1 mois de route est à peu près suffisant (même les variations saisonnières ne font pas changer de gamme: on est à un petit +50% sur la norme, rien d’exceptionnel)&nbsp;

En France, ça ferait de l’ordre de 60 milliards de km. &nbsp;La Tesla en est à environ 200 millions de km (soit 300 fois moins)&nbsp;



C’est bien insuffisant pour des statistiques fiables, mais ça reste acceptable pour établir des fourchettes.

Fourchette qui exclue le “beaucoup plus dangereux que l’humain”, mais laisse la place au “un peu plus dangereux”, au “moins dangereux” et au “beaucoup moins dangereux”.&nbsp;&nbsp;



Le problème n’est pas tant l’accident mais de savoir si dans les même conditions l’accident aurait été évité avec un humain au volant.&nbsp;

Et dans ce cas précis visiblement l’humain aurait freiné et pas percuté le camion&nbsp;

&nbsp;


Une bonne blague c’est un peu comme une levrette, faut que ça soit toujours un peu tiré par les cheveux.



Voilà c’est corrigé <img data-src=" />








atomusk a écrit :



Quel est le rapport avec ce que je dis ? <img data-src=" />



Au passage, ce n’est pas comme si tu n’avais “rien à faire” … la voiture ne gére pas seule les dépassement, par exemple … si tu vois que le véhicule devant toi est trop lent, c’est à toi de “demander” un dépassement.



Et ce n’est pas parce que “l’autoroute c’est monotone et ça favorise l’assoupissement qu’on considére que “le conducteur n’est pas en cause” dans les accidents sur l’autoroute <img data-src=" />





Tu me dis qu’on rappel a l’utilisateur, que c’est lui qui prend la décision. Je t’explique juste que tu auras beau faire ce que tu veux les conducteurs, inconsciemment, vont faire moins attentions et tu vas augmenter le nombre possible d’accident. C’est assez étonnant que tu ne vois pas la relation.



Et surtout ça ne veut pas dire que la compagnie qui fabrique la solution en question n’a pas sa part de responsabilité.









thomgamer a écrit :



Une bonne blague c’est un peu comme une levrette, faut que ça soit toujours un peu tiré par les cheveux.



Voilà c’est corrigé <img data-src=" />





Ouais enfin dans une citation, ce qui compte c’est le sens, un peu comme dans une…

Bref. <img data-src=" />









atomusk a écrit :



Rejeter la faute sur le conducteur ? <img data-src=" />



Tu as un véhicule, qui pour activer la conduite auto te dis “attention TU es le conducteur, la fonctionnalité est toujours experimentale”, si tu laches le volant il te rappelle avec un bip que tu dois être au controle du véhicule (et si tu ne remet pas les mains sur le volant il met la voiture sur le bas coté de lui même), et le mec va sortir un ordi portable pour regarder un DVD ?



Et ça doit être la faute de Tesla ? <img data-src=" />



Qu’on parle de risque de somnolence avec la conduite “automatique”, qu’on parle du fait que le mec n’a pas le même temps de réaction, ok … mais ne pas regarder la route “du tout” ? <img data-src=" />





Sur de (vieux) sites de torrents il est bien écrit qu’ils ne font qu’héberger des liens et que l’utilisateur est seul responsable s’il télécharge illégalement…



C’est une voiture vendue pour son pilotage automatique, rejeter la responsabilité sur le conducteur est ici ridicule.



Dans une voiture classique, si le système de frein est défectueux à la sortie de l’usine, le constructeur est pleinement responsable en cas d’accident, même si le conducteur a clairement manqué de vigilance et aurait pu avec les bons réflexes dévier son véhicule. Même s’il était bourré ça n’excuse pas la faute du constructeur.



Quant à prétendre séparer pilotage automatique et freinage automatique, c’est assez grossier. On ne pilote pas sans frein. Qu’en interne ils aient séparer les équipes dédiées, c’est leur problème. La prochaine fois ils diront que le pilotage automatique ne concerne pas les limitations de vitesse, ou le mouvement des roues dans les virages ?



Je vois pas comment on peut être informaticien et faire aveuglément confiance en de telles machines, surtout sans avoir le code source. Que ça puisse réduire des risques, éventuellement, mais que ce soit infaillible, certainement pas. Même Arianne 5 a explosée à cause d’un “simple” overflow. Mais ce n’est pas très vendeur de préciser que ces autopilot auront besoin de maj permanentes de sécurité, comme tout logiciel, et resteront toujours inadaptées à certaines situations “peu courantes”.









typhoon006 a écrit :



Et dans ce cas précis visiblement l’humain aurait freiné et pas percuté le camion&nbsp;

&nbsp;





Dans ce cas précis, je n’arrive toujours pas à savoir si le camion avait commencé à tourner longtemps avant l’arrivée de la voiture ou s’il lui a coupé la route.&nbsp;

Sans cette précision, il n’est absolument impossible de me prononcer.&nbsp;









graveen a écrit :



Ca fait plaisir de voir autant d’empathie dans un seul post !





<img data-src=" />



On n’en sait rien…il aurait pu se planter tout autant en train de taper un sms… c’est quand la machine tuera, fera une action meurtrière qu’on pourra en reparler, pas de son inaction…


Donc c’est pas la faute du conducteur qui s’assoupie sur l’autoroute …

Je dis pas que il n’y a pas un risque accru de baisse d’attention avec la conduit “auto”, mais que l’attention du conducteur reste de sa responsabilité tant que la voiture “reste sous son contrôle”.








darkbeast a écrit :



Confondre un camion et un pont, il faut déjà un bon grammage pour y arriver en tant qu’humain.





Bon, dans ce cas présent, l’humain n’était pas là.

Sinon, pour une machine, ça ne m’étonne guère. J’imagine que l’IA ne considère comme obstacle sur la route tout volume jusqu’à une certaine hauteur du sol. En effet, généralement, les obstacles sont reliés au sol, ou sont au moins à 70cm de celui-ci. Du coup, on peut imaginer que ne considérant pas la remarque comme un obstacle, cette surface plane au dessus de la route ressemblait probablement plus à un panneau ou un pont.







graveen a écrit :



Je n’ai pas trop d’avis technique sur la question (honnetement j’aurais plutot tendance à penser qu’ils sont trés vifs chez Tesla, pas sur que ce soit aussi évident que ça). Par contre, je pense que le client qui a accepté une tesla en test doit avoir signé une clause lui stipulant qu’il est moins qu’un rat de labo <img data-src=" />





De ce que j’ai compris, la fonction était bien connu comme “bêta” donc non fiable totalement, surtout que des cas déjà connu de “sursaut” du volant dans ce mode avait déjà fait le tour du web.

Demande à n’importe quel responsable de serveur si il installe la version “unstable” de debian sur son serveur de production n’est pas suicidaire.

De plus, la fonction demande explicitement au conducteur d’être vigilant sur la route. La encore c’est un raté pour ce cas, il regardait un DVD.



Pour résumé, le programme à certes une part d’erreur, cependant, dans l’usage normal, cette erreurs aurait dû être corrigé par l’intervention humaine, ce qui n’a pas était fait. La cascade d’erreur conduisant à l’accident est principalement humaine, et clairement le conducteur est le principal responsable : il utilise une fonction bêta connue comme imparfaite avec des comportements dangereux, il lui est en plus clairement demandé de faire attention à la route, or il était en train de regarder un DVD, je suis désolé, mais définitivement, son comportement était risqué.



Il a pris un risque, il en est mort, heureusement que personne d’autre n’ait été blessé.



Yep, le mec était fou de faire une confiance aveugle en un véhicule qui à son lancement et à chaque fois qu’il lachait de volant lui “hurlait” : FAIT GAFFE GARDE LE CONTROLE DU VEHICULE !



Selon les info, il regardait un film … alors qu’il doit à tout moment être capable de reprendre le contrôle du véhicule.

De mon point de vue il a eut du bol de ne s’être tué “que lui” et de pas avoir tué d’autres personnes.



Est ce qu’il faut qu’il y ait des corrections dans les algo ? oui. Est ce que cet accident doit remettre en question le systeme de freinage et d’auto-pilote chez Tesla ? ASSUREMENT.



Est ce que le conducteur est à 100% en tord, et ne peux s’en prendre qu’à lui même ? ASSUREMENT








atomusk a écrit :



Rejeter la faute sur le conducteur ? <img data-src=" />



Tu as un véhicule, qui pour activer la conduite auto te dis “attention TU es le conducteur, la fonctionnalité est toujours experimentale”, si tu laches le volant il te rappelle avec un bip que tu dois être au controle du véhicule (et si tu ne remet pas les mains sur le volant il met la voiture sur le bas coté de lui même), et le mec va sortir un ordi portable pour regarder un DVD ?



Et ça doit être la faute de Tesla ? <img data-src=" />



Qu’on parle de risque de somnolence avec la conduite “automatique”, qu’on parle du fait que le mec n’a pas le même temps de réaction, ok … mais ne pas regarder la route “du tout” ? <img data-src=" />





Non tu as raison: ce n’est pas la faute de Tesla. L’autopilot et le système de freinage d’urgence ont parfaitement fonctionné, mais c’est le conducteur qui a accéléré pour se la jouer fast and furious <img data-src=" />



Sinon le principe est pas mal: attention monsieur, le système est encore en béta test. Bon on le commercialise sous la pression des clients, mais sachez qu’il peut partir en vrille à chaque rayon de soleil…









fr1g0 a écrit :



il faisait quoi le conducteur ? il dormait ?







Il regardait un film je crois



“trololol” je comprend pas, j’ai mis ma voiture en autopilote et j’ai fait une sieste, je comprend pas pourquoi j’ai eut un accident ! c’est la faute de Tesla <img data-src=" /> je vais faire un procès contre Tesla et j’aurai tous les lecteurs de NXI qui seront avec moi <img data-src=" />



Je pensais pas les lecteurs de NXI autant anti technologie, c’est impressionnant <img data-src=" />



On a des adultes consentant qui acceptent des conditions d’utilisation en toute connaissance de cause (à l’achat, à l’activation et à l’utilisation) et on demande la tête de l’entreprise parce que l’utilisateur l’utilise mal <img data-src=" />



Faudrait vous inscrire en politique les mecs <img data-src=" />








atomusk a écrit :



Donc c’est pas la faute du conducteur qui s’assoupie sur l’autoroute …

Je dis pas que il n’y a pas un risque accru de baisse d’attention avec la conduit “auto”, mais que l’attention du conducteur reste de sa responsabilité tant que la voiture “reste sous son contrôle”.





Il a sa part de responsabilité le constructeur aussi. C’est un peu comme Ikea qui a retiré des commodes de la vente et a récupéré celles vendues. Les gamins grimpent dessus et se font écraser. La version Tesla c’est dire: Osef qu’ils crèvent c’est pas notre responsabilité ils ont qu’a respecter ce qu’il y a écris sur la notice. Ou l’autre c’est dire. Y’a une couille faut peut être faire quelque chose.



C’est aussi pour ça qu’il y a de nombreux éléments pour éviter que les gens s’assoupissent au volant ou éviter les fautes d’inattentions. Mais la aussi, on pourrait juste dire: responsabilité du conducteur, Osef qu’ils crèvent.



Yay ! les impactiens pour l’interdiction de monter soi même ses meubles !



Tous ensemble pour interdire aussi de toucher à des prises électriques ! c’est BIEN TROP DANGEREUX !



Et puis quelle est cette folie de monter soi même son ordinateur ! <img data-src=" />



ps: IKEA a étudié la situation, estimé que la commode était particulièrement instable si non attachée, et ont organisé un rappel tout en demandant d’attacher la commode comme indiqué dans la notice.

Tesla a étudié la situation, travaille sur des correctifs software qui seront uploadé automatiquement, et ont rappelé encore que le conducteur est responsable de garder le contrôle à tout moment comme indiqué à plusieurs endroits.



aucun des 2 n’est responsable de la mort de “l’utilisateur”, mais aucun des 2 ne fait rien.


En vrai, c’est Ubuntu. <img data-src=" />








atomusk a écrit :



Je pensais pas les lecteurs de NXI autant anti technologie, c’est impressionnant <img data-src=" />





Anti technologie ?

Tesla te vends une technologie. Point barre. Qu’elle soit en beta test ou pas ne rentre pas en compte: soit elle te rend service, soit elle est dangereuse parceque non fonctionnelle.



Dans le cas qui nous intéresse, elle a été défaillante. Certes le conducteur a une part de responsabilité, mais nier celle de Tesla c’est juste de l’aveuglement.

Quand tu es dans une voiture sous auto-pilot, que tu le veuilles ou non, ton attention n’est pas tout le temps à 100%. Le système connait une défaillance. Encore faut-il que tu t’en rendes compte immédiatement, or rien ne dit que si le conducteur s’en était rendu compte, il aurait eu le temps de freiner suffisamment pour éviter de se faire tuer.









graveen a écrit :



Ca fait plaisir de voir autant d’empathie dans un seul post !





Tu voudrais qu’on le plaigne?

Le mec met en danger la vie d’autrui en ne regardant pas la route pendant qu’il conduit et faudrait verser une petite larme parce que celui-ci s’est pris un camion (qu’il aurait sans doute pu éviter s’il était attentif)?!

Le monde à l’envers..<img data-src=" />



Je comprend l’erreur de l’autopilot, et je voie pas trop comment on pourra l’éviter par la suite : Imaginer un camion en travers de la route en haut d’une côte et la même côte sans camion mais avec un panneau d’indication un peu plus bas dans la descente de la côte, la caméra ou le radar verront la même chose : une surface en travers de la route. Et si la voiture s’arrête a chaque côte avec un panneau… Donc a moins de connaitre la topologie exacte du terrain…








atomusk a écrit :



“trololol” je comprend pas, j’ai mis ma voiture en autopilote et j’ai fait une sieste, je comprend pas pourquoi j’ai eut un accident ! c’est la faute de Tesla <img data-src=" /> je vais faire un procès contre Tesla et j’aurai tous les lecteurs de NXI qui seront avec moi <img data-src=" />







J’ai joué à la roulette russe avec un pistolet automatique et j’en suis mort ! C’est la faute de Smith et Wesson/Berreta/Glock/SIG Sauer/etc…



À un moment, faut assumer ses conneries.







maestro321 a écrit :



Tu voudrais qu’on le plaigne?

Le mec met en danger la vie d’autrui en ne regardant pas la route pendant qu’il conduit et faudrait verser une petite larme parce que celui-ci s’est pris un camion (qu’il aurait sans doute pu éviter s’il était attentif)?!

Le monde à l’envers..<img data-src=" />







+1.



J’espère que le propriétaire de la remorque a pu récupérer rapidement son outil de travail…









thomgamer a écrit :



C’est sur, par contre avec la nouvelle Tesla Model 3 qui est au prix d’une berline haut de gamme (A3 si on prend pas la basique sans option), on devrait commencer à avoir un panel de profil de conducteurs plutôt correct.







Pour la model 3, qu’ils fassent encore un effort de 15 000\( sur le prix* et j'en achète une <img data-src="> Non en fait c'est plutôt 25 000 mais ce prix là ce sera dans 20 ans <img data-src=">



*pour un prix de base de 35 000\)



Le code de la route Américain est-il différent du code de la route Français ?



Je fais référence à l’article R412-6, qui dit “tout conducteur doit rester maître de son véhicule”.








ZeHiro a écrit :



Apparement, ils ont un taux d’accident/Mkm plus faible que sans auto pilote. Mais leur mesure est amha statistiquement incorrecte : ils ont eu 1 seul accident, alors que la conduite manuelle a un échantillon malheureusement plus grand, et la mesure est plus fiable. Quand ils auront atteint 1000 accidents, la mesure sera bien plus fiable.





C’est du pipeau ces stats.

combien sur ces millions de km roulé par les Tesla ont été fait sous autopilot ? Tesla n’en sait rien. Si ça se trouve c’est seulement 1%.

en ville ce système est quasi inutilisable, trop de feu, de panneau, de piéton, d’imprévu des autres véhicules.&nbsp;

don coù est utilisé cet autopilot ? Prinicpalement sur autoroute et les bouchons.

Dans les bouchons, l’autopilot fait facilement l’affaire en suivant la voiture de devant mais à 5km/h en moyenne tu ne risque pas de mourir.

Sur autoroutes ou voies express américaines, où la vitesse est limité à 100km/h, ça reste un lieu parfaitement adapté pour ce type de système, mai e n meme temps les autoroutes sont les lieux où il y a le moins d’accident proportionnellement (Pour info, en France, en 2014, il y a eu 142 morts sur autoroute pour 3241 morts sur le réseau national et départemental.). Donc quand il s’agit de piloter sur 3 voies et suivre la voiture de devant à distance ça marche … sauf quand il y a des imprévus, genre un camion en travers ou un papillon qui s’écrase sur le capteur.



Il faut savoir que la conduite manuelle s’effectue principalement ne ville, les risque sont plus grand. On ne peut donc pas comparé la conduite manuelle plus dangereuse en ville avec la conduite auto sur une autoroute bien plus sécurisé.

Bref l’argument du 1 mort pour 10 million de km roulé en tesla c’est du pipeau marketing. Tout comme l’argument de Musk la semaine dernière qui fait une déclaration que son système a sauvé la vie d’un piéton … alors que finalement&nbsp; ce serait une supposition d’après l’enquête.



Mais Musk et Tesla feront tout pour préserver leur image, leur système, sinon c’est toute leur industrie qui va s’écrouler. Aux USA le business passe avant tout.



Je dis pas non plus que “tout est parfait dans l’autopilote” et que “ça a fonctionné parfaitement”.



Mais quand tu as un véhicule lancé à grande vitesse, avec un systeme automatisé qui t’explique que “tu dois être en plein controle à tout moment” et que le conducteur “laisse completement le controle”, c’est à 100% de sa faute.








carbier a écrit :



Anti technologie ?

Tesla te vends une technologie. Point barre. Qu’elle soit en beta test ou pas ne rentre pas en compte: soit elle te rend service, soit elle est dangereuse parceque non fonctionnelle.



Dans le cas qui nous intéresse, elle a été défaillante. Certes le conducteur a une part de responsabilité, mais nier celle de Tesla c’est juste de l’aveuglement.

Quand tu es dans une voiture sous auto-pilot, que tu le veuilles ou non, ton attention n’est pas tout le temps à 100%. Le système connait une défaillance. Encore faut-il que tu t’en rendes compte immédiatement, or rien ne dit que si le conducteur s’en était rendu compte, il aurait eu le temps de freiner suffisamment pour éviter de se faire tuer.





C’est toujours une fonction experimental, La S te le rappel a chaque fois que tu l’actionnes.



C’est une aide à la conduite pas une substitution…



Ce n’est pas une voiture autonome, point barre ! Matter un DVD et conduire n’est pour le moment pas possible



J’y arrive bien en jouant à Gran Turismo <img data-src=" />


Ils devraient le renommer :

“autopilot” =&gt; “pilot assist”



Fin de la polémique…



Je ne suis pas fan des assistances à la conduite qui mènent les gens à une attitude qui nuit à la sécurité.

Rien qu’un régulateur de vitesse, je suis convaincu que certains enlèvent leur pied de l’endroit où il devrait se trouver (sur la pédale de frein vu que ça accélère tout seul, ce qui améliorerait sensiblement le temps de réaction des gens).

Là, c’est encore pire, tu n’as plus rien à faire, mais on te dit d’être attentif. C’est incohérent, c’est incompatible avec le fonctionnement du cerveau humain.



Vu que la voiture n’est pas considérée totalement autonome, le mec conduisait en regardant un film.



Je fais partie de ceux qui ne verseront pas leur petite larme.


eeeet si ils le savent <img data-src=" />



Les conditions d’utilisation de l’autopilote s’associent à une récupération de données comme le nombre de km parcouru, le nombre de fois où l’utilisateur a “désengagé” l’autopilote et “les informations autour du désengagement”.



Et toutes ces info sont utilisés par Tesla pour améliorer leur algo … (la voiture a freiné trop tard ce qui a fait peur à l’utilisateur ? freinons plus tôt …



Il n’empeche que les stats sont absolument incomparable à d’autre stats car le nombre de km est bien trop bas et le pool d’utilisateur trop réduit et pas représentatif.



Mais elles n’en restent pas “fausses” … il faut juste les associer à leur contexte.








renaud07 a écrit :



Pour la model 3, qu’ils fassent encore un effort de 15 000\( sur le prix* et j'en achète une <img data-src="> Non en fait c'est plutôt 25 000 mais ce prix là ce sera dans 20 ans <img data-src=">



*pour un prix de base de 35 000\)






Bah je sais pas comment ça se passe en concession Tesla, car chez tous les autres, les prix affichés sont toujours négociables et y a toujours des rabais ou reprises donc …



Par contre je m’interroge surtout sur le coût d’entretien d’une Tesla.









ArchangeBlandin a écrit :



Ils devraient le renommer :

“autopilot” =&gt; “pilot assist”



Fin de la polémique…







tu penses serieusement que si le nom avait été différent le mec n’aurait pas regardé un film au volant ? <img data-src=" />









Nerkazoid a écrit :



J’y arrive bien en jouant à Gran Turismo <img data-src=" />





<img data-src=" /><img data-src=" /><img data-src=" />



Mais j’ai jamais dit le contraire. Et avoire les données d’utilisation de l’autopilot, Tesla peut les avoir. Je serai même étonné qu’il n’y ait pas un reporting en live.








atomusk a écrit :



Yay ! les impactiens pour l’interdiction de monter soi même ses meubles !



Tous ensemble pour interdire aussi de toucher à des prises électriques ! c’est BIEN TROP DANGEREUX !



Et puis quelle est cette folie de monter soi même son ordinateur ! <img data-src=" />



ps: IKEA a étudié la situation, estimé que la commode était particulièrement instable si non attachée, et ont organisé un rappel tout en demandant d’attacher la commode comme indiqué dans la notice.

Tesla a étudié la situation, travaille sur des correctifs software qui seront uploadé automatiquement, et ont rappelé encore que le conducteur est responsable de garder le contrôle à tout moment comme indiqué à plusieurs endroits.



aucun des 2 n’est responsable de la mort de “l’utilisateur”, mais aucun des 2 ne fait rien.





Ikea rappel son produit et l’a interdit a la vente, Tesla promet un correctif qui ne corrigera pas le problème de base: La perte d’attention des conducteurs… et une aide a la conduite qui est largement perfectible car dépendante des seules cameras. La seul solution pour corriger le problème c’est de rendre la voiture complètement autonome avec les capteurs qui vont bien et les tests en internes qui suivent… Mais la évidement faut débourser de l’argent et faire les choses sérieusement. C’est moins excitant tout d’un coup et ça fait moins de buzz sur internet.



Et encore une fois Tesla a sa responsabilité, et je suis sur que leur “on est pas responsable” ne tiendrais pas longtemps face a un procès aux US.









ZeHiro a écrit :



Mais j’ai jamais dit le contraire. Et avoire les données d’utilisation de l’autopilot, Tesla peut les avoir. Je serai même étonné qu’il n’y ait pas un reporting en live.





Vu que la voiture envoie un rapport régulier, ils ont ces données a coup sur



Dis donc, ça polémique à tout va !



Pour faire simple (mais comme personne ici, je n’ai pas le dossier) :





  1. le chauffeur du camion est responsable de l’accident. Apparemment, ce point est peu discutable : il y a grillé la priorité (et même si la Tesla était en excès de vitesse, l’excès était modéré)



  2. ensuite, le chauffeur de la Tesla est fautif car, même avec l’assistance au pilotage, il aurait dû freiner (code de la route US, convention de Vienne, bon sens, toussa….Etc).



  3. enfin, la seule information intéressante dans ce fait divers (tragiquement banal du reste), c’est que la Tesla, même si elle n’est responsable ni de l’accident (camion), ni de l’inaction du chauffeur, la Tesla n’a pas freiné automatiquement comme le promet la technologie mise en avant. La question est pourquoi, et donc, comment améliorer l’autopilot/freinage d’urgence.



    Il va probablement se produire d’autres accidents de voiture autonomes ou semi-autonomes. Et, pour le dire cyniquement, c’est les leçons tirées de ces accidents qui permettront d’améliorer cette technologie.



    Pour Tesla, c’est un échec, un incident de parcours. Mais pas une vraie faute à mon sens. Même si ça peut être monté en épingle et nuire à leur image et à l’image des voitures autonomes.



    PS: quelqu’un sait comment s’est soldé l’affaire des régulateurs de vitesses qui devenaient incontrôlables….? (Renault, Nissan, Toyota….). En tout cas, les constructeurs en question vendent toujours des voitures (avec régulateurs) !


Merci Telsa, maintenant on va avoir l’air malin avec nos comparaisons informatique/automobile <img data-src=" />


Pardon Ikea a supprimé toutes ses commodes à la vente? <img data-src=" />

ou ils ont juste “corrigé le problème de la commode qui était dangereuse” ?



Le problème de l’accident ici n’est en RIEN la “perte d’attention”, c’est la bêtise de ne faire “aucune attention à la route”.



Même un mec qui rêvasse aurait du voir ce véhicule qui se rapproche à grande vitesse. Même si il avait perdu 1 seconde de réaction, il aurait pu réduire suffisamment sa vitesse, pour sauver sa vie

Ca n’est pas parce qu’il y a des idiots qu’on doit interdire completement toute “assistance à la conduite”.


Un seul accident est statistiquement non pertinent : VRAI.



Tesla prétend vendre une voiture avec pilote automatique : FAUX

En revanche, c’est ce que prétend BMW qui est bien moins avancé.

C’est juste que la plupart des gens ne savent pas qu’autopilot vient du terme utilisé en aéronautique et qui n’implique pas à la base une autonomie complète. Tesla vend un véhicule certifié pour une autonomie de niveau 2 même si leur soft s’approche du niveau 3 et Google est sur le niveau 4 et vise le 5 (autonomie totale).



Tesla vend un système en phase beta-test : FAUX, du moins au sens ou on l’entend habituellement. Le problème avec ce genre de technologies, c’est qu’il est impossible de certifier le fonctionnement sans tests en conditions réelles (Musk a publié qu’il faudrait plus d’un milliard de km en conditions réelles pour envisager de sortir de cette pseudo phase beta).



Où est le problème ? Quand on vend au gens un système capable de faire bouillir de l’eau, ils essaient de faire le café directement avec.

Personne ne semble se souvenir des problèmes (humains) qu’il y a eu avec les premiers régulateurs de vitesse (non adaptatifs).

(Edit :





Tiebor a écrit :



PS: quelqu’un sait comment s’est soldé l’affaire des régulateurs de vitesses qui devenaient incontrôlables….? (Renault, Nissan, Toyota….). En tout cas, les constructeurs en question vendent toujours des voitures (avec régulateurs) !



Merci Tiebor)



Est-ce qu’il faut interdire ce système ? NON.

Le conducteur devant en toute circonstance rester maître de son véhicule, il restera responsable et devra continuer à faire attention.



Il me semble que c’est sur NXI que quelqu’un a fait cette remarque très pertinente : grâce au régulateur de vitesse, je n’ai plus à vérifier régulièrement que je ne dépasse pas la vitesse limite. Cela me permet de me concentrer plus sur les autres véhicules pour doubler quand je peux et ralentir quand je ne peux pas doubler.



Le système de Tesla, sur mon trajet de boulot me permettrait de me concentrer sur tous les imprévus en me fatigant moins et donc en étant plus alerte sur les derniers kilomètres (en ville).



Ah, et au fait, l’existence de ce fait divers, et les conclusions qui en seront tirées sur le plan de la responsabilité, n’auront que peu d’impact sur le développement (inexorable à mon avis) des voitures autonomes.



Si la législation doit changer avec la généralisation des algorithmes embarquées, alors la législation sera changée. Mais avec un décalage temporel. Le code de la route a été inventé bien après les voitures.

D’ailleurs, il y a déjà pas mal de débats de juristes là dessus.

(ex de séminaire sur le sujet à Grenoble l’automne dernier:http://www.inria.fr/centre/grenoble/actualites/logiciel-embarque-et-responsabili…








papinse a écrit :



Il me semble que c’est sur NXI que quelqu’un a fait cette remarque très pertinente : grâce au régulateur de vitesse, je n’ai plus à vérifier régulièrement que je ne dépasse pas la vitesse limite. Cela me permet de me concentrer plus sur les autres véhicules pour doubler quand je peux et ralentir quand je ne peux pas doubler.







En fait, tu parles du limitateur de vitesse, et non du régulateur (les voitures ont les deux options maintenant).

Je chipote, mais autrement je suis pleinement d’accord avec toi.



Dans mon cas, c’est bien un régulateur, je n’ai pas de limiteur mais quand ça s’est dégagé après ralentissement, je fais un rappel de vitesse dès que je suis revenu au niveau de la limitation légale.


Pas lie a l’accident, mais en regardant la video youtube, je suis surpris du nombre de “heu” de la part d’Elton Musk. Pour une personne de la silico valley il ne fait pas tres a l’aise pour faire des presentations


Il est toujours comme ça. C’est effectivement peu commun mais on s’y fait.


C’est la premiere fois que je vois une de ses videos, a part son cameo dans Big Bang Theory<img data-src=" />

Apres, ca montre qu’on a pas besoin d’etre un orateur hors pair pour reussir a vendre du reve.








Commentaire_supprime a écrit :



Parce qu’il n’y a eu qu’un mort, et pas 84.



——————– oui, je connais le chemin, merci —————————-&gt; []



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />









HAHAHA ! c’est malin je viens d’éclater de rire dans l’open space ….









Mustard27 a écrit :



Il regardait un DVD.



Evidemment cela n’est pas recommandé par le fabricant mais à partir du

moment où ce dernier vante partout la qualité de son autopilot, que le

systeme autorise la lecture d’un DVD en roulant, ça devait forcéement

arrive run jour.&nbsp;





Non le système n’autorise pas la lecture d’un DVD. C’est le conducteur qui a lui-même décidé de regarder

un DVD sur un lecteur portable (un PC portable semble-t-il).

&nbsp;



&nbsp; typhoon006 a écrit :



Le problème n’est pas tant l’accident mais de savoir si dans les même conditions l’accident aurait été évité avec un humain au volant.&nbsp;

Et dans ce cas précis visiblement l’humain aurait freiné et pas percuté le camion&nbsp;&nbsp;





Ou alors il se serait tué quelques km avant pour une toute autre raison, on en sait strictement rien.

On peut aussi se demander, dans les même conditions mais sans visionnage du DVD, si l’accident aurait eu lieu. Sans doute que non.

Quel était le titre du film visionné ? Y avait-il un avertissement au début du visionnage ? Quelle est la marque du PC portable ? Bref, quels sont les responsabilités de chacun des intervenants ? <img data-src=" />



Pour moi il n’y a pas photo, c’est 100% pour l’homo sapiens sapiens qui était sur le siège conducteur.

Mais cela ne veut pas dire qu’il n’y a pas d’efforts à faire à tous les niveaux pour diminuer les erreurs humaines et pour éviter/atténuer leurs conséquences.

&nbsp;



Sur le fait qu’il y moins de mort par x kilomètre parcouru avec auto pilote qu’avec conducteur.

ça à été dit dans la news NXI qui annonce la première mort pour le pilote auto.








thomgamer a écrit :



Bah je sais pas comment ça se passe en concession Tesla, car chez tous les autres, les prix affichés sont toujours négociables et y a toujours des rabais ou reprises donc …



Par contre je m’interroge surtout sur le coût d’entretien d’une Tesla.







Ah oui c’est vrai j’avais pas pensé aux remises… mais pour les reprises pas sur que tesla reprenne une thermique <img data-src=" />



Et pour l’entretien en théorie ça devrait être moins cher étant donné qu’il n’y pas d’huile et autres filtres à changer. Par contre si c’est comme les autres électriques et qu’il faut louer les batteries, c’est un budget fixe à prendre en compte (jamais regardé si c’était le cas). Mais en contre partie on a la recharge gratuite <img data-src=" />



D’ailleurs je me demande comment ils font pour supporter les coûts de déploiement des bornes + les factures… vu que ça doit faire quelques millions <img data-src=" /> Quand le parc va grandir ça m’étonnerais pas qu’on finisse par passer à la caisse…









atomusk a écrit :



Yep, le mec était fou de faire une confiance aveugle en un véhicule qui à son lancement et à chaque fois qu’il lachait de volant lui “hurlait” : FAIT GAFFE GARDE LE CONTROLE DU VEHICULE !



Selon les info, il regardait un film … alors qu’il doit à tout moment être capable de reprendre le contrôle du véhicule.

De mon point de vue il a eut du bol de ne s’être tué “que lui” et de pas avoir tué d’autres personnes.



Est ce qu’il faut qu’il y ait des corrections dans les algo ? oui. Est ce que cet accident doit remettre en question le systeme de freinage et d’auto-pilote chez Tesla ? ASSUREMENT.



Est ce que le conducteur est à 100% en tord, et ne peux s’en prendre qu’à lui même ? ASSUREMENT





On peut le rendre responsable d’avoir été un primo-utilisateur trop enthousiaste, mais pas vraiment de manquement de pilotage d’un véhicule auto-piloté. Les mises en gardes sont de l’hypocrisie, l’autopilot est conçu pour se passer de pilote, ce n’est pas une simple aide à la conduite, une vigilance de tout instant tiendrait de la défiance et non de l’usage normal, et cynisme mis à part, c’était un client, non un technicien de contrôle-qualité.



Quand tu utilises une machine à laver, tu es responsable des réglages que tu fais, de son entretien et de ce que tu mets dedans, mais si un problème intrinsèque à cette machine survient et broie ton linge, tu n’en es nullement responsable, quand bien même tu aurais pu rester devant le hublot à surveiller en permanence ce qu’il se passait, quand bien même ce soit un nouveau modèle, et quand bien même il y aurait un message d’alerte à chaque utilisation. Sinon on laverait encore à la main. Et tout défiance qu’on pourrait faire à une machine à laver disparait vite à l’usage, on ne réagit qu’a posteriori d’un incident, par une LRAR ou l’achat d’une autre marque.



Par ailleurs je me demande la réaction des proches de la victime, grands absents de tous ces articles. Il me semble évident qu’ils ne pourraient accepter de l’entreprise qu’elle rejette sa responsabilité sur la victime, à moins d’arrangements à l’amiable conséquents évitant les tribunaux. Et tout enthousiaste qu’ait pu être le défunt, il aurait aussi certainement demandé réparation à Tesla, pas juste été plus vigilant ou reprit une voiture classique.









atomusk a écrit :



Je dis pas non plus que “tout est parfait dans l’autopilote” et que “ça a fonctionné parfaitement”.



Mais quand tu as un véhicule lancé à grande vitesse, avec un systeme automatisé qui t’explique que “tu dois être en plein controle à tout moment” et que le conducteur “laisse completement le controle”, c’est à 100% de sa faute.





Ce message à un cadre légal ou ne fait à ce jour figure que de message de prévention ? Je ne crois pas que la justice us ait déjà eue l’occasion de se prononcer, et ça sonne très CLUF des années 2000.



Hmm, je suis monté dans un model S vendredi, j’ai pas vu/entendu de message particulier lors de l’activation de l’autopilot (et du lâché de volant).



Bon après, j’étais côté passager et plus occupé à mouiller mon pantalon qu’autre chose, mais rien vu de spécial sur l’écran central, et si c’était sur le tableau de bord, ça devait être discret. A moins que ça se désactive…


C’était quel “grand” patron visionnaire du CAC40 qui disait que les usines c’était le passé, et qu’il fallait tout miser sur le tertiaire? Je crois que sa boite à été démantelé depuis alors que Tesla et sa Gigafactory vaut 35 milliards à la bourse <img data-src=" /> <img data-src=" />








Infolibre a écrit :



On peut le rendre responsable d’avoir été un primo-utilisateur trop enthousiaste, mais pas vraiment de manquement de pilotage d’un véhicule auto-piloté. Les mises en gardes sont de l’hypocrisie, l’autopilot est conçu pour se passer de pilote, ce n’est pas une simple aide à la conduite, une vigilance de tout instant tiendrait de la défiance et non de l’usage normal, et cynisme mis à part, c’était un client, non un technicien de contrôle-qualité.



Quand tu utilises une machine à laver, tu es responsable des réglages que tu fais, de son entretien et de ce que tu mets dedans, mais si un problème intrinsèque à cette machine survient et broie ton linge, tu n’en es nullement responsable, quand bien même tu aurais pu rester devant le hublot à surveiller en permanence ce qu’il se passait, quand bien même ce soit un nouveau modèle, et quand bien même il y aurait un message d’alerte à chaque utilisation. Sinon on laverait encore à la main. Et tout défiance qu’on pourrait faire à une machine à laver disparait vite à l’usage, on ne réagit qu’a posteriori d’un incident, par une LRAR ou l’achat d’une autre marque.



Par ailleurs je me demande la réaction des proches de la victime, grands absents de tous ces articles. Il me semble évident qu’ils ne pourraient accepter de l’entreprise qu’elle rejette sa responsabilité sur la victime, à moins d’arrangements à l’amiable conséquents évitant les tribunaux. Et tout enthousiaste qu’ait pu être le défunt, il aurait aussi certainement demandé réparation à Tesla, pas juste été plus vigilant ou reprit une voiture classique.





Si je mets du linge censé être lavé à 30° et que je le lave à la température la plus haute disponible, et que mon linge est ruiné c’est ma faute, pas celle de la machine. Le mec a très clairement ignoré toutes les consignes d’utilisation de sa voiture, et a arrêté de regarder la route. Il n’y a aucune voiture grand public entièrement autonome disponible, et le mec est responsable. Je suis désolé.



Pour reprendre un exemple avec un truc qui avance. Si ta tondeuse peut se bloquer en marche avant, et que tu la laches. Le constructeur est pas responsable si tu mets ton pieds sur la route de la tondeuse plus tard et que tu le broies… Si tu utilises un appareil qui requiert ton attention, et que tu ne le surveilles pas, c’est ta faute si l’appareil fait une connerie…



J’aimerais bien qu’on compare le nombre de morts/km effectués sur ces voitures automatiques et sur les voitures manuelles. Ok il y a eu un accident, mais il faut comparer des données comparables. Tout le monde s’agite sur cet accident de la Tesla, et si je comprends qu’on en cherche les causes pour corriger la défaillance, j’ai du mal à admettre qu’on rejette le concept même de la voiture autopilotée parce qu’il y a eu un accident (surtout quand le conducteur a aussi sa part de responsabilité). Des accidents il y en aura d’autre, mais est-ce que leur nombre est réduit ou pas si la voiture se conduit seule, c’est ça le chiffre qu’il faut regarder pour juger.








jb18v a écrit :



le mec a pas freiné, tant pis pour sa gueule. Next !







Peut-être que le camion lui a coupé la route alors qu’il roulait à 100km/h sur une nationale… On n’aurait peut-être pas pu freiner non plus <img data-src=" />



C’est comme le régulateur, si tu dais de la merde c’est pour ta gueule. Voilà, fin de l’affaire et pourvu que les autorités tranchent pareil. Après si le lobby auto est du côté de tesla (pas sûr…) ça va le faire








Vincent81 a écrit :



Je comprend l’erreur de l’autopilot, et je voie pas trop comment on pourra l’éviter par la suite







Ça fait 15ans que je roule et je n’ai jamais vu de camion en travers d’une nationale, car si des voitures arrivent en sens inverse, le camion n’a pas le droit de tourner <img data-src=" />



c’est pour ça qu’on a imposé les éclipses pour empêcher de mettre des objets ou des doigts dedans et que quand tu branches ta prise tu ne peux y accéder.



du coup pour la voiture de Tesla imagine qu’un ado ou enfant montes dedans et lance la voiture en autopilote…. Tesla est responsable, on ne lance pas une fonction de sécurité en beta, ça ne s’est jamais vu dans le monde. Et la preuve ça tue








Mustard27 a écrit :



Il regardait un DVD.

Evidemment cela n’est pas recommandé par le fabricant mais à partir du moment où ce dernier vante partout la qualité de son autopilot, que le systeme autorise la lecture d’un DVD en roulant, ça devait forcéement arrive run jour.



&nbsp;

Y’a pas de lecteur DVD dans une Tesla. Il n’y a même pas la moindre fonctionnalité pour lire une vidéo sur l’écran.



c’est pas un élément de sécurité comme la direction et les freins, c’est différent. là le système agit sur les éléments de sécurité, il doit donc être de sécurité et qui te dit que le système n’a pas empêché le conducteur d’agir?


oui car un pilote auto ne doit pas tuer…. sinon il ne sera jamais viable.








Tiebor a écrit :



En fait, tu parles du limitateur de vitesse, et non du régulateur (les voitures ont les deux options maintenant).

Je chipote, mais autrement je suis pleinement d’accord avec toi.



Pas toutes, on peut n’avoir que l’un ou l’autre (par ex les Toyota hybrides ont le régulateur mais pas le limiteur) <img data-src=" />







illidanPowa a écrit :



oui car un pilote auto ne doit pas tuer…. sinon il ne sera jamais viable.



Donc dans une situation où les éléments amènent au constat où faut sacrifier soit le conducteur de la voiture, soit d’autres personnes, on fait comment? Avec ou sans pilote auto, il y aura tué, il n’y a a pas de viable ou pas viable…



Pour moi Tesla a commis de nombreuses erreurs :&nbsp;





  • vendre un “pilote automatique” alors que ça n’en est pas un puisque le conducteur doit être vigilant (en français pilote automatique signifie que le conducteur n’est pas nécessaire). sinon on parle d’assistance.

  • vendre cette fonction pas finie alors qu’elle est de sécurité, c’est comme si Alstom disait tiens j’ai mis mon nouveau pilote auto de métro en beta sur une ligne en service, qui veut se sacrifier pour monter dedans?

  • ne pas être capable de dire avec certitude ce qu’il s’est passé, et c’est là certainement le plus grave!!!!



    Quand on a un système impliquant la vie d’être humain, on doit pouvoir être capable de dire exactement ce qui s’est passé en cas d’accident. Je peux vous dire que si un métro automatique se crashe, on saurait exactement ce qu’il s’est passé, le fait d’hésiter entre 2 scénarios indique un amateurisme qui fait froid dans le dos. Les mecs n’ont pas conscience qu’ils jouent avec la vie des gens. Ce point est juste hallucinant et cette news confirme ce que je craignais : ils font n’importe quoi vendu à grands coups de marketing!!!! Je suis pour le progrès mais pas n’importe comment, ces mecs sont des gros tocards qui vont nuire sévèrement à l’image des voitures autonomes….


donnes moi un exemple? normalement si tu maîtrises ton véhicule ça ne doit pas arriver….. et les voitures autonomes sont censées anticiper à mort.&nbsp;








Mustard27 a écrit :



C’est du pipeau ces stats.

combien sur ces millions de km roulé par les Tesla ont été fait sous autopilot ? Tesla n’en sait rien. Si ça se trouve c’est seulement 1%.



&nbsp;

en ville ce système est quasi inutilisable, trop de feu, de panneau, de piéton, d’imprévu des autres véhicules.&nbsp;

don coù est utilisé cet autopilot ? Prinicpalement sur autoroute et les bouchons.

Dans les bouchons, l’autopilot fait facilement l’affaire en suivant la voiture de devant mais à 5km/h en moyenne tu ne risque pas de mourir. &nbsp;



&nbsp;

&nbsp;1) Tesla sait tout de ses voitures, il y a l’air d’avoir pas mal d’infos qui sont remontées.




  1. L’autopilot ne doit pas être activée en ville, cela a bien été dit et écrit dans la présentation et le mode d’emploi. Il n’est prévu que pour gérer des routes où les véhicules roulent tous dans le même sens, extrait du manuel : “

    Avertissement : L’Assistance au maintiende cap est conçue pour être utiliséeuniquement sur les autoroutes et lesroutes à accès limité, avec un conducteurtotalement vigilant. Quand vous utilisezl’Assistance au maintien de cap, tenez levolant et faites attention aux conditionsroutières ainsi qu’à la circulation qui vousentoure. N’utilisez pas l’Assistance aumaintien de cap en ville ou dans deszones où circulent des cyclistes ou despiétons”

    L’autopilot n’est pas prévu techniquement pour gérer la ville.

    &nbsp;









illidanPowa a écrit :



oui car un pilote auto ne doit pas tuer…. sinon il ne sera jamais viable.





Pas d’avion tant qu’ils ne seront pas équipés pour ne jamais se crasher ? Et pas d’anesthésie si on n’est pas sûr à 100% de se réveiller après ?

Sérieusement… faudrait arrêter les messages naïfs dans ce genre, c’est lassant.









kjbstar a écrit :



Hmm, je suis monté dans un model S vendredi, j’ai pas vu/entendu de message particulier lors de l’activation de l’autopilot (et du lâché de volant).



Bon après, j’étais côté passager et plus occupé à mouiller mon pantalon qu’autre chose, mais rien vu de spécial sur l’écran central, et si c’était sur le tableau de bord, ça devait être discret. A moins que ça se désactive…





Le message d’avertissement quand on active l’autopilot s’affiche devant les yeux du conducteur,&nbsp; juste sous l’indicateur de vitesse.









thomgamer a écrit :



Bah je sais pas comment ça se passe en concession Tesla, car chez tous les autres, les prix affichés sont toujours négociables et y a toujours des rabais ou reprises donc …



Par contre je m’interroge surtout sur le coût d’entretien d’une Tesla.





Je n’ai jamais entendu quelqu’un dire qu’il avait obtenu une remise pour l’achat d’une Tesla.

Pour les entretiens, c’est tous les ans ou 20.000 km, mais ils ne sont pas obligatoires, juste conseillés.



le pilote auto des avions n’a été mis en serve commercial que quand il a été démontré après de très nombreux tests qu’il était fiable….. de plus le pilote doit toujours être prêt à reprendre les commandes.



On parle pas de chose nouvelles là…. faut arrêter de croire que c’est une innovation incroyable comme les 2 choses que tu viens de citer.


Franchement….

Le mec mate un DVD à 100 km/h, mettant ainsi en danger tous ceux qu’il croise, et il faudrait le plaindre ?



Je ne le pleurerai carrément pas, et cyniquement sa mort sera doublement utile (sans toutefois m’en réjouir) : d’une elle améliorera le système de Tesla, et de deux c’est un con dangereux de moins sur terre.








illidanPowa a écrit :



oui car un pilote auto ne doit pas tuer…. sinon il ne sera jamais viable.









illidanPowa a écrit :



le pilote auto des avions n’a été mis en serve commercial que quand il a été démontré après de très nombreux tests qu’il était fiable….. de plus le pilote doit toujours être prêt à reprendre les commandes.





Fiable ne veut pas dire infaillible, d’une.

Et de deux dans la Tesla aussi le pilote doit toujours être prêt à reprendre les commandes….Ce qui n’a pas été le cas ici, en matant un DVD…

Imagine un peu un pilote d’avion qui materait un DVD ?!?



il pourrait puisqu’il sera alerté que le pilote auto ne peut plus assuré ses fonctions, ça ne me choque dans la mesure ou en plus ils sont 2…. il va même aux toilettes tu te rends compte le scandale?&nbsp;<img data-src=" />



effectivement, il peut y avoir un accident, sauf que là on est quand même dans un cas concret et facile à identifier…. on est loin du&nbsp;0,00000001&nbsp;chance qu’une défaillance dangereuse par heure se produise comme dans le&nbsp;ferroviaire ou l’aéronautique……


&nbsp;







illidanPowa a écrit :



le pilote auto des avions n’a été mis en serve commercial que quand il a été démontré après de très nombreux tests qu’il était fiable…..&nbsp;&nbsp;





Les premiers pilotes automatiques sur vols commerciaux datent d’avant les années 30… je crois que tu te berces d’illusion quant à la qualité et le nombre de leur tests









illidanPowa a écrit :



c’est pour ça qu’on a imposé les éclipses pour empêcher de mettre des objets ou des doigts dedans et que quand tu branches ta prise tu ne peux y accéder.



du coup pour la voiture de Tesla imagine qu’un ado ou enfant montes dedans et lance la voiture en autopilote…. Tesla est responsable, on ne lance pas une fonction de sécurité en beta, ça ne s’est jamais vu dans le monde. Et la preuve ça tue







Pareil pour une caisse normal, faut avoir les cles <img data-src=" /> si ton gamin a les cles de ta voiture et qu il fait de la merde avec, en tant que parent tu es responsable :)



cites moi dans ce cas un exemple de crash d’avion avec pour cause le pilote automatique d’un avion commercial.



Pour info, sur les métro j’ai la réponse : il y en a eu 0 (je compte pas les chinois parce qu’ils font n’importe quoi).


saut que théoriquement si tu lui as pas appris il ne saura pas la bouger la voiture.


Indéniablement le warning apposé par tesla lors de l’activation de ce système es la pour que cela ne puisse se retourner contre eux.

Il suffit de lire les manuels de nombreux appareils ou un pléthore de cas invraisemblables sont cités afin que des personnes peu attentives ne se retournent pas contre la fabricant car ils on posé l’appareil au sommet d’un meuble et en équilibre.



Apres de ce que j’ai vu, le camion effectuait un demi tour sur une autoroute !

Auquel cas, même un humain avec un seul moment d’inattention aurait eu le même accident.

Quand à l’excuse de la vitesse… Franchement même a vitesse “normale”, vu la hauteur du passage sous le camion, le mec était de toute façon mort.



Apres, je rejoins l’avis de certains sur le fait que ce genre d’appareil permettra à de nombreuses personnes… De faire autre chose que de surveiller la route (allez pas me faire croire que vous n’en avez jamais vu).

Et perso sur les longs trajets JE préfère conduire car je vois moins le temps passer et je me fais moins ch…

D’autant que pour moi c’est également un plaisir (tant que ce n’es dans des bouchons ^^‘)



En fait, je pense que conduire es non seulement un luxe (vu tous les frais que cela implique ^^’), mais que ce dernier risque de disparaître (pas tout de suite quand même ^^‘).











illidanPowa a écrit :



cites moi dans ce cas un exemple de crash d’avion avec pour cause le pilote automatique d’un avion commercial.



Pour info, sur les métro j’ai la réponse : il y en a eu 0 (je compte pas les chinois parce qu’ils font n’importe quoi).







gel des sondes pitot sur le vol AF447 Rio-Paris…

C’est pas si vieux.

Alors certes ce n’es pas l’auto pilote qui a planté l’appareil, mais faute de sonde HS, il s’es tout simplement barré aux choux.

Du coup sur une voiture au mauvais moment ^^”



Et je pense que c’es un très bon exemple de cas rare mais qui peux arriver dés que le pilote/conducteur es habitué à s’en remettre entièrement ou trop confiant en l’informatique.

Il perd en capacités de réflexe.









illidanPowa a écrit :



cites moi dans ce cas un exemple de crash d’avion avec pour cause le pilote automatique d’un avion commercial.







Et d’un ;



Et de deux ;



Et de trois ;



Et de quatre, liste non exhaustive.



Pas exactement des incidents causés par un dysfonctionnement du pilotage automatique (qui rend la main aux pilotes quand il tombe en panne, fonction fail-safe), mais des crash impliquant le pilote automatique, soit défectueux, soit mal utilisé.



Sans que cela soit commercial (mais cas de figure qui pourrait arriver vu le coût de ce genre de projet),

Le vol 501 d’ariane 5.








illidanPowa a écrit :



&nbsp;(je compte pas les chinois parce qu’ils font n’importe quoi).





J’adore…



Et pour les accidents cités par Commentaire_supprime, tu vas les éliminer un par un aussi parce qu’ils ne t’arrangent pas ?









atomusk a écrit :



eeeet si ils le savent <img data-src=" />



Les conditions d’utilisation de l’autopilote s’associent à une récupération de données comme le nombre de km parcouru, le nombre de fois où l’utilisateur a “désengagé” l’autopilote et “les informations autour du désengagement”.



Et toutes ces info sont utilisés par Tesla pour améliorer leur algo … (la voiture a freiné trop tard ce qui a fait peur à l’utilisateur ? freinons plus tôt …



Il n’empeche que les stats sont absolument incomparable à d’autre stats car le nombre de km est bien trop bas et le pool d’utilisateur trop réduit et pas représentatif.



Mais elles n’en restent pas “fausses” … il faut juste les associer à leur contexte.





Comme je le disais, meme si leur relevé sont basé sur les km réalisé en autopilot c’est incomparable car ce système est très principalement utilisé sur voies express ou autoroiute, ou embouteillages, 3 zones ont les accidents mortels sont très faible (en France en 2014 142 morts sur autoroutes contre 3141 sur routes et en ville). Donc dire qu’un système est plus sécure alors qu’il n’est utilisé sur que sur de sportion secure, et le comparer aux stats global du pays qui mélange autoroute, route, ville, ça n’a aucun sens. C’est rouler le client que de sortir des choses pareils.

Et comme dirait mon ancien prof de proba-stat, “les stats, on peut leur faire dire tout et son contraire selon la façon dont on les prend et dont on les présente”.









x689thanatos a écrit :



Il suffit de lire les manuels de nombreux appareils ou un pléthore de cas invraisemblables sont cités afin que des personnes peu attentives ne se retournent pas contre la fabricant

(…)

Et perso sur les longs trajets JE préfère conduire car je vois moins le temps passer et je me fais moins ch…

D’autant que pour moi c’est également un plaisir (tant que ce n’es dans des bouchons ^^‘)

(…)

gel des sondes pitot sur le vol AF447 Rio-Paris…

C’est pas si vieux.

Alors certes ce n’es pas l’auto pilote qui a planté l’appareil, mais faute de sonde HS, il s’es tout simplement barré aux choux.



&nbsp;




  1. Sans aller jusqu’a cette fontion “pilote auto” qui n’en a que le nom, lire le manuel peut aussi interpeller: La 1ère voiture avec carte-clef main libre que j’ai eu, passé l’agrément de voir ta bagnole te reconnaitre quand tu poses la main sur la poignée (ou le coffre, ce qui est pratique quand on est chargé), en entendant le 1er clac du déverrouillage du blocage (Neiman) de direction alors forcément commandé par l’électronique (et non mécaniquement par une vraie clef)… Je me suis dit: Merde, si le calculo envoie l’ordre de blocage en roulant car un roumain a fait une ligne de code de travers???



    Bin dans le manuel, car on trouve qq ligne sur ce problème potentiel, il est dit qu’en cas de blocage en roulant, il faut appuyer plusieurs fois en 5s sur le bouton “start/stop”!!! Sans blague, en plein virage avec qqun qui arrive en face, si avec 5s de blocage de direction tu n’es pas mort tu peux appeler ta femme car elle ne doit pas simplement se faire sauter ailleurs, mais carrément faire orgie avec tous tes meilleurs potes!



    Tout cela pour un antivol mécanique qui perds tout son intérêt avec une bagnole démarrée sans clef: Il faut de toutes manière hacker le calculo via la prise ODB pour démarrer la bagnole, ce qui débloquera aussi la direction! Mais cela reste un impératif d’homologation, que le constructeur doit mettre en place même s’il semble conscient que désormais cela ajoute un risque potentiellement très grave, son manuel en atteste!



  2. Conduire est de moins en moins un plaisir: Trop de gens se trainent, l’homéostasie du risque n’aidant pas ils font en prime n’importe quoi (et surtout n’importe comment)… et presque 20 ans après la relance de la répression (consécutive à une hausse de la sinistralité a la fin des années 90, probablement en réalité due au boum de la téléphonie mobile: Le niveau de sécurité des infra et véhicules montait encore, comparé à l’entretient actuel des routes ; Le seul élément qui changeait dans la vie d’une majorité de gens c’était le mobile qui se généralisait, y compris déjà au volant) le niveau a incroyablement baissé, sans même évoquer ceux qui te déboitent devant exprès car ils se sentent dans leur bon droit à la limite (voire en dessous, on n’est jamais trop “prudent”)… Ce qui en bon français est de l’exaction délibérée, qui parfois finit mal d’ailleurs quand un plus con que les autres fait cela devant un go-fast avec une Mégane RS de gendarmerie au cul. J’ai au moins un exemple de 4x4 eventré par une RS6 avec le déboiteur, non seulement puissamment déboité des hémorroïdes mais éjecté et DCD, en exemple. Bin oui, en général un moteur à l’avant protège déjà bien et l’arrière c’est du tout mou. Et c’était pas vraiment une citadine qui s’était faite défoncer.



  3. Sur un avion de ligne, les pilotes ne sont en gros plus là que pour planifier le vol et gérer les merdes. Il est assez symptomatique d’avoir vu 3 types dans le cockpit, cumulant sans doute dans les 30k heures de vol, incapables d’avoir identifié un décrochage avant que le “réveil” du radio-altimètre ne sonne la proximité du sol… continuant même après cela à tirer sur le manche d’un avion décroché, contre tout bon sens aérodynamique, ce que le moindre jeune pilote au moment de son 1er solo (dès 10h de vol pour les pas trop glands) sait déjà éviter.



    Et pourtant, ils sont en simu plusieurs fois par an pour s’entrainer à cette gestion des merdes!



    C’est dire que si l’on constate déjà une baisse du niveau de compétence avec la baisse de vitesse (comparé aux années 90 c’est très clair) pour les conducteurs, car tout le monde se fait chier (l’humain ne fait bien que ce qu’il a plaisir à faire), combiné avec un moindre ressenti de danger (donc de nécessité de faire attention)… Sans impératif d’entrainement régulier à reprendre les choses en mains on n’a pas fini de voir des bagnoles autonomes plantées à chaque fois qu’elles auront eu besoin que le conducteur reprenne les choses en main. Ce sera probablement quasi systématique car en prime en bagnole on passe en permanence à 1m de la mort (le véhicule qui croise, obstacles latéraux…) ce qui est loin d’être le cas en avion. Dans le cas de l’AF447, ils avaient 10km “d’eau sous la quille”, environ 3mn de chute dont sans doute 2 pendant lesquelles ils auraient pu sauver l’affaire. Sur la route, c’est plutôt en quelques secondes, voire moins, que cela se joue.









renaud07 a écrit :



D’ailleurs je me demande comment ils font pour supporter les coûts de déploiement des bornes + les factures… vu que ça doit faire quelques millions <img data-src=" /> Quand le parc va grandir ça m’étonnerais pas qu’on finisse par passer à la caisse…





T’inquiètes pas, c’est déjà le cas ! Avec la Model 3, adieu les recharges gratuites. Et comme ça sera le modèle le plus abordable donc peut être le plus populaire … Car pour le prix t’as quand même un véhicule assez fourni en option.



Pour la recharger, tu devras passer à la caisse à chaque fois que tu veux utiliser un supercharger, ou prendre un abonnement permettant des recharges illimités.



Bon après tu peux toujours la charger sur une prise basique, c’est juste que pour un trajet domicile-travail si t’as une borne à ton travail, ça peut le faire car t’y restes plusieurs heures, mais si t’as pas ça …









saladiste a écrit :



Ben les accidents cités par CS ne sont pas dus au pilote automatique. <img data-src=" />

Dans l’un d’eux, il est clairement dit que si les pilotes (humains) avaient suivi les instructions du pilote automatique (qu’ils ont désactivé), l’accident n’aurait pas eu lieu.





tiens, c’est marrant, si la victime avait suivi les instructions de l’autopilot Tesla, il n’aurait pas regardé de DVD et serait resté vigilant à la route ^^









illidanPowa a écrit :



donnes moi un exemple? normalement si tu maîtrises ton véhicule ça ne doit pas arriver….. et les voitures autonomes sont censées anticiper à mort.



Qqu’un déboule devant toi pour une raison quelconque (sortie de virage en 2 roues (motorisé ou pas) trop rapide qui fait passer sur la voie d’en face, sort de la forêt en courant, etc), il te reste le choix entre le renverser, et te prendre un platane à peine vitesse ou te foutre dans le ravin (situation qui est déjà arrivée qques fois dans le passé, donc pas un truc fumeux sorti de mon esprit).

La voiture arriverait à produire un miracle et éviter l’obstacle tout en restant sur la route là où l’humain en serait totalement incapable, à ton avis?



Ton “raisonnement” est plus que bancale.





  1. trop facile de dire “cite moi un cas….” . tu veux prouver quoi? que les pilotes automatiques des avions sont infaillibles? La belle affaire. Et tu veux en conclure que Tesla ne doit pas commercialiser cette techno car ils ne sont pas encore parvenus au zéro accident…. ça n’empêche que plus de 20% des crash aériens ont pour cause principale une défaillance de l’avion (autre que le pilote automatique). Donc, selon ton raisonnement, on ne devrait pas faire voler d’avion du tout, car la technologie n’est pas suffisamment fiable.



  2. tu dis que Tesla est responsable de commercialiser une techno “qui tue”. En l’occurence, non. La technologie n’a pas tué, car elle n’a pas provoqué l’accident. Son tort est de ne pas être parvenue à éviter l’accident. On parle d’un camion qui a coupé la route d’une voiture. RIEN ne permet de dire que l’accident n’aurait pas été mortel sans l’autopilot.



  3. comme ça a été dit et redit, le conducteur a commis une faute. Il a mal utilisé le pilote automatique. Et des accidents d’avions causés par une mauvaise utilisation du pilote automatique, ça existe aussi (un exemple a été cité).



  4. plus de la moitié des accidents d’avions sont dus à une erreur humaine. J’imagine qu’il en est de même pour les accidents de voiture (voire dans une proportion plus grande). L’intérêt des assistances au pilotage ou pilotes automatiques n’implique pas la disparition totale de tout accident, mais suppose simplement qu’il puisse être démontré qu’il y a sensiblement moins d’accidents avec ces techno que sans. Si le risque d’accident peut être réduit ne serait-ce que de 10%, alors oui, cette techno mérite d’être commercialisée. (mais il faut certes le démontrer)








Patch a écrit :



Qqu’un déboule devant toi pour une raison quelconque (sortie de virage en 2 roues (motorisé ou pas) trop rapide qui fait passer sur la voie d’en face, sort de la forêt en courant, etc), il te reste le choix entre le renverser, et te prendre un platane à peine vitesse ou te foutre dans le ravin (situation qui est déjà arrivée qques fois dans le passé, donc pas un truc fumeux sorti de mon esprit).

La voiture arriverait à produire un miracle et éviter l’obstacle tout en restant sur la route là où l’humain en serait totalement incapable, à ton avis?







Tout à fait. Et c’est une question d’éthique que les constructeurs ont déjà identifiée.

Tiens, exemple d’un article de la MIT tech Review:https://www.technologyreview.com/s/542626/why-self-driving-cars-must-be-programm…



edit: autre exemple:http://www.slate.fr/life/86995/voiture-autonome-vous-tuer



On a qu’à obliger toutes les remorques à être peintes en damier mauve/jaune pour être plus faciles à discerner. Ca marchera aussi pour les humains.



C’est un peu con d’avoir nommé leur système auto(nome)pilot ils auraient du l’appeler aide au pilotage.&nbsp;



&nbsp;


J’adore lire les commentaires mais certains devraient quand même lire les caractéristiques de ce dont ils parlent :



Tesla ne fait PAS de conduite automatique. Leur “auto-pilot” c’est une aide à la conduite sur autoroute/national exclusivement (Interdit en ville et inutilisable de toute façon).

C’est le même principe que le régulateur de vitesse, c’est toujours le conducteur qui conduit et doit avoir le pied sur la pédale et les mains sur le volant. D’ailleurs le régulateur de vitesse aussi est complément inutile en ville…

&nbsp;

Google fait de la conduite automatique. Vous pourrez (Un jour ?) lâcher le volant et regarder un film.



Ne confondez pas aide à la conduite et conduite automatique, vous passez pour des idiots.


C’est très possible. Le cerveau humain n’est pas fait pour rester vigilant à un truc qui pourrait arriver peut-être un jour sur de longues périodes. Quand on conduit, les événements sont directement liés à nos gestes, du coup on est attentif (et on se fatigue).



&nbsp;En revanche, rester assis à attendre qu’un truc improbable se passe n’est pas naturel. Notre cerveau va se concentrer sur autre chose et donc même si le conducteur ne dormait pas, plusieurs secondes de temps de réaction ne sont pas délirantes.



On aura d’autres accidents du genre si on déploie des systèmes où l’intervention humaine doit sauver la situation une fois sur des centaines d’heures de conduite.


Si on part du principe que la voiture respecte le code de la route alors elle doit légitimement préserver la vie de ses passagers de la menace qui ne respecte pas le code de la route.

Donc on ne fait une action que si :

&nbsp;on peut le faire en toute sécurité ou&nbsp;si

&nbsp;cette action peut améliorer l’espérance de survie des passagers (voiture vs camion)



Ca pique un peu au début (gamin qui échappe à la surveillance…) mais la sélection naturelle fera son boulot.



&nbsp;Si la voiture doit tuer N personnes (vieux,jeunes,femmes enceintes,meurtrier osef) pour sauvegarder n (n&lt;N) occupants de la voiture je vote pour. A partir du moment ou elle le fait dans les règles (de conduite) et tant qu’à faire avec classe.

Et puis ces N personnes ont peut être conclu un pacte de suicide (les préserver ne serait qu’un bénéfice temporaire). Donc tout ce (ceux) qui se trouve sur la route et qui ne respecte pas les règles de circulation sera amené à disparaître.

&nbsp;&nbsp;

Exception : Si la cible est un connard qui traverse en dehors des clous sans regarder (ou plutôt en regardant son smartphone) la voiture peut (doit) faire un écart pour ne pas le louper.


j’attendais cette exemple, et d’ailleurs, il semblerait que si le pilote avait laisser la main, il n’y aurait pas eu de crash bon le problème c’est de passer outre des alarmes&nbsp;<img data-src=" />



Pour moi le pilote auto n’est pas en cause, c’est une défaillance matériel du capteur, d’ailleurs il est étonnant qu’on utilise pas des capteurs de marques différentes pour éviter ce genre de mésaventures….. (ce qu’on &nbsp;fait habituellement dans le ferroviaire).



concernant l’accident de Tesla : la Tesla roulait trop vite….. dommage pour un pilote auto.








v1nce a écrit :



&nbsp;Si la voiture doit tuer N personnes





C’est un gros biais très à la mode ces temps-ci.&nbsp;

La mort (des passagers ou d’autres personnes) reste une possibilité et non une certitude. &nbsp;

La voiture ne pourra JAMAIS faire des calculs “3 vies sauvées contre 2 vies sacrifiées”.&nbsp;









v1nce a écrit :



Ca pique un peu au début (gamin qui échappe à la surveillance…) mais la sélection naturelle fera son boulot.





je passerais te parler du boulot de la sélection naturelle quand un membre proche de ta famille aura été percuté dans une situation comme ça ;)



PS: je suis globalement d’accord avec le fond de ton analyse, juste qu’il faut faire un peu gaffe à la façon de le formuler, je trouve ^^



bon j’ai regardé tes exemples et tu le reconnais en-dessous, à chaque fois c’est une erreur humaine qui provoque l’accident et JAMAIS une décision du pilote auto (sauf dans le cas numéro 1 mais c’est du à une erreur de maintenance, donc humaine encore, la procédure de sécurité n’a pas été suivie)……



Le cas Ariane 5 a justement conduit à l’application du process de développement utilisé dans le ferroviaire et l’aviation…… c’est parce que ce process n’était pas appliqué qu’il y a eu défaillance.



Aujourd’hui ce process n’est pas appliqué dans les pilotes auto de voiture, je te laisse en tirer les conclusions.


dans ce cas Tesla est attaquable en justice :&nbsp;

https://www.tesla.com/fr_FR/models&nbsp; &nbsp;il est écrit en très gros pilote automatique, tu crois que les gens vont lire les petites lignes en-dessous? ben non. donc on appelle pas ça un pilote auto mais une super assistance, protection automatique de conduite, mais pas PILOTE AUTOMATIQUE!!!!


les chinois ne respectent pas complètement le process qui conduit à un pilote automatique de sécurité, c’est pour ça qu’ils achètent des pilotes auto européens quand ils ont vu qu’ils ne savaient pas faire.


si c’est en ville à 50 tu vas freiner des que la menace est détecté soit avant ce que l’humain aurait fait.&nbsp;



A moins que la personne ne se jette sous tes roues (dans ce cas c’est imparable), tu devrais la taper à faible allure.


Les pilôtes auto des avions ne sont pas infaillibles, mais ils sont développés avec des normes qui sont drastique, comme évoqué plus haut par illidanPowa, l’objectif, comme dans le ferroviaire que je connais bien mieux, c’est une probabilité d’occurence d’un évenement redouté de 10^-9/h (SIL4).



&nbsp;C’est à dire en gros que ton système est résistant à un défaut simple, et les conséquences d’un défaut doubles sont au mieux nulles, au pire réduites au maximum par des mitigations.



Pour faire simple, pour tout ce qui est capteur de grandeur critiques (ie vitesse et dans notre cas, environnement extérieur), il y a deux types de capteurs utilisant des procédés physiques différents. Dans le cas d’un train, la vitesse est mesurée à la fois en utilisant un radar Doppler (même concept que les radars pour flasher les bagnoles, mais c’est embarqué à bord du train) et une roue phonique (on compte le nombre de tours de roue. le roue est mesurée au laser tous les x km parcourus pour recalibrage, et l’usure de la roue est modélisée à l’intérieur du calculateur). Chaque techno a ses avantages et inconvénients, et si les mesures des deux capteurs divergent trop, le système applique les freins (pas de soucis de sécurité, l’espacement des trains assure que le train suivant peut s’arrêter en temps et en heure).

&nbsp;

Bien sur que le tesla est responsable de son logiciel, c’est pas parce que c’est marqué dans la licence que le logiciel est livré tel quel et sans garantie qu’ils sont exempts de toute responsabilité. ça n’enlève en rien la responsabilité du conducteur qui aurait du conduire et non&nbsp; regarder un film.



Le problème avec des systèmes, c’est qu’ils ont tendance à transmettre un faux sentiment de sécurité et de fiabilité alors que leur niveaux d’intégrité n’est pas forcément compatible avec ce qu’ils promettent. En gros, c’est pas parce que le système dit à chaque fois “je suis en bêta test, conduit et fait pas le con” que l’utilisateur ne prend pas confiance dans le truc, et au fur et à mesure, il laisse le système se débrouiller, vu qu’il n’y a pas eu de soucis avant. Jusqu’au drame.



&nbsp;Tous ces pilotes automatiques se basent sur de la détection d’objets avec aux choix laser/vidéo/ultrason … et cette détection se fait sur base d’algo de traitement du signal, soit uniquement des probabilités. Il suffit que l’algo soit mal calibré/pas assez performant ou détecte trop de choses à tort, pour que son paramétrage soit un peu relâché pour détecter moins de choses (autrement la voiture passerait son temps à freiner, réaccélérer) : pas possible. On se retrouve avec un algo qui ne détecte pas certains objets.



Pour conclure, il faut accepter la mise en service tels système de conduite,&nbsp; s’ils diminuent de façon intrinsèque le nombre de victimes et d’accidents sur la route, même avec un usage ‘mauvais’, type relâchement de la vigilance, voire absence de vigilance du conducteur, sinon le nombre de morts commencera par diminuer, et raugmentera ensuite. Dans le bilan de bénéfices du système, il faut aussi prendre en compte le effets ‘indus’ par celui-ci, et notamment le fameux facteur humain. Et je ne suis pas sûr que ce soit déjà le cas.

&nbsp;








illidanPowa a écrit :



dans ce cas Tesla est attaquable en justice :&nbsp;

https://www.tesla.com/fr_FR/models&nbsp; &nbsp;il est écrit en très gros pilote automatique, tu crois que les gens vont lire les petites lignes en-dessous? ben non. donc on appelle pas ça un pilote auto mais une super assistance, protection automatique de conduite, mais pas PILOTE AUTOMATIQUE!!!!







Quand je parlais d’idiot…



Tu ne sais pas déjà que c’est justement les petites lignes qu’il faut lire et pas les gros titres ? Dans tous les contrats c’est la même chose. On te vend du rêve dans le titre et on te dit la vérité dans les petites lignes.



Va lire tes contrats d’assurance, accès internet et même tes bouteilles de jus de fruits. Les petites lignes sont partout…



Donc tu peux attaquer en justice la PLANÈTE, je pense.









v1nce a écrit :



Si on part du principe que la voiture respecte le code de la route alors elle doit légitimement préserver la vie de ses passagers de la menace qui ne respecte pas le code de la route.

Donc on ne fait une action que si :

 on peut le faire en toute sécurité ou si

 cette action peut améliorer l’espérance de survie des passagers (voiture vs camion)



Ca pique un peu au début (gamin qui échappe à la surveillance…) mais la sélection naturelle fera son boulot.



 Si la voiture doit tuer N personnes (vieux,jeunes,femmes enceintes,meurtrier osef) pour sauvegarder n (n&lt;N) occupants de la voiture je vote pour. A partir du moment ou elle le fait dans les règles (de conduite) et tant qu’à faire avec classe.

Et puis ces N personnes ont peut être conclu un pacte de suicide (les préserver ne serait qu’un bénéfice temporaire). Donc tout ce (ceux) qui se trouve sur la route et qui ne respecte pas les règles de circulation sera amené à disparaître.

  

Exception : Si la cible est un connard qui traverse en dehors des clous sans regarder (ou plutôt en regardant son smartphone) la voiture peut (doit) faire un écart pour ne pas le louper.



Le postulat de départ d’illidanpowa était “si la voiture autonome est incapable de ne pas faire de mort, alors c’est de la merde à ne surtout pas mettre sur le marché” (et vu qu’il y aura toujours potentiellement une situation où il y a uniquement le choix entre potentiellement tuer le conducteur et ses passager, ou potentiellement tuer ceux qui font obstacle…), pas savoir ce qui est le plus éthique dans le choix du moindre mal <img data-src=" />









illidanPowa a écrit :



si c’est en ville à 50 tu vas freiner des que la menace est détecté soit avant ce que l’humain aurait fait. 



A moins que la personne ne se jette sous tes roues (dans ce cas c’est imparable), tu devrais la taper à faible allure.



100% des accidents se passant en ville, c’est bien connu… <img data-src=" /> <img data-src=" />



Je suis bien d’accord.<img data-src=" />


ouais ben faut arrêter de croire aussi que le fournisseur peut se protéger de tout procès rien qu’en blindant les “petites lignes” du contrat. C’est pas comme ça que ça se passe en justice.


sauf que là on parle quand même d’une usurpation très grave puisqu’elle conduit à la mort.



Je connais une personne qui a une Tesla S avec le pilote auto, et la première chose qu’elle fait quand elle veut montrer cette fonction c’est de lâcher les mains…. Le nom est beaucoup trop trompeur pour que ce ne soit pas dangereux.



au passage merci pour l’insulte ça élève le débat, on se demande qui est l’idiot…


oui sauf que là c’est un accident évitable….. on parle pas de situation tordu, imparable ou autre








illidanPowa a écrit :



sauf que là on parle quand même d’une usurpation très grave puisqu’elle conduit à la mort.



Je connais une personne qui a une Tesla S avec le pilote auto, et la première chose qu’elle fait quand elle veut montrer cette fonction c’est de lâcher les mains…. Le nom est beaucoup trop trompeur pour que ce ne soit pas dangereux.



au passage merci pour l’insulte ça élève le débat, on se demande qui est l’idiot…



Et pourtant Tesla explique bien à chaque client comment fonctionne le pilote auto quand ils livrent le véhicule.



Ensuite, si la personne n’en a rien à foutre de se mettre potentiellement en danger parce qu’elle n’a pas envie de suivre des consignes de sécurité de base, ce n’est pas la faute de Tesla…







illidanPowa a écrit :



oui sauf que là c’est un accident évitable….. on parle pas de situation tordu, imparable ou autre



Mais de quoi tu parles? <img data-src=" />

Tu mets tout seul des barrières à ce qui est possible ou pas, pour dire ensuite “si ca sort du périmètre de sécurité que j’ai moi-même arbitrairement défini, c’est de la merde.” Non, ce n’est pas comme ca que ca fonctionne dans la vie.



Toi t’es du genre à attaquer le fabricant de ton micro-ondes parce que tu as mis le chat à réchauffer.

Ca fait peur.


Pour ton point 2, tu as des chiffres à citer ? parce que d’après Wikipédia, la “sinistralité” (létale et non létale) n’a fait que baisser depuis les années 80 (peu être même avant, je n’ai pas fouillé jusque là). J’ai du mal à croire que les gens conduisent si mal comparé à avant quand le nombre d’accidents est divisé par trois entre 1990 et 2015, pour une circulation augmentée de quasiment 80% (soit à peine un cinquième de la fréquence, en proportion). Les aides à la conduite réduisent la létalité des accidents, pas vraiment leur nombre. Je vote pour un effet “c’était mieux avant” <img data-src=" />

Et si tu trouves dangereux un mec qui décroche sur ta voie à la vitesse limite…ben si tu étais aussi à la vitesse limite, ça ne serais pas dangereux, donc les tords sont un peu partagé non ? <img data-src=" /> (et je dis bien partagé, le décrocheur fou est clairement en tord aussi)









illidanPowa a écrit :



concernant l’accident de Tesla : la Tesla roulait trop vite….. dommage pour un pilote auto.





La Tesla roulait à la vitesse à laquelle les gens roulent pour être en excès sans se faire gauler (l’équivalent des 10 km/h français). Les probabilité que le conducteur ai défini cette vitesse au régulateur lui même est très élevée. L’assistance à la conduite obéis avant tout au conducteur, c’est le comportement attendu.



le micro-onde ne s’appelle pas sèche poil, là c’est exactement ça le problème.


si, Tesla est en tort, on ne fournit pas une fonction de sécurité en BETA, même avec les explications.



sinon si une personne se jette sous ta voiture, c’est un accident imparable.



Un camion en travers de la route aurait du être détecté, sinon, leur fonction ne devrait pas être vendu comme pilote automatique.








Tiebor a écrit :



ouais ben faut arrêter de croire aussi que le fournisseur peut se protéger de tout procès rien qu’en blindant les “petites lignes” du contrat. C’est pas comme ça que ça se passe en justice.







Alors c’est un soucis politique et juridique de laisser perdurer ce genre de comportement sans sanctions. Même principe que pour l’appellation “Fibre” de numéricable pour le câble. Si on laisse faire ils auraient tord de se priver, une entreprise est amoral.



Si les petites lignes ne sont pas objectivement disproportionnées et ne te prive pas de droit fondamentaux, tu peux te brosser pour gagner en justice.



En l’occurrence, l’auto-pilot de Tesla tu ne dois pas lacher les mains et conserver ta maitrise du véhicule (Pied sur les pédales et yeux sur la route). Je te souhaite bien du courage pour les faire passer comme disproportionné en justice !



A la limite tu pourrais argumenter que la publicité est trompeuse, mais il me semble que Tesla à chaque vente met bien en garde des risques et tu as même un rappel à chaque mise en marche, c’est indiqué dans le manuel, aucune excuse pour confondre cela avec un pilote automatique.



Parce que sinon on va aussi excuser la femme qui met son chat dans le micro-onde pour le réchauffer à ce train là. Elle ne savait pas que c’était pas un vrai four ?&nbsp; c’est du bon nivellement par le bas.









illidanPowa a écrit :



sauf que là on parle quand même d’une usurpation très grave puisqu’elle conduit à la mort.




  Je connais une personne qui a une Tesla S avec le pilote auto, et la première chose qu'elle fait quand elle veut montrer cette fonction c'est de lâcher les mains.... Le nom est beaucoup trop trompeur pour que ce ne soit pas dangereux.       






 au passage merci pour l'insulte ça élève le débat, on se demande qui est l'idiot...










Personne signant un contrat sans lire les petites lignes -&gt; Idiot, ou inconscient, au choix de tes préférences...     





D’autant que là ils sont en plus prévenu par le vendeur et ils sont censé lire le manuel et l’avertissement de l’ordinateur de bord. Si c’est pas des idiots, je ne sais pas comment tu les appelles ?



Et quelqu’un qui fait le kéké en prenant des risques qu’ils n’évaluent pas, c’est pas un idiot non plus ?&nbsp;









illidanPowa a écrit :



si, Tesla est en tort, on ne fournit pas une fonction de sécurité en BETA, même avec les explications.





En fait, il faudrait arrêter de parler à tort et à travers sans connaitre le sujet.&nbsp;



AutoSteer, qui n’est pas une fonction de sécurité, est en BETA

Automatic Emergency Steering and Side Collision Warning, qui est lui davantage une fonction de sécurité, n’est pas en BETA

&nbsp;

AutoSteer n’est pas habilité à changer de voie, pas configurer pour des trajectoires d’évitement, etc.&nbsp;



Moi surement quand j’achète un autopilote qui n’en est pas un oui.



Quand on vends un produit/option il doit être fonctionnel.



Oui le mec est mort et il est totalement en tord, mais l’autopilote / freinage d’urgence de tesla ne marche pas, du moins dans cette configuration et ne pas voir un camion en travers sur une autoroute on est loin du petit problème, donc forcement tesla a une grande part de responsabilité, tu peux chercher toute les excuses que tu veux sur le conducteur, mais tesla est autant en tords que lui, voir plus pour vendre un produit non fonctionnel.


1/ dans tes 20% je n’ai pas la stats mais une majorité est du à un défaut d’entretien de l’avion…..



2/ si la voiture n’a pas freiné, donc elle n’a pas détecté l’obstacle, Tesla a reconnu que le camion a certainement été confondu avec un panneau de signalisation. =&gt; c’est un défaut du pilote auto qui a entraîné la mort. Même si le système est en beta et même si le conducteur aurait du rester concentrer sur la route Tesla a vendu une fonction de sécurité qui a failli sur un cas évident et prévisible.



3/ les pilotes d’avions sont des professionnels, ils sont censés suivre des procédures, la plupart du temps les accidents sont dus au fait de ne pas avoir suivi la procédure, là on parle du grand public qui n’a pas de procédure, on lui vend un pilote auto même en beta tu attends que ça marche un minimum, sinon tu appelles pas ça un pilote auto.



4/ on a la démonstration inverse avec l’accident de Tesla : sans pilote auto, l’humain aurait certainement réagi et vu le camion (je peux t’accorder que peut-être pas à tous les coups pour l’humain, mais la défaillance du pilote auto est dans ce cas présent systématique)…..





globalement je suis choqué de la démarche de Tesla, même Google qui n’est pas dans le métier fait des test avec des pilotes formées à reprendre la main en cas de défaillance, la base quoi. On lâche pas un truc comme ça dans le grand public alors que c’est pas au point.



C’est comme si j’inventais la machine à téléportation que je faisais 10 tests avec un chien et que je commercialisait le truc…… tu monterais dedans toi?


tu évalues mal la bêtise humain visiblement……


il agit sur la volant oui ou non?&nbsp;



dans l’automobile les 2 éléments de sécurité sont :&nbsp;




  • les freins

  • la direction



    si le système agit sur ces éléments alors il doit être de sécurité, s’il ne l’est pas =&gt; on tue des gens. c’est la base. donc si tu m’annonces qu’il n’est pas vendu comme un système de sécurité c’est encore plus grave que ce que je pensais.


Ben, ce serait quand même pas mal d’arrêter de dire de la merde dans les grosses lignes


Hum, moi je rejoins le coté humain pour l’erreur. Nous sommes encore loin de véhicule autonome.

Tu laisses ta voiture faire de la merde c’est ta fautes… Tu respectes pas les consignes d’utilisation de ton véhicule, t’es un danger publique, et un gros con…



Et de ce que j’ai compris la responsabilité est surtout du conducteur du camion, après du conducteur de la tesla, et ensuite du système d’aide au pilotage.



&nbsp;Donc clairement le problème est du coté humain…



Après le système est encore très jeune, et doit faire ses preuves, ne pas respecter les consignes d’utilisations dans ce cas là c’est juste complétement stupide, en plus d’être suicidaire…



/me rêve d’une voiture complétement autonome&nbsp; <img data-src=" />

&nbsp;








uzak a écrit :



Ben, ce serait quand même pas mal d’arrêter de dire de la merde dans les grosses lignes







On est d’accord. Mais ça devrait être de sens commun de savoir que les grosses lignes sont fausses et les petites vraies.









illidanPowa a écrit :



tu évalues mal la bêtise humain visiblement……







Je crois surtout qu’il n’y a aucun sens à rendre responsable une entreprise de la bêtise humaine. Auto-pilot est une aide à la conduite, le conducteur ne regarde pas la route et n’est pas mettre de son véhicule, il est en faute, point.



Avec la voiture de Google j’aurais défendu exactement le contraire.



Après on peut discuter des années sur le “oui mais il savait pas que c’était pas un vrai auto-pilote”, ça ne changera pas le problème :

-Il se fout des consignes -&gt; C’est un idiot

-Ils les connait mais ne les respect pas -&gt; C’est un idiot

-Tu fais le kéké avec ta tesla et lâche le volant -&gt; Tu es un idiot.



Dis-moi ce qui est mal évalué ?



D’autant qu’il me semble tout le monde sait que le conducteur du camion est responsable. A part démontrer que le conducteur était un idiot, ce qu’on sait déjà, ça nous avance à quoi ? Auto-pilot n’est PAS un pilote automatique, vous débattez pour rien.



Tu m’as l’air vraiment super enragé contre Tesla…



Si t’en veux pas tan pis. Mais quand c’est clairement annoncé que tu dois rester vigilant et maitre de ta caisse; tu va pas regarder un film <img data-src=" />



Si les consignes d’utilisation avait été respecter Tesla&nbsp; n’aurait jamais été impliqué dans cet accident mortel… Mais comme on a un gros con au volant de la caisse et du camion il y a eu accident impliquant le système de Tesla.



Quand je voie le niveau de débilité des conducteurs sur la route, je me dis que vivement qu’il n’y ai plus un seul , je me sentirai beaucoup plus en sécurité.



Encore hier on a failli se faire cartonner avec des potes, car sur une route de campagnes sans aucune visibilité sur le virage le bonhomme est a 100 au mieux de 50 et nous faire faire une embarder sur une route ou 2 voitures on du mal à passer ensemble.



Le danger c’est clairement l’humain qui est d’une inconscience bien grave, et d’une connerie sans limite.



&nbsp;

&nbsp; Edit: Pour dire, j’ai pas de permis et j’en veux pas car moins je passe de temps sur les routes mieux je me porte.








V_E_B a écrit :



Pour ton point 2, tu as des chiffres à citer ? parce que d’après Wikipédia, la “sinistralité” (létale et non létale) n’a fait que baisser depuis les années 80 (peu être même avant, je n’ai pas fouillé jusque là).





Cela c’était un peu stabilisé (mais avec des objectifs de baisse, c’était déjà mal vu!) puis remonté à partir du milieu des années 90, entrainant en 1999 la loi “propriétaire payeur” (via le ministre des transports du gvt Jospin de l’époque, Gayssot) qui a pavée la voie au complexe de radars automatiques en réseau mis en place ensuite par Sarkozy: On voit d’ailleurs une petite pointe vers 19971998 sur ton lien, juste au moment ou le GSM arrivait dans toutes les mains, y compris au volant…



Il s’agit de la loi qui étendait en fait la possibilité de verbaliser sans identifier (exception au principe constitutionnel de la présomption d’innocence) un conducteur, autrefois réservé au stationnement: Ce qui se comprenait dans ce cadre ou il n’y a par définition pas de conducteur au volant!



Extension qui avait d’ailleurs échappée de peu à l’inconstitutionnalité, grâce à un amendement de dernière minute permettant de contester (avec dans les faits un parcours du combattant+consignation d’une amende… majorée au lieu de payer direct une minorée) qui en bon français s’appellerait un abus de droit. Et c’est ce genre de personne qui appelle a respecter les lois!



Au final, quand tu dis que la sinistralité n’a (mis à part la courte période citée) fait que baisser, il s’agit en fait des gravité (accidents corporels en baisse).



Avant la fin des années 90 (arrivée de radars plus performants, jumelles lidar…), la répression de la vitesse c’était vraiment anecdotique: Celui qui se faisait baiser par un bon vieux “barbecue” blanc, bien visible et aux contraintes d’utilisation limitantes (abord immédiat de la route, pas de courbe…), méritait alors bien sa prune: Ne pas avoir vu cela, c’est vraiment que l’on n’avait pas l’attention requise. Alors cumuler en roulant vite…



Toute l’évolution précédente serait alors due a une modération des vitesses? Impossible: C’était plutôt aux progrès des infrastructures (passages en 2x2 voies alors nombreux = divise par 4 la sinistralisé ) et des véhicules.



Cela a été le cas jusqu’au début des années 2000, la baisse des mortalités s’est alors accentué mécaniquement avec la répression à la vitesse automatisée.



Mais jamais on n’a songé à apprendre aux gens à conduire: Le corporel des usagers non protégés par une carrosserie (piétons, 2 roues) en attestent, l’amélioration ne tient qu’a un effet de seuil et au fait que l’usager de la route majoritaire soit carrossé.



Et en prime des effets pervers: Trajets allongés en temps = +d’endormissements qui finissent eux toujours très mal contrairement à un excès de vitesse ; étalement des horaires de congestion (très visible en IDF: Ceux qui faisaient l’effort de partir plus tôt pour être arrivé avant la congestion y participent désormais). Sans même de parler des effets darwiniens résultant d’une stratégie qui ne cherche qu’a protéger les conducteurs maladroits avant tout contre eux-mêmes. A la limite, quand ils se tuaient plus souvent, on avait moins de chance de les voir un jour exploser un piéton car entre téléphoner ou conduire ils l’ont jamais su choisir: Ceux là se tuent moins, mais ils tuent plus les autres. Assez désastreux en fait.



Pour le futur proche, dans un cadre pareil ou quasiment tout le monde fait mal (conduire) ce qui le fait désormais hautement chier, le pire c’est que l’automatisation de la conduite risque d’être bien perçue. En attendant, on réussit l’exploit de rendre mauvais (par l’emmerdement) ceux qui ne l’étaient pas… et malgré une crise économique qui n’en finit pas et limite les déplacements on voit que l’on est au bord d’une nouvelle inversion de tendance!



Mais puisqu’on parle économie, notons que l’état devra alors trouver d’autres gagneuses que ses tapineuses automatiques de bord de route. Ceux qui seront resté en manuel pourront retrouver un peu d’amusement au milieu de ces chicanes mobiles trimbalant des légumes a qui on aura retiré le volant, qui seront mises en boite au 1er bug (ou hack) sans même avoir à faire eux mêmes la connerie!



C’est beau le progrès, tiens :o)









yl a écrit :



Mais puisqu’on parle économie, notons que l’état devra alors trouver d’autres gagneuses que ses tapineuses automatiques de bord de route. Ceux qui seront resté en manuel pourront retrouver un peu d’amusement au milieu de ces chicanes mobiles trimbalant des légumes a qui on aura retiré le volant, qui seront mises en boite au 1er bug (ou hack) sans même avoir à faire eux mêmes la connerie!



C’est beau le progrès, tiens :o)







  1. Déjà de l’amusement ?? T’es pas sur la routes pour t’amuser, je voie déjà dans quel catégorie de con je te range.



  2. Le légume t’emmerdes, il sera ppr dans sa voiture autonome et n’aura plus à calculer les cons de ton genre qui s’amuse sur la route. Et à un moment il n’y aura même plus de permis à passer. Vivement que tout les chauffard ne soient plus sur la route, je pense que l’on aura quasiment plus aucun accident. La probabilité d’un hack ou d’un bug est infinitésimale par rapport à tous ces kékés dans leur caisse qui font que de la merde pour sauver 5 minutes de trajet.



  3. Retourne faire ton kéké sur les routes, j’espère que ton permis sautera bientôt les routes seront plus sur sans toi …



    Bon je te salue pas, vu la mentalité et comment tu prends les gens de haut, c’est assez affligeant…









illidanPowa a écrit :



si, Tesla est en tort, on ne fournit pas une fonction de sécurité en BETA, même avec les explications.



sinon si une personne se jette sous ta voiture, c’est un accident imparable.



Un camion en travers de la route aurait du être détecté, sinon, leur fonction ne devrait pas être vendu comme pilote automatique.



Plus tu t’exprimes ici, plus tu me donnes l’impression que c’est “grâce” à des gens comme toi qu’il est marqué noir sur blanc sur la notice d’utilisation des tronconneuses qu’il ne faut pas arrêter la chaîne avec ses parties génitales…

Il est vrai que ca permet d’en rire par la suite, mais l’idée que qqu’un aie pu en avoir l’idée et surtout VOULU TESTER fait froid dans le dos!









CreaYouz a écrit :





  1. Déjà de l’amusement ?? T’es pas sur la routes pour t’amuser, je voie déjà dans quel catégorie de con je te range.





    1. Le légume t’emmerdes, il sera ppr dans sa voiture autonome et n’aura plus à calculer les cons de ton genre qui s’amuse sur la route. Et à un moment il n’y aura même plus de permis à passer. Vivement que tout les chauffard ne soient plus sur la route, je pense que l’on aura quasiment plus aucun accident. La probabilité d’un hack ou d’un bug est infinitésimale par rapport à tous ces kékés dans leur caisse qui font que de la merde pour sauver 5 minutes de trajet.



    2. Retourne faire ton kéké sur les routes, j’espère que ton permis sautera bientôt les routes seront plus sur sans toi …



      Bon je te salue pas, vu la mentalité et comment tu prends les gens de haut, c’est assez affligeant…&nbsp;





      1)L’humain fait bien ce qu’il trouve du plaisir à faire. C’est ainsi. On apprends aussi mieux par le jeu. On travaille mieux si l’on sait rendre cela intéressant. Les cons sont sans doute ceux qui négligent un peu trop ce genre de fondamentaux.



      2)C’est bien de revendiquer son état… en être fier par contre?



      3)J’ai tous mes points, jamais perdu un seul: En réalité, j’ai toujours été très attentif et transformé en jeu (eh oui, encore!) le fait de débusquer les pièges. Ceux qui se sont le plus fait avoir par la répression actuelle, ce sont en réalité ceux qui pensaient ne rien avoir à en craindre. Genre qui me disaient en 2003 “ton permis va pas faire long feu”! Certains en sont à plusieurs stages de récupération.



      En réalité, je suis un “con de kéké” qui fait pour toi n’importe quoi, mais surtout pas n’importe comment et encore moins n’importe ou. En réalité je continue à mettre de l’intelligence là ou il y en a désormais très peu… en attendant l’artificielle, pour suppléer les légumes!










illidanPowa a écrit :



si le système agit sur ces éléments alors il doit être de sécurité,

s’il ne l’est pas =&gt; on tue des gens.&nbsp;



&nbsp;&nbsp;

Depuis que la voiture existe, on donne le contrôle du frein et de la direction à un système qui n’est pas “de sécurité”, et effectivement, ça tue des gens.

&nbsp;&nbsp;

ALors c’est bien gentil de vouloir révolutionner le monde mais la conclusion de tes dizaines de posts, c’est que la voiture n’aurait jamais dû exister. C’est une position bien gentille, mais sans intérêt.









yl a écrit :



1)L’humain fait bien ce qu’il trouve du plaisir à faire. C’est ainsi. On apprends aussi mieux par le jeu.



Par le plaisir <img data-src=" />

On n’est pas obligé de jouer pour prendre du plaisir. D’ailleurs, quand je suis sur ma moto, je ne joue certainement pas : trop dangereux, je tiens à rester entier. Par contre j’y prends un grand plaisir…



Cherche pas tu as tord et il a raison <img data-src=" />











yl a écrit :



1)L’humain fait bien ce qu’il trouve du plaisir à faire. C’est ainsi. On apprends aussi mieux par le jeu. On travaille mieux si l’on sait rendre cela intéressant. Les cons sont sans doute ceux qui négligent un peu trop ce genre de fondamentaux.



2)C’est bien de revendiquer son état… en être fier par contre?



3)J’ai tous mes points, jamais perdu un seul: En réalité, j’ai toujours été très attentif et transformé en jeu (eh oui, encore!) le fait de débusquer les pièges. Ceux qui se sont le plus fait avoir par la répression actuelle, ce sont en réalité ceux qui pensaient ne rien avoir à en craindre. Genre qui me disaient en 2003 “ton permis va pas faire long feu”! Certains en sont à plusieurs stages de récupération.



En réalité, je suis un “con de kéké” qui fait pour toi n’importe quoi, mais surtout pas n’importe comment et encore moins n’importe ou. En réalité je continue à mettre de l’intelligence là ou il y en a désormais très peu… en attendant l’artificielle, pour suppléer les légumes!









  1. Plaisir =/= amusement. Et la route n’est pas un jeu, va en circuit si tu veux t’“amuser” en voiture.



  2. Je te parle avec les mots que t’emploie pour qualifier les gens comme moi. Perso je me considère pas trop comme un légume… Je ne suis pas sortie de terre … Par contre j’ai assez de jugeote pour pas rassembler tout le monde dans le même panier et de faire des généralités sur les autres. Mais bon respect toussa…



  3. J’en sais strictement rien, tu peux brayer que t’as une de 30cm, cela le rendra pas plus crédible.









yl a écrit :



En réalité, je suis un “con de kéké” qui fait pour toi n’importe quoi, mais surtout pas n’importe comment et encore moins n’importe ou. En réalité je continue à mettre de l’intelligence là ou il y en a désormais très peu… en attendant l’artificielle, pour suppléer les légumes!





Si tu as un comportement non prévisible par les autres, oui, c’est n’importe quoi et dangereux.

Et puis, CreaYouz a raison, c’est pas un jeu, c’est un moyen de déplacement.

On peut reconnaitre le génie de marketing automobile qui a réussi à transformer un moyen de déplacement en objet de luxe/phallus/jouet..

Si t’arrives trop vite sur un dépassement, faut pas t’étonner qu’une voiture te déboite sous le nez



et bien dans ce cas pourquoi l’appeler autopilot? &nbsp;c’est quand même donner le bâton pour se faire battre non?


sur les trains l’humain est considéré comme un élément de sécurité….. avec une probabilité de défaillance bien supérieure à un pilote automatique certes mais de sécurité quand même, il serait idiot de ne pas le considérer comme tel.



quand on se sait pas de quoi on parle, on évite d’étaler sa science….


je vois pas le rapport là. je remarque juste qu’ici y’a des gros fanboys de Tesla qui ont le kikitoutdur devant les annonces de Musk. et que moi avec mes arguments et mon métier je peux affirmer haut et fort qu’ils font n’importe quoi et que les faits sont là pour le prouver.



Maintenant si tu veux te suicider en Tesla libre à toi, perso je ne le ferais pas.&nbsp;



Appeler une fonction pilote automatique dans le texte (c’est écrit sur la page française de Tesla) alors que c’est pas ce que fait la fonction, n’est pas du tout une volonté d’induire les gens en erreur, nooooooooooon du tout. c’est moi qui suit un gros débile et qui comprend rien.



tiens je vais inverser la pédale d’accélérateur et de frein sur les voitures et surtout je vais bien le dire aux gens à qui je le vends…….. on va voir s’il y a pas d’accident…..








illidanPowa a écrit :



sur les trains l’humain est considéré comme un élément de sécurité….. avec une probabilité de défaillance bien supérieure à un pilote automatique certes mais de sécurité quand même, il serait idiot de ne pas le considérer comme tel.&nbsp;





Donc tu te contredis toi-même: tu reconnais qu’on donne déjà la main à des systèmes reconnus comme non-fiable, tout en les qualifiant “de sécurité”. &nbsp;

La différence, c’est que l’humain n’est pas désigné comme BETA, mais comme bêta.&nbsp;



des gros cons y’en a partout et tu dois faire avec. c’est pour ça aussi que les systèmes de sécurité sont si complexes. Une fois que tu as compris ça tu as compris que Tesla est une boite inconsciente. Je le répète je suis pour l’innovation mais cette boite a fait de la merde. Google (pourtant je suis pas fan de cette entreprise) eux ont une approche plus pragmatique et dans les règles de l’art.



dans les systèmes critiques, il n’y a pas de low-cost….. Tesla vient de l’apprendre à ses dépends.



Je n’aime pas ce que fait Tesla car c’est une insulte à tous les autres, vouloir sortir un truc pourri avant les autres pour dire qu’on est innovant alors que c’est de la merde…… et réussir à tuer quelqu’un…. ben je trouve ça con.


je ne me contredis absolument pas, je dis que l’humain est un élément de sécurité mais que ça probabilité de défaillance est nettement supérieur à un pilote automatique (pour les cas des trains hein!!). &nbsp;



Tesla par cet accident vient de démontrer que son pilote auto est moins fiable qu’un humain.



Par ailleurs, un élément de sécurité n’est pas infaillible, mais la probabilité qu’il le soit est très faible et la panne qui peut survenir ne sera pas systématique (les non systématique sont en général des défaillances matériels qui ont chacun d’ailleurs le propre probabilité de défaillance).



Ce qui signifie que si tu reproduis la situation, le système ne se plantera pas à nouveau.



Je suis certain que si tu remets le camion en travers la Tesla le ne verra toujours pas. c’est une panne systématique et ça doit donc jamais arriver.



La probabilité qu’un humain faillisse en ferroviaire est de 0.1 chance par heure.

La probabilité qu’un pilote auto en ferroviaire est une défaillance est de&nbsp;0,00000001 chance par heure.








illidanPowa a écrit :



je ne me contredis absolument pas, je dis que l’humain est un élément de sécurité mais que ça probabilité de défaillance est nettement supérieur à un pilote automatique (pour les cas des trains hein!!).&nbsp;



&nbsp;&nbsp;

Ce qui est amusant, c’est que quand tu n’es pas à l’aise avec la voiture, tu pars dans d’autres directions pour te justifier.&nbsp;

Les voitures sont conduites actuellement par des humains, dès 16 ans, avec une formation à peine mieux que basique. &nbsp;





Je suis certain que si tu remets le camion en travers la Tesla le ne

verra toujours pas. c’est une panne systématique et ça doit donc jamais

arriver.

&nbsp;

C’est là où est l’intérêt du pilote automatique: 1 accident est suffisant pour que les équipes travaillent à l’améliorer et à régler le problème. &nbsp;&nbsp;



Les humains se plantent depuis des décennies parce qu’ils ont vu une pub pour de la lingerie, parce qu’ils sont éblouis par un soleil couchant d’hiver, ou parce que le petit a vomi sur la banquette arrière… et le correctif de sécurité n’est pas encore sorti.&nbsp;



Haters gonna hate…



On a bien compris que tu n’aimes pas Tesla, mais le principe de leur voiture c’est une aide à la conduite sur autoroute et compagnie. Pas une voiture autonome, mais bon comme tu ne peux pas dépasser le nom d’auto-pilote choisis, on peu rien pour toi malheureusement.



Après faire un tel flan pour un accident où: Le camion est en faute le premier, le conducteur ensuite, et la voiture en dernier; c’est un peu risible.





Tesla par cet accident vient de démontrer que son pilote auto est moins fiable qu’un humain.





Ils n’ont pas dit que la voiture remplaçais l’homme il me semble… juste une aide à conduite sur des routes précises… et avec comme condition que le conducteur reste attentifs et en place pour conduire… Je crois tu mélanges vraiment tout mon pauvre…








Patch a écrit :



Par le plaisir <img data-src=" />

On n’est pas obligé de jouer pour prendre du plaisir. D’ailleurs, quand je suis sur ma moto, je ne joue certainement pas : trop dangereux, je tiens à rester entier. Par contre j’y prends un grand plaisir…





Ce qui n’empêche pas d’être un peu “joueur” dès que possible, sur des sections bien choisies. Cela participe au plaisir et égaye un parcours. L’adrénaline monte un coup et ne redescend pas de suite, améliorant utilement l’attention à la traversée du bled suivant par exemple: Les deux plus grands dangers, à mon sens, c’est l’énervement et la lassitude. Je dirais que cela aide à contenir les deux.

&nbsp;

Être joueur, c’est aussi être en permanence en train de faire des paris dans sa tête (va-t’il déboiter, me couper la route)… et d’imaginer la parade, car on se goure parfois: Ne pas être au mauvais endroit au mauvais moment, cela se travaille et pas vraiment en occupant l’attention à ne pas louper un panneau cerclé de rouge dont on s’était passé jusqu’en 1973.

&nbsp;

Pour en revenir à la moto, je dirais que j’ai vraiment appris à conduire 4 ans après avoir eu le permis B, quand j’ai passé le A. Génial d’angler dans les virages sur un moyen de transport terrestre (j’ai eu mes brevets de pilote avion et planeur avant de passer mon 1er permis), mais une parano envers les autres qui s’est vraiment développée à partir de ce moment…

&nbsp;



non je t’explique avec l’exemple que je maîtrise les bonnes pratiques que devrait appliquer Tesla.



Je t’ai donné les probabilités dans le ferroviaire entre l’humain et le pilote automatique dans mon post précédent. L’humain n’est pas si mauvais.



Pour la 2ème partie, ce que tu dis est juste : on a vu une défaillance on va régler le problème (c’est pas pour demain à priori hein….) mais là où je flagelle Tesla c’est que justement ce problème aurait du être vu en phase d’essai et non pas en phase d’exploitation publique.



Google réalise des essais avec des pilotes d’essais initiés à cette procédure de test qui va collecter toutes informations de contexte sur la défaillance éventuelle du système.



&nbsp;Tesla fait tester par le grand public =&gt; résultat ils savent même pas dire ce qui s’est passé puisque le conducteur est mort c’est super intelligent comme démarche.



Est-ce que tu comprends où je veux en venir?



D’un côté tu as une entreprise qui suit les standards de développement de systèmes critiques qui ont fait leurs preuves et de l’autre tu as une autre qui fait n’importe quoi pour faire un coup marketing quitte à tuer des gens.


illidanPowa a écrit :&nbsp;

et bien dans ce cas pourquoi l’appeler autopilot? &nbsp;c’est quand même donner le bâton pour se faire battre non?



illidanPowa a écrit :

je vois pas le rapport là. je remarque juste qu’ici y’a des gros fanboys de Tesla qui ont le kikitoutdur devant les annonces de Musk. et que moi avec mes arguments et mon métier je peux affirmer haut et fort qu’ils font n’importe quoi et que les faits sont là pour le prouver.



Maintenant si tu veux te suicider en Tesla libre à toi, perso je ne le ferais pas.&nbsp;



Appeler une fonction pilote automatique dans le texte (c’est écrit sur la page française de Tesla) alors que c’est pas ce que fait la fonction, n’est pas du tout une volonté d’induire les gens en erreur, nooooooooooon du tout. c’est moi qui suit un gros débile et qui comprend rien.



tiens je vais inverser la pédale d’accélérateur et de frein sur les voitures et surtout je vais bien le dire aux gens à qui je le vends…….. on va voir s’il y a pas d’accident…..





Franchement, j’abandonne, on ne peut plus abreuver quelqu’un qui n’a plus soif. Et je ne suis même pas le seul à le dire pour tes réponses. Tu défends une cause perdu.



TOUTES les entreprises font ça, ça n’excuse pas ce comportement mais une entreprise n’a ni éthique, ni moral, elle est là pour vendre. Si marquer ça en rouge taille 450 sur la plus haute tour du monde peut lui permettre de vendre plus, elle le fera, tant qu’elle ne pourra pas être condamner pour ça.



En l’occurrence, elle a le DROIT de marquer ça SI elle indique en petite ligne la “réalité” et qu’elle prévient ses utilisateurs (Idiot qui ne savent pas lire et/ou veulent faire les kéké), ce qu’elle fait.

Comme 99% des entreprises, surtout dans le high tech.



&nbsp;Toutes les boites d’oeuf avec de jolis pâturages et des poules en plein air qui sont en fait des élevage hors sol en cage avec des poules qui trime nuit et jour, tu défends aussi leur causes ? Nan parce que c’est juste marqué sur la coquille un numéro qui indique la vérité, alors je ne sais pas, tu pourrais confondre, tu vois ?



C’est simple non ? Donc arrête de passer pour un idiot+++ et écris à ton député si tu veux interdire la publicité mensongère. Ça n’a rien à voir avec le sujet ni avec Tesla d’ailleurs.



Argumenter que la conduite autonome a à voir avec Tesla et cet accident c’est aller droit au sophisme.

-&gt; Vous faites des conclusions qui ne sont pas valables car la prémisse de base est fausse : Tesla NE FAIT PAS de conduite autonome. Remplacez “auto-pilot” par “régulateur de vitesse”, et contemplez la bêtise de vos commentaires jusqu’ici.








CreaYouz a écrit :



Haters gonna hate…



On a bien compris que tu n’aimes pas Tesla, mais le principe de leur voiture c’est une aide à la conduite sur autoroute et compagnie. Pas une voiture autonome, mais bon comme tu ne peux pas dépasser le nom d’auto-pilote choisis, on peu rien pour toi malheureusement.



Après faire un tel flan pour un accident où: Le camion est en faute le premier, le conducteur ensuite, et la voiture en dernier; c’est un peu risible.







Ils n’ont pas dit que la voiture remplaçais l’homme il me semble… juste une aide à conduite sur des routes précises… et avec comme condition que le conducteur reste attentifs et en place pour conduire… Je crois tu mélanges vraiment tout mon pauvre…





AMEN



Le gros problème c’est surtout de savoir quand est-ce que le système ne va pas réagir ? Tu roules toute la journée avec, elle a toujours évité les obstacles du coup forcément tu commences à avoir confiance dans le système. Meme en restant attentif à 100%. Le moment ou tu te rends compte qu’elle ne réagi pas c’est trop tard tu peut plus rien faire. Même avec les mains sur le volant.


<img data-src=" />&nbsp;un Tesla haters vite il faut le bannir. (ceci est ironique bien sur).


extrait du site de Tesla France :&nbsp;



&nbsp;“Le Pilotage automatique Tesla permet à la Model S de suivre parfaitement la route, de changer automatiquement de voie en actionnant simplement le clignotant et d’adapter sa vitesse grâce à son régulateur de vitesse dynamique qui réagit en fonction du trafic. Le contrôle numérique du moteur, des freins et du volant permet d’éviter les collisions frontales et latérales, tout en empêchant le véhicule de sortir de la route. La Model S vous prévient lorsqu’elle trouve une place de parking et se gare d’elle-même, suivant votre demande.”



donc si ils l’ont dit c’est quand même dommage de défendre l’indéfendable. C’est beau le fanboyisme.








illidanPowa a écrit :



<img data-src=" />&nbsp;un Tesla haters vite il faut le bannir. (ceci est ironique bien sur).







<img data-src=" />&nbsp;… au contraire, j’ai pu tester une P90D dernièrement … ça arrache quand même <img data-src=" />









illidanPowa a écrit :



non je t’explique avec l’exemple que je maîtrise les bonnes pratiques que devrait appliquer Tesla.&nbsp;



&nbsp;

Non, tu sors de leur domaine d’application des exemples que tu connais.&nbsp;

En voiture, l’humain n’est pas considéré comme étant “de sécurité”, il est un pis-aller dont on était jusque là incapable de se passer malgré ses innombrables manquements.

&nbsp;



Tesla fait tester par le grand public =&gt; résultat ils savent même pas

dire ce qui s’est passé puisque le conducteur est mort c’est super

intelligent comme démarche.



Est-ce que tu comprends où je veux en venir?

&nbsp;

Oui: tu es parti du principe que Tesla fait tester au public pour en conclure que Tesla fait tester au public.&nbsp;

Un beau cercle qui a le mérite de la cohérence, à défaut d’avoir le mérite de coller à la réalité.&nbsp;



La réalité est que tesla a sorti un produit relativement fiable. Suffisamment fiable pour que presque 200 millions de km soient parcourus sans incident notable.&nbsp;

Combien de millions de voitures ont déjà du être rappelées pour différents problèmes de série (airbag, ABS, pneus, et même axe de volant, etc) ? Pas grande différence avec Tesla: un composant imparfait, à corriger aussi rapidement que possible.









illidanPowa a écrit :



Le contrôle numérique du moteur, des freins et du volant permet d’éviter les collisions frontales et latérales, tout en empêchant le véhicule de sortir de la route.



Sauf que sur le site indiquant les versions de logiciel, le logiciel qui s’occupe de cette partie n’est pas en BETA.&nbsp;

Comme précisé au dessus, c’est AutoSteer qui est en BETA, pas “Automatic Emergency Steering and Side Collision Warning”.



les boites d’œufs ça tue pas des gens. Si tu ne comprends pas la différence, je peux plus rien pour toi en effet.



Tesla a dit que sa voiture évite les collisions elle a échoué point. c’est un fait pas une élucubration de fanboy ou de haters. Si tu contestes le fait que la voiture n’a pas su éviter la collision alors je veux bien ton argument. Tesla l’a écrit noir sur blanc sur son site.


Autant ton rappel historique des faits est intéressant, autant je ne peux pas partager ton analyse. Trop de généralisation et d’opinions présentées comme des faits.

Exemple :







yl a écrit :



Toute l’évolution précédente serait alors due a une modération des vitesses?





Qui a dis ça ? <img data-src=" />

Pour moi, l’amélioration est un composé de nombreux facteurs, dont entre autres le matériel, les routes, et les habitudes de conduite.





yl a écrit :



Impossible:





Ah bon ? Pourquoi ?

Je le pense aussi dans ce cas précis, mais le simple fait de le dire ne le rend pas vrai. Dire “c’est impossible” n’a pas empêché l’homme de se poser sur la Lune.





yl a écrit :



C’était plutôt aux progrès des infrastructures (passages en 2x2 voies alors nombreux = divise par 4 la sinistralisé ) et des véhicules.





Pourquoi ces éléments plutôt que la vitesse ? Plutôt qu’une meilleure formation des conducteur ? Plutôt que des interventions divines du Grand Spaghetti Volant ? Où sont les faits ?



Le reste de ton message pause le même problème : tu présentes tes opinions comme des faits sans vraiment appuyer tes propos. Ces propos ne sont pas aberrant, je n’exclue pas que tu ai totalement raison, mais en tant que tel c’est peu convaincant.

J’imagine que tu ne sors pas cette réflexion de nulle part, tu sembles avoir un avis construit. Peut-être peux-tu me pointer vers une (voir plusieurs, soyons fou <img data-src=" /> ) étude corrélant tout ça ?



l’accélration est juste stratosphérique&nbsp;<img data-src=" />


alors c’est d’autant plus grave…. puisque la fonction n’a pas fait son job.








illidanPowa a écrit :



alors c’est d’autant plus grave…. puisque la fonction n’a pas fait son job.





lol.&nbsp;

&nbsp;

Pendant 50 posts tu nous bassines sur le méchant Tesla qui fait tester au public.&nbsp;

Et hop, tu retournes ta veste: maintenant le plus grave, c’est un composant imparfait (comme il y en a des millions dans le monde, dans tous les domaines y compris le train et l’aviation qui te tiennent tant à coeur)

&nbsp;&nbsp;

Allez, amuse-toi bien.&nbsp;









uzak a écrit :



Si tu as un comportement non prévisible par les autres, oui, c’est n’importe quoi et dangereux.

Et puis, CreaYouz a raison, c’est pas un jeu, c’est un moyen de déplacement.

On peut reconnaitre le génie de marketing automobile qui a réussi à transformer un moyen de déplacement en objet de luxe/phallus/jouet..

Si t’arrives trop vite sur un dépassement, faut pas t’étonner qu’une voiture te déboite sous le nez





Je suis absolument prévisible, n’oublie par exemple jamais mon clignotant (même pour doubler à droite un gland scotché sur la file de gauche et éviter de m’énerver 100km derrière s’il décide d’y rester)… et je dirais que comme pour la capote, je le mets en avance de l’action (de tourner/changer de voie) bien conscient qu’après ou pendant c’est inutile!

&nbsp;

Le jeu, je m’en suis expliqué ailleurs.



Le génie du marketing auto, pour avoir eu quelques connaissances dans le domaine, je dirais que l’objet phallique n’est dans leurs études pas forcément là ou certains veulent bien l’immaginer: En réalité, à la sortie de l’Espace, la blague des marketeux et communicants était: “L’Espace, pour le père de famille? Queue nenni, la cible c’est la pt’ite b…!”

&nbsp;

Le succès des SUV (ajoutons les 4x4 chez les citadins) semble d’ailleurs confirmer des statistiques sur le sujet, mettant en évidence que les mensurations moyennes baissent!



Pour les vitesses de rapprochement et leur estimation, je dirais que celui qui n’est pas fichu de voir celui qui arrive plus vite et de retarder un poil sa manœuvre (souvent sans conséquence d’ailleurs, ce type d’individu dépassant généralement en mode “camion au limiteur” avec +1km/h versus le dépassé, ce qui change incontestablement tout! ), a quand même un problème!



ben vu le taux de défaillance de l’humain on peut le considérer comme un élément de sécurité (après je t’accorde que y’a des humais qui sont pas de sécurité du tout&nbsp;<img data-src=" />).



En fait là où c’est problématique c’est que les tests n’ont pas été réalisés ou pas suffisamment. (1ère erreur).



Toutes les défaillances systématiques n’ont pas été prises en compte, mais cela découle de l’insuffisance de test…. (2ème erreur).

&nbsp;

Tester en grand public = retour quasi inexistant ou pas fiable du testeur. (3eme erreur).



&nbsp;


enfin pour moi ça reste du tripotage de nouille, le système qui agit sur les freins doit être de sécurité peut importe son nom ça s’apparente à une fonction de pilotage automatique (même si tu le découpes en 50 logiciels). tu crois que les gens ont conscience du découpage logiciel?



Dans les autres domaines, les systèmes de sécurité défaillant du même type n’ont pas entraîné de mort.



et là dans l’automobile c’est pas grave, c’est juste un composant imparfait qui peut tuer. j’avoue que ton raisonnement m’amuse beaucoup.



donc sinon pour en revenir au pilote automatique, il aurait au moins du stopper la motricité, ce qu’il n’a pas fait…..



ce qui est assez drôle c’est que Tesla dans sa communication indique que son système est en mode beta……..


y’a t’il un pilote dans la bagnole?&nbsp;

ok ———&gt; []








V_E_B a écrit :



&nbsp;

Pour moi, l’amélioration est un composé de nombreux facteurs, dont entre autres le matériel, les routes, et les habitudes de conduite.



Le reste de ton message pause le même problème : tu présentes tes opinions comme des faits (…).

J’imagine que tu ne sors pas cette réflexion de nulle part, tu sembles avoir un avis construit. Peut-être peux-tu me pointer vers une (voir plusieurs, soyons fou <img data-src=" /> ) étude corrélant tout ça ?





&nbsp;Il y a de nombreux facteurs mais sans doute deux principaux. Je dirais que la répression et son impact sur les comportements aurait pu jouer (sur les causes, entendons nous bien, non seulement la gravité) si elle avait ciblé ce qui cause et non essentiellement ce qui aggrave (vitesse): Cela n’a pas été le cas.



On a en fait implicitement officialisé que le conducteur du dimanche n’avait pas à s’améliorer car on limiterait la gravité résultant de l’erreur qui fait se rencontrer un mobile A et un mobile (ou pas) B!



Sauf que quand B est un piéton/2 roues, les stats indiquent que, oh surprise, cela ne fonctionne pas très bien.



Pour les études, chez nous il n’y en a plus. On est depuis longtemps dans l’émotionnel. Pour le cas de la téléphonie au volant il fallait aller chercher à l’étranger que le risque ajouté était comparable à une alcoolémie modérée (mais déjà contravention-elle: -6 points, retrait immédiat ; Cohérence du système de sanction vs les 3 points du téléphone, qui ont longtemps été zéro?) en conversation.



Au décroché, ou composer un numéro, c’était déjà temporairement digne de certains taux mesurés en Russie (et en pratique bien plus problématique car rien ne l’annonce pour ceux qui sont autour contrairement à un crétin prenant sa bagnole pour une cabine dont la tenue de voie aléatoire se voit à l’avance). Ne parlons pas de l’écriture d’un SMS ou autre twitterie: Cela devrait être l’annulation immédiate.

&nbsp;

Pour avoir de l’objectivité, il faut remonter a la fin des années 60. Avant que des “associations de victimes” (qui sont en réalité des “associations de gens ayant eu des accidents et veulent apprendre aux autres comment les éviter”: Ils s’occupent bien moins de victimes, pour aider face au handicap/assurances etc, que de lobbying émotionnel!) ne fassent leur œuvre de préservation de l’incompétence au volant, on faisait encore des essais:



La limitation de vitesse imposée sur des axes test y fut partout corrélée à une hausse des accidents, le ministre des transports de l’époque refusant alors de généraliser la mesure… qui reviendra au choc pétrolier de 73 (encore un effet du “les ministres passent, les fonctionnaires restent!”: Comme avec Gayssot en 1999, il suffit d’en attendre un plus influençable que les autres, idéalement avec des circonstances favorables): Heureux cumul, ce fut l’année de la ceinture obligatoire à l’avant et cumulé avec la modération des déplacements liée a la hausse des carburants, il y eu une embellie… attribuée à la limitation de vitesse généralisée, la ceinture? “Oubliée”!



Donc le facteur répression, voyons le plutôt comme un impôt de plus. Avec les bagnoles autonomes respectant à 100% le code de la route (jusqu’au blocage d’ailleurs: En situation de traffic dense, il faudra que le conducteur reprenne la main à chaque rond-point car il y aura potentiellement en permanence un véhicule engagé, ce qui va être assurément très fluidifiant!), il va falloir changer de modèle!



Je pense que c’est trop présenté comme un système de conduite qui fait tout, le nom est SUPER important.

On devrait avoir comme dans les trains, si tu enlèves les mains du volant, la voiture s’arrête. Là, ça devient une vraie assistance (à la douceur de la conduite et à l’arrêt précis devant les quais pour les trains), et plus un pilote automatique.

Mais qui voudrait d’une prison roulante où tu ne conduis pas, mais tu dois tenir le volant…


Et alors, ils vont pas écrire que le système ne marche pas…



Surtout qu’il marche, même si il est encore en perfectionnement, et que les personnes qui achètent la voiture savent très bien que ce n’est pas une voiture autonome. Là il propose de pouvoir swtich de voie, freiner/ralentir dans la circulation et se garer. Et tout cela en prévenant que le conducteur doit rester maitre de son véhicule.



En aucun cas c’est écrit que l’on peux tema un dvd en laissant la voiture se dermerder toute seul. On serait dans le cas de Google avec leur voiture autonome, oui Google serait entièrement en faute.



Celle de Tesla sont une ASSISTANCE à la conduite, ni plus ni moins. Vouloir regarder un DVD avec ce système c’est suicidaire, la voiture n’a pas l’ensemble des capteurs d’une Google Car, donc ne pourra jamais voir et anticiper autant.



Après je ne me souvient pas qu’on t’es forcé la main à acheter cette voiture…

Certain sont des early adopter, et aiment tester et acquérir des nouvelles technologie et sont prêt à faire avec les défauts inhérent d’une technologie récente. Le système n’est peut être pas parfait mais il est fiable si tu respectes les conditions d’utilisations… Ce qui n’a pas été le cas ici… Donc oui pour moi ce n’est pas la faute de Tesla, mais des chauffeurs qui font n’importe quoi.



&nbsp;Après cela ne les empêches pas d’améliorer leur soft après cet incident, d’enquêter sur le problème et de se confronter au enquête qu’il peux avoir par d’autre partie, dont le gouvernement.



Mais bon: Bouhouh c’est pipi caca, ca marche pas.. Bouhouh Tesla…



Super !


tu as le raisonnement de quelqu’un qui développe une app pour smartphone, sauf que là ça tue une personne, si y’a une enquête c’est pas pour rien!! si Musk doit s’expliquer devant le Sénat c’est pas pour rien. On parle de la vie d’une personne qui a fini par avoir trop confiance en un système qui donnait l’apparence d’être fiable.&nbsp;



quand tu prends un ascenseur dans une tour comme l’empire state building, tu ne te poses pas la question de savoir si tu prends un risque? et pourtant, il y a un système critique derrière qui t’inspire une tel confiance que tu n’y fais même plus attention, mais je peux t’assurer qu’en cas de défaillance personne ne survie à une chute de 300m.



Là ça revient à dire monte dans l’ascenseur, je l’ai pas trop testé mais allez-y j’ai confiance en lui…. ben ouais mais surtout saute pas dans la cabine hein (ce que va faire le 1er gosse pour voir).








illidanPowa a écrit :



je vois pas le rapport là.



“Ouin ouin c’est pas marqué en gros sur une feuille A1 qu’il faut conduire en sécurité et je suis trop idiot pour comprendre que c’est même une règle de base” voilà le rapport… <img data-src=" />







illidanPowa a écrit :



je remarque juste qu’ici y’a des gros fanboys de Tesla



Nous on voit surtout un gros hateboy Tesla. Comme quoi :)









illidanPowa a écrit :



Maintenant si tu veux te suicider en Tesla libre à toi,



Quand je parlais de hateboy.

Si tu ne sais pas appliquer une règle de sécurité qui n’est que de la pure logique… Personne ne peut rien faire pour toi. Et surtout, évite de prendre le volant. Même de prendre des cours de conduite. Tu serais déjà trop dangereux.







illidanPowa a écrit :



les boites d’œufs ça tue pas des gens.



On parie?



N’importe quoi …



On te dis c’est fiable, que ça a fait des millions de kilomètres sans problème, là 2 connards font n’importe quoi et se plantent et tu nous bourres le mou comme quoi c’est de la merde à cause de cet unique incident… Tu voies pas le problèmes?

&nbsp;

Le jour où il y a un accident mortel alors que le chauffeur à respecter les consignes, là ce sera à Tesla d’être complètement en tort. C’est le cas ? Non.



Maintenant qu’ils prennent une partie des torts et améliore leur système, encore heureusement…

&nbsp;

Mais je t’en pris envoie une lettre à Tesla, au gouvernement des différents pays, et aux utilisateurs actuels pour qu’il arrêtent cette horrible beta test tueur d’une personne. Heureusement le progrès attend pas les réfractaires.

&nbsp;


je ne dis pas que le mec est un gros débile d’avoir fait confiance à cette machine en dépit des règles (même si là il a quand même pousser le bouchon), je dis juste que à force de jouer avec ce système et lui faire confiance (nature humaine de base, j’ai pas de problème donc j’ai confiance), l’accident était inévitable car le système est en exploitation alors qu’il est pas fini. donc on peut jeter la pierre au conducteur mais Tesla est responsable dans tous les cas d’avoir mis un système qui inspire la confiance a tel point qu’on en oublie qu’il est pas fini.


tu as raison, le NTSB sont idiots de faire une enquête sur le système de Tesla qui a failli, le Sénat à tort de se poser des questions sur l’accident et notamment le dysfonctionnement de la Tesla et Tesla de reconnaître que leur système à failli (c’est pas comme s’ils cherchaient à cacher le cadavre sous la moquette). Et moi, en tant que spécialiste du domaine des systèmes critiques impliquant la vie des personnes, je suis complètement idiot de croire que Tesla est en tort et que son système à eu le malheur de faire une erreur et que toi tu m’expliques que c’est tout à fait normal, tu comprends il est un peu jeune le système, pis c’est la faute du conducteur du poids lourds, quelle idée de couper une autoroute…..&nbsp;



en gros, je me dis que mon métier ne sert à rien parce que le jour où 2 métros se percuteront à pleine vitesse, je repenserais à ton argumentaire pour me sauver la peau, non mais là c’est en bétâ test vous comprenez les 200 morts c’est juste que le système n’est pas encore au point.&nbsp;<img data-src=" />&nbsp;





J’oublie le meilleur, tu oses affirmer que c’est fiable alors que le système s’est raté au bout 200 millions de km? là où les autres avec plus de 500 millions de km ne mettent pas en service?



D’ailleurs 1 mort tous les 200 millions de km c’est à peu prêt la proportion de ce que savent faire les français…… c’est horrible humains mauvais conducteurs.


Donc ils sont résponsable de faire un système fiable qui inspire confiance…

Un inconscient se crois dans une voiture autonome au mépris des règles, se crashe et tous les humains sont devenues stupides…


Je ne me souvient pas avoir dit qu’il n’avait aucune responsabilité, mais que la responsabilité était avant tout humaine, et que dans le respect des règles de conduite de la voiture, il n’y aurait pas eu d’accident, où il n’aurait pas été du faite du système de la voiture.



Je vais me répéter mais le système est jeune, et que de faire de la merde avec c’est complétement irresponsable… Se croire dans une voiture autonome quand elle n’est qu’assisté c’est complétement con et ne pouvait conduire qu’à un accident.



En attendant le système est commercialisé, c’est qu’ils ont dut avoir l’accord, donc des experts en sécurité automobile autre que toi l’on approuvé. Après je dis ça je dis rien hein … Mais c’est pas un mort stupide qui me fera changer d’avis sur l’intérêt du système.


on parle d’un pays où tu peux construire ton véhicule de A à Z et rouler sur la route légalement avec du moment que tu as bien les feux, clignotants et plaque d’immatriculation.



Alors crois-moi que le super assistant ils s’en foutent…. parce que eux ont leur a vendu comme ça.



Sauf que ben comme je le répète oui l’humain a eu tort, mais il a fini par faire confiance à la machine parce qu’il avait la sensation que ça marche bien, ceci est inévitable, c’est une réaction humaine et normale mais je te l’accorde pas rationnelle, à force de laisser la voiture conduire toute seule et freiner toute seule tu finis par croire en elle, ta vigilance baisse et boom c’est l’accident.





On ne peut pas mettre un système pas fini (ça Tesla l’a reconnu qu’il est pas fini) dans les mains du grand public même si on le prévient…… surtout quand ce système peut te donner l’illusion qu’on peut lui faire confiance.&nbsp; surtout quand cette fonction est vendu comme de sécurité (encore une fois c’est Tesla qui le dit). Le mec était un grand fan de Tesla, il avait une confiance aveugle dans le système peut-on lui reprocher?si il sort du garage oui après a voir longuement éprouvé le système non.



encore une fois le système de Tesla a failli, il n’aurait pas du, la faible durée de test est en cause et c’est pourquoi on ne voit pas de voiture autre que Tesla sur les routes avec ce genre de système(ils sont d’ailleurs loin d’être des cadors du domaine les mecs de Tesla, très loin).


si les autres, ceux qui font des automobiles depuis la nuit des temps n’ont pas sorti de système équivalent ce n’est pas parce qu’ils sont en retard (loin de là, très loin de là même), mais parce qu’ils ont conscience de ce problème et que eux n’escamotent pas la phase de test.








illidanPowa a écrit :



je ne dis pas que le mec est un gros débile d’avoir fait confiance à cette machine en dépit des règles (même si là il a quand même pousser le bouchon), je dis juste que à force de jouer avec ce système et lui faire confiance (nature humaine de base, j’ai pas de problème donc j’ai confiance), l’accident était inévitable car le système est en exploitation alors qu’il est pas fini. donc on peut jeter la pierre au conducteur mais Tesla est responsable dans tous les cas d’avoir mis un système qui inspire la confiance a tel point qu’on en oublie qu’il est pas fini.



C’est bon, on a compris que tu haïssais Tesla et les systèmes automatisés, pas la peine de le répéter 100 fois. Mais ca ne change absolument rien au fait que tu es incapable de comprendre que si un utilisateur d’un système est trop idiot pour comprendre les règles de sécurité de base (et je mettrais presque ma main au feu que tu fais partie de ces utilisateurs, sinon tu aurais un discours moins catégorique que tes pleurnicheries permanentes), ce n’est pas la faute de Tesla.









illidanPowa a écrit :



Le mec était un grand fan de Tesla, il avait une confiance aveugle dans le système peut-on lui reprocher?si il sort du garage oui après a voir longuement éprouvé le système non.





Donc si un crétin suicidaire marche sur l’autoroute pendant 2 min avant de se faire écraser on peut dire qu’il est en tort, par contre s’il y est depuis 2h, c’est la faute de l’automobiliste ou du routier qui lui est rentré dedans. Okay… <img data-src=" />







illidanPowa a écrit :



si les autres, ceux qui font des automobiles depuis la nuit des temps n’ont pas sorti de système équivalent ce n’est pas parce qu’ils sont en retard (loin de là, très loin de là même), mais parce qu’ils ont conscience de ce problème et que eux n’escamotent pas la phase de test.



Ou parce qu’ils ont juste un système plus complexe à mettre en oeuvre (la plupart font de la “pure” voiture autonome, pas une assistance auto) <img data-src=" />









Xaelias a écrit :



Si je mets du linge censé être lavé à 30° et que je le lave à la température la plus haute disponible, et que mon linge est ruiné c’est ma faute, pas celle de la machine.&nbsp;





Sauf que là ils te vendent (vantent) un lave-linge qui calcule tout seul le poids du linge, le degré de salissure, le fait que les textiles sont fragiles en couluer ou pas pour choisir le programme le plus approprié. Mais il te laisse la responsabilité d’appuyer sur le bouton pour lancer le programme choisi.



je ne fais pas de pleurnicherie, je dis juste que quand on prétend vendre quelque chose au grand public, ce grand public risque de faire n’importe quoi encore plus quand il s’agit de sécurité. exemple pourquoi on met des portes sur les quais de métros pour empêcher de descendre sur les voies d’un métro? c’est dangereux (souvent mortel), c’est interdit et pourtant on met des portes, a ton avis pourquoi?



Quand le système te donne confiance et que tu te sens en sécurité, ta vigilance baisse, c’est un comportement humain. donc quand on prétend vendre ce genre de système, il ne peut se soustraire aux exigences de sécurité auxquels il prétend et donc ne peut être en “beta”.&nbsp;



sur le dernier point on voit que tu es totalement hors sujet. le prochain véhicule de ce type de série sera une Audi, sera une assistance automatique et ne sera autorisée que dans des conditions très restrictives (vitesse&lt;60km/h, autoroute, dans les bouchons en gros) qui seront gérées par cette assistance.&nbsp;



On parle de cet accident mortel mais y’en a d’autres liés à la défaillance de l’autopilote qui heureusement n’ont pas tués mais qui ont détruits les Tesla.&nbsp;



Ce que je constate en tout cas et ça n’a pas changé (c’est pour ça que je commentais rarement depuis un bon moment), c’est qu’ici les gens sont quand même drôlement étroit d’esprit.&nbsp;



Personnellement j’ai argumenté, avancer des chiffres vérifiables, des sources et la seule chose qu’on me rétorque dans ce débat c’est un ton péremptoire et le fait que je dois boire vos paroles et ne pas avoir le droit de ne pas être d’accord avec vous sans être pris pour un idiot seulement quand je lis les réponses qu’on me donne ça me fait quand même bien rire : elles sont soit sans argument, soit à côté de la plaque, soit c’est une insulte. en fait y’a pas de débat, on ne peut donner son avis contraire sans être pris pour un débile.



en tout cas Tesla a été beaucoup plus respectueux de son client décédé que vous ici.



Par ailleurs, hormis l’épisode du pilote auto qui reste scandaleux à mes yeux, je suis fan de Tesla, et oui c’est dommage ton principal argument tombe à l’eau, j’adore l’avancée majeure qu’ils ont réalisé dans les véhicules électriques hautes performances et la projection dans le futur qu’offrent leurs véhicules, y’a de l’audace, y’a des paris et le résultat est bien. y’a tout ce qu’on peut attendre d’une voiture moderne sur ce véhicule.



Maintenant, je le redis sans hésiter, ils ont merdé sévère avec le pilote automatique: dans le nom volontairement pompeux et trompeur, dans le fait de le mettre en service précipitamment et ça va nuire sévèrement à leur image ainsi qu’aux autres projets de ce type…..



Maintenant j’espère qu’ils en tireront les bonnes conclusions mais là ils ont fait une très grosse boulette, surtout qu’ils ont eu des alertes avant.





&nbsp;


“qui te dit que le système n’a pas empêché le conducteur d’agir?“il roupillait: il n’y a eu&nbsp;apparemment&nbsp;aucune action &nbsp;de sa part avant le crash.








illidanPowa a écrit :



je ne fais pas de pleurnicherie



Tu fais dans la pleurnicherie depuis le début.







illidanPowa a écrit :



exemple pourquoi on met des portes sur les quais de métros pour empêcher de descendre sur les voies d’un métro? c’est dangereux (souvent mortel), c’est interdit et pourtant on met des portes, a ton avis pourquoi?



Pour éviter les accidents, exactement comme les grillages le long des lignes ferroviaires. Une autre question débile?







illidanPowa a écrit :



Quand le système te donne confiance et que tu te sens en sécurité, ta vigilance baisse, c’est un comportement humain.



Jusqu’à regarder un DVD au lieu de conduire? Non, ce n’est pas un comportement humain, mais un comportement suicidaire en plus d’être extrêmement dangereux pour les autres (on a eu de la chance qu’il a été l’unique victime de sa tentative réussie de Darwin Award, il aurait pu en emporter d’autres avec lui). Arrête ton hateboyisme… <img data-src=" />









illidanPowa a écrit :



Maintenant, je le redis sans hésiter, ils ont mangé mon goûter préféré que m’avait donné ma maman



Je comprends mieux tes commentaires, du coup <img data-src=" />









v1nce a écrit :



Sauf que là ils te vendent (vantent) un lave-linge qui calcule tout seul le poids du linge, le degré de salissure, le fait que les textiles sont fragiles en couluer ou pas pour choisir le programme le plus approprié. Mais il te laisse la responsabilité d’appuyer sur le bouton pour lancer le programme choisi.





Ils ne vendent pas un système autonome capable de conduire une voiture dans toutes les conditions possibles et imaginables. C’est juste faux :-)









Patch a écrit :



Tu fais dans la pleurnicherie depuis le début.



Pour éviter les accidents, exactement comme les grillages le long des lignes ferroviaires. Une autre question débile?



Jusqu’à regarder un DVD au lieu de conduire? Non, ce n’est pas un comportement humain, mais un comportement suicidaire en plus d’être extrêmement dangereux pour les autres (on a eu de la chance qu’il a été l’unique victime de sa tentative réussie de Darwin Award, il aurait pu en emporter d’autres avec lui). Arrête ton hateboyisme… <img data-src=" />





Je comprends mieux tes commentaires, du coup <img data-src=" />







A force d’essayer de le suivre j’ai fini par comprendre le raisonnement de IllidanPowa, probablement déformation professionnel :



Il SAIT&nbsp; intrinsèquement que les humains sont des idiots donc il refuse de leur mettre dans les mains des systèmes imparfaits.



-&gt; Pour lui, l’humain étant un abruti par nature, lui donner un outils potentiellement dangereux même en le prévenant est un aberration.

&nbsp;

En gros, il couvre ses miches professionnellement, et ça peut se comprendre. Bon après avec ce genre de raisonnement on fait jamais rien, car on peut pas tester, façon “On test pas les médicaments sur les humains car trop dangereux même si ça pourrait sauver des millions de malades”



&nbsp;



<img data-src=" />



&nbsp;Après quand on est pas d’accord avec quelqu’un on est pas d’accord, mais je retiens quand même que tout ceux qui veulent rouler dans des véhicules autonome sont des futurs légumes!



/tête de poireau


ah ben voilà on y est monsieur est à cours d’arguments alors il active le mode défense de gamin de maternel, j’ai assez perdu mon temps j’éviterais de commenter à nouveau sur nextinpact.



juste pour ton info, si on met des portes sur les quais des métros c’est parce que les gens descendent sur les voies et qu’ils se tamponnent des règles, pourtant le risque de mort est extrêmement élevé entre le métro qui peut te percuter et les rails d’alimentation qui sont de forte puissance (et qui ne vont pas de se couper parce qu’un humain fait court-circuit). Sur un métro en pilote automatique c’est obligatoire car personne n’arrêtera la rame dans ce cas, surtout qu’il entre beaucoup plus vite en station qu’un conducteur humain.



combien de fois j’ai vu des gens descendre en voie ramasser son smartphone ou même le doudou de son gosse, alors que tout simplement il a de très fortes chances de mourir. alors tu penses bien que les recommandations d’un constructeur comme Tesla…. &nbsp;



Tout le monde n’a pas ta grande intelligence…..&nbsp;<img data-src=" />


c’est tout à fait ça.



pour les médicaments ça à tuer y’a pas longtemps <img data-src=" />


T’inquiète pas on a compris que la connerie d’un seul avait condamné l’ensemble de l’humanité à l’inconscience et à la débilité… Triste monde…



Après je suis depuis 10 ans à Paris, j’ai absolument jamais vu quelqu’un descendre sur les voies du métro.


ben je suis sur Paris aussi et ça arrive tous les jours, c’est pour ça que la ligne 13 notamment a été équipée de porte palières ce qui coûte cher et qui n’est pas lié à une automatisation.








Mustard27 a écrit :



Il regardait un DVD.

Evidemment cela n’est pas recommandé par le fabricant mais à partir du moment où ce dernier vante partout la qualité de son autopilot, que le systeme autorise la lecture d’un DVD en roulant, ça devait forcéement arrive run jour.





C’était un lecteur de DVD externe, la Tesla n’autorise pas de lire un DVD pendant qu’on conduit à ma connaissance, ils sont pas débiles hein quand même !









yl a écrit :



On a en fait implicitement officialisé que le conducteur du dimanche n’avait pas à s’améliorer car on limiterait la gravité résultant de l’erreur qui fait se rencontrer un mobile A et un mobile (ou pas) B!





Ça c’est ton interprétation.

La mienne est que la répression est basée sur la vitesse parce que c’est un des rares trucs qu’on sait mesurer automatiquement, c’est aussi bête que ça.

D’ailleurs, les radars pour grillage de feux rouges sont de plus en plus fréquents, et l’idée de radar (ou autre système automatisé) surveillant le franchissement de ligne blanche revient régulièrement (mais je crois pas que ça se soit beaucoup fait réellement). Ça illustre bien que quand on sait le faire on vise les cause et non pas que la vitesse qui aggrave.



C’est une aide à la conduite, et tu as toujours la main (et le pied !)








illidanPowa a écrit :



j’attendais cette exemple, et d’ailleurs, il semblerait que si le pilote avait laisser la main, il n’y aurait pas eu de crash bon le problème c’est de passer outre des alarmes <img data-src=" />



Pour moi le pilote auto n’est pas en cause, c’est une défaillance matériel du capteur, d’ailleurs il est étonnant qu’on utilise pas des capteurs de marques différentes pour éviter ce genre de mésaventures….. (ce qu’on  fait habituellement dans le ferroviaire).



Concernant l’accident de Tesla : la Tesla roulait trop vite….. dommage pour un pilote auto.







Si on te bande les yeux et que l’on te met dans un endroit que tu ne connais pas, tu va te taper dans les obstcale. maintenant la meme et on te colle sous un deltaplane… pas besoin d’aller plus loin je pense.



Et un pilote auto sans capteurs c’est un aveugle… (ou sourd)

Si il avait laissé la main… Le pilote auto était à moitié dans les choux faute de mesures incorrectes dont il a besoin pour fonctionner. Les alarmes, idem, comment faire confiance aux alarmes quand les mesures dont tu disposes sont délirantes.

Sachant que sur ce genre de trajet, l’avion es très haut, ne vois pas le sol donc repères visuels inexistants. De peu que la météo soit mauvaise, les pilotes étaient eux aussi aveugles.



Et pour une voiture, lorsqu’il y a trop de brouillard (ou une pluie diluvienne), tu ralentis ou tu t’arrête.



Roulait trop vite. Plutôt le fait qu’un poid lourd effectuait un demi tour sur une autoroute ce n’est pas un cas de figure facilement prévisible dans une progra car cela peux etre n’importe ou.

De toute façon le conducteur à réglé sa consigne de vitesse et le pilote auto à fait ce qui lui à été demandé.









psn00ps a écrit :



C’est une aide à la conduite, et tu as toujours la main (et le pied !)







Si tu parles pour tesla leur site annonce bien ça comme un véhicule autonome (en beta).







illidanPowa a écrit :



ben je suis sur Paris aussi et ça arrive tous les jours, c’est pour ça que la ligne 13 notamment a été équipée de porte palières ce qui coûte cher et qui n’est pas lié à une automatisation.





Tu ne confondrait pas avec le rer ^^’ Vu la hauteure pour le metro, c’est loin d’etre evident.









Zerdligham a écrit :



Ça c’est ton interprétation.

La mienne est que la répression est basée sur la vitesse parce que c’est un des rares trucs qu’on sait mesurer automatiquement, c’est aussi bête que ça.

D’ailleurs, les radars pour grillage de feux rouges sont de plus en plus fréquents, et l’idée de radar (ou autre système automatisé) surveillant le franchissement de ligne blanche revient régulièrement (mais je crois pas que ça se soit beaucoup fait réellement). Ça illustre bien que quand on sait le faire on vise les cause et non pas que la vitesse qui aggrave.





En réalité, on a surtout rétabli l’octroi de passage (rapide) avec un paramètre que l’on sait en effet mesurer facilement.

Les radars de feu posent aussi des pb: En pratique, les ambulances/flics sont obligées d’éviter les carrefous équipés car sinon ils vont rester coincés&nbsp; (personne ne démarre, contester c’est trop d’emmerdes) et si on ne veut pas voir exploser leurs temps d’intervention il faut limiter le nb de feux équipés.

Évoquons aussi le cas du piéton qui passe au bonhomme rouge et t’oblige à t’arrêter sur les boucles: Ton avant est passé au vert et quand tu redémarres, sans même pouvoir encore voir le feu, flash… Si le piéton n’est pas visible avec l’angle de prise de vue, tu l’as dans le c..

En 2 roues, les boucles de courant des feux déclenchés par un véhicule qui attends restent souvent de marbre avec les motos (moteur/cadre souvent en alu, peu de pièces ferromagnétiques)… Obligeant à les griller prudemment quand on voit qu’on commence à y passer un temps suspect.

Pour les lignes blanches, je pense que c’est du fantasme!

En réalité, en dehors de la vitesse les autres dispositifs automatiques sont limités en nombre et imparfaits.









x689thanatos a écrit :



Si tu parles pour tesla leur site annonce bien ça comme un véhicule autonome (en beta).





Je la refais avec le contexte car je me fous du terme employé, il n’influe sur rien.





Yeager a écrit :



Le gros problème c’est surtout de savoir quand est-ce que le système ne va pas réagir ? Tu roules toute la journée avec, elle a toujours évité les obstacles du coup forcément tu commences à avoir confiance dans le système. Meme en restant attentif à 100%. Le moment ou tu te rends compte qu’elle ne réagi pas c’est trop tard tu peut plus rien faire. Même avec les mains sur le volant.







Tu as toujours la main (et le pied !)



C’est plutôt vers tesla qu’il faut que tu te tournes si ca ne te plais pas. Je n’ai fais que citer ce qui es mis en gros caractères chez eux, rien de plus.

(appel un chat un chat… assistance à la conduite pas pilote automatique).



Et perso, je ne suis pas pour ce genre de véhicule car il n’y a aucun doute que cela apportera d’autres problèmes.



Surtout que d’autres se frotteraient bien les mains avec des voitures complètement connectées (je pense à voleurs et gendarmes).


edit trop tard,



Si le terme n’influençait pas tu n’aurais même pas pas réagit à mon mesage…