Voitures à pilote automatique : le régulateur américain ne veut pas attendre la perfection

Voitures à pilote automatique : le régulateur américain ne veut pas attendre la perfection

Feu vert pour K2000

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

25/07/2016 3 minutes
148

Voitures à pilote automatique : le régulateur américain ne veut pas attendre la perfection

L'administrateur du NHTSA, a donné sa vision des systèmes de pilotages automatiques des voitures. Il explique qu'on doit « être prêts à tout pour ce qui permet de sauver la vie des gens », mais il a par contre refusé d'évoquer l'accident de la Model S de Tesla.

Fin juin, Tesla confirmait qu'un accident mortel s'était produit sur une de ses Model S alors que le pilotage automatique était activé, une première au bout de 200 millions de kilomètres selon l'entreprise d'Elon Musk. La National Highway Traffic Safety Administration (NHTSA) avait alors décidé d'ouvrir une enquête « afin de déterminer si le système fonctionnait conformément aux attentes ». Mark R. Rosekind, l'administrateur de cette agence, profitait d'une conférence à Détroit vendredi dernier pour revenir indirectement sur cette affaire, comme le rapportent nos confrères du Wall Street Journal.

« Prêt à tout pour ce qui permet de sauver la vie des gens »

En effet, s'il a refusé de commenter directement l'accident impliquant la Tesla Model S arguant qu'une enquête de la NHTSA est en cours, il a donné son avis général sur la question des pilotes automatiques que l'on retrouve dans des voitures de plusieurs constructeurs.

Sa position est sans ambiguïté et, selon lui, l'industrie automobile « ne peut pas attendre que ce soit parfait », surtout quand il s'agit de proposer une technologie qui permet dans l'ensemble de rendre les voitures plus sûres et donc de sauver des vies.

Une annonce qui va dans le sens d'une lettre publiée par Elon Musk (la veille de la conférence à Détroit) et dans laquelle un client explique que le pilotage automatique a probablement permis de sauver la vie d'un piéton (une « anecdote » confirmée par les logs de la voiture selon le PDG) :

Mark R. Rosekind rappelle que l'objectif premier de son administration est de réduire les accidents mortels de la circulation alors que le décompte était de 35 000 tués en 2015 (8 % de plus qu'en 2014). « Nous devrions être prêts à tout pour ce qui permet de sauver la vie des gens » ajoute-t-il afin de bien faire passer le message. 

Le pilotage automatique de Tesla, une fonctionnalité « bêta »

Dans tous les cas, nos confrères du Wall Street Journal expliquent que l'Autopilot de Tesla a été critiqué lors de sa mise sur le marché, notamment car il contenait des « vulnérabilités, laissant potentiellement certains conducteurs avoir trop foi en cette technologie ».

Pour rappel, lors de l'activation de cette fonctionnalité (facturé 2 800 euros tout de même sur une Model S), la voiture indique qu'il s'agit d'une fonctionnalité bêta et que le conducteur doit donc rester attentif et garder les mains sur le volant. Néanmoins, de nombreuses vidéos postées sur YouTube (entre autres) montrent que ce n'est pas toujours le cas. Lors de l'accident signalé fin juin, ni le conducteur ni l'Autopilot n'avaient actionné les freins.

Tesla pilote automatique

Il reste des questions à soulever concernant le « choix » des pilotes automatiques

Il faudra maintenant attendre les résultats complets de l'enquête afin de faire le point sur cette tragédie. Si le régulateur américain est pour l'adoption des systèmes de pilotages automatiques, il faudra également (lui et les autres régulateurs à travers le monde) qu'il se penche à un moment donné sur certaines problématiques, comme celle du choix des victimes lorsque cela est inévitable.

148

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

« Prêt à tout pour ce qui permet de sauver la vie des gens »

Le pilotage automatique de Tesla, une fonctionnalité « bêta »

Il reste des questions à soulever concernant le « choix » des pilotes automatiques

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (148)


Je pense surtout qu’il y a un peut trop de foin pour un accident.



tout système est faillible, est il est évident que même avec un pilotage automatique on aura des morts.



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).



C’est un chiffre que personne ne présente, pourquoi ?





Déjà ça fera une base de discussion.


finalement, heureusement qu’on n’a pas eu les voitures volante en l’an 2000 <img data-src=" />



Plus sérieusement, il va falloir une bonne dose de ténacité et de ‘foi’ (faute d’un meilleur terme) jusqu’à ce que le système se généralise et puisse réellement fonctionner : les accident qui ne manqueront pas d’arriver encore remettront à chaque frois sur la sellette la fiabilité du truc (dit autrement et d’un point de vue qui n’engage que moi, la conduite automatique ne sera pas optimale en terme de sécurité tant qu’il y aura des conduites manuelles “imprévisibles” - car non communicante, entre autres - avec lesquelles composer)









A-snowboard a écrit :



Je pense surtout qu’il y a un peut trop de foin pour un accident.



tout système est faillible, est il est évident que même avec un pilotage automatique on aura des morts.



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).



C’est un chiffre que personne ne présente, pourquoi ?





Déjà ça fera une base de discussion.





Musk avait affirmé que oui, juste après cet accident (1/200M avec son autopilot VS 1/420M en mode manuel, de mémoire - et par conséquent à vérifier)



Et depuis sa déclaration, roule-t-il en Tesla ?&nbsp;<img data-src=" />&nbsp;<img data-src=" />


La Google Car a du pilotage automatique.

La Tesla a une assistance à la conduite très poussée.








WereWindle a écrit :



finalement, heureusement qu’on n’a pas eu les voitures volante en l’an 2000 <img data-src=" />



Plus sérieusement, il va falloir une bonne dose de ténacité et de ‘foi’ (faute d’un meilleur terme) jusqu’à ce que le système se généralise et puisse réellement fonctionner : les accident qui ne manqueront pas d’arriver encore remettront à chaque frois sur la sellette la fiabilité du truc (dit autrement et d’un point de vue qui n’engage que moi, la conduite automatique ne sera pas optimale en terme de sécurité tant qu’il y aura des conduites manuelles “imprévisibles” - car non communicante, entre autres - avec lesquelles composer)





même avec un parc routier 100% automatique il y aura toujours de l’imprévisible comme une branche qui casse, un pneu qui crève, un éboulis etc



Elon Musk a parlé du ratio km/accident, sur twitter il me semble, je sais plus les chiffres, mais le ratio etait 2* meilleur pour l’autopilot


Yeeepeeeh !&nbsp;

Il a raison le reguletasoeur, c’est de l’informatique, la perfection n’existe pas, faut absolument mettre a jour sinon la filière de croît plus. Et la croissance c’est LE modèle.

&nbsp;En plus on y mettra du libre <img data-src=" />








A-snowboard a écrit :



Je pense surtout qu’il y a un peut trop de foin pour un accident.



tout système est faillible, est il est évident que même avec un pilotage automatique on aura des morts.



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).



C’est un chiffre que personne ne présente, pourquoi ?





Déjà ça fera une base de discussion.





Musk avait affirmé que oui, juste après cet accident (1/200M avec son autopilot VS 1/420M 160M de miles en mode manuel, de mémoire - et par conséquent à vérifier)



Sûrement parce que c’est une donnée que n’ont pas les constructeurs automobiles… contrairement aux assurances ou l’ONISR&nbsp;par exemple, AMHA :)


Fin juin,&nbsp;Tesla&nbsp;confirmait qu’un accident mortel&nbsp;s’était produit sur une de ses Model S alors que le pilotage automatique était activé, une première au bout de 200 millions de kilomètres selon l’entreprise d’Elon Musk.” &nbsp;

&nbsp;

&nbsp;Non, il était désactivé.



https://twitter.com/elonmusk/status/753699861636128768


Pneu qui creve =&gt; tu as des detecteurs la dessus, et un pneu crevé est “assez facile” à gérer pour une voiture automatique

Branche =&gt; il la verra théoriquement tomber et pourra un minimum anticiper

Ebouli =&gt; ouais bon la y a rien à faire :p

Plus sérieusement la plupart des imprévus peuvent être limité, le plus gros risque, c’est la panne electronique générale.



On topic : Il y aura toujours des problèmes et des accidents mortels, mais la Xème étape (les voitures qui communiquent entre elles) résolvera quasiment tout, le problème restant qu’il faut pour ça déployer tout le parc en semi automatique avant.

&nbsp;


Oui tout à fait d’accord.

C’est surtout le nom “AutoPilot” donné par Tesla qui provoque (volontairement ?) la confusion.



Rien à voir avec la Google Car ou d’autres projets du même genre embarquant des LIDARs et la “cartographie environnementale” qui va avec.


Limite la pierre qui tombe, on peut envisager des capteurs de “vibration anormale”. De toute façon la voiture autonome (genre Google Car) “voit” bien mieux que nous en instantané, sur 360° et même vers le haut. Donc si elle “voit” la pierre tomber, elle pourrait décider de s’arrêter, de déclencher les feux de détresse, de changer de file en ayant calculer la trajectoire de la pierre suivant sa taille, sa masse et sa composition atomique (mode SF ON&nbsp;<img data-src=" />) ou bien d’accélérer et prévenir les véhicules derrières/sur les côtés, les secours/pompiers/l’APRR&nbsp;<img data-src=" />&nbsp;… tout ça en 1 seconde.



Combien de temps pour un humain ?



Pour aller plus loin, en cas de séisme, de tsunami, de catastrophe nucléaire, d’attentat, de ### … comment réagirait la voiture autonome ?!? &nbsp;<img data-src=" />


non il est question d’un autre accident.

Pour l’un d’eux il était activé.


Dans ce cas c’était pour l’accident de la Model X en Pennsylvanie, celui de la Model S s’est déroulé en Floride et le pilote automatique était bien activé <img data-src=" /> (voir ici : https://www.tesla.com/fr_FR/blog/tragic-loss)Edit : Zut Grilled ^^


edit: grillé








WereWindle a écrit :



Musk avait affirmé que oui, juste après cet accident (1/200M avec son autopilot VS 1/420M en mode manuel, de mémoire - et par conséquent à vérifier)









WereWindle a écrit :



Musk avait affirmé que oui, juste après cet accident (1/200M avec son autopilot VS 1/420M 160M de miles en mode manuel, de mémoire - et par conséquent à vérifier)







Va falloir vous mettre d’accord ^^







Elipsus a écrit :



Elon Musk a parlé du ratio km/accident, sur twitter il me semble, je sais plus les chiffres, mais le ratio etait 2* meilleur pour l’autopilot







Perso je prendrais d’autres sources que la seule source d’Elon Musk ^^









Shobi a écrit :



Sûrement parce que c’est une donnée que n’ont pas les constructeurs automobiles… contrairement aux assurances ou l’ONISR par exemple, AMHA :)





A creuser, mais ça m’étonnerai que cette donnée soit inconnue par tous.









AmaCha a écrit :



Limite la pierre qui tombe, on peut envisager des capteurs de “vibration anormale”. De toute façon la voiture autonome (genre Google Car) “voit” bien mieux que nous en instantané, sur 360° et même vers le haut. Donc si elle “voit” la pierre tomber, elle pourrait décider de s’arrêter, de déclencher les feux de détresse, de changer de file en ayant calculer la trajectoire de la pierre suivant sa taille, sa masse et sa composition atomique (mode SF ON <img data-src=" />) ou bien d’accélérer et prévenir les véhicules derrières/sur les côtés, les secours/pompiers/l’APRR <img data-src=" /> … tout ça en 1 seconde.



Combien de temps pour un humain ?



Pour aller plus loin, en cas de séisme, de tsunami, de catastrophe nucléaire, d’attentat, de ### … comment réagirait la voiture autonome ?!?  <img data-src=" />







Si qqun pirate la voiture pour la faire arriver à une autre destination et qu’il tue le conducteur d’un calibre.

C’est considéré comme un mort lié à l’autopilot ou ??? <img data-src=" />

(je suis loin ^^ )



Il suffit d’appuyer sur “AutoEject” dans ce cas là&nbsp;<img data-src=" />&nbsp;<img data-src=" />


Je n’ai plus les chiffres en tête, mais Tesla a beaucoup communiqué dessus.

Plusieurs articles les ont cités par exemple ici.



Pour résumer :




  • D’après l’administration américaine, 1,08 morts / 100.000.000 miles parcourus en 2014, et pour 2015 l’estimation est à 1,12.

  • L’accident en Tesla est arrivé alors que les Tesla ont parcouru en mode automatique un total de 130.000.000 de miles, soit 0,77 morts / 100.000.000 miles.





    Après avec un seul accident mortel et “seulement” 100.000.000 miles la statistique n’a pas de sens, il faudra attendre plus d’usagees pour comparer. D’autant que les statistiques nationales sont pour tout type de route, alors que l’autopilote Tesla n’est censé être utilisé que sur l’autoroute. Hors l’autoroute est un cas particulier très différent par exemple d’un centre ville : beaucoup moins d’accidents du fait d’une zone “sécurisée”, mais ceux-ci sont beaucoup plus graves du fait d’une vitesse beaucoup plus importante.


Je n’ai pas de tesla, j’ai une Skoda avec ACC et lane assist, sous une pluie soutenue, la voiture tiens la route toute seule et freine en cas de danger, cette dernière “voit” beaucoup mieux que l’oeil humain. Par contre les concepteurs ont voulu que ce soit un assistant et donc il faut l’aider dans les virages un peu serrée. Dans tous les cas, je vous avoue que c’est très sécurisant et très confortable sur les longs trajets. Tout le monde devrait être équipé ainsi.


Il faudrait que les régulateurs mettent en place des normes équivalentes à celles de l’aviation pour autoriser les voitures autonomes avec certifications à la clef.

Pour le moment, c’est juste des tests en environnement. Comment se baser sur un nombre d’heures pour valider qu’un logiciel de bord est fiable ?

Je vois déjà le bug arrivé suite à mise à jour : ouppss on a poussé la nouvelle version un peu trop vite désolé pour les milliers de conducteurs qui ont fini dans le décor.








AmaCha a écrit :



Et depuis sa déclaration, roule-t-il en Tesla ? <img data-src=" /> <img data-src=" />





Tu ne dois pas avoir de voiture si tu évites tout les models impliqués dans des accidents mortels <img data-src=" />



Comment ça se passe si on se retrouve avec plusieurs solutions de pilotage automatiques propriétaires ? Elles ne peuvent pas communiquer entre elles ? Parce que dans mon idée, plus il y a de voitures connectées au même réseau, plus elles peuvent communiquer entre elles et s’anticiper mutuellement.&nbsp;


Tout ça se n’est que des chiffres, vous me faites marrer en citant le nb de km parcouru par une Tesla sans accident ou autre mais à la fin, il s’agit bien de vies humaines et non d’un ratio quelconque.



Tesla se débrouille super bien avec sa voiture et ça impressionne mais à mon sens, il ne devrait pas y avoir de total lâché prise sur la conduite comme le prévoie tous les constructeur mais une plus grande vigilance des conducteur sur ce que font leur machine.



Celui qui est responsable d’un accident c’est pas la voiture mais bien celui qui appuie sur le bouton.

C’est comme donner un gros coup de marteau et dire c’est pas moi, c’est le marteau.



Je suis pour les voitures automatiques mais lorsque le parc sera uniquement composé de ce genre de véhicule et toujours avec une certaine vigilance de ce que fait le véhicule. je suis développeur et je ne mettrais pas ma vie entre les mains d’un code source.


Il faudra acheter un iAdaptateur pour communiquer avec les anciennes versions.&nbsp;<img data-src=" />


deja dit, mais cette accident mortel est la faute du camion (et de la regulation américaine), ils ont pas d’obligation de renfort latéral interessieux pour empecher les voiture d’etre coupé en deux sous les remorques….


Clair qu’il faut pouvoir remettre à l’échelle. Nombre d’accident pour nombre de véhicules qui circulent.

Car niveau accidents évités, cela es également vrai en tant que conducteur humain lorsque l’on anticipe l’action de quelqu’un d’autre. Ce qui n’es pas toujours évident pour un ordinateur qui lui suivra les règles et ce qu’elle peux analyser à courte distance.



Apres, je pense que je verrais plus l’usage de cette fonction lors de long trajets sur des routes simples (longues lignes droites) / Tout comme j’utilises le régulateur de vitesse pour le moment ^^

En l’état je ne serais pas tres rassuré que quelqu’un ou quelque chose puisse intérargir sur ce que je fais. Surtout si ce que je fais es justement afin d’éviter une situation à risque ^^











letter a écrit :



La Google Car a du pilotage automatique.

La Tesla a une assistance à la conduite très poussée.







Que tesla vend comme un auto pilote autonome sur son site ^^

https://www.tesla.com/fr_FR/models



Mais bon, comme pour beaucoup de choses, ca dépend de toute façon comment la personne s’en sert.

Meme si je pense que cet accident pourrait se reproduire et pas seulement parce que la personne lit son journal pendant que la voiture conduit.



C’est un peu ce qui me gêne avec ces systèmes, c’est que l’on peux vite être tenté de regarder autour de sois et donc de ne pas etre attentif au moment ou il le faudrait.



Ou certaines miss qui se repoudrent le nez au volant et qui pour le moment attendent un feur rouge pour le faire ^^



Oui il s’agit de vie humaine. Dans les deux cas, avec ou sans pilote automatique.&nbsp;

Donc ce qu’il faut lire dans ces statistique, c’est que les trajets sans pilotes automatiques tuent plus que ceux avec.&nbsp;



Alors autant je suis d’accord pour la responsabilité (le conducteur humain doit rester l’unique responsable d’un accident), autant je ne comprend pas quand tu dis qu’il faudrait attendre que le parc soit totalement automatisé pour utilisé des voitures automatiques… Tu vas faire comment pour automatiser le parc, si ceux qui ont des voitures avec pilote automatique ne devraient pas l’utiliser ? Ensuite, pourquoi attendre ? Un pilote automatique est déjà plus fiable qui pilote humain, quel est l’intérêt d’attendre encore ?&nbsp;


T’as pas pris les 2 roues dans ton raisonnement. Ils resteront un vrai problème en terme d’imprévus à terme. Surtout dans les grandes agglomérations. Si Google ou Tesla faisait des tests de leur algo à paris, je pense que les ingénieurs s’arracheraient les cheveux.


Je pense qu’il n’y aura plus d’accident, lorsque toutes les autos seront autonomes et tant qu’à faire quand il sera interdit aux humains de conduire&nbsp;<img data-src=" />



Tant qu’il y aura des humains au volant de ces machines à tuer (l’une d’entre elles a failli avoir ma peau il y a deux ans), il y aura des problèmes&nbsp;<img data-src=" />








Poppu78 a écrit :



Je n’ai plus les chiffres en tête, mais Tesla a beaucoup communiqué dessus.

Plusieurs articles les ont cités par exemple ici.



Pour résumer :




  • D’après l’administration américaine, 1,08 morts / 100.000.000 miles parcourus en 2014, et pour 2015 l’estimation est à 1,12.

  • L’accident en Tesla est arrivé alors que les Tesla ont parcouru en mode automatique un total de 130.000.000 de miles, soit 0,77 morts / 100.000.000 miles.





    Après avec un seul accident mortel et “seulement” 100.000.000 miles la statistique n’a pas de sens, il faudra attendre plus d’usagees pour comparer. D’autant que les statistiques nationales sont pour tout type de route, alors que l’autopilote Tesla n’est censé être utilisé que sur l’autoroute. Hors l’autoroute est un cas particulier très différent par exemple d’un centre ville : beaucoup moins d’accidents du fait d’une zone “sécurisée”, mais ceux-ci sont beaucoup plus graves du fait d’une vitesse beaucoup plus importante.





    Merci pour ce rappel.



    Alors comparons les chiffres sur les voies rapides. (ça dois exister aussi).



    Ceci étant dit, je suis d’accord avec toi que les Tesla n’ont pas fait assez de km pour faire leur preuve.



    On peut aussi dire qu’il n’y a pas non plus foule de mort POUR LE MOMENT.



    Je pense sincèrement que le statut quo peut être maintenu mais faut vraiment faire un rappel pour les pilotes pour pas qu’ils croient que ça peut tout gérer tout seul.



Pour moi, tout est question de “degré d’automatisme”.



Depuis que j’ai le régulateur de vitesse je suis largement plus vigilent sur la route … je n’ai pas à me poser la question de “est ce que je suis trop lent, trop rapide …”. je regarde la route, mes retro, les panneaux.



Est ce que je serai plus vigilent si je n’ai pas à “gérer” le volant (avec les solutions de line assist & co) ? je le pense …



Maintenant imaginer que parce que j’ai un line assist je peux mater des films, ou faire une sieste … faut pas déconner <img data-src=" />








AmaCha a écrit :



Il suffit d’appuyer sur “AutoEject” dans ce cas là <img data-src=" /> <img data-src=" />







J’suis con, comment j’ai pu oublier !









djey37 a écrit :



Je suis pour les voitures automatiques mais lorsque le parc sera uniquement composé de ce genre de véhicule et toujours avec une certaine vigilance de ce que fait le véhicule. je suis développeur et je ne mettrais pas ma vie entre les mains d’un code source.







Sauf si l’état paye une voiture automatique pour chaque clampin qui à déjà une voiture manuelle …. Il y aura forcément un passage intermédiaire.



J’ai pas envie de claquer 20 000€ dans une voiture, 5000€ grand max, et encore je préfère partir en voyage et garder ma 206 vieillissante.



ben on va bien rigolé avec les assurances pour savoir qui contrôlais la voiture ,l ordinateur ou le conducteur et en cas de bugs etc…….bon courage aux &nbsp;conducteurs en cas d accident








atomusk a écrit :



Pour moi, tout est question de “degré d’automatisme”.



Depuis que j’ai le régulateur de vitesse je suis largement plus vigilent sur la route … je n’ai pas à me poser la question de “est ce que je suis trop lent, trop rapide …”. je regarde la route, mes retro, les panneaux.



Est ce que je serai plus vigilent si je n’ai pas à “gérer” le volant (avec les solutions de line assist & co) ? je le pense …



Maintenant imaginer que parce que j’ai un line assist je peux mater des films, ou faire une sieste … faut pas déconner <img data-src=" />





+1, quand j’ai la caisse de mon père, je branche le régul de vitesse dès que je peux, même en ville. Je pose le pied sur le frein et je regarde ce qui m’entoure sans trop me poser de question sur la vitesse. (trop au dessus, trop bas ? etc).



après l’autopilot, c’est sur l’autoroute, donc des distance plus longues…. C’est autre chose ça…



Ça pu le lobbying tout ça…








Dr.Wily a écrit :



Ça pu le lobbying tout ça…







C’est pas comme s’il y en avait pas déjà de base ^^









A-snowboard a écrit :



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).







hum… faut toujours se méfier des statistiques moyennes car, par définition, elles masquent des catégories



Mode “manuel”: 1 accident pour 50 millions de kilomètres.

Mode “autopilot”: 1 accident pour 200 millions de kilomètres.



=&gt; ok. tout le monde est d’accord pour le mode “autopilot”.



Mais si je rajoute:



Mode “manuel” pour un bon conducteur: 1 accident pour 500 millions de kilomètres.

Mode “manuel” pour un mauvais conducteur: 1 accident pour 1 millions de kilomètres.

Mode “autopilot” pour tout le monde: 1 accident pour 200 millions de kilomètres.



est-ce que les bons conducteurs sont d’accord pour multiplier par 2 la proba d’accident ? Sachant que tout le monde pense être un bon conducteur…



90%



Tu préfères un mode de conduite “manuel” avec des statistiques d’accidents élevées pour les mauvais conducteur et basse pour les bons conducteurs, avec une moyenne de









Joskym a écrit :



T’as pas pris les 2 roues dans ton raisonnement. Ils resteront un vrai problème en terme d’imprévus à terme. Surtout dans les grandes agglomérations. Si Google ou Tesla faisait des tests de leur algo à paris, je pense que les ingénieurs s’arracheraient les cheveux.





Je te recommande de voir cette vidéo:

https://www.youtube.com/watch?v=Uj-rK8V-rik

Tesla c’est une aide a la conduite et c’est très loin de ce que fait Google. Ces derniers ont fait un énorme boulot car leur objectif est de faire une voiture complètement automatiquement (sans intervention ni présence de conducteur) et une solution très fiable dans toutes circonstances.









Henri_MTL a écrit :



Je pense qu’il n’y aura plus d’accident, lorsque toutes les autos seront autonomes et tant qu’à faire quand il sera interdit aux humains de conduire <img data-src=" />



Tant qu’il y aura des humains au volant de ces machines à tuer (l’une d’entre elles a failli avoir ma peau il y a deux ans), il y aura des problèmes <img data-src=" />







Si toutes les voitures utilisaient les mêmes logiciels (+mêmes versions), capteurs, etc. peux être.

Mais comme chaque constructeur ira de sa sauce, je ne pense pas que cela sera aussi parfait.



J’y connais rien mais d’un côté on a un comparatif fait sur quelle base?

&nbsp;

Je trouve ça étrange de comparer un ratio d’accident avec des voitures autonomes sur une très courte durée et un ratio d’accident depuis la Ford T par exemple car le ratio au km parcouru depuis que la voiture existe est peut-être en faveur de celle-ci <img data-src=" />


Cool les piétons seronts aussi des beta testeurs








127.0.0.1 a écrit :



hum… faut toujours se méfier des statistiques moyennes car, par définition, elles masquent des catégories



Mode “manuel”: 1 accident pour 50 millions de kilomètres.

Mode “autopilot”: 1 accident pour 200 millions de kilomètres.



=&gt; ok. tout le monde est d’accord pour le mode “autopilot”.



Mais si je rajoute:



Mode “manuel” pour un bon conducteur: 1 accident pour 500 millions de kilomètres.

Mode “manuel” pour un mauvais conducteur: 1 accident pour 1 millions de kilomètres.

Mode “autopilot” pour tout le monde: 1 accident pour 200 millions de kilomètres.



est-ce que les bons conducteurs sont d’accord pour multiplier par 2 la proba d’accident ? Sachant que tout le monde pense être un bon conducteur…



90%



Tu préfères un mode de conduite “manuel” avec des statistiques d’accidents élevées pour les mauvais conducteur et basse pour les bons conducteurs, avec une moyenne de







C’est un peu biaisé ce genre de comparaison.

En effet, tu ne remplace pas un bon ou mauvais conducteur par un autopilot.

Et quand t’as un accident, tu ne choisi pas d’avoir un accident avec un bon ou un mauvais conducteur.

D’ailleurs à partir de quand on considère que c’est bon conducteur ? Celui qui à jamais eu d’accident ? Celui qui a que des petits accrochages ? Etc..



Je préfère encore prendre l’ensemble.



MAIS comme ça été dit au dessus, les autopilot marchent que sur les voies rapides ET les stats sur les conducteurs classiques incluent toutes les routes.

C’est là ou c’est faussé.



Ça marche avec les avions de ligne, il faudrait appliquer les mêmes règles aux voitures &nbsp; &nbsp;<img data-src=" />


Toute la question est comment définir un bon conducteur d’un moins bon. Autant il y a les facteurs facile ( Alcool, drogue, défaut de ceinture, fou de vitesse, téléphone,….) qui permettent de différencier les tres mauvais des normaux, autant sur la plupart des autres raisons ( Fatigue, défaut d’attention, erreur de jugement, …) il est beaucoup plus dur de juger.



Pour mettre planter un jour sévèrement ( Sans conséquence autre que matériel heureusement) pour 1 seconde d’inattention et un mauvais timing tout en étant je pense un conducteur attentif et prudent, je pense que personne n’est vraiment a l’abri d’une erreur au mauvais moment.



&nbsp;








MoonRa a écrit :



Cool les piétons seronts aussi des beta testeurs







Il y en a peux être certains qui vont arrêter de penser, je suis piéton, je suis prioritaire et je traverse n’importe comment sans regarder ^^ (attention, je ne généralise pas, juste que quelques personnes sont comme ça).



Enfin, on retrouves la même chose à pieds, à vélo ou en voiture.

Mais bon, je me rappelle de quelqu’un qui s’en ventait et j’ai juste eu envie de lui coller une bonne grosse baffe tant cela me semblait totalement irresponsable… Genre on apprend ca aux enfants mais passé un certain age ca ne compte plus ^^







Henri_MTL a écrit :



Ça marche avec les avions de ligne, il faudrait appliquer les mêmes règles aux voitures    <img data-src=" />







Ils seront peut etre obligés d’y passer aussi. Suivre des lignes bien définies.

(pas les lignes de la route ni celles de la vie ^^‘).



le sens de cette “autorisation”, c’est&nbsp; pas

“ les ordinateurs font de la merde, c’est pas grave qu’ils crèvent ”

mais

“ les ordinateurs conduisent déjà mieux que les humains, profitons en aujourd’hui au lieux de laisser creuver les gens en attendant un saint Graal qui n’arrivera jamais”


Tu es bêta testeur de voitures manuelles depuis toujours.

Mais tu le sais déjà.








psn00ps a écrit :



Tu es bêta testeur de voitures manuelles depuis toujours.

Mais tu le sais déjà.







Comparaison un peu idiote.

A ce moment chaque os et appli qui reçoit des maj es toujours une version beta et donc de facto nous sommes tous des beta testeurs en informatique… <img data-src=" />



Apres, ca lui fait toujours plus d’années d’expérience que les voitures auto ;)

Surtout que comme quelqu’un citait, va coller une voiture autonome dans une grande ville comme paris ^^

Je pense que l’ordi devient juste malade rapidement.



Et puis bon, je demande à voir la durée de vie des capteurs et comment leur panne va se concrétiser sur le fonctionnement de l’ordi. Pas dans la théorie… Mais dans tous les cas de figures possibles ^^



La plus grosse faille de sécurité du machin à mon avis elle est inscrite dans son fonctionnement même.



Cas #1 : Je m’appuie sur l’autopilot, le temps que je me rende compte qu’il n’évite pas l’accident, trop tard, j’ai déjà perdu trop de temps à brider mes propres reflèxes.



Cas #2 : J’anticipe comme si il n’y en avait pas… …donc pourquoi en avoir un, en premier lieu ?



&nbsp;

Soit ça conduit tout seul, soit ça fait rien. Un truc entre deux comme ça, j’aurais tendance à penser que ça apporte plus de risques que ça n’en évite.


Haha j’aimerais bien voir une voiture automatique rouler sur les petites routes de ma campagne profonde, entre les largeurs de routes aléatoires, les bas côtés défoncés, les nids de poules, les tracteurs ou les poids lourds qui prennent toute la place, moi j’y roule à 140 en ligne droite, 100 en virage, mais une voiture automatique finira dans la rivière à la moitié de ces vitesse, tellement il y a de paramètres à gérer <img data-src=" />








A-snowboard a écrit :



Je pense surtout qu’il y a un peut trop de foin pour un accident.



tout système est faillible, est il est évident que même avec un pilotage automatique on aura des morts.



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).



C’est un chiffre que personne ne présente, pourquoi ?





Déjà ça fera une base de discussion.





Tu as raison, il y a énormément de choses qui sont pilotés par des machines : trains, avions, bateaux… et il y’a malheureusement des accidents et incidents.



D’après ce lien :&nbsp;http://www.lesnumeriques.com/voiture/google-plus-2-millions-km-11-accidents-seulement-n42083.html&nbsp;c’est moins que pour les humains (je ne retrouve pas la source pour les humains).



Pour tesla :&nbsp;http://www.journaldugeek.com/2016/05/25/auto-pilote-tesla-160-millions-kilometres-google-cars/









x689thanatos a écrit :



Apres, ca lui fait toujours plus d’années d’expérience que les voitures auto ;)

Surtout que comme quelqu’un citait, va coller une voiture autonome dans une grande ville comme paris ^^

Je pense que l’ordi devient juste malade rapidement.





En même temps l’autopilot n’est pas prévu pour les petites routes si ? Je croyais que c’était que pour les voies rapides. (donc périf de paris)









Cartmaninpact a écrit :



Haha j’aimerais bien voir une voiture automatique rouler sur les petites routes de ma campagne profonde, entre les largeurs de routes aléatoires, les bas côtés défoncés, les nids de poules, les tracteurs ou les poids lourds qui prennent toute la place, moi j’y roule à 140 en ligne droite, 100 en virage, mais une voiture automatique finira dans la rivière à la moitié de ces vitesse, tellement il y a de paramètres à gérer <img data-src=" />







Toi tu mériterais la prison édit: tueur



Parce que je risque d’écraser une vache ou un cheval? <img data-src=" />








Cartmaninpact a écrit :



Parce que je risque d’écraser une vache ou un cheval? <img data-src=" />







Tu t’es financé ton réseau routier privé ? C’est cool d’avoir les moyens…



Les codes sources des avions de ligne se débrouillent très bien.<img data-src=" />








Cartmaninpact a écrit :



Parce que je risque d’écraser une vache ou un cheval? <img data-src=" />







Parce que je traites les demeurés comme toi! Tu ne mérite pas un vouvoiement. je hais ce comportement chaque fois que je fais du vélo sur nos belles routes de campagnes et que je dois limite me jeter dans le talus à causes des buses dans ton genre. Et que je te souhaite de prendre un arbre au plus vite. Ce sera au moins ça de gagné quand tout sera automatisé, le mot de la fin pour les boulets tarés du volant. Et sinon, le dernier inconscient dans ton cas qui a shooté une grand mère dans ma campagne, on l’a mis à l’asile, ça ou la prison, c’était sa place dans tous les cas.



C’est quand même un article marketting super limité. C’est comme liste le texte avant les specs techniques sur un article LDLC.



Mais en effet, je prendrais plus cela comme le régulateur de vitesse. C’est bien, c’est fiable, mais ça ne fait pas tout et j’ai constamment le pied posé sur la pédale. C’est reposant mais il faut rester vigilant.








A-snowboard a écrit :



C’est un peu biaisé ce genre de comparaison.

En effet, tu ne remplace pas un bon ou mauvais conducteur par un autopilot.

Et quand t’as un accident, tu ne choisi pas d’avoir un accident avec un bon ou un mauvais conducteur.

D’ailleurs à partir de quand on considère que c’est bon conducteur ? Celui qui à jamais eu d’accident ? Celui qui a que des petits accrochages ? Etc..



Je préfère encore prendre l’ensemble.



MAIS comme ça été dit au dessus, les autopilot marchent que sur les voies rapides ET les stats sur les conducteurs classiques incluent toutes les routes.

C’est là ou c’est faussé.





En parcourant Reddit j’avais trouvé une stat intéressante comme quoi sur des voitures à plus de $100K (le cas de la Tesla) les accidents mortels était de l’ordre de 1 sur 400 million de km car les conducteurs de ce genre de voiture privilégiaient les routes non accidentées pour éviter d’abîmer leur voiture. Du coup, la Tesla et son pilote automatique n’est pas particulièrement meilleure que les autres de sa catégorie.









Qruby a écrit :



En parcourant Reddit j’avais trouvé une stat intéressante comme quoi sur des voitures à plus de $100K (le cas de la Tesla) les accidents mortels était de l’ordre de 1 sur 400 million de km car les conducteurs de ce genre de voiture privilégiaient les routes non accidentées pour éviter d’abîmer leur voiture. Du coup, la Tesla et son pilote automatique n’est pas particulièrement meilleure que les autres de sa catégorie.







Gné ?

Celui qui a un voiture à ce prix là va pas prendre l’autoroute pour faire paris Marseille ?



Je ralentis à chaque fois que je croise un autre véhicule <img data-src=" />


Désolé mais avant je roulais vite uniquement sur les routes faites pour ça: les autoroutes, mais depuis que l’état engage des paparazzi pour autoroutes, je roule vite seulement sur les petites routes où je n’en croise jamais <img data-src=" />


Crash test grandeur nature pour les geeks <img data-src=" />


Mauvais raisonnement : « l’auto-pilote » réagira avant que tu n’ai le temps d’anticiper.








Mihashi a écrit :



Mauvais raisonnement : « l’auto-pilote » réagira avant que tu n’ai le temps d’anticiper.&nbsp;



&nbsp;

Y a un mec qui s’est fait une décapotable à coup de poid lourd qui sera pas de ton avis je crois.



De toute façon, comme dit plus haut par Poppu78, se baser sur une statistique avec un seul accident n’a pas de sens, on est en plein dans l’erreur statistique


Il n’a pas vu le camion non plus, et n’aurais certainement pas pu éviter l’accident de toute manière.








Mihashi a écrit :



Il n’a pas vu le camion non plus, et n’aurais certainement pas pu éviter l’accident de toute manière.





Parce qu’il ne regardait peut etre pas la route ou ne faisait pas suffisamment attention (Oh un Pokemon !!)



La question des morts par 100 000 km doit se faire par rapport aux voitures du même âge. Les voitures récentes tuent beaucoup moins que les anciennes. Et également l’autoroute, comme dit auparavant, est une zone moins meurtrière, notamment car il y a peu de face à face qui sont les pires.



Sinon une question est de savoir a partir de quand un autopilote est “suffisant”. Si ‘lonconsidère que Tesla a fait suffisamment d’effort pour avoir un nombre de morts “acceptable”, qu’en sera t’il de la voiture chinoise copie de tesla avec un autopilote moins testé ?? On la laisse aussi rouler ? Sous Quelles conditions ? La vraie question est là il me semble !


Parce qu’il regardait Harry Potter (d’après le témoignage du routier et d’un policier)…

Et que même s’il regardait la route, quand t’es sur une voie expresse et qu’on te coupe brusquement la route, y a pas grand chose à faire.








Flogik a écrit :



La question des morts par 100 000 km doit se faire par rapport aux voitures du même âge. Les voitures récentes tuent beaucoup moins que les anciennes. Et également l’autoroute, comme dit auparavant, est une zone moins meurtrière, notamment car il y a peu de face à face qui sont les pires.



Sinon une question est de savoir a partir de quand un autopilote est “suffisant”. Si ‘lonconsidère que Tesla a fait suffisamment d’effort pour avoir un nombre de morts “acceptable”, qu’en sera t’il de la voiture chinoise copie de tesla avec un autopilote moins testé ?? On la laisse aussi rouler ? Sous Quelles conditions ? La vraie question est là il me semble !





Exactement, toujours des demies vérités l’Elon… Il y a la sécurité passive (la résistance de la voiture), la sécurité active (comment elle freine, comment elle évite les obstacles en cas de réaction brusque).









A-snowboard a écrit :



La question est surtout de savoir si avec le nombre de km parcouru avec les Tesla en mode auto on a moins d’accident qu’avec des voitures classiques (à même nombre de kilomètre).







La question est, avant, de déterminer la responsabilité lors d’un accident mortel.



Si je laisse mon Pilote Automatique (un vrai, j’entends) me conduire et qu’il tue un piéton, qui est responsable ?









philanthropos a écrit :



La question est, avant, de déterminer la responsabilité lors d’un accident mortel.



Si je laisse mon Pilote Automatique (un vrai, j’entends) me conduire et qu’il tue un piéton, qui est responsable ?







Dans le cas du code de la route français : toi, car tu es toujours censé être maître du véhicule.







saladiste a écrit :



Comment cela se passe-t-il dans le monde de l’aéronautique ?







Y’a rarement des piétons sur les aéroports (hormis le personnel) ou dans le ciel, donc difficile à dire.









XMalek a écrit :



Pneu qui creve =&gt; tu as des detecteurs la dessus, et un pneu crevé est “assez facile” à gérer pour une voiture automatique

Branche =&gt; il la verra théoriquement tomber et pourra un minimum anticiper

Ebouli =&gt; ouais bon la y a rien à faire :p

Plus sérieusement la plupart des imprévus peuvent être limité, le plus gros risque, c’est la panne electronique générale.



On topic : Il y aura toujours des problèmes et des accidents mortels, mais la Xème étape (les voitures qui communiquent entre elles) résolvera quasiment tout, le problème restant qu’il faut pour ça déployer tout le parc en semi automatique avant.







Off topic : sauf les fautes de français









Mihashi a écrit :



Parce qu’il regardait Harry Potter (d’après le témoignage du routier et d’un policier)…

Et que même s’il regardait la route, quand t’es sur une voie expresse et qu’on te coupe brusquement la route, y a pas grand chose à faire.





Tout dépend. Si tu n’es pas trop bourrin tu verras le camion a l’avance et tu peux être prudent en anticipant un mauvais coup et ralentir.



1/200M avec l’autopilot (mais je ne sais pas si c’est des km ou des miles… miles je suppose)

1/160M de miles en conduite manuelle (source NHTSA)



mon double post résulte d’un combo mauvaise manip (un 4 à la place du 1)/appel téléphonique en cours de route <img data-src=" /> <img data-src=" /> )








A-snowboard a écrit :



… pour les voies rapides. (donc périf de paris)





j’avoue avoir un peu ri en voyant ces mots côte à côte <img data-src=" /> <img data-src=" />



Pas evident de comparer les chiffres.

Il y a souvent une confusion aux US entre “Freeway” et “Highway”. Typiquement la plupart des articles en français ont annoncé que l’accident de Tesla avait eu lieu sur autoroute (d’où le fait que j’ai mis cette erreur dans mon précédent commentaire). En pratique ce n’est pas le cas, c’était sur une “Highway”, qui est plutôt l’équivalent d’une nationale chez nous, d’où la possibilité pour le camion de couper la voie où était la voiture, contrairement à une “Freeway” qui aurait été l’équivalent de nos autoroutes.


Les constructeurs sont déjà conscient que si c’est un “vrai pilote automatique” (donc un chauffeur, alors que tu es juste passager de ton véhicule), ça sera le constructeur qui sera “responsable”.



(ce qui ne veux pas dire que le constructeur ne te facturera pas un “abonnement” pour compenser le risque lié à la garantie)



Apres tant qu’on est pas au “vrai autopilote”, tu es de toute façon responsable de ton véhicule.








Flogik a écrit :



Sinon une question est de savoir a partir de quand un autopilote est “suffisant”. Si ‘lonconsidère que Tesla a fait suffisamment d’effort pour avoir un nombre de morts “acceptable”, qu’en sera t’il de la voiture chinoise copie de tesla avec un autopilote moins testé ?? On la laisse aussi rouler ? Sous Quelles conditions ? La vraie question est là il me semble !







ooooh tu sais les politiques ne manquent pas d’imagination, d’autant plus si c’est pour trouver des arguments qui font qu’on accepte pas une “voiture chinoise” en vente sur notre marché <img data-src=" />



Je ne me ferai pas trop de souci là dessus.



Mais j’avais vu un article “fun” qui proposait de faire passer le permis de conduire au véhicule automatique … carrement <img data-src=" />



de toute façon ces chiffres ne sont pas “comparable”, il y a trop de critères, et encore trop peu d’accident pour que cette stat ait un sens.



Il faudra juger sur le long terme …



depuis l’arrivée du régulateur de vitesse le temps de réaction moyen est augmenté d’une seconde….



alors imagine si tu as plus le volant à gérer sur un parcours de 800 km…..&nbsp;


je veux bien une source <img data-src=" />


faux elle ne voit pas bien mieux, elle voit même beaucoup plus mal.



la preuve elle ne sait pas dissocier un panneau de signalisation d’un camion en travers de la route…



l’humain sait le faire car il extrapole et analyse très rapidement, une force qu’aucune machine à ce jour ne sait faire.



le jour où un véhicule autonome fera le même temps ou mieux que Sébastien Loeb sur une route en terre en sous-bois avec le soleil de face, ce jour-là on pourra dire que les voitures autonomes sont aussi performante que l’homme, en attendant on en est très très loin. ça marche bien sur autoroute par temps sec, on en reparle sous pluie battante? rien que là tu l’as mets en échec.



On parle de la voiture autonome qui fonce dans une tornade? une route inondée? une plaque de neige? et tues ainsi ses passagers? l’humain moyen est parfaitement capable d’éviter ces obstacles, la voiture autonome ne sait même pas les détecter…..



De plus, je rajouterais qu’un humain qui conduit plus devient mauvais conducteur….. donc avoir un super assistant oui, mais une voiture autonome non. ça j’y crois pas une seconde, et je ne suis pas prêt de remettre ma vie à une machine aussi nul en conduite.


si c’est un défaut du pilote auto ou de l’avion =&gt; constructeur responsable&nbsp;



si c’est un défaut d’entretien =&gt; compagnie responsable.



si c’est une erreur du pilote =&gt; pilote responsable et compagnie



si c’est une collision =&gt; controleur aerien responsable


Les tests de voitures autonome en agglomération chargé ça se fait déjà hein…


Si le taxis que tu emprunte a un accident, qui est responsable ?

Remplace “le chauffeur” par “le pilote automatique” (et après, reste à déterminer si il s’agit d’une défaillance hardware, software, et quel fabricant est responsable dans la chaine).


t’es un expert ou tu as des sources ? <img data-src=" />


ici mais y’en a d’autres…


je fais la même chose avec des métros, donc dans un environnement contrôlé et où on ne fait que avancer et s’arrêter…. donc je connais déjà la difficulté, surtout que là en cas de crash c’est tout de suite plusieurs centaines de mort.



pour la source c’est une évidence, c’est machine ne sont pas capable de réagir à l’imprévisible, là où l’humain excelle avec son instinct de survie.





Je sais aussi que la reconnaissance d’images est encore très faible par rapport à ce que sait faire le cerveau humain…. je te dis le test de la route en terre en sous bois avec soleil de face…… c’est quand même une preuve suffisante non?


Non mais je ne parlais pas de la Tesla qui a une bête caméra et fait de l’analyse d’image, mais bien du système de Google et d’autres qui fait une cartographie en 3D (voir 4D car il y a une notion de temps) et sait reconnaître un piéton d’une poussette d’un cycliste d’un panneau et de son comportement attendu … ou non…



Je vous conseille vivement la vidéo (en VOstFR) de Chris Urmson qui explique le projet (durée ~15min) :

https://www.youtube.com/watch?v=tiwVMrTLUWg








atomusk a écrit :



Les constructeurs sont déjà conscient que si c’est un “vrai pilote automatique” (donc un chauffeur, alors que tu es juste passager de ton véhicule), ça sera le constructeur qui sera “responsable”.



(ce qui ne veux pas dire que le constructeur ne te facturera pas un “abonnement” pour compenser le risque lié à la garantie)



Apres tant qu’on est pas au “vrai autopilote”, tu es de toute façon responsable de ton véhicule.





Ce qui est contestable, surtout aux US. Et je serais pas surpris que ce genre de raisonnement tombe rapidement au premier procès.



ok mais attention à la com “embellie” de Google…. dans la réalité l’humain est supérieur en condition où il faut extrapoler.



Il y a encore du taf pour battre l’humain.


Si ont fait confiance a l’auto pilote des avions, pourquoi le ferait ont pas pour les voitures ?



Les lobbies attendent d’avoir leur prototype pour donner leurs avals


Par contre, l’ordi peut gérer beaucoup plus d’information en même temps, sans relâcher son attention et est beaucoup beaucoup plus réactif.








Naneday a écrit :



Si ont fait confiance a l’auto pilote des avions, pourquoi le ferait ont pas pour les voitures ?



Les lobbies attendent d’avoir leur prototype pour donner leurs avals





Parce que l’environnement est beaucoup plus complexe en voiture et qu’un avion de ligne coûte plusieurs dizaines voire centaines de millions d’euros (et du coup ajouter un equipement X ou Y qui coute la peau des fesses n’a que peu d’impacte sur le prix total).









illidanPowa a écrit :



ok mais attention à la com “embellie” de Google…. dans la réalité l’humain est supérieur en condition où il faut extrapoler.



Il y a encore du taf pour battre l’humain.





Mmmh je ne suis pas d’accord. Ou plutôt je pense que interpréter dans le sens d’une AI n’a pas de sens. Les automatismes restent “bête” par rapport a un humain c’est certains.



Mais a la différence d’un humain la voiture est multi-capteur et peut voir sur 360 degré dans différentes longueur d’onde a une distance de 200m. Elle peut utiliser sa puissance de calcul pour évaluer et anticiper les mouvements de tout ce qui l’entoure plusieurs fois par seconde. On peut tester et prévoir comment vont réagir les algos selon les situations. Bref tout ça ne la rend plus intelligente qu’un humain mais lui donne une vision beaucoup plus claire et précise de ce qui l’entoure et lui permet d’anticiper et de mieux comprendre la situation qu’un humain.









illidanPowa a écrit :



ok mais attention à la com “embellie” de Google…. dans la réalité l’humain est supérieur en condition où il faut extrapoler.



Il y a encore du taf pour battre l’humain.





Oui, enfin niveau vision à 360°C, du nombre de paramètres gérés simultanément, de l’absence de distraction et de la rapidité de réaction, on est dèjà largué ;-)



C’est sans doute une question de temps avant d’avoir quelque chose de réellement concluant.



Un peu comme BigBlue qui avait fini par battre les meilleurs joueurs d’échec.









WereWindle a écrit :



j’avoue avoir un peu ri en voyant ces mots côte à côte <img data-src=" /> <img data-src=" />





^^



En même temps, avec la réduction de vitesse, ça va plus vite ^^









divide a écrit :



Les tests de voitures autonome en agglomération chargé ça se fait déjà hein…







Je parle de l’autopilot de tesla. Pas des autres bagnoles.



complètement d’accord, mais c’est juste que sur l’analyse d’image l’humain est pour le moment supérieur (sauf de nuit bien sur….).


contre-exemples : une tornade, une plaque de neige, une chemin de terre en sous-bois (tu sais avec un mélange ombre et soleil le truc que l’humain a déjà du mal à interpréter), une pont que l’on a vu s’écrouler au loin sur lequel on doit passer, une route inondée, etc….. bref j’en ai des milliers comme ça ou l’humain explose la voiture autonome malgré sa bardée de capteurs, et ces situations sont loin d’être exceptionnelles même si elles restent rares pourtant chacune peut conduire à la mort….


sauf que big blue c’est un environnement contrôlé et une tâche simple, ce que n’est pas la conduite automobile, et ça tant qu’on a une réflexion d’informaticien, elles sont pas prêtes d’aboutir les voitures autonomes.



&nbsp;la preuve : réaction de Tesla : ah merde, si ça foire on tue une personne!! oh ben dis-donc c’est pas une app pour smartphone ce qu’on fait!!!


Oui clairement. On ne peut pas établir une statistique sur une base aussi faible.








illidanPowa a écrit :



contre-exemples : une tornade, une plaque de neige, une chemin de terre en sous-bois (tu sais avec un mélange ombre et soleil le truc que l’humain a déjà du mal à interpréter), une pont que l’on a vu s’écrouler au loin sur lequel on doit passer, une route inondée, etc….. bref j’en ai des milliers comme ça ou l’humain explose la voiture autonome malgré sa bardée de capteurs, et ces situations sont loin d’être exceptionnelles même si elles restent rares pourtant chacune peut conduire à la mort….





Le soleil n’a pas d’effet sur le fonctionne d’un Radar ou d’un LIDAR ^^ .



Sincèrement, la conduite est aussi un environnement “contrôlé”, la modélisation inclue juste énormément plus de variables. Mais là c’est plus un problème mathématique qu’informatique.



En fait je suis presque persuadé que l’on est d’accord pour dire que c’est loin d’être prêt (je parle des versions style Google, pas du gadget Tesla qui n’a rien d’autonome, juste une assistance pas beaucoup plus évolué que le parking automatique IPAS des véhicules du groupe Toyota datant de 1999 !).



Pour ce qui est des accidents et des morts, bien que ce soit des humains qui conduisent actuellement et que ce soit “interdit” de tuer les autres, il y a pourtant des dizaines de milliers d’accidents chaque jour et des dizaines de tués, et ceci rien qu’en France. Et je reste persuadé que le “facteur humain” y est pour beaucoup (inattention, conduites sous substance(s), inaptitude de la conduite suivant les conditions, manque d’expérience, …).



Hors la plupart de ces facteurs ne serait pas présents dans un véhicule autonome. On verra bien ce que l’avenir nous réserve, mais en tout cas travailler sur ce genre de chose doit être un sacré challenge d’équipe, personnel et humain…


Faut le faire pour les camions, mais ça va mettre des millions de chauffeurs au chômage, “le numérique c’est les emplois de demain” ©UMPS <img data-src=" />


En fait nos “capteurs” (yeux/ouïe/…) sont mauvais, et notre vitesse de réaction très moyenne (en restant dans le règne animal), par contre c’est l’architecture de notre cerveaux avec son stockage d’information, son apprentissage et son arbre de décision qui fait que pour le moment l’animal humain est celui qui “domine” sur la planète, enfin en tout cas à sa surface.


Il est payé combien pour dire ça ?


Euh… Tu sais que le remplacement a déjà commencé pour les camions ?

C’est meme le premier secteur touché de plein fouet par cette revolution techno.








illidanPowa a écrit :



faux elle ne voit pas bien mieux, elle voit même beaucoup plus mal.



la preuve elle ne sait pas dissocier un panneau de signalisation d’un camion en travers de la route…



l’humain sait le faire car il extrapole et analyse très rapidement, une force qu’aucune machine à ce jour ne sait faire.



le jour où un véhicule autonome fera le même temps ou mieux que Sébastien Loeb sur une route en terre en sous-bois avec le soleil de face, ce jour-là on pourra dire que les voitures autonomes sont aussi performante que l’homme, en attendant on en est très très loin. ça marche bien sur autoroute par temps sec, on en reparle sous pluie battante? rien que là tu l’as mets en échec.



On parle de la voiture autonome qui fonce dans une tornade? une route inondée? une plaque de neige? et tues ainsi ses passagers? l’humain moyen est parfaitement capable d’éviter ces obstacles, la voiture autonome ne sait même pas les détecter…..



De plus, je rajouterais qu’un humain qui conduit plus devient mauvais conducteur….. donc avoir un super assistant oui, mais une voiture autonome non. ça j’y crois pas une seconde, et je ne suis pas prêt de remettre ma vie à une machine aussi nul en conduite.







La pluie battante n’arrête pas les capteurs sur autoroutes, testé et approuvé.



ouais sauf qu’avec un seul LIDAR tu fais pas grand chose……


tu es monté dans une voiture en conduite autonome sur autoroute sous pluie battante? tu as fais ça où? avec quel véhicule?


je ne peux te laisser dire que la conduite est un environnement contrôlé car c’est totalement faux, une voiture ne se déplace pas sur autoroute toute sa vie. Une vie ne suffit pas à un VRP qui fait 500 000 km par an à rencontrer toutes les situations possibles =&gt; je n’appelle pas ça un environnement contrôlé, là où le métro ou même l’avion on sait exactement prévoir tout ce qui peut se passer, en voiture, c’est quasi infini…. des algo peuvent en traiter une grande partie mais pour le reste il ne réagira pas ou mal. Et c’est justement dans cet incertitude que la difficulté est.&nbsp;



Aujourd’hui le cerveau humain surclasse sans problème n’importe quel machine dans le domaine du visible par sa capacité d’analyse globale et adaptative (le champ de vision se concentre quand on augmente la vitesse par exemple, capacité de reconnaissance de forme bien plus évolué que n’importe quelle machine, etc….). Le jour où on verra une voiture autonome rouler sur une route non déneigée sans trace au sol en montagne sans se planter alors oui on pourra commencer a avoir confiance, aujourd’hui c’est loin d’être le cas…



&nbsp;


Elon Musk considère que les voitures autonomes seront prête à partir de 10 milliards de kilomètres d’expérience (ce qui correspond à peu près à l’horizon 2020).








illidanPowa a écrit :



ouais sauf qu’avec un seul LIDAR tu fais pas grand chose……





Sauf que tu n’as pas seulement un LIDAR. Et il fonts deja beaucoup de choses avec les équipements installe.









illidanPowa a écrit :



je ne peux te laisser dire que la conduite est un environnement contrôlé car c’est totalement faux, une voiture ne se déplace pas sur autoroute toute sa vie. Une vie ne suffit pas à un VRP qui fait 500 000 km par an à rencontrer toutes les situations possibles =&gt; je n’appelle pas ça un environnement contrôlé, là où le métro ou même l’avion on sait exactement prévoir tout ce qui peut se passer, en voiture, c’est quasi infini…. des algo peuvent en traiter une grande partie mais pour le reste il ne réagira pas ou mal. Et c’est justement dans cet incertitude que la difficulté est. 



Aujourd’hui le cerveau humain surclasse sans problème n’importe quel machine dans le domaine du visible par sa capacité d’analyse globale et adaptative (le champ de vision se concentre quand on augmente la vitesse par exemple, capacité de reconnaissance de forme bien plus évolué que n’importe quelle machine, etc….). Le jour où on verra une voiture autonome rouler sur une route non déneigée sans trace au sol en montagne sans se planter alors oui on pourra commencer a avoir confiance, aujourd’hui c’est loin d’être le cas…





Combien de personnes sont capable de rouler sur une route non déneigé sans trace au sol et en montagne sans se plante ? Pas tant que ça.



Ensuite je crois que surestime beaucoup le cerveau humain. Par exemple un des gros problemes en conduite c’est justement la capacite du cerveau a se concentrer sur un element qu’il va par exemple considerer comme dangeureux… Et du coup ignorer complètement le reste avec les risques d’accidents qui vont avec. Il faut aussi rajouter les variations de concentration, la fatigue, la visiblité faible seulement vers l’avant, la lenteur de réaction a un événement, l’improvisation totale en cas de problème, etc.



Et ça me rappelle une anecdote racontée par un moniteur d’auto-école : sur l’autoroute une personne qui s’est mangé un frigo tombé plus tôt d’un camion. Le frigo était tellement improbable à cet endroit que la personne n’a pas cherchée à l’éviter…

Je ne sais pas si c’est vrai, mais en tout cas le cerveau humain n’est pas forcément non plus très bon lors de situations inhabituelles et la conduite c’est beaucoup d’automatismes.


a peu prêt tout le monde sauf, si il y a vraiment beaucoup de neige.ou qu’on est vraiment ramolli du cerveau.



A voir une vision à 360 c’est bien sauf que ça sert pas à grand chose à part quand tu changes de voie.



Il faut arrêter de défendre l’indéfendable. aujourd’hui une voiture autonome est inférieure à l’être humain et tant qu’on fera pas de progrès en reconnaissance d’images (mais genre de très gros progrès) ben ça sera toujours le cas.&nbsp;



les cas de mise en défaut de la voiture autonome sont tellement facile et nombreux que c’est pas prêt de fonctionner (et même en 2020 ça reste utopique).&nbsp;



une voiture autonome sur autoroute pourquoi pas, mais en dehors impossible.


Ce n’est pas en affirmant quelque chose que cela devient vrai. Même si tu le répété plein de fois. Je suis désolé mais vu la merde et le nombre d’accident qu’il y a a chaque fois qu’il y a de la neige en France il doit y avoir beaucoup de ramollis du cerveaux. C’est d’autant plus absurde que beaucoup de personnes n’ont aucune expérience de ce genre de situation et vont se retrouver dans un mur rapidement.



Ensuite avoir une vision a 360 ne sert pas seulement a changer de voie mais a avoir une vision de la situation complète. Ça te permet de prévoir et d’anticiper facilement, la ou un être humain ne peut que ce focaliser sur un point particulier.



Et pour ce qui est des progrès en reconnaissance d’image visiblement tu ignores complètement la modélisation 3D et la reconnaissance de forme qui permet déjà de distinguer tous les objets qui entourent le véhicules.



Et les voiture autonomes roulent déjà en dehors des autoroutes… Mais visiblement tu es dans le dénis complet.


Contrôlé dans le sens opposé à “libre” : généralement une voiture roule sur une route, ou sinon sur des parkings… elle roule rarement en plein champs <img data-src=" /> De plus elle respecte (normalement ;)) le code de la route avec toutes les règles que cela implique. Évidemment que ce n’est pas un environnement contrôlé dans le sens “atmosphère contrôlé”…



Un être humain n’a généralement conscience que de son environnement directe (vision/ouïe) et éventuellement via sa mémoire des lieux. Dans un lieu inconnu, il doit regarder les panneaux, s’adapter à la conduite du lieu, … on ne conduit clairement pas de la même façon lorsque l’on cherche un lieu, quelque chose de particulier ou une place de parking. On peut même être gêné dans certains cas en croyant reconnaître un lieu alors que certaines règles sont différentes, c’est à double sens (sans jeu de mot <img data-src=" />)



La machine elle aurai déjà une grosse partie de ces informations via les cartes et relevés GPS, ce qui fait déjà une grosse différence. Les règles de circulations locales (pays/villes/…), les conditions de circulations de plus en plus précise à mesure de la généralisation des voitures communicantes, …



Quand au cerveau humain et à la vision, justement, le fait de resserrer le champ de vision rend un danger latéral “invisible” à l’oeil/au cerveau. Et la vision et la vitesse de perception humaine est de mémoire physiologiquement limitée à sa vitesse maximale de déplacement (15-20 km/h). Surtout que le cerveau sait rarement décoder plus de 50-60 images par secondes. Au-delà, nous sommes beaucoup moins efficaces. Un guépard ou une mouche par exemple n’auront pas du tout les même temps de réaction ni les même perceptions.



Tout ça pour dire qu’une machine pourrait avoir une perception quasi-instantané de son environnement, le tout étant de traiter la somme d’information le plus rapidement possible. Hors les machines sont justement spécialisés dans ce domaine, pas le cerveau humain qui lui est adaptatif et versatile, ce qui en fait sa force.



Pour tout ce qui est reconnaissances de formes, il y a justement énormément de travaux dans ce sens (Google vient d’ailleurs de racheter Moodstocks, une boîte française spécialisée là-dedans). Et dans 10 voir 20 ans, le fossé entre cerveau et machine devrait se réduire très fortement voir peut-être s’inverser.



Après, on est bien d’accord que ce n’est clairement pas pour demain, mais il faut bien voir que des milliers de personnes travaillent sur ces sujets, et il y a à mon sens un retour sur investissement probablement très important à en attendre. Ce genre de recherche ne s’arrêtera pas du jour au lendemain !


Clairement.



Le cerveau humain n’est bon qu’à faire qu’une seule chose à la fois. Beaucoup d’études scientifiques vont dans ce sens. Et ceux qui disent faire plusieurs choses en même temps devraient lire ces études, car justement elles tendent à prouver que plus on fait plusieurs choses en même temps (avec habitude), moins on est efficace. Par contre cela demande moins de travail au cerveau avec l’habitude.

Les machines et voitures autonomes n’ont pas du tout ce genre de problème.



Pour reprendre l’exemple de la vision à 360°C, ça permet de “voir” le gamin qui courre derrière son balon venant de la droite alors que l’on s’apprête à déboiter sur la file de gauche par exemple. Ça permet aussi de “voir” simultanément les dangers “lointain” et proche (angle “mort” avec un scooter, moto remontant des files, voitures arrivant à toute vitesse sur la file de gauche).



Quelques exemples/sources :




Oui je pense que beaucoup sous estiment énormément les progrès qui ont été fait en terme de voiture autonome.



Actuellement il sont en train de s’occuper des problématiques liées au intempéries et a la neige. Perso je vois pas de point bloquant, le plus gros du travail va être de consolider tout ça en emmagasinant le plus d’expérience et de km dans les situations les plus variée pour fiabiliser l’ensemble. C’est ce qui va sûrement prendre le plus de temps avant qu’on puisse acheter une voiture autonome.


Tout à fait d’accord.



Sans oublier les côtés juridiques (qui commence à apparaître) et mentalité (accepter de se faire conduire par la machine).



Le second point arrivera sans doute massivement avec le changement de génération (humainement parlant).








illidanPowa a écrit :



Aujourd’hui le cerveau humain surclasse sans problème n’importe quel machine dans le domaine du visible par sa capacité d’analyse globale et adaptative (le champ de vision se concentre quand on augmente la vitesse par exemple, capacité de reconnaissance de forme bien plus évolué que n’importe quelle machine, etc….). Le jour où on verra une voiture autonome rouler sur une route non déneigée sans trace au sol en montagne sans se planter alors oui on pourra commencer a avoir confiance, aujourd’hui c’est loin d’être le cas…



&nbsp;





Tu surestimes beaucoup trop le cerveau humain, il faut que tu redescendes sur terre. Le cerveau est extrêmement biaisé, il contrôle tes sens, pas le contraire, ce que tu vois ou entends avec ton cerveau ne correspond pas à la réalité, contrairement à une machine. Ça correspond à ce que ton cerveau décide, interprète à partir des informations de tous les sens, de la mémoire ; les illusions d’optiques et auditives sont un très bon exemple des failles du cerveau, même en les connaissant il est impossible pour certaines de ne pas se faire avoir.

Le champ de vision humain est très mauvais à grand vitesse, de l’ordre de quelques degrés à 130km/h, tout le reste de la vue n’est que reconstruction et extrapolation par le cerveau, à partir de l’environnement et de la mémoire, et en cas d’imprévu (un animal / piéton qui traverse la route, un nouveau panneau, un véhicule arrêté, des travaux, un feu qui passe au rouge), la personne peut ne pas être consciente du tout de ces nouvelles informations, quand bien même ça serait en plein devant son visage, et aggravé par tout ce qui occupe l’attention (car le cerveau n’est pas multitâche comme mentionné par d’autres personnes), tel que le téléphone, la radio, les enfants qui jouent derrière, la recherche de panneaux dans un lieu inconnu. Le problème c’est que pour la personne concernée, il ne s’est rien passé d’anormal, et elle en sera convaincue. En cas d’accident, elle dira “je ne l’avais pas vu”, en toute bonne foi.

Personne n’est épargné, il n’y a pas de “super homme”, il faut reconnaître les faiblesses du cerveau et s’adapter. Quand tu rentres du travail, sur la route que tu fais tous les jours, peux-tu en arrivant te remémorer exactement ce qui s’est passé sur le trajet ? Sur une route familière, un conducteur est pratiquement aveugle, le cerveau connait le trajet, il n’a pratiquement plus besoin des yeux, les virages se prennent machinalement…. soudain, la voiture de devant freine pour tourner à droite dans un petit chemin non signalé en tant qu’intersection… situation non prévue, le conducteur est surpris mais trop tard, il freine au dernier moment, car pour le cerveau la voiture de devant était simplement une extrapolation d’une voiture qui suivait la route et qui ne pouvait pas tourner.

Pourquoi les chantiers sont-ils annoncés et marqués bien avant de commencer et bien après avoir été terminés (surtout les rond-points) ? Pour casser la routine et forcer le cerveau à assimiler le changement.

Pourquoi les radars sont-ils en piste droite bien dégagée et non dans les zones dangereuses ? Parce qu’en piste droite, sans gène météorologique, l’attention du cerveau est au minimum, la vigilance également.



Heureusement, la plupart du temps, il ne se passe rien d’inattendu, sinon ça serait une hécatombe. Mais il y a beaucoup d’accidents chaque jour et ceux-ci ne sont comptabilisés que lorsqu’ils sont mortels, et principalement pour ces causes. La machine a peut-être des capacités d’analyse actuellement moins poussées, mais au moins elle reste toujours vigilante.



Et comme j’en vois beaucoup venir pour dire “c’est n’importe quoi, je suis toujours vigilant, blabla, même avec deux verres dans le nez et le téléphone en main libre”, j’insiste bien sur le fait que vous aurez toujours l’impression d’être de bonne foi puisque que vous n’avez aucune autre source d’information que ce que votre cerveau vous a fait croire.



Enfin sachez que la plupart des stages de sensibilisation à la conduite insistent lourdement sur ces points, exercices pratiques à l’appui, et que vous pouvez également les reproduire à la maison.



écoutes je suis dans le métier et je peux te dire que c’est du flan absolu mais après si tu veux croire le marketing…



c’est bien les progrès mais quand ta caméra n’est pas foutu de différencier un panneau de signalisation avec un camion en travers de la route ben c’est quand même un sacré échec.&nbsp;



Et ce n’est qu’un exemple j’en ai plein d’autres comme ça.


ok pour l’attention, pour le reste je ne connais aucune voiture autonome supérieur au meilleur humain, même la tentative d’une moto sur circuit est un échec…….



donc c’est bien d’avoir un truc qui n’a pas de baisse de tension, mais si ton truc ne sait pas réagir mieux qu’un humain dans TOUTES les situations, il suffit d’une où l’humain sera meilleur et ton système n’est pas viable.&nbsp;


moi j’argumente toi tu bois sans concession les communications “marketing”.



Pour faire une voiture autonome, on parle d’autonome hein (pas le truc de Tesla), il faut qu’elle soit supérieur à l’humain dans TOUS les cas possibles (accroches-toi pour la liste exhaustive, on en reparle dans 10 ans), qu’elle sache repérer toutes ses pannes et agir en sécurité en conséquence (tiens on voit déjà que l’humain doit pouvoir intervenir en cas de défaillance majeure =&gt; donc l’humain doit savoir quand même conduire et être prêt à prendre les commandes tout le temps, on y coupera pas), il va falloir développer une boite noire pour la responsabilité : mon système a crashé l’humain n’a pas repris le contrôle à temps, on fait quoi?. Il va également falloir démontrer que chaque mise à jour logiciel/matériel est fiable et ne remet pas en cause la sécurité, quand on voit déjà les problèmes des constructeurs avec les multiples rappels pour des organes de sécurité….. je vous raconte pas pour le pilote auto.



Là je te parle juste d’une voiture qui circule sur autoroute, on imagine même pas hors de cette situation avec des capteurs à nettoyer avant de partir on un arrêt d’urgence du véhicule car le LIDAR est couvert de boue ou fiante d’oiseau…



de plus, j’estime avec mes connaissances (plutôt très bonne de ce genre de matériel), qu’un système comme ça coûtera en grande série dans les 15k€. rappel qu’actuellement une voiture neuve à un prix moyen en France de 25k€…..



il y aura une phase longue de transition peut-être même qu’on arrivera jamais à un parc full autonome pendant laquelle ces voitures devront vivre avec des humains au volant qui font à peu prêt n’importe quoi voir même des gens mal intentionnées qui vont tout faire pour immobiliser ton véhicule et te braquer…..&nbsp;



où des gens comme toi qui pense que cette techno est super fiable et qui vont lui couper la route de façon dangereuse en considérant qu’elle va t’éviter.





&nbsp;

Par ailleurs, accumuler les kilomètres n’est pas suffisant, c’est un bon progrès mais c’est pas suffisant. il faudra des dizaines d’années avec un parc conséquent avant que ce soit vraiment fiable.


moi j’argumente toi tu bois sans concession les communications “marketing”.



Non je me renseigne c’est tout. Ce que tu n’as pas fait:





  • Oui on parl de voiture autonome pas d’aide a la conduite

  • Qu’elles sache repérer ses pannes ? Outre le fait que ca existe deja depuis pas mal d’annee. Perso si m’a voiture a un soucis je suis pas capble de dire ce que c’est je l’amène au garagiste.

  • Reprise en main par le conducteur [faux]: voiture autonome = sans volant = pas de conducteur. Et si la voiture a un soucis la seul chose qu’elle a a faire c’est s’arrêter sur le bord de la route. Ca ne presente aucune difficulté.

  • il va falloir développer une boite noire… Faux Tu parles par ignorance. Les voitures en question ont déjà des boites noires…

  • Mise a jours logicielle… Faux :Ca se fait juste depuis 30 ans dans l’aviation qui est beaucoup plus critique et la majoritaire des voitures on aujourd’hui des systèmes informatiques intégré. Du coup il faudra simplement continuer a faire ce qu’on fait aujourd’hui.

  • Capteurs encrasse… Oula attention la va falloir inventer les essuie glace (je vais breveter l’idée c’est révolutionnaire) et demander aux utilisateurs de nettoyer leur voiture assez régulièrement. Car c’est bien connu que l’humain sait conduire avec un pare-brise totalement opaque et pleine de merde d’oiseaux (en passant la tête par la fenêtre peut être ?)

  • Coût… Tu t’y connais tellement qu’il y a des société qui vont pas tarder a commercialiser des LIDAR a 250$… Et chez toi comme par magie l’effet de série n’a aucun impacte sur les coûts de production…



    Le reste c’est du délire complet… Il vont te braquer parce que tu as une voiture autonome ? Il peuvent pas le faire si tu as une voiture normale c’est bien connu.



    Et tu m’as démasquer, je vais risquer ma vie et celle de ma famille a chaque fois que je vais voir une voiture automatique…Juste parce que… voila quoi. C’est une voiture automatique.

    Et au passage la voiture autonome a déjà une meilleur reactivite pour ce genre de problème.



    Et il faut accumuler des kilomètres c’est suffisant. Si tu as 3000 voitures qui restent au garage ca ne va pas aider. Ils doivent rouler et engranger de l’expérience.








illidanPowa a écrit :



écoutes je suis dans le métier et je peux te dire que c’est du flan absolu mais après si tu veux croire le marketing…



c’est bien les progrès mais quand ta caméra n’est pas foutu de différencier un panneau de signalisation avec un camion en travers de la route ben c’est quand même un sacré échec. 



Et ce n’est qu’un exemple j’en ai plein d’autres comme ça.





Du coup pourquoi ignore tu la totalité des choses qui concerne les voiture autonome (et non pas les aides a la conduite) ? C’est marrant que quelqu’un qui soit dans le métier ne connaisse pas les dernières infos sur le sujet et se limite a troller sur l’accident de Tesla comme si c’était la seul et unique techno existante.



c’est marrant parce que jamais tu sors un lien ou un exemple, donc pour le moment je ne vois rien de concret sortir de tes posts.&nbsp;


Je parle d’agir en fonction de ses pannes =&gt; perte du LIDAR tu en as qu’un =&gt; arrêt. perte des radars &nbsp;ou de la caméra et ça devient tout de suite plus compliqué.



tu fais quoi si tu perds le centre de décision? (perte d’alimentation, carte contrôleur HS?) à 130 sur l’autoroute? tu me dis que ça pose pas de problème…… je rappelle que tu ne peux plus agir puisque que tu ne contrôles plus….



Je rappelle aussi que tous les équipements automatiques actuels peuvent être repris en conduite manuel (avion, train, métro….) donc supprimer le volant ça me fait drôlement rire….



les boites noires elles sont standardisées? elles sont blindées déjà? je ne crois pas sinon sors moi la norme.



Pour le logiciel et oui ça fait 30 ans qu’on le fait pour les trains et pour les avions avec des campagnes d’essais et de validation qui coûtent une fortune et une flotte toute petite comparée aux véhicules personnels, donc oui aujourd’hui dans l’automobile ça se traduit par des rappels extrêmement coûteux.



aujourd’hui dans l’automobile seul quelques calculateurs très spécialisés sont critiques, là on parle d’un gros calculateur centrale qui gère l’ensemble du véhicule, c’est tout de suite plus la même chose.



Pour la saleté, la différence c’est que avec une merde sur mon parebrise je roule, avec une sur le LIDAR je roule plus…. donc il va falloir prévoir un système de nettoyage du LIDAR? de dégivrement?&nbsp;



le LIDAR n’est pas la partie la plus coûteuse loin de là…….





Accumuler des kilomètres, oui. avec des tests encadrés, oui. mais ce que font la américains là c’est du suicide à la carte….. les voitures autonomes ne sont pas prêtes du tout pour le grand public et elles ne seront pas avant 10 ans au moins (ou alors avec des restrictions très contraignantes).

&nbsp;








illidanPowa a écrit :



ok pour l’attention, pour le reste je ne connais aucune voiture autonome supérieur au meilleur humain, même la tentative d’une moto sur circuit est un échec…….



donc c’est bien d’avoir un truc qui n’a pas de baisse de tension, mais si ton truc ne sait pas réagir mieux qu’un humain dans TOUTES les situations, il suffit d’une où l’humain sera meilleur et ton système n’est pas viable.&nbsp;





D’accord avec toi, le pilote automatique n’est pas assez mature pour remplacer tout le décisionnel de l’humain, mais on va y arriver. Tu peux toujours avoir un détecteur de risque (pluie, chaussée humide, neige, travaux etc) couplé à une alarme qui indique que l’humain doit être attentif. Mais comme la plupart des accidents mortels arrivent lorsque les conditions sont les plus favorables, ça serait un grand pas si l’IA pouvait compenser nos défauts pour 95% des cas.




  • En cas de panne d’un des composant la voiture peut s’arrêter automatiquement je ne vois pas le problème.





    • Le centre de décision, y’a quelque chose qu’on appel redondance. Comme sur un avion, tu as deux moteur, si tu en perds un tu a le deuxième. Et idem pour les composant électronique.



    • Metro ? Tu sais qu’il y a des metro sans pilotes ?



    • Pour les mises a jours logiciel, donc on est d’accord ça existe déjà et il n’y a aucune nouveauté ou chose exceptionnelle.



    • Tu peux te permettre d’utiliser un calculateur sans redondance a partir du moment ou le conducteur peut prendre la main. Si c’est en autonome tu vas évidement prévoir des redondances.



    • Pour la saleté tu as déjà des solutions en place qui existe. Du simple essuie-glace aux éléments chauffants pour éviter le givre.



    • Le LIDAR est actuellement la partie la plus coûteuse au niveau capteur. Mais d’ici a la sortie des voiture autonome les prix devraient être faible (on parle de prix inférieur a 250$). D’ici a 2020 je doute que le pack capteur soit au dessus des 2000€.



    • Les voitures autonomes aux US roulent en ville, dans les quartiers résidentiels (pas sur de circuits de tests). Ce sont encore des test, donc avec des personnes formée au volant pour reprendre la main et surveiller la voiture. Ce qui est normal.



      Qu’on soit claire sur un point. Je pense que Tesla va beaucoup trop vite et ne devrait pas fournir ce genre de solution “ a moitie” finie aujourd’hui. Et ils beta-test leur solution sur de vrai utilisateur en leur faisant payer en plus.



      Par contre je pense que des constructeurs comme Ford ou des Entreprises comme Google on clairement prit le bon chemin (voiture complètement autonome). Et encore une fois regarde ce qu’ils font aujourd’hui beaucoup de choses que tu évoques comme ce qu’il faudrait faire, sont déjà présent, implémentés et testés. Du coup je serais pas surpris de voir émerger ces technos vers 2020.



”- En cas de panne d’un des composant la voiture peut s’arrêter automatiquement je ne vois pas le problème. “ pas si tu as une panne majeure comme une perte d’alimentation alors que nos voitures actuelles le supporte aisément (puisque que tu perds toutes les assistances mais les freins et la direction restent fonctionnels).”- Le centre de décision, y’a quelque chose qu’on appel redondance. Comme sur un avion, tu as deux moteur, si tu en perds un tu a le deuxième. Et idem pour les composant électronique.&nbsp;” oui et ça ça&nbsp;coûte&nbsp;la&nbsp;peau du fion (double calculateur, double&nbsp;câblage, double capteurs, etc….), d’ailleurs, ce n’est pas fait&nbsp;sur les “protos” actuels.“- Metro ? Tu sais qu’il y a des&nbsp;métro&nbsp;sans pilotes ?&nbsp; ” justement c’est mon métier et je sais que l’humain est&nbsp;toujours nécessaire, dans chaque rame automatique du mon entier il y a toujours un poste de pilotage manuel, notamment lorsque la fonction automatique n’est plus disponible (ce qui peut arriver très&nbsp;couramment) et qu’il faut bouger le bousin. Si le système à détecter des intrus sur les voies (ou entre le métro et le quai) seul un humain peut autoriser la rame à repartir. par ailleurs on parle d’un système hautement sécuritaire et hautement&nbsp;disponible&nbsp;car la moindre défaillance&nbsp;entraîne&nbsp;des centaines de&nbsp;mort. enfin un métro si tu perds ton pilote automatique tu freines et c’est fini. non seulement tu es en sécurité (car l’espacement entre les rames est prévu pour ça) mais en plus tu n’as pas de direction à gérer (tu es guidé par les rails). Sur une voiture, les freins sont actifs et ne se déclenche pas tout seul en cas de perte du pilote auto et il reste le problème de la direction à gérer en cas de perte du pilote auto sans compter les autres usagers qui peuvent te rentrer dedans car tu freines en ligne droite sans danger apparent (comportement anormal).“- Pour les mises a jours logiciel, donc on est d’accord ça existe déjà et il n’y a aucune nouveauté ou chose exceptionnelle.&nbsp;” oui mais les constructeurs automobile actuels ne savent pas faire. c’est pas leur métier. de plus c’est très compliqué et ça demande une grande rigueur (ce que le garagiste moyen n’a pas). On reparle de l’A400 M qui s’est craché pour un mauvais chargement logiciel? donc même avec les bonnes procédures ça arrive quand même.“- Tu peux te permettre d’utiliser un calculateur sans redondance a partir du moment ou le conducteur peut prendre la main. Si c’est en autonome tu vas évidement prévoir des redondances.&nbsp;” redondance plus que double le prix matériel et rend le système plus complexe. dans un avion et un métro ça passe car y’a une armée d’ingénieurs spécialisés pour gérer ça et de la place pour ça, dans une voiture où la place est restreinte….. j’ai un doute”- Pour la saleté tu as déjà des solutions en place qui existe. Du simple essuie-glace aux éléments chauffants pour éviter le givre.&nbsp;” essuie glace de LIDAR?“- Le LIDAR est actuellement la partie la plus coûteuse au niveau capteur. Mais d’ici a la sortie des voiture autonome les prix devraient être faible (on parle de prix inférieur a 250$). D’ici a 2020 je doute que le pack capteur soit au dessus des 2000€.&nbsp;” sauf que tu n’as pas que ça, tu as tout le câblage, et le calculateur + le logiciel + la R&D…. bref le matériel ce n’est qu’une infime partie du coup. J’ai plusieurs articles sur le sujet si tu veux : le coup au mieux ça sera 10k€….. dans 10 ans !!!!!!“- Les voitures autonomes aux US roulent en ville, dans les quartiers résidentiels (pas sur de circuits de tests). Ce sont encore des test, donc avec des personnes formée au volant pour reprendre la main et surveiller la voiture. Ce qui est normal.&nbsp;” les villes US sont simples (c’est un quadrillage avec des routes larges), chez nous c’est déjà plus complexe. sur le rond point des champs à Paris par exemple c’est mission impossible à l’heure de pointe pour une voiture autonome (déjà qu’avec les humains ça marche pas bien….).“Qu’on soit claire sur un point. Je pense que Tesla va beaucoup trop vite et ne devrait pas fournir ce genre de solution ” a moitie” finie aujourd’hui. Et ils beta-test leur solution sur de vrai utilisateur en leur faisant payer en plus.&nbsp;” c’est totalement scandaleux ce que fait Tesla, on a l’impression qu’il teste une app de smartphone….. alors qu’ils jouent avec la vie des gens. Dernière info : la voiture roulait trop vite en pilote auto….. au secours mais comment c’est possible (elle a loupé un panneau?). Tesla va pourrir l’image des pilotes auto là où on a besoin justement de rassurer les gens et notamment les assureurs.“Par contre je pense que des constructeurs comme Ford ou des Entreprises comme Google on clairement prit le bon chemin (voiture complètement autonome). Et encore une fois regarde ce qu’ils font aujourd’hui beaucoup de choses que tu évoques comme ce qu’il faudrait faire, sont déjà présent, implémentés et testés. Du coup je serais pas surpris de voir émerger ces technos vers 2020.“Pour moi l’approche de Google est la mauvaise, en même temps, c’est pas un constructeur auto. Le constructeur qui a le pilote le plus abouti c’est Audi avec une approche excellente : tu n’as pas de pilote auto mais un super assistant. tu conduis mais si tu faillis la voiture prend le dessus. c’est le meilleur des 2 mondes et ça permet&nbsp;d’engranger&nbsp;de l’expérience. Petit à petit il évoluera vers une voiture de plus en plus autonome jusqu’à un pilote auto parfait. et va voir le véhicule c’est bluffant tout est intégré!!!!! rien ne dépasse. elle est capable de conduire en full autonome sur autoroute (bon les vrais autoroutes de chez nous quoi pas celle des US….. ou un camion peut traverser). Google montre l’objectif final mais&nbsp;ça&nbsp;se&nbsp;fera par petites touches, c’est la meilleur approche. (d’ailleurs c’est ce qu’on a fait avec les avions et les métros). Pour info tous les métros de paris sont gérés avec des pilotes auto depuis 30 ans au moins, seul la ligne 1 et 14 sont en full auto avec absence de chauffeur (bien la ligne 4 aussi). sur les autres les chauffeurs servent juste à donner le départ en station (action du chauffeur : fermeture des portes =&gt; tout va bien =&gt; go). Donc on implémente en évoluant par petits gaps. ce que fait Audi (pourtant je suis pas fan de la marque…)


d’où l’idée de passer par l’étape super assistant : tu conduis mais si tu merdes le pilote auto agit.


C’est illisible.



Pour l’an prochain voitures autonome en condition réelles chez Volvo:

http://spectrum.ieee.org/cars-that-think/transportation/self-driving/volvos-self…









illidanPowa a écrit :



d’où l’idée de passer par l’étape super assistant : tu conduis mais si tu merdes le pilote auto agit.





Ça existe déjà et c’est déjà présent sur un certains nombre de modèles…



houla je sais pas ce qui c’est passé je la refais :

“- En cas de panne d’un des composant la voiture peut s’arrêter automatiquement je ne vois pas le problème. “&nbsp;pas si tu as une panne majeure comme une perte d’alimentation alors que nos voitures actuelles le supporte aisément (puisque que tu perds toutes les assistances mais les freins et la direction restent fonctionnels).&nbsp;”- Le centre de décision, y’a quelque chose qu’on appel redondance. Comme sur un avion, tu as deux moteur, si tu en perds un tu a le deuxième. Et idem pour les composant électronique.&nbsp;” &nbsp;oui et ça ça&nbsp;coûte&nbsp;la&nbsp;peau du fion (double calculateur, double&nbsp;câblage, double capteurs, etc….), d’ailleurs, ce n’est pas fait&nbsp;sur les “protos” actuels.&nbsp;”- Metro ? Tu sais qu’il y a des&nbsp;métro&nbsp;sans pilotes ?&nbsp; “ Justement c’est mon métier et je sais que l’humain est&nbsp;toujours nécessaire, dans chaque rame automatique du monde entier il y a toujours un poste de pilotage manuel, notamment lorsque la fonction automatique n’est plus disponible (ce qui peut arriver très&nbsp;couramment) et qu’il faut bouger le bousin. Si le système à détecter des intrus sur les voies (ou entre le métro et le quai) seul un humain peut autoriser la rame à repartir. par ailleurs on parle d’un système hautement sécuritaire et hautement&nbsp;disponible&nbsp;car la moindre défaillance&nbsp;entraîne&nbsp;des centaines de&nbsp;mort. enfin un métro si tu perds ton pilote automatique tu freines et c’est fini. non seulement tu es en sécurité (car l’espacement entre les rames est prévu pour ça) mais en plus tu n’as pas de direction à gérer (tu es guidé par les rails). Sur une voiture, les freins sont actifs et ne se déclenche pas tout seul en cas de perte du pilote auto et il reste le problème de la direction à gérer en cas de perte du pilote auto sans compter les autres usagers qui peuvent te rentrer dedans car tu freines en ligne droite sans danger apparent (comportement anormal).&nbsp;”- Pour les mises a jours logiciel, donc on est d’accord ça existe déjà et il n’y a aucune nouveauté ou chose exceptionnelle.&nbsp;” &nbsp;oui mais les constructeurs automobile actuels ne savent pas faire. c’est pas leur métier. de plus c’est très compliqué et ça demande une grande rigueur (ce que le garagiste moyen n’a pas). On reparle de l’A400 M qui s’est craché pour un mauvais chargement logiciel? donc même avec les bonnes procédures ça arrive quand même.&nbsp;”- Tu peux te permettre d’utiliser un calculateur sans redondance a partir du moment ou le conducteur peut prendre la main. Si c’est en autonome tu vas évidement prévoir des redondances.&nbsp;” &nbsp;redondance plus que double le prix matériel et rend le système plus complexe. dans un avion et un métro ça passe car y’a une armée d’ingénieurs spécialisés pour gérer ça et de la place pour ça, dans une voiture où la place est restreinte….. j’ai un doute&nbsp;”- Pour la saleté tu as déjà des solutions en place qui existe. Du simple essuie-glace aux éléments chauffants pour éviter le givre.&nbsp;” essuie glace de LIDAR?&nbsp;”- Le LIDAR est actuellement la partie la plus coûteuse au niveau capteur. Mais d’ici a la sortie des voiture autonome les prix devraient être faible (on parle de prix inférieur a 250$). D’ici a 2020 je doute que le pack capteur soit au dessus des 2000€.&nbsp;” &nbsp;sauf que tu n’as pas que ça, tu as tout le câblage, et le calculateur + le logiciel + la R&D…. bref le matériel ce n’est qu’une infime partie du coup. J’ai plusieurs articles sur le sujet si tu veux : le coup au mieux ça sera 10k€….. dans 10 ans !!!!!!&nbsp;”- Les voitures autonomes aux US roulent en ville, dans les quartiers résidentiels (pas sur de circuits de tests). Ce sont encore des test, donc avec des personnes formée au volant pour reprendre la main et surveiller la voiture. Ce qui est normal.&nbsp;” &nbsp;les villes US sont simples (c’est un quadrillage avec des routes larges), chez nous c’est déjà plus complexe. sur le rond point des champs à Paris par exemple c’est mission impossible à l’heure de pointe pour une voiture autonome (déjà qu’avec les humains ça marche pas bien….).&nbsp;“Qu’on soit claire sur un point. Je pense que Tesla va beaucoup trop vite et ne devrait pas fournir ce genre de solution ” a moitie” finie aujourd’hui. Et ils beta-test leur solution sur de vrai utilisateur en leur faisant payer en plus.&nbsp;” &nbsp;C’est totalement scandaleux ce que fait Tesla, on a l’impression qu’il teste une app de smartphone….. alors qu’ils jouent avec la vie des gens. Dernière info : la voiture roulait trop vite en pilote auto….. au secours mais comment c’est possible (elle a loupé un panneau?). Tesla va pourrir l’image des pilotes auto là où on a besoin justement de rassurer les gens et notamment les assureurs.&nbsp;“Par contre je pense que des constructeurs comme Ford ou des Entreprises comme Google on clairement prit le bon chemin (voiture complètement autonome). Et encore une fois regarde ce qu’ils font aujourd’hui beaucoup de choses que tu évoques comme ce qu’il faudrait faire, sont déjà présent, implémentés et testés. Du coup je serais pas surpris de voir émerger ces technos vers 2020.”&nbsp;Pour moi l’approche de Google est la mauvaise, en même temps, c’est pas un constructeur auto. Le constructeur qui a le pilote le plus abouti c’est Audi avec une approche excellente : tu n’as pas de pilote auto mais un super assistant. tu conduis mais si tu faillis la voiture prend le dessus. c’est le meilleur des 2 mondes et ça permet&nbsp;d’engranger&nbsp;de l’expérience. Petit à petit il évoluera vers une voiture de plus en plus autonome jusqu’à un pilote auto parfait. et va voir le véhicule c’est bluffant tout est intégré!!!!! rien ne dépasse. elle est capable de conduire en full autonome sur autoroute (bon les vrais autoroutes de chez nous quoi pas celle des US….. ou un camion peut traverser). Google montre l’objectif final mais&nbsp;ça&nbsp;se&nbsp;fera par petites touches, c’est la meilleure approche. (d’ailleurs c’est ce qu’on a fait avec les avions et les métros). Pour info tous les métros de paris sont gérés avec des pilotes auto depuis 30 ans au moins, seul la ligne 1 et 14 sont en full auto avec absence de chauffeur (bientot la ligne 4 aussi). sur les autres les chauffeurs servent juste à donner le départ en station (action du chauffeur : fermeture des portes =&gt; tout va bien =&gt; go). Donc on implémente en évoluant par petits gaps. ce que fait Audi (pourtant je suis pas fan de la marque…).2020 je pense que c’est encore trop&nbsp;tôt. où alors à un prix prohibitif et pas totalement perfectionner.Je pense&nbsp;plutôt&nbsp;que la techno serait mature dans 10 bonnes années et vraiment accessible dans une quinzaine d’années, mais le chemin est encore long…..


<img data-src=" /> Tu ferais pas du copier coller depuis un éditeur de text ?


non c’est bizarre. peut-être parce que c’est trop long. je te le mp.