Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie

Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie

Il ne suffit pas d'un gus dans son garage

Avatar de l'auteur
Vincent Hermann

Publié dans

Sciences et espace

22/12/2015 7 minutes
227

Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie

Dans une interview publiée hier par Fortune, Elon Musk, PDG de Tesla, a indiqué être en mesure de pouvoir proposer un véhicule totalement autonome dans deux ans. On y apprend également que le hacker GeoHot avait tenté de postuler dans l’entreprise. Parallèlement, la Californie réfléchit à une législation pour interdire ce type de véhicule.

« Je pense que nous avons toutes les pièces, il ne manque plus qu’à les peaufiner, les mettre en place, et faire en sorte qu’elles fonctionnent à travers un nombre immense d’environnements, et alors nous aurons fini ». C’est ainsi qu’Elon Musk, patron de Tesla, a résumé la situation au sujet de la construction d’une voiture totalement autonome. Le PDG estime en effet que le véhicule sera prêt dans deux ans.

Quand GeoHot tente de vendre une meilleure idée

Elon Musk réagissait en partie à l’annonce par Georges Hotz, alias GeoHot, d’une voiture autonome. Il avait donné quelques détails à Bloomberg dans une interview datée du 16 décembre : un modèle 2016 Acura ILX, un système de repérage laser, un joystick, un écran de 21,5 pouces pour surveiller que tout se passe bien et un système de pilotage contenant… 2 000 lignes de code.

Une réalisation qui n’a clairement pas impressionné Elon Musk : « C’est un problème beaucoup plus simple que la plupart des gens s’imaginent. Mais ce n’est pas, comme l’indique Georges Hotz, un problème ne nécessitant qu’un seul gars et trois mois de travail. Il s’agit plutôt, vous savez, de milliers de personnes pendant deux ans ».

« Un monde de différences »

La différence s’explique selon lui d’une manière très simple : « Un logiciel de démonstration c’est facile, un logiciel de production c’est difficile. C’est facile de faire une démo cool, c’est difficile d’en faire quelque chose. Surtout les logiciels qui vont devoir fonctionner sur des millions de routes différentes à travers la planète dans une grande variété de circonstances – en hiver, en été, sous la pluie, dans la poussière – il y a un monde de différences entre les deux ».

Cela revient finalement à marquer l'écart entre un test dans un garage (ce qui est littéralement le cas ici) et un logiciel taillé pour la production de masse et la prise en charge d’à peu près toutes les variables, capable d’ailleurs d’apprendre en continu et donc de s’enrichir avec le temps. « Georges est un hacker extraordinaire, mais vous ne faites pas du logiciel de production en hackant. Un hack ne fonctionne pas, un hack plante ».

Georges Hotz a en fait eu un entretien d’embauche chez Tesla et a rencontré Elon Musk à cette occasion. Selon le PDG, GeoHot est arrivé en expliquant qu’il avait une solution meilleure que celle développée par l’entreprise, demandant ensuite combien pouvait valoir ce talent. Ce à quoi Musk aurait répondu que l’idée, si elle était réelle, vaudrait sans doute des millions de dollars, mais qu’il estimait qu’elle ne l’était pas.

Automatisation : une échelle de mesure en cinq niveaux

La grande majorité des constructeurs s’avancent vers l’automatisation complète à petit pas, progressant pallier par pallier dans une échelle d’autonomie comportant cinq niveaux. Le premier niveau (0) représente un véhicule standard, dans lequel le conducteur contrôle l’ensemble des fonctions primaires. Le niveau 4 indique pour sa part un véhicule totalement autonome, qu’il embarque ou non des personnes. Dans beaucoup de cas, les véhicules récents et/ou haut de gamme sont de niveau 1 ou 2, en fonction des attributs primaires pris en charge. Au niveau 2 par exemple, il faut au minimum deux contrôles gérés, comme la régulation de vitesse, la remise en place automatique du véhicule au centre d’une voie, ou encore le créneau automatisé.

Ce que prépare Tesla est donc un véhicule de niveau 4, avec une concurrence frontale avec Google, qui travaille sur ce même genre de produit. Elon Musk indique cependant que présenter le véhicule ne sera pas suffisant, car en fonction des marchés, il faudra à chaque fois entre un et cinq ans de tests et de procédures diverses pour attester de la fiabilité du véhicule. L’arrivée effective sur le marché ne commencerait donc pas avant fin 2018 au plus tôt. On reste donc assez proche finalement des objectifs de Google, qui sont de lancer un tel produit en 2020.

En attendant, une première version du service « autopilot » de Tesla est arrivée en mise à jour dans certains véhicules il y a deux mois environ. Il ne s’agit pas encore bien sûr d’une automatisation complète, mais elle permet tout de même l’aide pour se garer, le maintien et le changement de voie sur les autoroutes et un système amélioré pour éviter les collisions latérales. 

La Californie veut durcir sa législation pour encadrer les véhicules autonomes

Parallèlement, la législation jouera un rôle prépondérant dans ce marché. Or, le 16 décembre, le Department of Motor Vehicles de Californie a publié la première ébauche d’un projet de loi durcissant les règles dans ce domaine. L’État interdirait ainsi tout véhicule autonome ne possédant pas au minimum un volant et une pédale de freinage. L’idée est bien entendu de permettre au conducteur d’avoir toujours la main en cas de problème. En outre, la présence d’un conducteur avec permis valide serait justement obligatoire.

Des mesures qui ont « profondément déçu » Google, qui travaille évidemment sur une flotte de véhicules totalement automatisés. Le géant de la recherche envisage tout autant des voitures classiques que des modèles sans contrôle et que l’on pourrait par exemple envoyer récupérer un colis ou une personne sans permis. Pour les autres constructeurs, il y a « le temps », dans la mesure où la plupart avancent progressivement dans l’échelle de l’autonomie. Du côté de Tesla, on indique également que le projet de loi est en cours d’examen et que l’entreprise travaillera avec les autorités pour que l’innovation puisse se poursuivre. Une manière polie d’indiquer cependant que rien n’est gagné.

Si la Californie durcit le ton, c’est que de nombreuses entreprises du domaine high-tech y sont présentes, notamment Google. L’État semble donc vouloir prendre les devants, notamment sur la chaine des responsabilités. L’un des points forts du projet de loi est ainsi de rendre responsable, en cas de violation manifeste du code de la route, le conducteur du véhicule autonome. D’où bien sûr l’obligation pour ce dernier de posséder un volant et une pédale de freinage.

Le risque de la tâche d'huile

Parmi les autres points envisagés, une certification de sûreté par un tiers, des permis pour les constructeurs limités à trois ans et à renouveler systématiquement et la remontée de statistiques précises tous les mois, y compris sur les accidents impliquant de tels véhicules (ce que Google fait déjà). Enfin, une voiture autonome devra être capable d’indiquer si elle a été la cible d’une cyberattaque. On imagine que Google, Tesla et d'autres craignent que ce projet de loi, en plus de devenir effectif, puisse faire tâche d'huile et inspirer d'autres États et pays. Ford par exemple est attendu au tournant du CES de l'année prochaine pour une annonce de partenariat avec Google. Les premiers véhicules pourraient même arriver fin 2016 ou courant 2017?

Considérant la complexité et le nombre important de données et variables à prendre en compte, il n’est donc pas étonnant de voir Elon Musk investir dans OpenAI, à la recherche de percées dans le domaine de l’intelligence artificielle. Rappelons qu'en France, les expérimentations de voitures autonomes sur les routes devraient être bientôt autorisées. À la Rochelle, des bus autonomes sont par ailleurs en test depuis la semaine dernière.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Quand GeoHot tente de vendre une meilleure idée

« Un monde de différences »

Automatisation : une échelle de mesure en cinq niveaux

La Californie veut durcir sa législation pour encadrer les véhicules autonomes

Le risque de la tâche d'huile

Fermer

Commentaires (227)


“Ce à quoi Musk aurait répondu que l’idée, si elle était réelle, vaudrait sans doute des millions de dollars, mais qu’il estimait qu’elle ne l’était pas.”

En gros, je ne crois pas en toi mais je t’engage!



edit: mal lu, il a été rejeté. <img data-src=" />


La législation va durcir en Californie pour les véhicules autonomes, limitation de vitesse,&nbsp; obligation qu’a la place du conducteur on trouve une personne disposant du permis de conduire.



Toute ces limitations me font penser au début des inquiétudes dans les rams automatiques du métro, ou encore dans l’aviation ou les pilotes refusaient de décoller sans un technicien de vol sur l’appareil.


“Selon le PDG, GeoHot est arrivé en expliquant qu’il avait une solution meilleure que celle développée par l’entreprise, demandant ensuite combien pouvait valoir ce talent”



&nbsp;Pour moi, c’est un gosse super doué qui a pris la grosse tête et ne sait que travailler seul.

&nbsp;Ca me rappelle une phrase assez cliché et qui m’insupporte que je lis où je travaille: “seul, on va vite, ensemble, on va loin”.


Sait-on ce qui a provoqué ce revirement de la part de la Californie sur la législation en matière de véhicule autonome ?








jeremyb a écrit :



“Selon le PDG, GeoHot est arrivé en expliquant qu’il avait une solution meilleure que celle développée par l’entreprise, demandant ensuite combien pouvait valoir ce talent”



 Pour moi, c’est un gosse super doué qui a pris la grosse tête et ne sait que travailler seul.

 Ca me rappelle une phrase assez cliché et qui m’insupporte que je lis où je travaille: “seul, on va vite, ensemble, on va loin”.







clair qu’elle est à gerber cette phrase.

A ranger au niveau du slogan Pirelli <img data-src=" />









NeedSumSleep a écrit :



Toute ces limitations me font penser au début des inquiétudes dans les rams automatiques du métro, ou encore dans l’aviation ou les pilotes refusaient de décoller sans un technicien de vol sur l’appareil.





Pour métro, il n’y a jamais eu des masses d’inquiétude, la situation est tellement plus simple (une seule voie, les rails). Et vu que des portes automatiques empêchent les voyageurs d’accéder aux rails en l’absence de rame arrêtée en station, le niveau de risque paraît particulièrement faible.









jeremyb a écrit :



Pour moi, c’est un gosse super doué qui a pris la grosse tête et ne sait que travailler seul.

 Ca me rappelle une phrase assez cliché et qui m’insupporte que je lis où je travaille: “seul, on va vite, ensemble, on va loin”.



Ce qui, par miroir, n’est pas un avantage pour Musk, qui l’écarte.

S’il a eu trop de prétentions, soit,

sinon toute tête bien faite est bonne à intégrer à de tels projets.









OlivierJ a écrit :



Pour métro, il n’y a jamais eu des masses d’inquiétude, la situation est tellement plus simple (une seule voie, les rails). Et vu que des portes automatiques empêchent les voyageurs d’accéder aux rails en l’absence de rame arrêtée en station, le niveau de risque paraît particulièrement faible.





Aujourd’hui, oui. Mais à l’époque ? :)









MuadJC a écrit :



Ce qui, par miroir, n’est pas un avantage pour Musk, qui l’écarte.

S’il a eu trop de prétentions, soit,

sinon toute tête bien faite est bonne à intégrer à de tels projets.





<img data-src=" />



Les mecs, doués ou pas, qui pensent pouvoir tout révolutionner tous seuls sont à exclure d’un projet. En général, leur égo est incompatible avec le travail d’équipe.



je pense que c’est le problème de la responsabilité en cas d’accident








Bug a écrit :



je pense que c’est le problème de la responsabilité en cas d’accident





C’est ça, en plus, c’est expliqué dans la news <img data-src=" />









BankiZ a écrit :



Aujourd’hui, oui. Mais à l’époque ? :)





“une seule voie, les rails” ça change tout.









NeedSumSleep a écrit :



La législation va durcir en Californie pour les véhicules autonomes, limitation de vitesse,&nbsp; obligation qu’a la place du conducteur on trouve une personne disposant du permis de conduire.



Toute ces limitations me font penser au début des inquiétudes dans les rams automatiques du métro, ou encore dans l’aviation ou les pilotes refusaient de décoller sans un technicien de vol sur l’appareil.





Il faut quand même admettre que le sujet est infiniment plus complexe. On parle bien de mettre des machines automatisées d’une tonne entre les mains du grand public, et sur le domaine public.



&nbsp;





ActionFighter a écrit :



Sait-on ce qui a provoqué ce revirement de la part de la Californie sur la législation en matière de véhicule autonome ?





La réalité ?

Jusque là, la voiture autonome limitée à quelques professionnels du domaine ne posait pas de problème.

Mais l’idée d’avoir des machines automatisées d’une tonne dans les mains du grand public peut en effrayer plus d’un. Je pense qu’il y a la volonté de responsabiliser au maximum les constructeurs.

&nbsp;Au delà de ça, il y a encore un bon nombre de problèmes législatifs qui n’ont toujours pas été résolus, je pense notamment au problème de la responsabilité en cas d’accident.



beaucoup plus faible que sur les non automatiques…




Tesla prévoit une voiture autonome dans deux ans, mais pourrait affronter une législation durcie



Scoop : aucun constructeur français ou européen ne prévoit de voiture autonome.



Pas grave, ça nous fera une industrie de moins, on n’est plus à ça près.


En même temps qu’est-ce qui lui a pris ? C’est quoi le rapport entre Gérard Holtz et les voitures autonomes de Tesla ?








ActionFighter a écrit :



Les mecs, doués ou pas, qui pensent pouvoir tout révolutionner tous seuls sont à exclure d’un projet. En général, leur égo est incompatible avec le travail d’équipe.





Tu m’étonnes. Je me souviens d’un gamin, Albert qu’il s’appelait, qui nous disait qu’on ne comprenait rien au temps, que tout ça était relatif, et qui partait dans ses délires à base de synchronisation d’horloge.



On l’a viré prompto, un bon débarras je te dis.



La masse a toujours raison.*





PS : cela dit je suis tout à fait d’accord avec Musk expliquant qu’il y a un monde entre une démo technique et le besoin réel.









HarmattanBlow a écrit :



Scoop : aucun constructeur français ou européen ne prévoit de voiture autonome.



Pas grave, ça nous fera une industrie de moins, on n’est plus à ça près.





Heu… &nbsp;100% autonome non pas encore, mais ça avance.

Par exemple Volvo:

http://www.volvocars.com/fr-be/a-propos-de-volvo/nos-innovations/intellisafe/pilote-automatique/c26Et d’ailleurs, ils sont les seuls à annoncer qu’en cas d’accident en tord en pilotage automatique, ils en prendront la responsabilité. Enfin ça je demande encore à voir au moment de… mais c’est ce qu’ils annoncent publiquement.









ActionFighter a écrit :



Sait-on ce qui a provoqué ce revirement de la part de la Californie sur la législation en matière de véhicule autonome ?





le piratage dernièrement des véhicules jeep ?









versgui a écrit :



Mais l’idée d’avoir des machines automatisées d’une tonne dans les mains du grand public



Je ne comprends pas trop…&nbsp;

Le grand public a déjà des machines non-automatisées d’une tonne dans les mains. Ca fait déjà un paquet de morts. Que craint-on de plus ?

&nbsp;





HarmattanBlow a écrit :



Tu m’étonnes. Je me souviens d’un gamin, Albert qu’il s’appelait, qui nous disait qu’on ne comprenait rien au temps, que tout ça était relatif, et qui partait dans ses délires à base de synchronisation d’horloge.



Il n’était pas aussi solitaire que le mythe le dit…&nbsp;









NeedSumSleep a écrit :



La législation va durcir en Californie pour les véhicules autonomes, limitation de vitesse,&nbsp; obligation qu’a la place du conducteur on trouve une personne disposant du permis de conduire.




 Toute ces limitations me font penser au début des inquiétudes dans les rams automatiques du métro, ou encore dans l'aviation ou les pilotes refusaient de décoller sans un technicien de vol sur l'appareil.








 une voiture autonome me semble largement plus complexe que pour un métro. En métro, tu as peu de risques de voir un piéton traverser devant toi ou d'arriver à un rond point avec plein de véhicules de tous les côtés <img data-src=">








HarmattanBlow a écrit :



Tu m’étonnes. Je me souviens d’un gamin, Albert qu’il s’appelait, qui nous disait qu’on ne comprenait rien au temps, que tout ça était relatif, et qui partait dans ses délires à base de synchronisation d’horloge.



On l’a viré prompto, un bon débarras je te dis.



La masse a toujours raison.





C’est bien connu, les DRH croisent des Einstein tous les jours <img data-src=" />









HarmattanBlow a écrit :



On l’a viré prompto, un bon débarras je te dis.



La masse a toujours raison.*&nbsp;





Il a pas dit que la masse a raison. Juste que tu peux pas intégrer un gars travaillant seul dans une équipe. Et t’as pas forcément envie de voir débarquer dans ton équipe un gamin qui te regarde de haut parce qu’il a des idées et des compétences, alors que tu fais ton boulot, t’as l’expérience, mais peut-être pas le pif de génie qu’il faut pour révolutionner le monde.



L’obligation de maintenir des commandes manuelles me paraît fondée en raison de la prolifération des brouilleurs (jammers) et embrouilleurs (spoofers) GPS (et Galileo dans un futur proche).



Deux cas relevés en France au printemps dernier par l’agence nationale des fréquences (ANFR) :



http://www.anfr.fr/fileadmin/mediatheque/documents/Rapports/Rapport__Lyon_Bron_G…



http://www.anfr.fr/fileadmin/mediatheque/documents/Rapports/Rapport_brouilleur_G…



Deux articles sur le sujet :

http://www.lemonde.fr/sciences/article/2012/03/23/sur-la-trace-des-brouilleurs-d…

https://www.newscientist.com/article/dn20202-gps-chaos-how-a-30-box-can-jam-your…



Sans une station de navigation inertielle de qualité aéronautique militaire, hors de portée - à plusieurs points de vue - des fabricants de voitures autonomes, le moindre brouilleur à 50 € (ou un embrouilleur à plus cher) feront perdre sa position au véhicule, malgré tous les radars et autres lidars qu’il peut embarquer.



Edit : c’est quoi le blème avec les balises de liens ?








BankiZ a écrit :



Aujourd’hui, oui. Mais à l’époque ? :)





A l’époque aussi cela n’a jamais provoqué d’inquiétude. Sinon personne n’irait dans les parcs d’attraction.

De plus comparer un métro autonome sur rail mais qui reste géré par une équipe humaine en cas de problème, il fallait oser.

Car ici on parle bien de véhicules autonomes lachés dans la nature (vu que l’un des business plan était quand même de rendre caduque le permis de conduire et ainsi s’attaquer d’entrée au marché de la population qui n’en possède pas)









jeremyb a écrit :



Il a pas dit que la masse a raison. Juste que tu peux pas intégrer un gars travaillant seul dans une équipe. Et t’as pas forcément envie de voir débarquer dans ton équipe un gamin qui te regarde de haut parce qu’il a des idées et des compétences, alors que tu fais ton boulot, t’as l’expérience, mais peut-être pas le pif de génie qu’il faut pour révolutionner le monde.





<img data-src=" />



Intégrer un mec qui te dit que tout ce que t’as fait, c’est de la merde, et qu’il faut tout reprendre depuis le début, je comprends qu’on lui montre gentillement la porte si ce qu’il annonce n’est pas vraiment à la hauteur de ce qu’il essaie de vendre.









picoteras a écrit :



L’obligation de maintenir des commandes manuelles me paraît fondée en raison de la prolifération des brouilleurs (jammers) et embrouilleurs (spoofers) GPS (et Galileo dans un futur proche).



Deux cas relevés en France au printemps dernier par l’agence nationale des fréquences (ANFR) :



http://www.anfr.fr/fileadmin/mediatheque/documents/Rapports/Rapport__Lyon_Bron_G…



http://www.anfr.fr/fileadmin/mediatheque/documents/Rapports/Rapport_brouilleur_G…



Deux articles sur le sujet :

http://www.lemonde.fr/sciences/article/2012/03/23/sur-la-trace-des-brouilleurs-d…

https://www.newscientist.com/article/dn20202-gps-chaos-how-a-30-box-can-jam-your…



Sans une station de navigation inertielle de qualité aéronautique militaire, hors de portée - à plusieurs points de vue - des fabricants de voitures autonomes, le moindre brouilleur à 50 € (ou un embrouilleur à plus cher) feront perdre sa position au véhicule, malgré tous les radars et autres lidars qu’il peut embarquer.



Edit : c’est quoi le blème avec les balises de liens ?





Ce n’est même pas nécessaire d’aller chercher autant de détails. Le matériel et la technologie ne seront jamais fiables à 100%, puisque c’est nous qui inventons tout ça.



Il faut arrêter de se la raconter, il y a toujours un moment où ça déconne, on est pas infaillibles <img data-src=" />



On confie déjà des véhicules de 2t à des personnes et on voit le résultats que ça fait….

&nbsp;

Mais il est clair que c’est plus compliqué je dis pas le contraire mais m’est avis qu’un système automatisé fera diminuer les accidents et embouteillage quand on sait que ceux-ci sont principalement dû au non respect des limitations de vitesse et des distances de sécurité.








mykoD a écrit :



Heu…  100% autonome non pas encore, mais ça avance.





Non, ça n’avance pas : dans plusieurs années ils présenteront un modèle qui sera tout juste capable de se tenir sur autoroute. Ce qui représente une infime portion du travail nécessaire pour une vraie voiture autonome.





d’ailleurs, ils sont les seuls à annoncer qu’en cas d’accident en tord en pilotage automatique, ils en prendront la responsabilité. Enfin ça je demande encore à voir au moment de… mais c’est ce qu’ils annoncent publiquement.



De toute façon les juges ne laisseront pas le choix aux constructeurs. Leur responsabilité est indéniable.







airfab a écrit :



Ce n’est même pas nécessaire d’aller chercher autant de détails. Le matériel et la technologie ne seront jamais fiables à 100%, puisque c’est nous qui inventons tout ça.





La preuve : les humains font beaucoup moins d’erreurs de calcul que les calculatrices.









HarmattanBlow a écrit :



La preuve : les humains font beaucoup moins d’erreurs de calcul que les calculatrices.







La calculatrice n’anticipe pas sa chute du bureau <img data-src=" />









Faith a écrit :



Je ne comprends pas trop… 

Le grand public a déjà des machines non-automatisées d’une tonne dans les mains. Ca fait déjà un paquet de morts. Que craint-on de plus ?





Je sais pas: au hasard




  • le risque d’un accident monstre en cas de plantage du système GPS

  • le risque de se faire hacker un véhicule et d’en faire un drone suicide avec quelqu’un à l’intérieur

  • le risque de supprimer le permis de conduire avec tous les problèmes annexes que cela génère



    Mais surtout je serai curieux de savoir si tes tests ont été effectués pour savoir si une succession de véhicules autonomes pouvaient entrer en “résonnance” (termes approximatifs).



Ca me fait pensé a Appleseed ou Ghost In The Shell ou les voitures sont automatiques et donnent juste l’impression au conducteur de maitriser la situation alors que c’est l’ordi de la caisse qui fait tout…



Et bientôt on réfléchira à notre place… à merde c’est déjà le cas… <img data-src=" />








darkbeast a écrit :



le piratage dernièrement des véhicules jeep ?





Ça, ça fout un peu les boules vis à vis de ce genre de nouvelles technos, c’est clair.









NeedSumSleep a écrit :



On confie déjà des véhicules de 2t à des personnes et on voit le résultats que ça fait….

 

Mais il est clair que c’est plus compliqué je dis pas le contraire mais m’est avis qu’un système automatisé fera diminuer les accidents et embouteillage quand on sait que ceux-ci sont principalement dû au non respect des limitations de vitesse et des distances de sécurité.





Remarque intéressante concernant les embouteillages.

Certains d’entre eux sont dus effectivement à des problèmes de conduite, mais la grande majorité provient simplement du fait que même en respectant les distances et les vitesses on ne peut pas avoir un trafic fluide au dela d’un certain nombre de véhicules empruntant une voie en même temps.

C’est la qu’intervient l’IA du véhicule: que faire ? si à un instant t un bouchon se forme tu aurais la totalité des véhicules sous IA qui emprunterait le même itinéraire (calculé par le même algorithme) et donc tu te trouverais avec des routes secondaires saturées elles aussi.

Curieux de voir cela…









carbier a écrit :



Remarque intéressante concernant les embouteillages.

Certains d’entre eux sont dus effectivement à des problèmes de conduite, mais la grande majorité provient simplement du fait que même en respectant les distances et les vitesses on ne peut pas avoir un trafic fluide au dela d’un certain nombre de véhicules empruntant une voie en même temps.

C’est la qu’intervient l’IA du véhicule: que faire ? si à un instant t un bouchon se forme tu aurais la totalité des véhicules sous IA qui emprunterait le même itinéraire (calculé par le même algorithme) et donc tu te trouverais avec des routes secondaires saturées elles aussi.

Curieux de voir cela…





BSOD









ActionFighter a écrit :



Ça, ça fout un peu les boules vis à vis de ce genre de nouvelles technos, c’est clair.





Ben ouais surtout que tous les objets connecté ne sont pas sécurisé, alors&nbsp; le frigo on s’en fout mais la voiture, le fait de pouvoir l’arrêter à distance c’est minable.



&nbsp;Mais bon sécurité = sous , donc on ne sécurise pas et puis si ça se passe bien tant mieux sinon, ben on avise après.



Demolition man aussi <img data-src=" />








jeremyb a écrit :



Il a pas dit que la masse a raison. Juste que tu peux pas intégrer un gars travaillant seul dans une équipe. Et t’as pas forcément envie de voir débarquer dans ton équipe un gamin qui te regarde de haut parce qu’il a des idées et des compétences, alors que tu fais ton boulot, t’as l’expérience, mais peut-être pas le pif de génie qu’il faut pour révolutionner le monde.





Sauf que tu t’es placé dans le cadre d’un marché établi et stabilisé, hors ici on est dans un autre cadre: On se prétend justement révolutionner l’aspect.

C’est un pari, c’est un choix; j’espère qu’ils prouveront leurs choix, ou en fait je m’en fiche; que le meilleur gagne, ou triche pour s’imposer.









carbier a écrit :





  • le risque d’un accident monstre en cas de plantage du système GPS





    Mais pourquoi diable ? La voiture ne se base pas sur le GPS, de toute façon imprécis, pour évaluer sa trajectoire.



    Le GPS ne sert que pour évaluer le trajet, donc la seule conséquence d’un plantage du système GPS (qui ne s’est jamais produit à ma connaissance) serait que ta voiture s’arrêterait au premier arrêt disponible ou t’inviterait à la guider. Et encore : je parie qu’ils ont prévu de lire les panneaux.





  • le risque de se faire hacker un véhicule et d’en faire un drone suicide avec quelqu’un à l’intérieur



    C’est déjà possible avec certaines voitures actuelles sans avoir causé d’accidents graves jusque là.



    Et ça relève de graves fautes de conception : il n’y a aucune raison qui justifie que le système puisse voir son état altéré par les récepteurs radio/bluetooth. Les règles à respecter sont simples et connues, et elles ne le sont pas dans les modèles concernés.





  • le risque de supprimer le permis de conduire avec tous les problèmes annexes que cela génère



    Gné ?





    Mais surtout je serai curieux de savoir si tes tests ont été effectués pour savoir si une succession de véhicules autonomes pouvaient entrer en “résonnance” (termes approximatifs).



    Gné ?



    Pour ce qui est de la cohabitation de plusieurs voitures autonomes sur la route, je ne vois qu’un risque et un bénéfice :

    * Les voitures pourraient aller beaucoup plus vite si elles étaient toutes autonomes.

    * Si un endroit pose problème à une voiture, alors tous ces modèles rencontreront le même problème, créant un embouteillage.









carbier a écrit :



Je sais pas: au hasard




  • le risque d’un accident monstre en cas de plantage du système GPS

  • le risque de se faire hacker un véhicule et d’en faire un drone suicide avec quelqu’un à l’intérieur

  • le risque de supprimer le permis de conduire avec tous les problèmes annexes que cela génère



    Alors très très au hasard, et surtout très très peu réaliste.&nbsp;

    1 ) en cas de panne GPS, les voitures ne se mettent pas à rouler au pif. Elles s’arrêtent ou continuent doucement sur leur voie.

    2 ) De nos jours, on se contente de conduire et de foncer dans la foule, c’est mille fois plus efficace (ou de mettre une bombe dans une voiture garée).&nbsp;

    3 ) Difficile de faire plus vague.









airfab a écrit :



BSOD





Il existe des logiciels capables de prouver qu’un autre logiciel ne présente pas ce genre de risques. MS l’utilise notamment pour valider les drivers.



Après on peut toujours imaginer une erreur rare due à une anomalie matérielle (problème quantique ou neutrinos facétieux), mais les humains eux-mêmes ne sont pas à l’abri d’une mort subite.









airfab a écrit :



Ce n’est même pas nécessaire d’aller chercher autant de détails.





Les brouilleurs GPS ne font pas dans le détail quant à leurs conséquences (je t’invite à lire le rapport de l’ANFR sur l’incident de Bron et l’article du New Scientist).












ActionFighter a écrit :



C’est bien connu, les DRH croisent des Einstein tous les jours <img data-src=" />



Bah oui, on vous dit que c’est que des feignasses, ces fonctionnaires! (office des brevets)









darkbeast a écrit :



Ben ouais surtout que tous les objets connecté ne sont pas sécurisé, alors  le frigo on s’en fout mais la voiture, le fait de pouvoir l’arrêter à distance c’est minable.



 Mais bon sécurité = sous , donc on ne sécurise pas et puis si ça se passe bien tant mieux sinon, ben on avise après.





Ouais mais là, ils ont intérêt à blinder le truc s’ils veulent avoir l’agrément nécessaire à la commercialisation.







MuadJC a écrit :



Bah oui, on vous dit que c’est que des feignasses, ces fonctionnaires! (office des brevets)





https://www.youtube.com/watch?v=02fNbNBLuXM









picoteras a écrit :



Les brouilleurs GPS ne font pas dans le détail quant à leurs conséquences (je t’invite à lire le rapport de l’ANFR sur l’incident de Bron et l’article du New Scientist).





Bien sûr, mais je disais simplement que notre matériel, quel qu’il soit, a toujours ses défauts. C’est inutile d’essayer de prouver le contraire, je n’en vois pas l’utilité <img data-src=" />



Genre un gps qui perd la boule, c’est pas nouveau <img data-src=" />


Yep, j’y ai pensé mais dans un autre registre (surtout avec leur version de “l’airbag” !). <img data-src=" /> Une référence ce film. (Idiocracy est a voir dans le même genre).








carbier a écrit :



Je sais pas: au hasard




  • le risque d’un accident monstre en cas de plantage du système GPS

  • le risque de se faire hacker un véhicule et d’en faire un drone suicide avec quelqu’un à l’intérieur

  • le risque de supprimer le permis de conduire avec tous les problèmes annexes que cela génère







    Bah tout ça, les humains derrière les volants des voitures actuelles font ça très bien <img data-src=" />

    C’est pas pour autant qu’on a remis en cause l’intérêt des voitures individuelles…







    carbier a écrit :



    Mais surtout je serai curieux de savoir si tes tests ont été effectués pour savoir si une succession de véhicules autonomes pouvaient entrer en “résonnance” (termes approximatifs).







    Afin de faire quoi ?









HarmattanBlow a écrit :



Le GPS ne sert que pour évaluer le trajet





Ton “ne… que…” n’est pas de mise ici. Les signaux GPS servent d’une part à fournir la position du véhicule en temps réel et d’autre part à synchroniser les autres signaux (horloges atomiques, toussa).



2000 c’est beaucoup trop. suffit de charger un dijkstra ou un A* :)








ActionFighter a écrit :



C’est bien connu, les DRH croisent des Einstein tous les jours <img data-src=" />





Peut être, mais ils les envoient chier. C’est con hein ?









HarmattanBlow a écrit :



Non, ça n’avance pas : dans plusieurs années ils présenteront un modèle qui sera tout juste capable de se tenir sur autoroute. Ce qui représente une infime portion du travail nécessaire pour une vraie voiture autonome.





De toute façon les juges ne laisseront pas le choix aux constructeurs. Leur responsabilité est indéniable.





La preuve : les humains font beaucoup moins d’erreurs de calcul que les calculatrices.









Oui la voiture autonome en France ça n’avance pas c’est sûr…:





http://www.tf1.fr/tf1/auto-moto/news/psa-peugeot-citroen-voiture-autonome-realis…





Aucune voiture européenne non plus…:





http://geopolis.francetvinfo.fr/bureau-berlin/2015/04/20/on-a-teste-la-voiture-q…










carbier a écrit :



Remarque intéressante concernant les embouteillages.

Certains d’entre eux sont dus effectivement à des problèmes de conduite, mais la grande majorité provient simplement du fait que même en respectant les distances et les vitesses on ne peut pas avoir un trafic fluide au dela d’un certain nombre de véhicules empruntant une voie en même temps.

C’est la qu’intervient l’IA du véhicule: que faire ? si à un instant t un bouchon se forme tu aurais la totalité des véhicules sous IA qui emprunterait le même itinéraire (calculé par le même algorithme) et donc tu te trouverais avec des routes secondaires saturées elles aussi.

Curieux de voir cela…







Absolument pas…



Dans un monde de véhicule autonome, la circulation est elle aussi automatisée.

Personne ne dit qu’il n y aura jamais de bouchons, mais ils seront certainement beaucoup moins denses dans un monde où toutes les voitures se parlent entre elles et savent où chacune d’entre elle va aller.



Concrètement, tu n’auras jamais dans un monde de circulation automatisé, un gros c*n de chauffeur qui viendra se mettre en plein milieu d’un carrefour bouché parce que c’était à son tour de passer et que son feu était vert, quitte derrière à bloquer la circulation de toute une voie perpendiculaire parce que devant lui c’est bouché… Aussi, tu n’auras jamais les cas ubuesques de feux de feux dans des carrefours de circulations qui passent au rouge 2 minutes sur une voie bondées pour ne laisser passer aucun piéton ou aucun véhicule…









ActionFighter a écrit :



C’est bien connu, les DRH croisent des Einstein tous les jours <img data-src=" />





ce qui est bien connu c’est que ce sont des usurpateurs surtout&nbsp;<img data-src=" />



On ne conduit pas une voiture au GPS, que tu sois humain ou conducteur autonome. C’est juste débile comme principe.

<img data-src=" />








deepinpact a écrit :



Absolument pas…



Dans un monde de véhicule autonome, la circulation est elle aussi automatisée.

Personne ne dit qu’il n y aura jamais de bouchons, mais ils seront certainement beaucoup moins denses dans un monde où toutes les voitures se parlent entre elles et savent où chacune d’entre elle va aller.



Concrètement, tu n’auras jamais dans un monde de circulation automatisé, un gros c*n de chauffeur qui viendra se mettre en plein milieu d’un carrefour bouché parce que c’était à son tour de passer et que son feu était vert, quitte derrière à bloquer la circulation de toute une voie perpendiculaire parce que devant lui c’est bouché… Aussi, tu n’auras jamais les cas ubuesques de feux de feux dans des carrefours de circulations qui passent au rouge 2 minutes sur une voie bondées pour ne laisser passer aucun piéton ou aucun véhicule…





Et quand un chat traverse une route de campagne de deux mètres de large, devant tes roues, à trois heures du matin, il fait quoi ton véhicule autonome avec son stupide processeur qui pige plus rien <img data-src=" />



Il faut aussi sortir de son monde parfois <img data-src=" />









picoteras a écrit :



Ton “ne… que…” n’est pas de mise ici. Les signaux GPS servent d’une part à fournir la position du véhicule en temps réel et d’autre part à synchroniser les autres signaux (horloges atomiques, toussa).





Et alors ?! Pour conduire, tu as besoin d’une boussole et d’une montre, toi ?



Le véhicule n’a pas besoin de sa position, de toute façon imprécise, pour éviter les bagnoles en face, pas plus qu’il n’a besoin de connaître l’heure.









maxscript a écrit :



ce qui est bien connu c’est que ce sont des usurpateurs surtout <img data-src=" />





comme prédit dans le livre “Mais j’ai jamais dit ça, putain ! - A. Einstein” (édition Plow)









airfab a écrit :



Bien sûr, mais je disais simplement que notre matériel, quel qu’il soit, a toujours ses défauts. C’est inutile d’essayer de prouver le contraire, je n’en vois pas l’utilité <img data-src=" />





OK.



La législation californienne en préparation, qui prévoit l’obligation de pouvoir donner le contrôle du véhicule au conducteur à tout instant, me semble bien pensée.



NB : je suis pour ce type de véhicule, ils pourront éviter bien des accidents.









deepinpact a écrit :



Concrètement, tu n’auras jamais dans un monde de circulation automatisé, un gros c*n de chauffeur qui viendra se mettre en plein milieu d’un carrefour bouché parce que c’était à son tour de passer et que son feu était vert, quitte derrière à bloquer la circulation de toute une voie perpendiculaire parce que devant lui c’est bouché… Aussi, tu n’auras jamais les cas ubuesques de feux de feux dans des carrefours de circulations qui passent au rouge 2 minutes sur une voie bondées pour ne laisser passer aucun piéton ou aucun véhicule…





Si, tu pourras avoir ces bugs, mais tu pourras les remonter pour corriger l’algo dans ces cas précis; alors que de nos jours quand tu as une incohérence sur la signalisation et son interprétation, ben la DDE est assez hermétique à changer la définition du comportement sain. Enfin, c’est un idéal, pas dit que ça se passe bien en vrai.









airfab a écrit :



Et quand un chat traverse une route de campagne de deux mètres de large, devant tes roues, à trois heures du matin, il fait quoi ton véhicule autonome avec son stupide processeur qui pige plus rien <img data-src=" />





Je ne vois pas pourquoi ce cas serait problématique. Le chat est un obstacle comme les autres. Le véhicule cherche toujours la meilleure trajectoire sans accident et si ce n’est pas possible il utilise un algorithme pour décider quel est le moindre mal.



Et il est vraisemblable qu’il saura mieux réagir que toi. Surtout que lui n’est jamais fatigué et qu’il voit très bien de nuit.









airfab a écrit :



Et quand un chat traverse une route de campagne de deux mètres de large, devant tes roues, à trois heures du matin, il fait quoi ton véhicule autonome avec son stupide processeur qui pige plus rien <img data-src=" />



Il faut aussi sortir de son monde parfois <img data-src=" />







Bah il fait comme le stupide conducteur qui ne pige plus rien parce qu’il est bourré/fatigué/pressé/au téléphone, rayer les mentions inutiles, il écrase le c*n de chat…



Le niveau 4 indique pour sa part un véhicule totalement autonome : C’est la fonction qui m’intéresse pour me passer du problème de chercher une place de parking pendant des plombs.








batoche a écrit :



Peut être, mais ils les envoient chier. C’est con hein ?





C’est con, mais c’est le jeu. Fallait être plus pédagogue lors de l’exposé de l’idée révolutionnaire.







maxscript a écrit :



ce qui est bien connu c’est que ce sont des usurpateurs surtout <img data-src=" />





Les DRH ou les Ensteins ? <img data-src=" />









Olbatar a écrit :



Oui la voiture autonome en France ça n’avance pas c’est sûr…:



http://www.tf1.fr/tf1/auto-moto/news/psa-peugeot-citroen-voiture-autonome-realis…





Aucune voiture européenne non plus…:





http://geopolis.francetvinfo.fr/bureau-berlin/2015/04/20/on-a-teste-la-voiture-q…





Sur autoroute uniquement, la partie facile. Ce n’est même pas 10% du travail.









deepinpact a écrit :



a



Bah il fait comme le stupide conducteur qui ne pige plus rien parce qu’il est bourré/fatigué/pressé/au téléphone, rayer les mentions inutiles, il écran le c*n de chat…





Non il ne l’écrase pas, il l’évite et et ensuite il fait en sorte de compenser la dérive du véhicule sur l’herbe. pour l’instant aucun véhicule ne sait faire ça et on en est très loin <img data-src=" />



Le lobby auto-école n’approuve pas les voitures autonomes <img data-src=" />.








mizuti a écrit :



Le lobby auto-école n’approuve pas les voitures autonomes <img data-src=" />.





pffff



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.








Dr.Wily a écrit :



Ca me fait pensé a Appleseed ou Ghost In The Shell ou les voitures sont automatiques









Nioniotte a écrit :



Demolition man aussi <img data-src=" />





Moi ça me fait penser à I Robot, avec le volant que personne n’utilise (sauf W Smith)









HarmattanBlow a écrit :



Sur autoroute uniquement, la partie facile. Ce n’est même pas 10% du travail.







C’est curieux, tu disait pourtant le contraire il y a peu:









HarmattanBlow a écrit :



Non, ça n’avance pas : dans plusieurs années ils présenteront un modèle qui sera tout juste capable de se tenir sur autoroute. Ce qui représente une infime portion du travail nécessaire pour une vraie voiture autonome.





De toute façon les juges ne laisseront pas le choix aux constructeurs. Leur responsabilité est indéniable.





La preuve : les humains font beaucoup moins d’erreurs de calcul que les calculatrices.











HarmattanBlow a écrit :



Scoop : aucun constructeur français ou européen ne prévoit de voiture autonome.



Pas grave, ça nous fera une industrie de moins, on n’est plus à ça près.









Parce que la, si je lis correctement, tu part des postulats:



1_aucun constructeurs français ni européen n’a de projet de voiture automne.



2_il leurs faudra plusieurs années pour en faire rouler sur autoroute.



Pourtant:



http://www.tf1.fr/tf1/auto-moto/news/psa-peugeot-citroen-voiture-autonome-realis…



Et



http://geopolis.francetvinfo.fr/bureau-berlin/2015/04/20/on-a-teste-la-voiture-q…



Donc je dois être idiot ou bien tu raconte n’importe quoi…









John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.





J’écrase les deux et je sauve le chat <img data-src=" />









John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.





Suffit d’inclure des critères économiques comme le coût pour la société par rapport à la plus-value qu’apportera la personne à la société si elle survie.









airfab a écrit :



Non il ne l’écrase pas, il l’évite et et ensuite il fait en sorte de compenser la dérive du véhicule sur l’herbe. pour l’instant aucun véhicule ne sait faire ça et on en est très loin <img data-src=" />







Ah…

Les chats écrasés ça n’existe pas ?



Et contrairement à ce que tu penses, l’évitement d’obstacle et la correction de trajectoire existent depuis longtemps déjà et sont mêmes commercialisés et généralisés sur des véhicules de série comme l’ESP.









deepinpact a écrit :



Ah…

Les chats écrasés ça n’existe pas ?



Et contrairement à ce que tu penses, l’évitement d’obstacle et la correction de trajectoire existent depuis longtemps déjà et sont mêmes commercialisés et généralisés comme l’ESP.





merci <img data-src=" />



toi oui, mais l’algorisme ? <img data-src=" />








John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.







Le mieux ça reste encore de rouler à une allure adaptée qui permet d’écraser personne, croyez pas ?









WereWindle a écrit :



comme prédit dans le livre “Mais j’ai jamais dit ça, putain ! - A. Einstein” (édition Plow)



C’était son jumeau caché, Herbert Einstein.









airfab a écrit :



merci <img data-src=" />







Bah je t’en pries <img data-src=" />









John Shaft a écrit :



toi oui, mais l’algorisme ? <img data-src=" />





<img data-src=" />



Approuvé par Macron et Gattaz <img data-src=" /> <img data-src=" />








deepinpact a écrit :



Absolument pas…



Dans un monde de véhicule autonome, la circulation est elle aussi automatisée.

Personne ne dit qu’il n y aura jamais de bouchons, mais ils seront certainement beaucoup moins denses dans un monde où toutes les voitures se parlent entre elles et savent où chacune d’entre elle va aller.



Concrètement, tu n’auras jamais dans un monde de circulation automatisé, un gros c*n de chauffeur qui viendra se mettre en plein milieu d’un carrefour bouché parce que c’était à son tour de passer et que son feu était vert, quitte derrière à bloquer la circulation de toute une voie perpendiculaire parce que devant lui c’est bouché… Aussi, tu n’auras jamais les cas ubuesques de feux de feux dans des carrefours de circulations qui passent au rouge 2 minutes sur une voie bondées pour ne laisser passer aucun piéton ou aucun véhicule…





Cela voudrait dire que chaque véhicule qui roule communique en permanence avec la totalité du parc roulant d’un rayon de X km avec dans chaque véhicule une IA qui recalculerait en direct une trajectoire optimisée et la renverrait aux autres véhicules.

Ton système ressemble furieusement à unsystème chaotique. En gros un système parfaitement huilé jusqu’à ce qu’un incident arrive…



Curieux de voir cela un jour…









John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.







Et donc toi en tant qu’être humain avec un pareil choix moral, tu fais quoi ?









John Shaft a écrit :



(j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?).



ça dépend du partenariat: pompes funèbres ou Lego?









carbier a écrit :



Cela voudrait dire que chaque véhicule qui roule communique en permanence avec la totalité du parc roulant d’un rayon de X km avec dans chaque véhicule une IA qui recalculerait en direct une trajectoire optimisée et la renverrait aux autres véhicules.

Ton système ressemble furieusement à unsystème chaotique. En gros un système parfaitement huilé jusqu’à ce qu’un incident arrive…



Curieux de voir cela un jour…







Oui c’est ça, un banal réseau informatique…



Rassure moi, tu ne touches jamais à un ordinateur ou tu ne prends jamais l’avion c’est ça ?



Même en respectant les limitations de vitesse, tu ne sais pas ce qui peut surgir.



Ce n’est d’ailleurs pas pour rien que les aides à la conduite type régulateur de vitesse sont désactivable aussi facilement <img data-src=" />



Pis bon, si le machin se tape un kernel panic, il faut pouvoir le couper


Encore une news ou les commentaires montrent à quel point la tendance est au pessimisme, et à la paranoia. Chapeau a celui qui nous a replacé les risques de terrorisme dans les commentaires.



On parle ici de technologie futures, en cours de developpement, avec leurs avantages, leurs inconvénients.

Et des inconvénients, heureusement qu’il y en a, ca créera du boulo pour tous les ingés qui ne restent pas vautrés dans leurs fauteuils à ronchonner que c’est trop dangereux ca ne marchera jamais….



Je prefere 1000 fois que les poids lours passent en conduite autonome, plutot que de les voirs conduits par des pauvres gens des pays de l’est, payés une misère pour rouler pendant des horaires incroyables, et qui risquent à tout moment de faire un massacre sur la route.

D’ailleurs des massacres sur la route il y en a, et c’est clairement pas à cause des voitures autonomes…



Donc oui, des ratés il y en aura, tout comme parfois des avions se plantent, mais au moins on aura enfin d’autres pistes à explorer pour limiter les morts sur les routes plutot que constamment nous retirer 10km/h de vitesse maxi.








John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.







T’es quand même pas en train de dire que la “morale” veut que la vie de l’un a plus de valeur que la vie de l’autre? si ?



Je ne sais pas mais le fait que je puisse le faire me défini en tant qu’humain. Comme je le disais, si la machine peut faire se choix, ce n’est plus une machine mais une vraie IA, qu’il faudra bien considérer comme un être humain avec ce que ça implique derrière (elle aurait quelques droits à faire valoir)



Il y a une réalité que certaines personnes ne veulent pas voir : les voitures autonomes font peur. Je fais partie des personnes qui considèrent qu’un conducteur reste plus fiable que tout une panoplie d’informatique et d’électronique qui régit en autonomie le pilotage du véhicule.



Que des règles strictes soient mises en place par l’Etat de Californie me semble une bonne chose. Oui, dans ces voitures autonomes, il faut un conducteur derrière un volant physique. Un être humain est imparfait, par nature, mais je considère qu’un conducteur est capable de réagir à n’importe quel type de situation. J’en doute fortement pour le pilotage autonome. Une voiture autonome est bête et disciplinée, et c’est bien tout ce qui me dérange…. Bête et disciplinée, oui.



&nbsp;Egalement, la Californie veut imposer un permis de conduire spécial “voiture autonome” pour se retrouver sous l’habitacle d’un tel véhicule. Et c’est bien normal : il faut que les personnes sachent quoi faire si l’informatique et l’électronique partent en sucette. Une voiture autonome n’est pas un véhicule classique. Il faut savoir prendre les devants si la voiture autonome ne répond plus au commande. Les personnes se trouvant dans un véhicule autonome doivent savoir maîtriser le véhicule dans n’importe quelle situation.



J’espère que l’Union Européenne, à défaut la France, mettra en place de telles règles. Faire une confiance aveugle aux voitures autonomes est une lourde erreur. Tant pis si de telles règles freinent le développement des véhicules autonomes. Je n’ai rien à foutre….








HarmattanBlow a écrit :



Gné ?



Pour ce qui est de la cohabitation de plusieurs voitures autonomes sur la route, je ne vois qu’un risque et un bénéfice :

* Les voitures pourraient aller beaucoup plus vite si elles étaient toutes autonomes.

* Si un endroit pose problème à une voiture, alors tous ces modèles rencontreront le même problème, créant un embouteillage.





Dans un monde idéal oui… par contre dans un monde idéal, aucun animal ne viendrait couper une route, il n’y aurait pas de cyclistes, ni de piétons ou de motards…

Si un incident arrive devant un véhicule autonome mais qu’elle n’a pas la distance pour freiner, elle fait quoi ?

Sachant que sa décision entrainera une réaction en chaine sur tous les véhicules autonomes derrière ou à côté d’elle.

C’est le principe d’un système chaotique: un changement de conditions initiales (un cycliste qui fait un malaise) entraine une réaction à la chaine qui au départ n’est pas prévu.

Il va être difficile de modéliser la totalité des variables pouvant interférer avec la conduite…



Je prends un autre exemple tout bête: une route inondée, comment l’IA va-t’elle savoir si la voiture peut passer ou pas ? A chaque flaque d’eau la totalité du trafic va s’arrêter ?



A mon avis le problème est que personne ne sait aujourd’hui quelle assurance est responsable en cas d’incident :

L’assurance du passager ? (Quid s’il a le permis ? Quid s’il n’a pas le permis ? Quid si plusieurs passagers ? Quid si aucun n’est propriétaire de la voiture ?)

L’assurance du constructeur ?

L’assurance du développeur de l’IA ?

&nbsp;Or, en l’absence de statut-quo, ils sont obligés d’imposer un pilote avec permis, car on est sur que celui-ci aura une assurance couvrant les éventuels accidents


Le prototype de la voiture de Google a bien réussi à ne pas écraser un canard poursuivi par une personne en chaise roulante ..



http://www.theverge.com/2015/9/4/9261757/google-safety-report-august-self-drivin…



video :

http://i.imgur.com/Y6R6gmw.gifv



maintenant j’aimerai voir comment tu réagirais à 3h du matin avec un chat qui traverse la route, toi ? parce que les voitures automatiques, 17h ou 3h du matin, ça ne change rien <img data-src=" />


Non. Je me place dans l’hypothèse où écraser quelqu’un est inévitable (quelque soit la raison).


Ils veulent garder le contrôle parce qu’ils craignent d’être dépassés.

Voilà tout.



“La police me dit que tu conduisais manuellement ??” (I, Robot.)








John Shaft a écrit :



Je ne sais pas mais le fait que je puisse le faire me défini en tant qu’humain. Comme je le disais, si la machine peut faire se choix, ce n’est plus une machine mais une vraie IA, qu’il faudra bien considérer comme un être humain avec ce que ça implique derrière (elle aurait quelques droits à faire valoir)







Pas d’accord !

Dans ce cas précis on sera plutôt dans le cadre d’une intelligence virtuelle. L’ordinateur faisant ce qu’on l’a programmé de faire…



Du coup je te repose ma question, tu dois programmer ce choix dans la machine, tu fais quoi ?









John Shaft a écrit :



Non. Je me place dans l’hypothèse où écraser quelqu’un est inévitable (quelque soit la raison).





Et donc dans ce cas là, que l’ordi écrase une personne, ou que toi tu l’écrases, quelle est la différence?





Moi j’en voit une,

Pendant le laps de temps ou TA morale humaine, va te faire te demander s’il vaut mieux sauver mami mougeot ou le petit fils de la crémière, la voiture elle, va se lancer dans une série de calcul pour determiner lequel des “non evitement” sera le plus à même de :

-ne pas tuer la pauvre personne percutée

-éviter de te foutre dans un platane juste après

-déclencher les warnings (alors que tu aurais toi les deux mains sur ton volan dans pareille situation)

-lancer un appel d’urgence.

-…









deepinpact a écrit :



Oui c’est ça, un banal réseau informatique…



Rassure moi, tu ne touches jamais à un ordinateur ou tu ne prends jamais l’avion c’est ça ?





Dans un avion le pilote est au coeur du problème. Ce n’est pas pour rien qu’ils subissent des heures de simulation afin de parer aux problèmes rencontrés.



Donc en cas de problème, l’avion lui rend la main. Cela fait bien longtemps que les avions pourraient être pilotés uniquement via des machines. On est donc dans un système semi autonome: à tout moment le pilote peut reprendre la main.



C’est ce que veut faire la législation et ce que ne veulent pas faire les constructeurs (pour l’instant).

Un système semi-autonome ne me pose pas de problème à partir du moment où un conducteur est présent dans la voiture.









atomusk a écrit :



Le prototype de la voiture de Google a bien réussi à ne pas écraser un canard poursuivi par une personne en chaise roulante ..



http://www.theverge.com/2015/9/4/9261757/google-safety-report-august-self-drivin…



video :

http://i.imgur.com/Y6R6gmw.gifv



maintenant j’aimerai voir comment tu réagirais à 3h du matin avec un chat qui traverse la route, toi ? parce que les voitures automatiques, 17h ou 3h du matin, ça ne change rien <img data-src=" />





J’ai l’habitude de l’éviter, comme le blaireau ou le chevreuil, mais j’ai eu de bons professeurs. Ça serait nécessaire je trouve, plutôt qu’un professeur qui t’apprend à regarder au bon endroit pour faire un ridicule créneau <img data-src=" />



Prendre comme exemple un piratage d’une voiture qui n’a rien d’automatique, où le conducteur perd tout controle du véhicule (plus de volant, de frein, plus rien !), pour justifier que les voitures automatiques devront avoir un conducteur, est sans doute l’idée la plus WTF de l’histoire <img data-src=" />





Sinon j’espère que ceux qui sont pour le full autonome ne sont pas les mêmes qui crient à Big Brother sur les news d’interception de données. <img data-src=" />


C’est le pire moment où un homme doit prendre le contrôle.

Il n’est pas prêt en moins d’une seconde et va paniquer.


Les algos c’est bien des humains qui les ont développé hein ^^

Les algos nécessaires à une voiture autonome sont bien plus complexe que ceux d’une calculette, en plus on ne parle pas de maths pure mais de sciences appliquées, de capteurs, etc…








PtaH a écrit :



Et donc dans ce cas là, que l’ordi écrase une personne, ou que toi tu l’écrases, quelle est la différence?





Sérieux tu ne la vois pas ?







PtaH a écrit :



Moi j’en voit une,

Pendant le laps de temps ou TA morale humaine, va te faire te demander s’il vaut mieux sauver mami mougeot ou le petit fils de la crémière, la voiture elle, va se lancer dans une série de calcul pour determiner lequel des “non evitement” sera le plus à même de :

-ne pas tuer la pauvre personne percutée

-éviter de te foutre dans un platane juste après





Perso, je sais que mon réflexe serait de dévier quitte à me foutre dans un platane comme tu dis. Car savoir qu’on a écrasé un gamin parcequ’une machine a décidé à ta place ne sera pas forcément bon pour tout le monde.





PtaH a écrit :



-déclencher les warnings (alors que tu aurais toi les deux mains sur ton volan dans pareille situation)

-lancer un appel d’urgence.

-…





Cela tombe bien certaines voitures le font déjà toute seules…









deepinpact a écrit :



Bah tout ça, les humains derrière les volants des voitures actuelles font ça très bien <img data-src=" />

C’est pas pour autant qu’on a remis en cause l’intérêt des voitures individuelles…







Afin de faire quoi ?





On parle surtout ici de responsabilité. Les humains peuvent faire ce qu’ils veulent, ils sont responsables et passibles de prison.

Mais si une voiture autonome pète un plomb (hackée ou pas) et tue des gens, qui payera ?









carbier a écrit :



Sérieux tu ne la vois pas ?





Perso, je sais que mon réflexe serait de dévier quitte à me foutre dans un platane comme tu dis. Car savoir qu’on a écrasé un gamin parcequ’une machine a décidé à ta place ne sera pas forcément bon pour tout le monde.



Cela tombe bien certaines voitures le font déjà toute seules…









1- non je ne la vois pas.

2- Faux, on partait du principe que l’évitement était IMPOSSIBLE. Ne change donc pas les paramètres pour passer pour le héro qui préfere mourir plutot que blesser quelqu’un.

3-Parcequ’il y a des années, certains se sont penchés sur des améliorations/automatisations des véhicules pendant que d’autre beuglaient que le seul maitre à bord, c’était BIBI. comme maintenant en fait.



Je programme rien. Je laisse le choix au conducteur. Tu ne peux pas faire une liste de choix à cocher pour répondre à ça, l’algo ne pourra pas répondre, sauf à considérer que Untel est client de Machin qui a un partenariat avec nous du coup je shoote pas (ou ce genre de cochonneries).



Les pilotes automatiques des avions de ligne sont déjà capables d’assurer l’intégralité d’un vol pour peu que l’aéroport soit correctement équipé. Si la machine n’y arrive pas elle donne la main au pilote.








carbier a écrit :



Dans un avion le pilote est au coeur du problème. Ce n’est pas pour rien qu’ils subissent des heures de simulation afin de parer aux problèmes rencontrés.



Donc en cas de problème, l’avion lui rend la main. Cela fait bien longtemps que les avions pourraient être pilotés uniquement via des machines. On est donc dans un système semi autonome: à tout moment le pilote peut reprendre la main.



C’est ce que veut faire la législation et ce que ne veulent pas faire les constructeurs (pour l’instant).

Un système semi-autonome ne me pose pas de problème à partir du moment où un conducteur est présent dans la voiture.







Probablement, dans 99% des cas (je trouve pas la statistique officielle), les catastrophes aériennes doivent être dues à des erreurs humaines (dans l’avion ou au sol) !



L’avion qui est statistiquement le transport le plus sûr car hautement automatisé (les pilotes d’avions à part décoller dans un vol classique qui se débrouille sans problème ne font quasiment plus rien).



Et donc qu’est-ce que tu veux dire ?



Parce qu’un nombre assez minime d’accidents de voitures pourraient être liés à une automatisation défaillante dans un monde où le système serait à 100% autonome, cela le rendrait plus dangereux qu’un monde où tous les véhicules sont conduits par des êtres humains et dans lequel il y a plusieurs milliers de d’accidents, de blessés et de morts chaque année comme en France ?



Un ordinateur n’a pas de conscience. Il va planter à faire ce genre de choix.



Dans le cas contraire, c’est un être conscient. (Re)lis le cycle de la Culture de Banks <img data-src=" />








John Shaft a écrit :



Je programme rien. Je laisse le choix au conducteur. Tu ne peux pas faire une liste de choix à cocher pour répondre à ça, l’algo ne pourra pas répondre, sauf à considérer que Untel est client de Machin qui a un partenariat avec nous du coup je shoote pas (ou ce genre de cochonneries).



Les pilotes automatiques des avions de ligne sont déjà capables d’assurer l’intégralité d’un vol pour peu que l’aéroport soit correctement équipé. Si la machine n’y arrive pas elle donne la main au pilote.







Ah ben non, c’est un peu lâche comme réponse ça…



Allez dit moi, t’es pas un programme informatique, t’es dans ce cas précis tu fais quoi ???

Allez, c’est toi qui a amené le sujet sur le tapis !



Allez je t’aide !!!

T’as le choix, un enfant tout chti mignon avec toute la vie devant lui ou une sale vioque toute vieille avec le cancer, qui va bientôt canner, radine, riche et raciste en plus !



Oui, mais ton algo ne peut pas répondre. Sinon comme je l’ai dit, c’est un être conscient.








deepinpact a écrit :



Probablement, dans 99% des cas (je trouve pas la statistique officielle), les catastrophes aériennes doivent être dues à des erreurs humaines (dans l’avion ou au sol) !



L’avion qui est statistiquement le transport le plus sûr car hautement automatisé (les pilotes d’avions à part décoller dans un vol classique qui se débrouille sans problème ne font quasiment plus rien).



Et donc qu’est-ce que tu veux dire ?



Parce qu’un nombre assez minime d’accidents de voitures pourraient être liés à une automatisation défaillante dans un monde où le système serait à 100% autonome, cela le rendrait plus dangereux qu’un monde où tous les véhicules sont conduits par des êtres humains et dans lequel il y a plusieurs milliers de d’accidents, de blessés et de morts chaque année comme en France ?







C’est bien ce qu’ils essayent de nous dire oui <img data-src=" />

<img data-src=" />

ils préferent que potentiellement des gens :

-drogués et/ou

-alcolisés et/ou

-déprimés et/ou

-mal voyants et/ou

-occupés au téléphone et/ou

-occupés à gronder leurs gosses derriere



prennent le volan de leur engin de la mort, plutot que des machines. Parceque tu vois, l’automatisation c’est le mal, ca tue, alors que les humains ci-dessus, ils sont tellement plus fiables <img data-src=" />



C’est pas lâche, c’est humain <img data-src=" />



Remplace la p’tite vieille par le conducteur lui même. C’est pareil








ttb1 a écrit :



On parle surtout ici de responsabilité. Les humains peuvent faire ce qu’ils veulent, ils sont responsables et passibles de prison.

Mais si une voiture autonome pète un plomb (hackée ou pas) et tue des gens, qui payera ?







Comme c’est déjà le cas aujourd’hui, ça dépendra des responsabilités qui seront établies lors de l’enquête de police…



Ex vécu: dans une boîte ou je travaillais, un technicien (prestataire extérieur) en charge de la maintenance d’un robot de production met un «shunt» sur le capteur d’effraction de la porte d’accès à la «cage» du robot afin de faire ses essais.



Une ouvrière qui n’avait pas vu que des essais étaient en cours, décide de traverser la cage parce ce que ça lui faisait un raccourci pour rejoindre la salle de pause; le robot repart en cycle met une tranpe a l’ouvrier qui fait un joli vol au passage…



Après enquête il s’avèrent que le technicien avait fauté car: shunt + absence de ruban balise+ absence de signalisation de travaux en cours…



Donc dans le cas de la voiture autonome, comme dans tout accident il faudra regarder les circonstances pour statuer sur les responsabilité de chacun!



C’est pas lâche, c’est humain <img data-src=" />



Remplace la p’tite vieille par le conducteur lui même. C’est pareil


Clairement ma prochaine caisse, juste à changer de job !








John Shaft a écrit :



Un ordinateur n’a pas de conscience. Il va planter à faire ce genre de choix.



Dans le cas contraire, c’est un être conscient. (Re)lis le cycle de la Culture de Banks <img data-src=" />









il n’a pas besoin de conscience la tu a du mal me comprendre <img data-src=" />



Toi et moi on partais du principe qu’il est impossible d’éviter et qu’il va donc falloir percuter quelqu’un.



Toi, comme tout humain bien dans sa tete, tu va surement avoir un gros moment de panique a te demander “c’est qui le moins pire là? je la connais la vieille? je le connais le gamin? merde c’est la mere de ma femme, mais c’est le petit de mon meilleur pote, je fais quoi, boom”.

La voiture, elle s’en fout de qui est qui, elle va plutot calculer les probabilités de survie pour chaque impact.

Survie du piéton, ta survie, et survie post accident.




Non, la voiture n’ira pas chercher le compte facebook de la personne “à écraser” pour déterminer qui sera la personne qui mérite le moins de vivre avec un algo complexe.



Par contre elle verra la personne apparaître dans le champ de vision mieux que toi (un exemple, le cycliste dans cette video :https://youtu.be/tiwVMrTLUWg?t=12m31s il n’y a que la voiture automatique qui l’a vu, et a prévue son déplacement), pourra anticiper leur action plus rapidement que toi, agir de manière sure plus vite que toi (impossible de faire un coup de volant car il y a une voiture trop proche par exemple), et si il n’y a aucune solution d’évitement, potentiellement freiner du mieux possible pour limiter au mieux l’impact.

il n’ira pas tuer un autre passant parce que “yolo” <img data-src=" />



Apres si tu veux obliger les véhicules automatique à avoir un airbag à piétons, c’est possible, et la voiture sera même, à même de le déployer au meilleur moment








John Shaft a écrit :



C’est pas lâche, c’est humain <img data-src=" />



Remplace la p’tite vieille par le conducteur lui même. C’est pareil







T’es donc en train de me dire, que si t’as un choix aussi évident devant les yeux (ben oui, faut rouler de toute ses forces sur ce sale gosse futur chômeur et donc futur assité) et que tu t’avères incapable de dire ce que tu ferais, tu veux imposer à un véhicule (un programmeur donc) de faire lui ce choix ?



T’es bizarre toi <img data-src=" />









deepinpact a écrit :



Probablement, dans 99% des cas (je trouve pas la statistique officielle), les catastrophes aériennes doivent être dues à des erreurs humaines (dans l’avion ou au sol) !





Faux: ça c’est que disent les rapports officiels. En fait dans 99% des cas, les catastrophes aériennes sont dus à un ensemble de circonstances dont les problèmes mécaniques et électroniques sont les premiers à intervenir.

Par exemple dans le vol Air France Rio-Paris qui s’est écrasé en mer: la panne initiale était due à un tube pitot qui avait givré. Dans ce cas ton pilote automatique est simplement en roue libre (incapable de savoir que les mesures qu’il lit sont fausses). Et le problème final c’est que le pilote n’était pas dans le cockpit et que le co-pilote a pris une mauvaise décision. Conclusion: erreur humaine (mais pas si simple)







deepinpact a écrit :



L’avion qui est statistiquement le transport le plus sûr car hautement automatisé (les pilotes d’avions à part décoller dans un vol classique qui se débrouille sans problème ne font quasiment plus rien).



Et donc qu’est-ce que tu veux dire ?



Parce qu’un nombre assez minime d’accidents de voitures pourraient être liés à une automatisation défaillante dans un monde où le système serait à 100% autonome, cela le rendrait plus dangereux qu’un monde où tous les véhicules sont conduits par des êtres humains et dans lequel il y a plusieurs milliers de d’accidents, de blessés et de morts chaque année comme en France ?





Non je veux simplement dire que je souhaite que l’humain reste responsable de ses choix. Donc un système d’aide accrue oui, mais seulement un système d’aide…



C’est assez marrant comme argument en fait. Car dans ce cas, tout le monde aurait une puce sous-cutanée pour nous tracer en permanence et nos décisions nous seraient dictées par des machines, comme cela plus de violence domestique, plus de crimes etc.



Tout dépend de ce que tu appelles une “erreur humaine” <img data-src=" />



Si tu met dans erreur humaine :




  • pilote

  • dév de l’autopilote

  • tech de maintenance

  • créateur de la doc de maintenance

  • créateur de la piece

  • bureau d’étude

    ….



    Au final il ne peut y avoir “que” des erreurs humaines <img data-src=" />




Tout ce que je dis depuis tout à l’heure c’est qu’une machine ne fait pas d’éthique et n’en fera jamais. Ou alors c’est Skynet.


Tes poids lourds conduits par IA, ils font comment à Calais pour s’assurer qu’aucun migrant ne monte dedans au péril de sa vie ?

Et si un migrant meurt, qui en est responsable ?








John Shaft a écrit :



Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.





D’une part la voiture n’aura qu’à suivre l’algorithme écrit pour ce cas de figure par des humains (enfant humain = 5000, adulte humain = 100, chien = 2, rat = 0.1).



D’autre part je ne connais aucun humain capable de rester attentif pendant deux heures les mains sur les genoux, ou de reprendre en urgence le contrôle de son véhicule alors qu’il ne sait même pas dans quelle direction sont orientées les roues.









Sigma42 a écrit :



http://www.01net.com/actualites/on-a-teste-la-meilleure-voiture-autonome-francaise-920569.html ???









Olbatar a écrit :



C’est curieux, tu disait pourtant le contraire il y a peu:





Non, si tu lis ma réponse à propos de Volvo je disais déjà que l’autonomie sur autoroute serait de la partie mais que ça ne représentait qu’une petite part du travail. Exactement ce que je t’ai ensuite répondu à propos de de tes deux articles.









carbier a écrit :



Ton système ressemble furieusement à unsystème chaotique. En gros un système parfaitement huilé jusqu’à ce qu’un incident arrive…





Je ne vois pas pourquoi un système de voitures autonomes s’échangeant des signaux serait plus chaotique ou dangereux qu’un système de conducteurs humains s’échangeant des signaux (feux arrières, clignotants, vision, etc).







carbier a écrit :



Si un incident arrive devant un véhicule autonome mais qu’elle n’a pas la distance pour freiner, elle fait quoi ? Sachant que sa décision entrainera une réaction en chaine sur tous les véhicules autonomes derrière ou à côté d’elle.





Mais les voitures en arrière sont déjà prises en compte par les bagnoles de Google dans leur algorithme de décision en cas d’accident.



Ces problèmes sont la base et ont été résolus il y a belle lurette.





Il va être difficile de modéliser la totalité des variables pouvant interférer avec la conduite…



C’est impossible mais peu importe : il suffit de faire mieux qu’un humain. Et les humains ne sont pas doués pour ce genre de tâches.





Je prends un autre exemple tout bête: une route inondée, comment l’IA va-t’elle savoir si la voiture peut passer ou pas ? A chaque flaque d’eau la totalité du trafic va s’arrêter ?

C’est un cas intéressant mais qui là aussi a déjà été pris en compte, en même temps que la neige, les landeaux abandonnés sur la route, la rentrée dans le garage, l’agent qui fait la circulation au milieu de la route, etc.



Arrête de prendre les autres pour des incompétents.









HarmattanBlow a écrit :



Arrête de prendre les autres pour des incompétents.





Je ne prends pas les gens pour des incompétents, je travaille dans le domaine des systèmes chaotiques et je sais faire la différence en un discours marketing et la réalité des problèmes rencontrés…









Sigma42 a écrit :



Tes poids lourds conduits par IA, ils font comment à Calais pour s’assurer qu’aucun migrant ne monte dedans au péril de sa vie ?

Et si un migrant meurt, qui en est responsable ?







Et qui est responsable quand un africain se planque dans le train d’atterrissage d’un avion de ligne et qu’il meurt gelé? Le pilote? L’équipe au sol? L’avion? Faut regarder avant tout les circonstances, il est mort de quoi ton migrant?



Mais même un humain ne fais pas ce choix…

Si tu vois la grand mère en premier, tu vas l’éviter, écraser le gosse, et provoquer une collision avec un autre véhicule qui va tuer son chauffeur.

Si tu vois le gosse en premier, tu vas l’éviter, écraser la rand mère, et rentrer dans une bagnole stationnée et te tuer.&nbsp;

Si tu vois les deux en même temps, tu panique et tu tues les deux.



Quand tu vois que tu va savoir un accident inévitable, tu freine a fond, et tu panique et voila. Tu ne fais pas de choix de conscience, tu ne fais même pas de choix du tout. L’ordi lui peut au moins en faire quelques-un comme le dis PtaH.



&nbsp;Si la question de ce que ferait l’ordi se pose, je ne comprends pas comment on peut dire que l’humain pourrait faire quelque chose de mieux, pourrait réfléchir (“oh bah je vais écraser des gens , réfléchissons deux minutes…” ). Il panique et pile et c’est tout.

&nbsp;








deepinpact a écrit :



Ah ben non, c’est un peu lâche comme réponse ça…



Allez dit moi, t’es pas un programme informatique, t’es dans ce cas précis tu fais quoi ???

Allez, c’est toi qui a amené le sujet sur le tapis !



Allez je t’aide !!!

T’as le choix, un enfant tout chti mignon avec toute la vie devant lui ou une sale vioque toute vieille avec le cancer, qui va bientôt canner, radine, riche et raciste en plus !





Forcément si tu mets la carotte sous le nez, le choix est vite fait, tu triches <img data-src=" />









HarmattanBlow a écrit :



D’une part la voiture n’aura qu’à suivre l’algorithme écrit pour ce cas de figure par des humains (enfant humain = 5000, adulte humain = 100, chien = 2, rat = 0.1).



D’autre part je ne connais aucun humain capable de rester attentif pendant deux heures les mains sur les genoux, ou de reprendre en urgence le contrôle de son véhicule alors qu’il ne sait même pas dans quelle direction sont orientées les roues.









Non, si tu lis ma réponse à propos de Volvo je disais déjà que l’autonomie sur autoroute serait de la partie mais que ça ne représentait qu’une petite part du travail. Exactement ce que je t’ai ensuite répondu à propos de de tes deux articles.







Je ne vois pas pourquoi un système de voitures autonomes s’échangeant des signaux serait plus chaotique ou dangereux qu’un système de conducteurs humains s’échangeant des signaux (feux arrières, clignotants, vision, etc).





Mais les voitures en arrière sont déjà prises en compte par les bagnoles de Google dans leur algorithme de décision en cas d’accident.



Ces problèmes sont la base et ont été résolus il y a belle lurette.





C’est impossible mais peu importe : il suffit de faire mieux qu’un humain. Et les humains ne sont pas doués pour ce genre de tâches.



C’est un cas intéressant mais qui là aussi a déjà été pris en compte, en même temps que la neige, les landeaux abandonnés sur la route, la rentrée dans le garage, l’agent qui fait la circulation au milieu de la route, etc.



Arrête de prendre les autres pour des incompétents.







Non, non c’est toi qui a mal lu tes propres posts tu te contredits d’un commentaire a l’autre, en plus de ne pas savoir de quoi tu parle…les constructeurs européen sont bien avancés sur les projets de voitures autonomes contrairement à ce que tu essayais de faire croire (troll?).









carbier a écrit :



Ton système ressemble furieusement à unsystème chaotique. En gros un système parfaitement huilé jusqu’à ce qu’un incident arrive…



Curieux de voir cela un jour…



Bienvenue dans le monde. Vous êtes chez vous.









carbier a écrit :



Je ne prends pas les gens pour des incompétents





Bien sûr que si : tu cites des cas élémentaires qui viennent tout de suite à l’esprit d’un ingénieur en te demandant s’ils y ont pensé après dix ans passés sur leur machin.



Oui ils y ont pensé et en fait ça n’a rien de compliqué.









carbier a écrit :



Faux: ça c’est que disent les rapports officiels. En fait dans 99% des cas, les catastrophes aériennes sont dus à un ensemble de circonstances dont les problèmes mécaniques et électroniques sont les premiers à intervenir.

Par exemple dans le vol Air France Rio-Paris qui s’est écrasé en mer: la panne initiale était due à un tube pitot qui avait givré. Dans ce cas ton pilote automatique est simplement en roue libre (incapable de savoir que les mesures qu’il lit sont fausses). Et le problème final c’est que le pilote n’était pas dans le cockpit et que le co-pilote a pris une mauvaise décision. Conclusion: erreur humaine (mais pas si simple)







Décidément je suis têtu…

Je comprends pas, si je comprends bien s’il n y avait pas eu de pilote auto, le copilote il aurait pris la bonne décision ou… Peut-être le pilote parce qu’il s’avait qu’il était avec un branque ne serait jamais parti sauter l’une des hôtesses et aurait pu gérer ce que le copilote (qui est un pilote à part entière) n’a pas su faire ?







carbier a écrit :



Non je veux simplement dire que je souhaite que l’humain reste responsable de ses choix. Donc un système d’aide accrue oui, mais seulement un système d’aide…



C’est assez marrant comme argument en fait. Car dans ce cas, tout le monde aurait une puce sous-cutanée pour nous tracer en permanence et nos décisions nous seraient dictées par des machines, comme cela plus de violence domestique, plus de crimes etc.







Non mais ne mélangeons pas tout… Je te parle pas de nous mettre dans la matrice là !

C’est la paradoxe de tes propos (et de beaucoup d’autres commentaires) que je pointe.



Il pourrait ne plus y avoir de conducteur du tout derrière les voitures dans un système de circulation (véhicules, feux de signalisation) 100% automatisé et donc interconnecté, que ce dernier serait moins dangereux que celui que nous avons.



S”agissant de ça, si on avait les moyens techniques (qui vont bien au delà des véhicules j’en conviens) de le faire tout de suite, il faudrait absolument ne pas le faire parce que ça générerait des accidents ?

Beaucoup, beaucoup moins… Mais bon…



C’est absolument pas logique !









John Shaft a écrit :



Tout ce que je dis depuis tout à l’heure c’est qu’une machine ne fait pas d’éthique et n’en fera jamais. Ou alors c’est Skynet.







Ah ben non tu vas pas t’en sortir avec une pirouette comme celle-ci…



Je te quote de nouveau





Le truc que ne pourra jamais faire un algorithme, c’est de faire des choix moraux et/ou éthiques (ça ne serait plus une machine sinon). Ce qu’un conducteur peut être amener à faire (j’écrase la p’tite vieille ou le petit enfant en essayant d’éviter la petite vieille ?). C’est à mon sens pour ça qu’il faille un humain capable de reprendre le contrôle du véhicule à tout moment.





Tu laisses entendre qu’il y aurait un choix plus moral (ou éthique c’est comme tu veux) entre écraser un enfant ou une vieille !

Donc, file nous la réponse, et nous on la file aux développeurs de véhicules autonomes…

C’est simple non ?










airfab a écrit :



Forcément si tu mets la carotte sous le nez, le choix est vite fait, tu triches <img data-src=" />







Ben ouais on est d’accord, on roule tous sur le gamin n’est-ce pas ? <img data-src=" />




  • le risque de la psychote, c’est pour ça qu’on n’innove pas.








    carbier a écrit :

    Sinon
    j’espère que ceux qui sont pour le full autonome ne sont pas les mêmes
    qui crient à Big Brother sur les news d’interception de données. <img data-src=" />



    Tu quoque psychote fili, il n’ y a pas de lien.

    C’est un véhicule qui va d’un point A à un point B. Pas de connexion nécessaire , pas plus que ton GPS n’en a.


Scoop raté, les plus avancé actuellement sur la routes pour les véhicules commercialisés sont les dernières BMW serie 7 et Mercedes classe S.

La BMW pourrait être autonome sur autoroute mais la loi ne l’autorise pas encore.&nbsp;



Audi prévoit la commercialisation pour 2017 et à déjà présenté une A7 Autonome au CES, qui a parcouru de nombreux KM dont en ville à Shangai:

http://www.turbo.fr/videos-voiture/465090-exclu-turbo-au-volant-d-une-audi-a7-en…

Capable d’être meilleur qu’un pilote sur Circuit:

http://www.autonews.fr/dossiers/industrie/196193-audi-rs7-prototype-autonome-rob…



Les constructeurs Français ne sont pas en reste puisque depuis que le gouvernement à autorisé les tests sur route ouverte, et le groupe PSA mène des tests, avec plusieurs milliers de KM parcouru:

http://www.lefigaro.fr/automobile/2015/10/06/30002-20151006ARTFIG00024-voiture-a…



http://www.metronews.fr/high-tech/voiture-autonome-une-citroen-relie-paris-a-bor…!zfuTmiSTpwuV6/



Et je ne parle même pas des différents équipementier qui ont présenté leurs solutions.



Bref, il y a des chances que la première voiture autonome soit une voiture Européenne, Allemande et Haut de gamme évidemment, Google à juste communiqué plus tôt, notamment dés le début des tests, mais les constructeurs sont aussi sur le pont.



En bonus, un bus autonome qui circule en France:

http://www.actu-environnement.com/ae/news/La-rochelle-experimentation-vehicule-s…

&nbsp;


J’écrase la vielle parce qu’elle est fringué comme une pouilleuse et que 10 contre un qu’elle n’a pas de papiers.



Ca te va comme réponse ?








will31 a écrit :



Scoop raté, les plus avancé actuellement sur la routes pour les véhicules commercialisés sont les dernières BMW serie 7 et Mercedes classe S.





Comme dit ailleurs, tant que c’est sur autoroute ou sur circuit et seulement dans des conditions normales, c’est facile.



Tout ça a l’air impressionnant mais c’est en fait à des années-lumières de Google.









HarmattanBlow a écrit :



Comme dit ailleurs, tant que c’est sur autoroute ou sur circuit et seulement dans des conditions normales, c’est facile.



Tout ça a l’air impressionnant mais c’est en fait à des années-lumières de Google.







Mets tes lunettes, retire ta mauvaise foi et relis à nouveau le commentaire #71 tout y est expliquer ta juste a faire preuve d’honnêteté!









John Shaft a écrit :



J’écrase la vielle parce qu’elle est fringué comme une pouilleuse et que 10 contre un qu’elle n’a pas de papiers.



Ca te va comme réponse ?







Non mais en fait tu fais ce tu veux hein… Les goûts et les couleurs… <img data-src=" />







Typiquement, un accident ça arrive parce que ton délai de décision est beaucoup trop restreint par rapport à ton temps d’action !



Quelqu’un qui serait dans un cas pareil (qui ne doit carrément pas arriver tous les jours) se contentera de freiner tout droit en espérant faire le moins de dégâts possible !



Heureusement que les innovateurs se prennent moins la tête que ça hein…???



La bonne vieille carte Michelin a encore de beau jours devant elle <img data-src=" />








barlav a écrit :



On ne conduit pas une voiture au GPS, que tu sois humain ou conducteur autonome. C’est juste débile comme principe.

<img data-src=" />





Oui, il y a heureusement une flopée d’autres capteurs également liés au système de cartographie-navigation dans les véhicules autonomes, mais pas de vrai système de navigation inertielle permettant de s’affranchir du calage satellitaire (ça coûterait plein de bras et les plus précis, qui seraient les plus adaptés, sont jalousement protégés par le secret défense de tous les pays qui en produisent).



Les succédanés utilisés sont utiles et performants dans beaucoup des conditions de circulation courantes (en ville, sur autoroutes et nationales bien entretenues ; par temps clair que ce soit de jour ou de nuit ; etc.).

Dès que l’on sort de cette enveloppe de performances - genre voie communale au marquage évanescent ou inexistant, par temps de pluie serrée (radars comme lidars pédalant alors dans la semoule du cluttering) - si le positionnement satellitaire n’est pas disponible (brouillage ou autre), ben, bonne chance avec un véhicule totalement autonome !



De plus, comme pour l’écrasante majorité des utilisations du GPS, c’est la fonction de donneur de temps ultraprécis qui est recherchée et utilisée dans les systèmes de navigation des véhicules autonomes, afin de synchroniser les signaux de tous ces autres capteurs.



l’écrasante majorité des utilisations du GPS n’ont rien à voir avec la localisation géographique et tout à voir avec leur capacité de donneurs de temps-durée ultraprécis.









MuadJC a écrit :



Moi ça me fait penser à I Robot, avec le volant que personne n’utilise (sauf W Smith)







Ouaip c’est comme ça dans Appleseed, avec un petit laïus sur l’impression de contrôle.



Il feraient mieux de plancher sur l’autonomie énergétique avec la récupération de l’énergie cinétique à l’aide de volant d’inertie. En lisant le titre de la new je pensais que c’était a ce sujet… eh ben j’ai été décu… <img data-src=" />









picoteras a écrit :



[…]

&nbsp;

De plus, comme pour l’écrasante majorité des utilisations du GPS, c’est la fonction de donneur de temps ultraprécis qui est recherchée et utilisée dans les systèmes de navigation des véhicules autonomes, afin de synchroniser les signaux de tous ces autres capteurs.



[…]





Gné ?

On ne savait pas synchroniser des bouts d’électroniques avant l’arrivée du GPS ?

Première nouvelle…









HarmattanBlow a écrit :



Tu m’étonnes. Je me souviens d’un gamin, Albert qu’il s’appelait, qui nous disait qu’on ne comprenait rien au temps, que tout ça était relatif, et qui partait dans ses délires à base de synchronisation d’horloge.



On l’a viré prompto, un bon débarras je te dis.





(je sais que c’est censé être une boutade, mais viré de quoi ?)

&nbsp;

Quand il s’agit de physique, toute explication nouvelle qui fonctionne est bonne à étudier. De plus quand il s’est attaqué à la relativité il avait déjà fait un beau travail concernant l’effet photo-électrique.



Respecter les limitations c’est une chose. Etre sûr de pouvoir s’arrêter au moins jusque là ou s’arrête le champ de vision en est une autre. Genre un virage un peu en épingle sans visibilté, c’est pas parce qu’il est limité a 70 et que “ça passe” à cette vitesse, qu’il ne faut pas ralentir hein ? Après il y aura toujours des situations difficiles qu’on ne pourra jamais éviter mais bon, être raisonnable c’est un plus quand même.








levhieu a écrit :



Gné ?

On ne savait pas synchroniser des bouts d’électroniques avant l’arrivée du GPS ?

Première nouvelle…





Avec la précision que donnent (quasi) gratuitement les satellites GPS en tous lieux (ou presque), non, on ne savait pas.









picoteras a écrit :



De plus, comme pour l’écrasante majorité des utilisations du GPS, c’est la fonction de donneur de temps ultraprécis qui est recherchée et utilisée dans les systèmes de navigation des véhicules autonomes, afin de synchroniser les signaux de tous ces autres capteurs.




 l'écrasante majorité des utilisations du GPS n'ont rien à voir avec la localisation géographique et tout à voir avec leur capacité de donneurs de temps-durée ultraprécis.








 Heu, pour synchroniser des capteurs à bord d'un véhicule (ou avion ou bateau), on n'a jamais eu besoin de GPS. Tu parles sans doute d'avoir des véhicules qui ont des temps identiques entre eux, afin de faciliter les échanges de données et les interactions en cas d'approche.      









picoteras a écrit :



Dès que l’on sort de cette enveloppe de performances - genre voie communale au marquage évanescent ou inexistant, par temps de pluie serrée (radars comme lidars pédalant alors dans la semoule du cluttering) - si le positionnement satellitaire n’est pas disponible (brouillage ou autre), ben, bonne chance avec un véhicule totalement autonome !






Le positionnement satellitaire n'est pas assez précis actuellement pour permettre de placer une voiture sur une route départementale avec précision du bon côté. J'imagine qu'un véhicule autonome a divers capteurs (dont caméra et caméra infrarouge) pour identifier son environnement.     



&nbsp;





levhieu a écrit :



Gné ?



 On ne savait pas synchroniser des bouts d'électroniques avant l'arrivée du GPS ?       

Première nouvelle...








Me suis dit pareil.


Et m…, l’Edit a tout cassé =&gt; j’efface








atomusk a écrit :



Non, la voiture n’ira pas chercher le compte facebook de la personne “à écraser” pour déterminer qui sera la personne qui mérite le moins de vivre avec un algo complexe.



Par contre elle verra la personne apparaître dans le champ de vision mieux que toi (un exemple, le cycliste dans cette video :https://youtu.be/tiwVMrTLUWg?t=12m31s il n’y a que la voiture automatique qui l’a vu, et a prévue son déplacement), pourra anticiper leur action plus rapidement que toi, agir de manière sure plus vite que toi (impossible de faire un coup de volant car il y a une voiture trop proche par exemple), et si il n’y a aucune solution d’évitement, potentiellement freiner du mieux possible pour limiter au mieux l’impact.

il n’ira pas tuer un autre passant parce que “yolo” <img data-src=" />



Apres si tu veux obliger les véhicules automatique à avoir un airbag à piétons, c’est possible, et la voiture sera même, à même de le déployer au meilleur moment





J’en ai ras le bol de ce type de commentaires. Ca te ferait pas chier un moment de te dire que la voiture autonome ne fait pas l’unanimité et qu’elle fait même peur ? Te foutre de la gueule de ceux qui sont contre la voiture autonome apporte quoi au débat, à part de la stérilité ?



Je fais partie de ces gens qui pensent que tout une panoplie d’informatique et d’électronique qui régit l’autonomie d’une bagnole ne remplacera jamais un conducteur. Si un être humain est imparfait, et donc, à fortiori, un conducteur, celui-ci peut réagir à n’importe quel type de situation. Une voiture autonome est bête et discipliné et, c’est bien tout ce qui me dérange.



Puisque, semble t-il, l’avenir de l’automobile, c’est tout de même la voiture autonome, je souhaite ardemment qu’un volant physique ainsi que des pédales physiques existent toujours dans une voiture autonome, pour qu’une personne puisse reprendre la main en cas de nécessité. Je souhaite également qu’un permis de voiture spécial “voiture autonome” soit créé, car un véhicule autonome n’est pas un véhicule classique. Ne doit monter dans l’habitacle que des personnes qui ont été formé par une auto-école à maîtriser un tel véhicule. La réglementation que veut imposer la Californie concernant les véhicules autonomes va dans le bon sens.



&nbsp;Et donc les avions avant le GPS avaient des capteurs et des actionneurs qui travaillaient sans être synchronisés ?








OlivierJ a écrit :



Heu, pour synchroniser des capteurs à bord d’un véhicule (ou avion ou bateau), on n’a jamais eu besoin de GPS. Tu parles sans doute d’avoir des véhicules qui ont des temps identiques entre eux, afin de faciliter les échanges de données et les interactions en cas d’approche.






Le positionnement satellitaire n'est pas assez précis actuellement pour permettre de placer une voiture sur une route départementale avec précision du bon côté. J'imagine qu'un véhicule autonome a divers capteurs (dont caméra et caméra infrarouge) pour identifier son environnement.     



 




Me suis dit pareil.







Le mot-clé ici n’est pas synchronisation, mais précision.



Ton GPS ayant une précision - d’au mieux - 5m sur ta postion, heureusement que la position satellite n’est pas utilisée pour te diriger sur ta route de campagne… (et je ne parle même pas de la variable précision de ta cartographie).


Ceux qui se pointent en entretien, tu leur décris un peu ton projet et ils te disent “va falloir changer ça”.

C’est terrible parce qu’ils s’imaginent qu’ils marquent des points en montrant qu’ils savent plein de choses, alors qu’en fait c’est l’inverse ça fait hyper prétentieux… <img data-src=" />








jeremyb a écrit :



Il a pas dit que la masse a raison. Juste que tu peux pas intégrer un gars travaillant seul dans une équipe. Et t’as pas forcément envie de voir débarquer dans ton équipe un gamin qui te regarde de haut parce qu’il a des idées et des compétences, alors que tu fais ton boulot, t’as l’expérience, mais peut-être pas le pif de génie qu’il faut pour révolutionner le monde.





Je ne pense pas qu’un développeur peut révolutionner l’informatique de façon comparable à un physicien qui peut révolutionner la physique (comme Einstein ou d’autres).

&nbsp;





ActionFighter a écrit :



<img data-src=" />



Intégrer un mec qui te dit que tout ce que t’as fait, c’est de la merde, et qu’il faut tout reprendre depuis le début, je comprends qu’on lui montre gentillement la porte si ce qu’il annonce n’est pas vraiment à la hauteur de ce qu’il essaie de vendre.





Je ne réponds peut-être pas à ton propos, mais concernant Einstein ou d’autres physiciens aux idées nouvelles, ils ne disent pas que l’existant est de la merde, mais plutôt que dans certains cas leur théorie explique mieux ou colle mieux à la réalité.









levhieu a écrit :



Et donc les avions avant le GPS avaient des capteurs et des actionneurs qui travaillaient sans être synchronisés ?





Re: le mot-clé n’est pas synchronisation mais précision.












PtaH a écrit :



“c’est qui le moins pire là? je la connais la vieille? je le connais le gamin? merde c’est la mere de ma femme, mais c’est le petit de mon meilleur pote, je fais quoi, boom”.

La voiture, elle s’en fout de qui est qui, elle va plutot calculer les probabilités de survie pour chaque impact.

Survie du piéton, ta survie, et survie post accident.





réponse A j’accélère (et réponse C je klaxonne, histoire de voir son regard)

<img data-src=" /> :PardonAuxFamilles:



Il y a plein de gens qui ont plein de peurs, et c’est pas pour autant qu’ils ont absolument raison ni que la loi doit aller dans leur sens.

La loi doit aller dans le sens de la sécurité de tous. Si la voiture autonome est prouvée meilleure que l’humain pour éviter les accidents dans 99% des cas et qu’il reste 1% ou elle se plante, ça sera toujours une belle avancée et il faut légiférer pour que ça arrive le plus vite possible.



Parce qu’au final la vraie question est là : est-ce qu’on préfère qu’il y ait plus de morts sur les routes, mais que ces morts soient causées par des humains, ou alors très peu de morts mais pour lesquels l’humain aurait pu éventuellement éviter l’accident.








levhieu a écrit :



&nbsp;Et donc les avions avant le GPS avaient des capteurs et des actionneurs qui travaillaient sans être synchronisés ?





C’est fantaisiste son histoire. Les capteurs sont branchés sur le calculateur, on ne synchronise rien (ou tout est synchronisé, comme on veut).







ErGo_404 a écrit :



Ceux qui se pointent en entretien, tu leur décris un peu ton projet et ils te disent “va falloir changer ça”.

C’est terrible parce qu’ils s’imaginent qu’ils marquent des points en montrant qu’ils savent plein de choses, alors qu’en fait c’est l’inverse ça fait hyper prétentieux… <img data-src=" />





Tout dépend de la façon dont on explique ce qui pourrait être amélioré.







picoteras a écrit :



Re: le mot-clé n’est pas synchronisation mais précision.





Mais ça ne rime à rien ton histoire. A bord d’un avion ou d’un véhicule, les capteurs sont branchés sur le calculateur de bord et il n’y a rien à synchroniser. De plus aucun capteur de ce genre n’a besoin d’une précision supérieure à disons 1 ms.









Dad09 a écrit :



Ton GPS ayant une précision - d’au mieux - 5m sur ta postion, heureusement que la position satellite n’est pas utilisée pour te diriger sur ta route de campagne… (et je ne parle même pas de la variable précision de ta cartographie).





Non seulement ce n’est pas mon GPS (j’espère que c’est le tien aussi), mais encore tu apportes de l’eau à mon moulin : dans les conditions que j’évoquais, avec les technos civiles d’aujourd’hui, un système totalement autonome serait paumé.









Romaindu83 a écrit :



J’en ai ras le bol de ce type de commentaires. Ca te ferait pas chier un moment de te dire que la voiture autonome ne fait pas l’unanimité et qu’elle fait même peur ? Te foutre de la gueule de ceux qui sont contre la voiture autonome apporte quoi au débat, à part de la stérilité ?



(…)







Je vois pas à quel moment il s’est moqué de quelqu’un dans son message… <img data-src=" />





Je fais partie de ces gens qui pensent que tout une panoplie d’informatique et d’électronique qui régit l’autonomie d’une bagnole ne remplacera jamais un conducteur. Si un être humain est imparfait, et donc, à fortiori, un conducteur, celui-ci peut réagir à n’importe quel type de situation. Une voiture autonome est bête et discipliné et, c’est bien tout ce qui me dérange.





Le fait que ça te dérange n’en fait pas une peur rationnelle non plus…





Puisque, semble t-il, l’avenir de l’automobile, c’est tout de même la voiture autonome, je souhaite ardemment qu’un volant physique ainsi que des pédales physiques existent toujours dans une voiture autonome, pour qu’une personne puisse reprendre la main en cas de nécessité. Je souhaite également qu’un permis de voiture spécial “voiture autonome” soit créé, car un véhicule autonome n’est pas un véhicule classique. Ne doit monter dans l’habitacle que des personnes qui ont été formé par une auto-école à maîtriser un tel véhicule. La réglementation que veut imposer la Californie concernant les véhicules autonomes va dans le bon sens.





Elle va dans le bon sens uniquement parce que l’on se dirige dans l’inconnu.

Rien n’indique par contre que ces décisions soient amenées à être définitives…









Romaindu83 a écrit :



[…]

Je fais partie de ces gens qui pensent que tout une panoplie d’informatique et d’électronique qui régit l’autonomie d’une bagnole ne remplacera jamais un conducteur.

&nbsp;[…]





Oui c’est vrai, je ne m’attends pas:




  • À ce qu’une machine prenne la route après avoir bu en ayant déjà du mal à trouver comment attacher sa ceinture

  • À ce qu’une machine prenne tous les risques pour «empêcher ce minable de me doubler» ou bien fasse une queue de poisson à «l’imbécile qui a pris 10mn pour doubler»

  • À ce qu’une machine se dise que les baillements irrépressibles et l’envie de fermer les yeux ne signifient rien de particulier quand il est 3h du matin et qu’on est parti à 21h.



    Mais ça n’empêche pas de poser la question: Sommes nous prêts à accepter qu’une machine entraine la mort ou même la blessure d’êtres humains ?

    En particulier pour leur famille, dire «vous savez il y a quand même moins de victimes qu’avant» n’est pas une consolation valable.



    Je ne pense pas que la voiture autonome soit socialement acceptable tant qu’on n’aura pas trouvé de réponse à cette question (ce qui implique de résoudre le problème de la responsabilité).



Nous sommes d’accord mais j’essaye de le convaincre de l’absurdité de ce qu’il avance en proposant des contre-exemples flagrants.








picoteras a écrit :



Re: le mot-clé n’est pas synchronisation mais précision.





Dans cet article signalé par je ne sais plus qui dans ces commentaireshttp://www.lemonde.fr/sciences/article/2012/03/23/sur-la-trace-des-brouilleurs-d… on peut lire :

“et même les banques, qui se servent des signaux satellites comme d’une horloge universelle pour dater des transactions financières au centième de seconde.”

Je suis quand même très surpris parce que dans notre monde connecté, et en particulier l’ordinateur d’une banque, le protocole NTP permet depuis bien longtemps d’être synchronisé à mieux d’un centième de seconde, surtout avec des ordinateurs rapides et des réseaux à faible latence (fibre).









picoteras a écrit :



Non seulement ce n’est pas mon GPS (j’espère que c’est le tien aussi), mais encore tu apportes de l’eau à mon moulin : dans les conditions que j’évoquais, avec les technos civiles d’aujourd’hui, un système totalement autonome serait paumé.





Je ne suis pas convaincu de ça, les capteurs se sont pas mal améliorés. Et je doute de toute façon que la solution passe par l’amélioration de la technologie GPS et de la cartographie.

&nbsp;

Mais le cas problématique que tu évoques est effectivement un souci, et c’est bien pour cela que tous les constructeurs parlent d’autonomie sur autoroutes, nationnales,… Choses qui vont arriver assez rapidement, et surement avant le véhicule autonome de Google, contrairement à ce que tu sembles penser.









deepinpact a écrit :



Ben ouais on est d’accord, on roule tous sur le gamin n’est-ce pas ? <img data-src=" />





Surtout si la vieille est célibataire <img data-src=" />









ErGo_404 a écrit :



Ceux qui se pointent en entretien, tu leur décris un peu ton projet et ils te disent “va falloir changer ça”.

C’est terrible parce qu’ils s’imaginent qu’ils marquent des points en montrant qu’ils savent plein de choses, alors qu’en fait c’est l’inverse ça fait hyper prétentieux… <img data-src=" />





J’ai un peu fait ça lors d’un stage.



La boîte a dit oui à ma proposition, qui était clairement cool sur le papier. Les 6 mois de stage passé, j’étais même pas à la moitié de ce que j’avais imaginé, sauf qu’ils ont été obligé de débourser trois fois après le stage plus pour finir le truc <img data-src=" />



Donc pour l’avoir vécu moi-même, même lorsque l’on a raison sur le fond, la réalité est souvent bien plus compliquée que de dire “on efface tout et on recommence”.







OlivierJ a écrit :



Je ne réponds peut-être pas à ton propos, mais concernant Einstein ou d’autres physiciens aux idées nouvelles, ils ne disent pas que l’existant est de la merde, mais plutôt que dans certains cas leur théorie explique mieux ou colle mieux à la réalité.





Sous l’Inquisition, c’est sûr qu’ils étaient plus polis <img data-src=" />



Oui, je caricature un peu le propos.









Dad09 a écrit :



Je ne suis pas convaincu de ça, les capteurs se sont pas mal améliorés.





Les capteurs sont efficaces mais ils ont des limitations physiques insurmontables lors de conditions météorologiques rares ou extrêmes, même pour les militaires.







Dad09 a écrit :



Et je doute de toute façon que la solution passe par l’amélioration de la technologie GPS et de la cartographie.





Qui a évoqué cette hypothétique “amélioration” ?







Dad09 a écrit :



Mais le cas problématique que tu évoques est effectivement un souci, et c’est bien pour cela que tous les constructeurs parlent d’autonomie sur autoroutes, nationnales,… Choses qui vont arriver assez rapidement, et surement avant le véhicule autonome de Google, contrairement à ce que tu sembles penser.





Comme je ne l’ai apparemment pas assez bien formulé, je crois que l’avènement des véhicules semi-autonomes est proche, viable et utile ; en particulier dans les conditions les plus fréquentes de circulation que sont les voies urbaines, les autoroutes, les routes nationales et les routes départementales bien entretenues.










jeremyb a écrit :



Il a pas dit que la masse a raison. Juste que tu peux pas intégrer un gars travaillant seul dans une équipe. Et t’as pas forcément envie de voir débarquer dans ton équipe un gamin qui te regarde de haut parce qu’il a des idées et des compétences, alors que tu fais ton boulot, t’as l’expérience, mais peut-être pas le pif de génie qu’il faut pour révolutionner le monde.







C’est pas nouveau, les gars qui ont un peu de génie et des idées personnelles n’ont pas le profil pour rentrer dans un grand groupe.



Ils ne sauraient même pas lécher les bottes devant la machine à café.





C’est un problème beaucoup plus simple que la plupart des gens s’imaginent. Mais ce n’est pas, comme l’indique Georges Hotz, un problème ne nécessitant qu’un seul gars et trois mois de travail. Il s’agit plutôt, vous savez, de milliers de personnes pendant deux ans





Il arrive parfois qu’un gars seul, mais génial ait de meilleures idées en 3 mois que des milliers de types moyens en 100 ans…



C’est juste que les grosses boites sont incapables de gérer des mecs talentueux.



Le crédo, c’est le larbin interchangeable et formaté, même s’il faut en aligner des milliers pour arriver à ses fins.



J’espère que ces mauvais ingénieurs qui conçoivent les systèmes automatisés de contrôles de voitures vont lire ce fil.



Il est évident qu’ils n’ont jamais réfléchi une seule seconde aux problématiques soulevées ici ces incompétents.








OlivierJ a écrit :



Je ne réponds peut-être pas à ton propos, mais concernant Einstein ou d’autres physiciens aux idées nouvelles, ils ne disent pas que l’existant est de la merde, mais plutôt que dans certains cas leur théorie explique mieux ou colle mieux à la réalité.





Si, il a détruit les théories en vogue à l’époque qui impliquaient un éther servant de médium au transport des ondes EM.



Quant à ma boutade, lui-même ne s’est fait virer de nulle part.



Autonome ou pas en 2015 il devrait etre interdit de circuler seul dans une voiture en centre ville.








SebGF a écrit :



J’espère que ces mauvais ingénieurs qui conçoivent les systèmes automatisés de contrôles de voitures vont lire ce fil.



Il est évident qu’ils n’ont jamais réfléchi une seule seconde aux problématiques soulevées ici ces incompétents.







La question du talent n’a jamais fait l’unanimité dans l’industrie.



Vaut t’il mieux mettre une armée d’ingénieurs dans une grosse boite ou quelques talents triés sur le volet dans une petite ?



Malheureusement, le nombre ne fait pas toujours la qualité. C’est particulièrement le cas dans les domaines fortement innovants.



L’exemple de google et de ses 2 gugus qui sont arrivés avec leur serveur plein de lego à balayer la puissante industrie du moteur de recherche et ses milliers d’ingénieurs devrait nous inciter à réfléchir.



Dans des temps plus anciens, on pourrait justement parler de l’exemple de Nicolas… Tesla.



Bref, si j’étais Elon Musk, je n’aurais pas laissé passer un potentiel talent qui peut toujours pondre la killer app chez un concurrent…





Georges est un hacker extraordinaire, mais vous ne faites pas du logiciel de production en hackant. Un hack ne fonctionne pas, un hack plante





Sauf qu’en l’occurrence, ce n’est pas un hack.



Et quand un concept fonctionne bien, il est toujours possible de le fiabiliser.







C’est quoi le niveau 5 si le 4 c’est déjà le niveau totalement autonome sans passager ?








Schumi a écrit :



C’est quoi le niveau 5 si le 4 c’est déjà le niveau totalement autonome sans passager ?





Il n’y en a pas, en revanche le compte commence à zéro : 0, 1, 2, 3, 4.

Cinq niveaux.



Je pense que tu n’as pas saisi l’objet de mon message <img data-src=" />



Juste qu’en lisant ce fil on a l’impression que les concepteurs de ces engins ne réfléchissent à aucune problématique.

Alors que ces engins ne datent pas d’hier et qu’ils ont déjà plusieurs milliers de kilomètres dans les processeurs… Et ne parlons pas des véhicules drones 100% autonomes qui existent déjà dans l’armée US.


Oops merci <img data-src=" />








SebGF a écrit :



Je pense que tu n’as pas saisi l’objet de mon message <img data-src=" />



Juste qu’en lisant ce fil on a l’impression que les concepteurs de ces engins ne réfléchissent à aucune problématique.

Alors que ces engins ne datent pas d’hier et qu’ils ont déjà plusieurs milliers de kilomètres dans les processeurs… Et ne parlons pas des véhicules drones 100% autonomes qui existent déjà dans l’armée US.







C’est certain…



Mais bon, ce que je voulais dire, c’est que malgré tout cela ça reste un domaine assez neuf pour qu’il soit encore possible de trouver des nouvelles approches. Même pour un gars tout seul.

En informatique, ça ne serait pas la première fois.









HarmattanBlow a écrit :



Scoop : aucun constructeur français ou européen ne prévoit de voiture autonome.



Pas grave, ça nous fera une industrie de moins, on n’est plus à ça près.



Scoop : tu dors dans une grotte depuis au moins 2 ans.

La plupart des constructeurs ont déjà fait des annonces en ce sens. Et Peugeot a déjà prévu de commercialiser des voitures autonomes dès l’an prochain (sur les grands axes, puis hors agglo en 2018 et quasi partout en 2020).



Je pense qu’on peut énumérer tous les boulots qui vont disparaître dans les années à venir.



Les taxistes… et leurs petits “copains” uberisés. (Oui, un jour ils seront tous d’accord… <img data-src=" />)

Les ambulanciers…

Les chauffeurs de bus…

Les routiers…

Les livreurs…



Et encore, ça n’est que ceux qui perdront leur emploi a cause des systèmes de conduite automatique.



Rappelez moi, nos politiques, ils en sont ou dans le débat ? Ah oui, ils fustigent l’assistanat et les chomeurs <img data-src=" />








SebGF a écrit :



J’espère que ces mauvais ingénieurs qui conçoivent les systèmes automatisés de contrôles de voitures vont lire ce fil.



Il est évident qu’ils n’ont jamais réfléchi une seule seconde aux problématiques soulevées ici ces incompétents.





Les équations de Navier Stokes datent du 19e siècle sont utilisées pour la prévision météorologique. C’est le principe même d’un système chaotique. Et pourtant les équations ne sont pas compliquées en soi, mais on ne peut les résoudre directement.

Tout cela pour dire que cela fait des dizaines (voire des centaines) d’année que des “ingénieurs” se sont penchés sur la question et sont posés les bonnes questions. Ils ne sont pas incompétents mais ils ne disposent pas des outils mathématiques nécessaires pour y répondre.

En fait les modèles sont même améliorés en fonction des erreurs de prévision rencontrées et donc de façon tout à fait empirique…



D’ailleurs la phrase



un logiciel taillé pour la production de masse et la prise en charge d’à peu près toutes les variables, capable d’ailleurs d’apprendre en continu et donc de s’enrichir avec le temps.



ne dit pas autre chose









sr17 a écrit :



Les taxistes… et leurs petits “copains” uberisés. (Oui, un jour ils seront tous d’accord… <img data-src=" />)

Les ambulanciers…

Les chauffeurs de bus…

Les routiers…

Les livreurs…







C’est la caisse autonome qui va charger le type à terre qui a fait un malaise ou bien qui va monter les 8 étages sans ascenseur en démolissant les escaliers ?

Par contre je suis pour la suppression de l’ambulancier chauffeur, ce sont des dangers publics qui foncent dans le tas et croient qu’ils sont prioritaires en permanence…







carbier a écrit :



Les équations de Navier Stokes datent du 19e siècle sont utilisées pour la prévision météorologique. C’est le principe même d’un système chaotique. Et pourtant les équations ne sont pas compliquées en soi, mais on ne peut les résoudre directement.

Tout cela pour dire que cela fait des dizaines (voire des centaines) d’année que des “ingénieurs” se sont penchés sur la question et sont posés les bonnes questions. Ils ne sont pas incompétents mais ils ne disposent pas des outils mathématiques nécessaires pour y répondre.

En fait les modèles sont même améliorés en fonction des erreurs de prévision rencontrées et donc de façon tout à fait empirique…



D’ailleurs la phrase



ne dit pas autre chose







D’où ce que je dis :




  • étude de nombreuses problématiques



  • expérience terrain continue

    Pour rappel, ils ont déjà plusieurs milliers de kilomètres dans les roues, donc ils doivent bien avoir eu au moins deux/trois cas de figure à la con non ?



    Et mieux encore pour l’apprentissage, ça bénéficiera à tous les modèles contrairement à celui d’un humain qui ne bénéficie qu’à lui-même, et accessoirement, peut apprendre des mauvais comportements.









deepinpact a écrit :



Probablement, dans 99% des cas (je trouve pas la statistique officielle), les catastrophes aériennes doivent être dues à des erreurs humaines (dans l’avion ou au sol) !





Et dans 100% des cas où le pilote auto était dépassé, ce sont les pilotes qui ont rattrapé l’avion !

Poser l’avion sans train avant, par exemple … cas bien plus nombreux que les catastrophes.



C’est tout l’art de la formulation.

Passer de “Il va falloir changer ça” à “On pourrait passer à tel outil pour obtenir tel résultat” fait toute la différence entre le candidat qui donne l’impression de se sentir supérieur au candidat qui peut réellement apporter quelque chose au projet.


Et pourtant tout porte à penser qu’une voiture automatique sera plus prudente, plus vigilante, plus respectueuse qu’un vrai conducteur.



balancer des “oui mais si il a pas le choix d’écraser quelqu’un” - alors qu’un pilote réel ferai pire qu’une voiture automatique - pour “justifier ses peurs” n’a pas de sens.



Alors oui, il ne faut pas imaginer que les voitures seront totalement automatique avant 5-10 ans je suis d’accord. que pendant toute une période d’avoir un conducteur “capable” au volant, pas de souci.



Mais refuser parce que “forcement ca sera moins bien qu’un humain”, c’est se fourrer un GROS doigt dans le nez.


Volrio-paris: dans un orage, les pilotes sont stressés, pendant 50 secondes, ils perdent les indications de vitesse ( les fameuses pitot). Pendant 50 secondes le calculateur de bord ne peut plus aider, puis l’avion redevient totalement opérationnel.



Pendant les 8 minutes qui ont suivit, le copilote - contre toute logique, contre la formation de tout les pilotes - a tiré le manche, et fait cabrer l’avion, jusqu’à ce que la vitesse de l’avion ne permette plus de le faire voler. Alors que le commandant demandait d’être le seul a contrôler l’avion, le copilote n’avait qu’une trouille, c’était de toucher l’eau, et donc a tiré le manche pour “monter”.



Alors oui, l’origine de l’accident a été un problème de capteur, mais pendant 8 minutes, avec un avion totalement opérationnel, son stress a causé le crash de l’avion. Pendant le décrochage, il aurait LACHE le manche, il serait sorti prendre un café, l’avion serait sorti du décrochage, et ne se serait pas crashé. Si pendant que le pitot était en rade, il avait gardé le cape/vitesse sans rien toucher, il n’y aurait eut aucun problème.








atomusk a écrit :



Et pourtant tout porte à penser qu’une voiture automatique sera plus prudente, plus vigilante, plus respectueuse qu’un vrai conducteur.





Tout dépend de ce que tu appelles un vrai conducteur.

En France il y a un accident tous les 500 000 déplacements (chiffre minoré), soit 0,0002% de chance d’avoir ou de provoquer un accident en se déplaçant.







atomusk a écrit :



balancer des “oui mais si il a pas le choix d’écraser quelqu’un” - alors qu’un pilote réel ferai pire qu’une voiture automatique - pour “justifier ses peurs” n’a pas de sens.





Concept intéressant: c’est quoi le “pire” pour toi?

Comment serait configurée l’IA d’un véhicule autonome ?




  • Sauver en priorité la vie des passagers ? Dans ce cas là, les cyclistes, piétons, motards devront savoir qu’en cas d’erreur de leur part, aucun pitié ne leur sera faite

  • Sauver en priorité la vie des “extérieurs” ? Dans ce cas là, les passagers devront savoir qu’ils roulent dans un cercueil ambulant







    atomusk a écrit :



    Mais refuser parce que “forcement ca sera moins bien qu’un humain”, c’est se fourrer un GROS doigt dans le nez.





    Cela ne sera pas moins bien qu’un humain cela sera différent. L’humain a ce côté irrationnel qui fait que tu ne peut jamais savoir quelle sera sa réaction et toute son interaction avec son environnement en joue.

    Prenons un exemple concret: si les véhicules autonomes sont conçus pour protéger le piéton en priorité, tu peux être sur que dans certaines villes de France, ceux-ci en profiteront pour traverser n’importe où et n’importe quand (ils le font déjà sur les passages piéton).



    En fait tu fais partie de ceux qui pensent qu’une IA est forcément mieux qu’un humain car on a supprimé tout le côté irrationnel









John Shaft a écrit :



C’est pas lâche, c’est humain <img data-src=" />



Remplace la p’tite vieille par le conducteur lui même. C’est pareil



Ce commentaire ne va ni dans ton sens, ni à l’opposé. Mais il a une similarité:



Avant hier, le soir je suis rentré comme d’hab en bagnole. La visibilité est vachement mauvaise en ville de nuit, si on y ajoute un peu d’humidité (gouttes ou condensation).

Je me méfie, je fait vachement gaffe à des piétons qui seraient peu visibles, car en tenu sombre (pas de gilet fluo, les piétons se croient visibles…).

J’arrive à une intersection en T, ou avant de tourner à droite je vais devoir regarder les bagnole à gauche (mais après avoir dépassé un obstacle occultant la vue). Je repère du coin de l’oeil (à peine) 2 piétons encore sur le trottoir et donc pas encore engagés sur le passage.

Mais j’ai failli ne pas voir le chien qui lui était déjà engagé, et plus proche qu’eux du véhicule…



Je me dis que la voiture automatisée l’aurait vue encore plus tôt que moi. J’ai eu du bol de le repérer au dernier moment, mon regard se portait à la hauteur “normale” d’un piéton, pas au ras du sol.









HarmattanBlow a écrit :



Je ne vois pas pourquoi un système de voitures autonomes s’échangeant des signaux serait plus chaotique ou dangereux qu’un système de conducteurs humains s’échangeant des signaux (feux arrières, clignotants, vision, etc).



Mais depuis quand les humains communiquent-ils entre conducteurs? ça se saurait!

ah oui, tu veux parler des coups de klaxon, appels de phare et insultes? ^^



Nan parce que les clignotants, j’en vois (en étant généreux) une fois sur deux maxi.



#boutade







Romaindu83 a écrit :



Une voiture autonome est bête et discipliné et, c’est bien tout ce qui me dérange.



Alors que l’être humain n’est que bête, et c’est ce qui nous dérange ^^





pour la suite de ton com, on est tous d’accord. Comme pour un avion.



Une nouvelle technologie arrive, et tout le monde a peur. Jusque là, rien de nouveau sous le soleil. Certains par contre prétendent qu’un nouvelle solution doit régler tous les problèmes. La voiture autonome n’a pas la possibilité de réduire le nombre de morts sur les route de Californie à zéro.



Par contre, si statistiquement, le nombre de tués sur la route diminue de manière significative avec des voitures autonomes (ce qui est fort vraisemblable), la mise en œuvre de cette technologie apporte un gain significatif. Par contre, l’individu ou ses proches qui ont été victime d’un accident vont vouloir demander des comptes à quelqu’un.&nbsp; Ils n’auront que faire de l’avantage du gain statistique.



C’est le même problème qui est posé par les vaccins. Statistiquement, c’est positif, individuellement, c’est insupportable pour celui qui aura été victime d’un accident de vaccination.



Je ne crois pas qu’il faille parler de durcissement de la réglementation, mais de la recherche d’un solution de recours en cas d’accident. Il ne sera pas possible de dire que les litiges consécutifs aux accidents de la route avec des voitures autonomes pourront se résoudre par “c’est la faut à pas de chance”.


+1








ActionFighter a écrit :



J’ai un peu fait ça lors d’un stage.



La boîte a dit oui à ma proposition, qui était clairement cool sur le papier. Les 6 mois de stage passé, j’étais même pas à la moitié de ce que j’avais imaginé, sauf qu’ils ont été obligé de débourser trois fois après le stage plus pour finir le truc <img data-src=" />



Donc pour l’avoir vécu moi-même, même lorsque l’on a raison sur le fond, la réalité est souvent bien plus compliquée que de dire “on efface tout et on recommence”.





<img data-src=" />







ActionFighter a écrit :



Sous l’Inquisition, c’est sûr qu’ils étaient plus polis <img data-src=" />



Oui, je caricature un peu le propos.





Surtout que l’Inquisition n’a pas empêché les astronomes de progresser, à l’écart (et l’Inquisition ne sévissait pas dans tous les pays ni avec la même virulence).

Pour l’héliocentrisme (dont Copernic), c’était déjà une idée qui rendait tellement plus simple les trajectoires des planètes.









psn00ps a écrit :



Mon n om est Bond. James Bond.





Oui j’avais aussi repensé à ce James Bond et au brouillage.







SebGF a écrit :



J’espère que ces mauvais ingénieurs qui conçoivent les systèmes automatisés de contrôles de voitures vont lire ce fil.



Il est évident qu’ils n’ont jamais réfléchi une seule seconde aux problématiques soulevées ici ces incompétents.





<img data-src=" /> C’est aussi ce que je me dis régulièrement en lisant des commentaires. Les gars derrière leur clavier qui pensent avoir des idées inédites, là où des ingénieurs ont déjà passé des mois voire des années sur la question.





HarmattanBlow a écrit :



Si, il a détruit les théories en vogue à l’époque qui impliquaient un éther servant de médium au transport des ondes EM





La notion d’éther a été déjà mise à mal avant lui, par l’expérience de Michelson qui l’a établi dès 1887 (cfhttps://fr.wikipedia.org/wiki/Exp%C3%A9rience_de_Michelson-Morley pour les détails pour tout le monde). Mais concernant les calculs astronomiques (ou trajectoires de fusées/sondes), les équations de Newton continuent de bien fonctionner dans la plupart des cas.









deepinpact a écrit :



Probablement, dans 99% des cas (je trouve pas la statistique

officielle), les catastrophes aériennes doivent être dues à des erreurs

humaines (dans l’avion ou au sol)&nbsp;





Ce n’est pas autant je crois, il y a quand même de vrais problèmes matériels, mais il me semble que c’est plus de 50 % (j’ai pas mal regardé la série de documentaires Dangers dans le ciel).

&nbsp;



tica68 a écrit :



Et dans 100% des cas où le pilote auto était dépassé, ce sont les pilotes qui ont rattrapé l’avion !

Poser l’avion sans train avant, par exemple … cas bien plus nombreux que les catastrophes.





Cf ci-dessus.









ptetbien a écrit :



Par contre, l’individu ou ses proches qui ont été victime d’un accident vont vouloir demander des comptes à quelqu’un.



Là dessus, rien de nouveau.

En revanche, les premiers à faire des procès vont gagner gros, les entreprises voulant étouffer toute publicité négative…





Au moins au lieu de reporter la faute sur un appareil (l’oreillette), un conducteur (faut pas qu’il ait bu un verre avant son trajet, ce sera l’assurance qui paiera), ce sera systématiquement le constructeur qui sera coupable d’un défaut dans la sécurisation du véhicule. Les tests de fiabilités seront donc renforcés aux max.









ActionFighter a écrit :



C’est bien connu, les DRH croisent des Einstein tous les jours <img data-src=" />





En tout cas, c’est clair que les DRH ne sont pas des einstein.



Quand j’en entends parler certains, on comprend vite comment des entreprises se retrouvent en difficulté et licencient des milliers de personnes l’année suivante.

(“les besoins de l’entreprise, pfff… c’est une blague voyons. Nous savons mieux que les équipes d’opérationnels ce dont ils ont besoin”: entendu de la bouche même d’un rh<img data-src=" />)



Ce genre de cas est moins fréquent (catastrophe aérienne) que le rattrapage in extrémiste de l’avion grâce au sang froid/expérience du pilote. Les catastrophes aériennes étant plus “médiatiques” que les petits incidents au quotidien, ceci expliquant cela.

Un pilote n’est pas infaillible mais essaie de faire poser un avion à Madère, par gros vent, à un pilote auto .. .qu’on rigole 5 minutes.

Véhicule autonome à 100%, quand y a un rail en dessous passe encore … maintenant avion ou voiture, faut revoir la copie. L’obligation de pouvoir reprendre la main est une bonne chose à mon sens.








js2082 a écrit :



En tout cas, c’est clair que les DRH ne sont pas des einstein.



Quand j’en entends parler certains, on comprend vite comment des entreprises se retrouvent en difficulté et licencient des milliers de personnes l’année suivante.

(“les besoins de l’entreprise, pfff… c’est une blague voyons. Nous savons mieux que les équipes d’opérationnels ce dont ils ont besoin”: entendu de la bouche même d’un rh<img data-src=" />)





Je parlais de DRH pour la forme, il est vrai que ce sont loin d’être le mètre-étalon de la bonne marche d’une entreprise…









Romaindu83 a écrit :



J’en ai ras le bol de ce type de commentaires. Ca te ferait pas chier un moment de te dire que la voiture autonome ne fait pas l’unanimité et qu’elle fait même peur ? Te foutre de la gueule de ceux qui sont contre la voiture autonome apporte quoi au débat, à part de la stérilité ?




Je fais partie de ces gens qui pensent que tout une panoplie d'informatique et d'électronique qui régit l'autonomie d'une bagnole ne remplacera jamais un conducteur. Si un être humain est imparfait, et donc, à fortiori, un conducteur, celui-ci peut réagir à n'importe quel type de situation. Une voiture autonome est bête et discipliné et, c'est bien tout ce qui me dérange.





Personnellement, je me base sur les avions déjà autonomes, qui pourraient très bien décoller, naviguer, et atterrir tout seuls, mais où la présence humaine est requise et utilisée.



Je vois donc donc un futur assez proche où ce sera à peu près la même chose : beaucoup d’automatisme, mais avec une possibilité de reprise en main à tout moment du conducteur.



Ceci dit, ce n’est pas si simple : un avion n’a pas dix mille avions autour qui le frôlent, qui sont&nbsp; juste devant et derrière, des piétons qui passent devant, du verglas, etc…

Comment déterminer la responsabilité du conducteur si un accident se produit et qu’à ce moment-là il trifouillait dans la boîte à gants ou qu’il roulait un patin à sa copine ?



&nbsp;Faudra-t-il obliger le conducteur à rester les yeux rivés sur la route ??



&nbsp;Comment garder sa vigilance dès lors que le volant tourne tout seul, que ça freine et accélère tout seul, que ça double les véhicules lents ???

Déjà qu’en temps normal avec le régulateur de vitesse sur autoroute la somnolence s’installe…<img data-src=" />



Si le pilotage automatique existe, même très imparfait, et qu’il économise un bon pourcentage de tués/blessés/accidents (pourcentage acceptable qui reste à déterminer), devra-t-on s’accommoder des erreurs en ne se basant que sur les statistiques ?



Ce sera dommage pour le gars qui se verra foncer sur un platane délibérément par temps clair sans raison suite à un bogue, OK cas extrême on peut en prendre d’autres, qu’importe, mais ce sera acceptable si d’un autre côté plein de vies auront par ailleurs été épargnées…








tica68 a écrit :



Ce genre de cas est moins fréquent (catastrophe aérienne) que le rattrapage in extrémiste de l’avion grâce au sang froid/expérience du pilote. Les catastrophes aériennes étant plus “médiatiques” que les petits incidents au quotidien, ceci expliquant cela.

Un pilote n’est pas infaillible mais essaie de faire poser un avion à Madère, par gros vent, à un pilote auto .. .qu’on rigole 5 minutes.

Véhicule autonome à 100%, quand y a un rail en dessous passe encore … maintenant avion ou voiture, faut revoir la copie. L’obligation de pouvoir reprendre la main est une bonne chose à mon sens.







Je vous suggère de réétudier les catastrophes aérienne pour comprendre que les avions munis d’un calculateur comme celui de l’A320 ont sauvé la mise plus d’une fois en empêchant l’avion de se retourner lors d’un crash.



Rappelons pour ceux qui ne connaissent pas l’informatique qu’un calculateur est capable de réactions beaucoup plus rapides et précises qu’un humain.










Romaindu83 a écrit :



J’en ai ras le bol de ce type de commentaires. Ca te ferait pas chier un moment de te dire que la voiture autonome ne fait pas l’unanimité et qu’elle fait même peur ? Te foutre de la gueule de ceux qui sont contre la voiture autonome apporte quoi au débat, à part de la stérilité ?



Je fais partie de ces gens qui pensent que tout une panoplie d’informatique et d’électronique qui régit l’autonomie d’une bagnole ne remplacera jamais un conducteur. Si un être humain est imparfait, et donc, à fortiori, un conducteur, celui-ci peut réagir à n’importe quel type de situation. Une voiture autonome est bête et discipliné et, c’est bien tout ce qui me dérange.



Puisque, semble t-il, l’avenir de l’automobile, c’est tout de même la voiture autonome, je souhaite ardemment qu’un volant physique ainsi que des pédales physiques existent toujours dans une voiture autonome, pour qu’une personne puisse reprendre la main en cas de nécessité. Je souhaite également qu’un permis de voiture spécial “voiture autonome” soit créé, car un véhicule autonome n’est pas un véhicule classique. Ne doit monter dans l’habitacle que des personnes qui ont été formé par une auto-école à maîtriser un tel véhicule. La réglementation que veut imposer la Californie concernant les véhicules autonomes va dans le bon sens.







Et donc à cause de cette catégorie de gens qui ont peur de la nouveauté, on devrait rester là ou on en est?



Heureusement que non, et qu’a l’époque ou tes ancêtres défendaient la calèche et le cheval, ‘parceque tu vois, le cheval il ressent le danger, et le cocher il a plus de temps de réaction que dans ces maudites carioles motorisées’, on ne les a pas écouté et on a quand même décidé d’avancer technologiquement.





Pas la peine de t’exciter par contre, ca ferait chier que ton coeur s’emballe et que tu te retrouves forcé d’utiliser un Pacemaker dans le futur, tu sais, cette petite pièce de technologie que certains doivent encore et toujours tant décrier.









tica68 a écrit :



Véhicule autonome à 100%, quand y a un rail en dessous passe encore … maintenant avion ou voiture, faut revoir la copie.



&nbsp; Avec ou sans rail, conduire une voiture reste très basique. &nbsp;

Les seules actions importantes possibles sont de tourner les roues vers la gauche ou la droite et accélérer ou ralentir.

Pour faire large, on peut découper chacune de&nbsp; ces actions en différents degrés et ça nous fait 5 possibilités pour la direction et 5 pour la vitesse.&nbsp;

&nbsp;&nbsp;

A chaque instant, la voiture (que le conducteur soit humain ou non) n’a le choix que parmi 25 actions au total.

En cas d’urgence, il y a encore moins de possibilités. Un arbre de décision pour ce genre de choses n’a pas de complexité.

&nbsp;La principale difficulté d’une automatisation réside dans la détection et l’interprétation de l’environnement (savoir si on roule à coté d’un mur ou d’un camion, savoir à quelle vitesse les voitures autour vont, etc)&nbsp;

Une fois ces interprétations faites correctement, le processus de décision est enfantin.



L’obligation de pouvoir reprendre la main est une bonne chose à mon sens.

&nbsp;

Le temps que les véhicules fassent leurs preuves, oui assurément.&nbsp;

&nbsp;

A noter: avec une flotte de véhicules majoritairement automatisée, il n’y aurait quasiment plus rien à faire: une simple règle du genre “maintenir une distance de sécurité donnée avec l’environnement” suffirait à pallier à tous les problèmes, un peu comme les bancs de poisson (qui réagissent justement à cette règle simplissime)&nbsp;

A noter bis: en cas de danger, la règle n°1 pour humain ou machine, c’est freiner. Les changements de direction servent peu quand le danger est immédiat, et l’accélération est très très très exceptionnellement une meilleure option.









paradise a écrit :



Déjà qu’en temps normal avec le régulateur de vitesse sur autoroute la somnolence s’installe…<img data-src=" />



Si tu n’avais pas abordé ce point j’allais en faire part.

En effet pour moi qui ai un modèle basique, quand j’utilise une voiture avec ça, ça fait bizarre.

Ceux qui l’utilisent tous les jours doivent s’y habituer.

Mais les gens (enfin j’espère) ne croisent pas pour autant leurs jambes sur l’autoroute.



Selon moi, oui, un conducteur passif doit rester vigilant.

Après, pas besoin des véhicules autonomes pour que des camionneurs regardent la TV ou que la passagère fasse une gâterie. On peut parler des gens le téléphone à l’oreille (à l’époque des oreillettes), du père qui se tourne pour gronder ses enfants, de la personne qui retire sa veste dans les bouchons où celle qui se maquille/coiffe. d’autres parleront du GPS/telephone/radio que l’on tripote. etc…



ps:

En revanche, puisque tu parles de somnolence, ça pourrai aussi (paradoxalement) éviter ce genre de pépin. Vu que la somnolence est parait-il très fréquente sur nos routes.









Faith a écrit :



A noter bis: en cas de danger, la règle n°1 pour humain ou machine, c’est freiner. Les changements de direction servent peu quand le danger est immédiat, et l’accélération est très très très exceptionnellement une meilleure option.



Je pense que le danger numéro 1 va être l’adaptation des véhicules actuels à ceux autonomes. Car l’humain ne respecte justement pas cette distance de sécurité, ni la vitesse, ni le clignotant,…









MuadJC a écrit :



Je pense que le danger numéro 1 va être l’adaptation des véhicules actuels à ceux autonomes.





Dans ce sens là, oui en effet. Vivement qu’il n’y ait plus de conducteur humain sur les routes.









MuadJC a écrit :



Si tu n’avais pas abordé ce point j’allais en faire part.

En effet pour moi qui ai un modèle basique, quand j’utilise une voiture avec ça, ça fait bizarre.

Ceux qui l’utilisent tous les jours doivent s’y habituer.

Mais les gens (enfin j’espère) ne croisent pas pour autant leurs jambes sur l’autoroute.



Selon moi, oui, un conducteur passif doit rester vigilant.

Après, pas besoin des véhicules autonomes pour que des camionneurs regardent la TV ou que la passagère fasse une gâterie. On peut parler des gens le téléphone à l’oreille (à l’époque des oreillettes), du père qui se tourne pour gronder ses enfants, de la personne qui retire sa veste dans les bouchons où celle qui se maquille/coiffe. d’autres parleront du GPS/telephone/radio que l’on tripote. etc…



ps:

En revanche, puisque tu parles de somnolence, ça pourrai aussi (paradoxalement) éviter ce genre de pépin. Vu que la somnolence est parait-il très fréquente sur nos routes.









Question d’habitude je pense le régulateur comme tu le dis.



Perso, à partir de 50, à la moindre occasion j’enclenche le régulateur (pas limitateur, mais bien régulateur).

Je ne croise biensur pas les jambes, ca n’est pas le but mais aucune lassitude.



Et quand je vois ce que certaines bagnoles de série font actuellement, je suis fan.

La passat, en boite auto par exemple. Tu te calles à une certaine distance de la voiture de devant et tu lui demande de mémoriser.

Dans les bouchons par exemple, tu laisses la distance désirée, et la voiture se charge d’avancer/freiner. Fini la galere des bouchons ou tu te fais chier à faire point mort, premiere, deuxieme, freinage, premiere, accoup, point mort, arret, pendant des dizaines de km.









sr17 a écrit :



Rappelons pour ceux qui ne connaissent pas l’informatique qu’un calculateur est capable de réactions beaucoup plus rapides et précises qu’un humain.





Et que des réactions très rapides et très précises ne sont pas toujours suffisantes … faut&nbsp; juste la réaction adaptée.

Homme ou machine ? je choisi l’homme dans un avion pour le moment, surtout dans mon exemple de Madère.

Dans ces conditions les pilotes sont tous en manuel …. étrange, n’est-il pas ?



Un autre exemple : de l’autre côté de l’autoroute je vois un accident se produire avec un poids lourd : je peux anticiper sur le fait que ce dernier pourrait traverser&nbsp; le terre-plein central, la machine ne le verra pas forcément avec les glissières au milieu.



Pardon, mais j’insiste : la voiture ronronne en avançant toute seule depuis deux heures sur l’autoroute, il est 23 heures, comment garder toute sa vigilance quand on ne tient même plus le volant, qu’on la laisse dépasser toute seule les autres véhicules, qu’on n’a rien à faire ??



Je ne suis pas du tout contre le principe des véhicules autonomes, je me pose simplement des questions.


Quand j’ai lu Tesla et autonome, j’avoue que j’ai plus pensé à un véhicule fonctionnant à l’énergie libre…&nbsp;








MuadJC a écrit :



tu veux parler des coups de klaxon, appels de phare et insultes? ^^.







Ouais mais ça marche pas comme méthode de communication.

“Connard” n’est pas une clé unique <img data-src=" />









tica68 a écrit :



Et que des réactions très rapides et très précises ne sont pas toujours suffisantes … faut  juste la réaction adaptée.







Justement, une machine bien programmée a des réactions bien plus sûres et prévisibles qu’un humain.



D’ailleurs, bon nombre d’entraînements ont pour but de conditionner l’humain pour qu’il ait des réactions déterminées. C’est logiquement plus facile avec un ordinateur…





Homme ou machine ? je choisi l’homme dans un avion pour le moment, surtout dans mon exemple de Madère.

Dans ces conditions les pilotes sont tous en manuel …. étrange, n’est-il pas ?





Non, ce n’est pas étrange. Simplement compréhensible d’un point de vue juridique…



Quand il faut garantir à 100%, on préfère se cantonner aux cas les plus simples.



Un pilote est bien moins fiable…. mais une déficience d’un pilote sera bien mieux acceptée que celle d’un ordinateur. Le pilote, c’est un excellent bouc émissaire, particulièrement quand il est mort.



Et au passage, sur bon nombre d’avions, il n’existe tout simplement plus de vrai mode manuel. C’est bien l’ordinateur qui pilote les servocommandes et il est programmé pour refuser certains ordres ou éviter certaines dérives. C’est justement l’intervention de ces mécanismes qui ont permis aux pilotes de mieux contrôler des atterrissages d’urgence alors qu’en mode manuel complet, ils n’y seraient très vraisemblablement pas parvenus.









paradise a écrit :



Un autre exemple : de l’autre côté de l’autoroute je vois un accident se produire avec un poids lourd : je peux anticiper sur le fait que ce dernier pourrait traverser&nbsp; le terre-plein central, la machine ne le verra pas forcément avec les glissières au milieu.&nbsp;





C’est effectivement facile d’anticiper assis sur son fauteuil, devant le PC.

Au volant d’une voiture, à 130km/h, je doute d’une part que tu observes beaucoup les voies inverses (normalement tu te concentres un peu plus sur ta propre voie…), d’autres part quand bien même tu aurais les yeux sur l’autre voie, il faut que tu aies le temps de comprendre ce qu’il s’y passe, d’observer le camion se diriger vers toi et imaginer qu’il va venir sur ta voie.



Il faut par ailleurs que tout ça ce soit passé suffisamment vite pour que tu n’aies pas dépassé le camion (qui arrive à 230km/h relativement à ta voiture).



Enfin, il faudra que tu aies la bonne réaction. Quelle est-elle ? probablement pas l’embardée vers la droite que tu vas faire, pris de panique à l’idée d’un énorme camion venant écraser ta clio…









Faith a écrit :



C’est effectivement facile d’anticiper assis sur son fauteuil, devant le PC.

Au volant d’une voiture, à 130km/h, je doute d’une part que tu observes beaucoup les voies inverses (normalement tu te concentres un peu plus sur ta propre voie…), d’autres part quand bien même tu aurais les yeux sur l’autre voie, il faut que tu aies le temps de comprendre ce qu’il s’y passe, d’observer le camion se diriger vers toi et imaginer qu’il va venir sur ta voie.



Il faut par ailleurs que tout ça ce soit passé suffisamment vite pour que tu n’aies pas dépassé le camion (qui arrive à 230km/h relativement à ta voiture).



Enfin, il faudra que tu aies la bonne réaction. Quelle est-elle ? probablement pas l’embardée vers la droite que tu vas faire, pris de panique à l’idée d’un énorme camion venant écraser ta clio…







Oui, d’ailleurs imaginons que dans le futur les véhicules communiquent et que le camion puisse donner sa position aux autres véhicules autour. Ta voiture saura bien avant toi qu’un camion va traverser le terre plein central. Et il le saura même si toi tu ne le vois pas à cause de la végétation…



Et comme tu dit, rare sont les conducteurs à avoir de bonnes réactions en cas d’urgence. Il suffit de voir toutes les vidéo d’accident sur youtube pour s’en rendre compte.



J’ai personnellement bien plus confiance dans une machine que dans un humain…


Il n’y a pas que l’aspect juridique … les ordinateurs d’un avion sont incapables d’atterire dans de telles conditions. C’est pas moi qui le dit, ce sont tous les experts qui viennent s’exprimer après chaque catastrophe aérienne. Si les avions étaient capables de tout faire seuls, pour des histoire de coût (plus de gréves des pilotes, par exemple) les compagnies l’auraient déjà mis en place. L’histoire de l’assurance ne tient pas, à mon sens, suffit de définir un nouveau cadre juridique sur la responsabilité en cas de crash. Si cela n’est pas encore fait c’est que les pilotes, aux yeux de beaucoup et surtout à ceux qui sont en charge de l’aviation commerciale, sont encore et de loin les plus qualifiés.

Effectivement aujourd’hui sur les avions de ligne, les calculateurs imposent des limites d’amplitude des commandes mais cela n’empêche pas tout : exemple malheureux et récent du co pilote qui s’est suicidé.

Et cela reste un mode “manuel” tout de même, il n’y a pas de machine qui prend la décision d’aller à droite ou à gauche … le décisionnaire reste le pilote.



Mais au delà des aspects techniques, du pour ou contre les machines conduisant à notre place … cela pose un problème plus général sur la place de l’homme avec de tels “robots”. Par envie (dérive ?) de tendre vers une société du zéro risque, doit-on abandonner certaines de nos capacités ?



Toujours est-il qu’au regard des softs qui nous sont servis par les boîtes qui développent aujourd’hui des voitures autonomes, ça me donne franchement pas envie de monter dans un truc roulant buggué !


La machine s’astreint de l’alcool et de la somnolence au volant, c’est déjà pas mal.








tica68 a écrit :



Il n’y a pas que l’aspect juridique … les ordinateurs d’un avion sont incapables d’atterire dans de telles conditions. C’est pas moi qui le dit, ce sont tous les experts qui viennent s’exprimer après chaque catastrophe aérienne. Si les avions étaient capables de tout faire seuls, pour des histoire de coût (plus de gréves des pilotes, par exemple) les compagnies l’auraient déjà mis en place. L’histoire de l’assurance ne tient pas, à mon sens, suffit de définir un nouveau cadre juridique sur la responsabilité en cas de crash. Si cela n’est pas encore fait c’est que les pilotes, aux yeux de beaucoup et surtout à ceux qui sont en charge de l’aviation commerciale, sont encore et de loin les plus qualifiés.







Je t’engage juste à regarder ce dont est capable un Rafale en matière de pilotage automatique pour comprendre que ces “paroles d’experts” sont vraisemblablement mal comprises.



Faire atterrir un avion est bien moins compliqué que de conduire une voiture dans la circulation. Pas de situation d’obstacles complexes en proximité, de nombreux capteurs qui fournissent déjà la plupart des données nécessaires, une cartographie des aéroports facile à réaliser, des plans de vol et d’approches prédéterminés.



Le problème, c’est que quand un avion s’écrase, ce n’est pas toujours le pilote qui est en cause. Les conditions extrêmes ou une panne mécanique sont souvent la cause du problème. Et un calculateur ne peut faire ce qui est impossible.



La situation ou l’on accuserait un calculateur d’avoir causé un accident alors qu’il n’aurait simplement pas pu sauver l’avion compte tenue des conditions arriverait très rapidement avec une polémique immédiate “un humain aurait pu sauver l’avion”, que cela soit vrai ou non.



Il faut donc bien comprendre le “pas possible”, non pas d’un point de vue technique, mais bien par rapport à l’ensemble des contraintes de responsabilité qui sont posées…





Effectivement aujourd’hui sur les avions de ligne, les calculateurs imposent des limites d’amplitude des commandes mais cela n’empêche pas tout : exemple malheureux et récent du co pilote qui s’est suicidé.

Et cela reste un mode “manuel” tout de même, il n’y a pas de machine qui prend la décision d’aller à droite ou à gauche … le décisionnaire reste le pilote.





Le contrôle automatique n’est simplement pas programmé pour gérer ce type de situation.



Mais il le pourrait assez facilement…





Mais au delà des aspects techniques, du pour ou contre les machines conduisant à notre place … cela pose un problème plus général sur la place de l’homme avec de tels “robots”. Par envie (dérive ?) de tendre vers une société du zéro risque, doit-on abandonner certaines de nos capacités ?





Bonne question. Pour être honnête, je ne pense pas que la conduite d’une automobile à Paris me manquera…



Je pense sincèrement que toutes les taches que la machine supprimera ne seront pas des “capacités”, mais d’abord des tâches abrutissantes.





Toujours est-il qu’au regard des softs qui nous sont servis par les boîtes qui développent aujourd’hui des voitures autonomes, ça me donne franchement pas envie de monter dans un truc roulant buggué !





Est tu au courant qu’on roule déjà depuis longtemps dans des voitures ou une erreur commise par un calculateur peut te couter la vie ?



Si un calculateur d’ESP se trompe, ta voiture va dans le décor <img data-src=" />



Bien sûr, la conduite entièrement automatique pose des complexités bien plus grandes et des risques d’erreurs bien plus importants.



Tout dépendra de la rigueur de développement et des méthodologies employées. Mais l’expérience finira certainement par rendre ces systèmes très fiables. La perfection n’existe pas, mais il faut arriver a diminuer significativement le nombre mort par rapport à la conduite humaine.









wrongillusion a écrit :



J’ai personnellement bien plus confiance dans une machine que dans un humain…







Beaucoup de gens répondront sans doute le contraire.



Cela est du à ce que les gens connaissent de l’électronique grand public “à bas cout” dont la fiabilité n’est pas légendaire.



Ce que les gens ignorent, c’est qu’en fonction de comment un système est élaboré, il peut être d’une fiabilité quasi absolue ou complètement désastreuse.



Simple différence de conception.




C’est une question de responsabilité.



Actuellement, s’il y a un mort dans un accident de voiture, il y a forcément un responsable : le conducteur, le fabricant, un piéton… Dans l’immense majorité des cas, l’enquête permet de savoir qui doit indemniser qui.



Avec les véhicules autonomes, se pose la question de la responsabilité de l’ordinateur de bord : si l’ordinateur prend la décision d’écraser une poussette sur le trottoir au lieu de foncer dans un groupe de piétons en face, qui sera le responsable de cette décision ? Le propriétaire de la voiture, le conducteur, le développeur, le fabricant… ? La loi ne permet pas aujourd’hui de répondre à cette question.








paradise a écrit :



Un autre exemple : de l’autre côté de l’autoroute je vois un accident se produire avec un poids lourd : je peux anticiper sur le fait que ce dernier pourrait traverser  le terre-plein central, la machine ne le verra pas forcément avec les glissières au milieu.





Juste tu me parais bien pretencieux sur tes capacites d’evaluations de trajectoires, de vitesse de chacun et autres.



Serieusement, ca t’es deja arrive genre un carambolage sur tes 3 voies avec un caravane impliquee?

Tu ne peux pas anticiper chaque projectile et rebond dans ce billard, tu freines et tu pries, c’est la seule issue viable Et on parle d’un differentiel de 130km/h max sur ta vision directe.



Alors nous vendre l’idee que tu saurais anticiper un poid lourd en porte feuille qui a deja traverse 2 voix, percute un rail en matiere non evalue, et selon sa repartition de cargaison, tu saurais prendre la bonne decision en 14 de seconde…….



Restons humains, et surtout modestes, que diable!









sr17 a écrit :



Beaucoup de gens répondront sans doute le contraire.



Cela est du à ce que les gens connaissent de l’électronique grand public “à bas cout” dont la fiabilité n’est pas légendaire.



Ce que les gens ignorent, c’est qu’en fonction de comment un système est élaboré, il peut être d’une fiabilité quasi absolue ou complètement désastreuse.



Simple différence de conception.





Tout le problème, actuellement, est là.&nbsp;

Qu’ils développent des solutions au moins aussi fiables qu’en aéronautique … après on pourra en rediscuter.

Google et Apple (pour les plus médiatiques) développent de la caisse autonome ??? <img data-src=" /> (j’exagères un peu il est vrai)

&nbsp;



Est tu au courant qu’on roule déjà depuis longtemps dans des voitures ou une erreur commise par un calculateur peut te couter la vie ?



Si un calculateur d’ESP se trompe, ta voiture va dans le décor <img data-src=" />



L’Esp se déclenche qu’en cas de panade, donc s’il se goure à ce moment là … le résultat n’est finalement pas si différent sans lui.&nbsp;<img data-src=" />



Bonne question. Pour être honnête, je ne pense pas que la conduite d’une automobile à Paris me manquera…



Je pense sincèrement que toutes les taches que la machine supprimera ne seront pas des “capacités”, mais d’abord des tâches abrutissantes.



Seule situation où le véhicule la voiture autonome prend de l’intérêt. De plus la route n’est pas ouverte qu’aux seules voitures.









tica68 a écrit :



L’Esp se déclenche qu’en cas de panade, donc s’il se goure à ce moment là … le résultat n’est finalement pas si différent sans lui.&nbsp;<img data-src=" />&nbsp;





Mais qui juge que c’est la panade ?