Éthique des voitures autonomes : « premières lignes directrices au monde » en Allemagne

Éthique des voitures autonomes : « premières lignes directrices au monde » en Allemagne

L’attaque éthique du gendarme

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

29/08/2017 11 minutes
37

Éthique des voitures autonomes : « premières lignes directrices au monde » en Allemagne

La commission d'éthique du ministère des transports allemand a rendu son rapport sur les voitures autonomes. Il sacralise la vie humaine, sans aucune distinction (âge, sexe, santé, etc.) et propose 20 recommandations. Toutes les questions éthiques n'ont par contre pas trouvé de réponse, mais le sujet avance au moins.

Les voitures avec des systèmes de conduite automatisée sont déjà une réalité, mais dans certaines circonstances seulement. Leur développement avance à grands pas et n'est pas sans soulever certaines questions, notamment sur l'éthique. L'année dernière, des scientifiques ont publié les résultats d'une étude portant sur près de 2 000 résidents des États-Unis (via Amazon Mechanical Turk) : la délicate question du choix des victimes en cas d'accident mortel inévitable.

Sacrifier le conducteur pour sauver plus de vies : oui, mais...

Comme nous l'avions alors détaillé, une grande majorité des sondés estimait qu'il fallait sacrifier le conducteur pour sauver 10 piétons... mais seulement une minorité serait prête à acheter une voiture ne protégeant pas ses occupants en priorité. Un cas typique de dilemme social, concluaient les scientifiques, où « tout le monde cède à la tentation de l'autopréservation au lieu d'adopter un comportement de groupe qui conduirait à un meilleur résultat global ».

Une des solutions évoquées par les chercheurs était d'imposer un choix par la réglementation... au risque de voir les clients se détourner des voitures autonomes de peur qu'elle ne les protège pas coûte que coûte (passagers, familles). Un constructeur a d'ailleurs déjà tranché : en cas d'accident mortel, Mercedes-Benz préfère sauver le conducteur

Le ministère allemand des Transports se penche sur les questions éthiques

L'Allemagne a décidé de se pencher sérieusement sur cette question. Alexander Dobrindt, ministre fédéral des Transports et de la Construction, vient de présenter les conclusions sur rapport de la commission éthique sur la conduite autonome. Il s'intéresse particulièrement aux véhicules de niveau 4 ou 5, c'est-à-dire lorsqu'un conducteur n'est pas nécessaire durant tout ou partie du trajet (il peut enlever les mains du volant et se consacrer à d'autres tâches).

Il regroupe « les premières lignes directrices au monde pour la conduite automatisée » affirme Alexander Dobrindt. Le ministre annonce dans la foulée la mise en place d'un plan d'action pour les mettre en œuvre, sans plus de détails. Au total, 20 propositions ont été faites par 14 chercheurs, sous la présidence du professeur Udo Di Fabio, ancien juge de la cour constitutionnelle fédérale. 

Limiter les accidents, améliorer la mobilité des personnes

Il est tout d'abord question d'améliorer la sécurité des utilisateurs sur la route, tout en permettant à un nombre toujours plus important de personnes de se déplacer. Le ministère des Transports cite le rapport et n'y va par quatre chemins : « La conduite automatisée et connectée est un impératif éthique si les systèmes provoquent moins d'accidents que les conducteurs humains ».

Alexander Dobrindt
Alexander Dobrindt. Crédits : BMVI

Avant de s'attaquer au cœur du problème, il rappelle que le développement des voitures autonomes doit se faire avec l'objectif d'éviter autant que possible les accidents, et donc les dilemmes où le véhicule doit « choisir » entre deux issues, quand « il n'y a pas de compromis ». Une position identique à celle de Christoph von Hugo, responsable du système d'assistance à la conduite et de la sécurité chez Mercedes-Benz : « 99 % de notre travail d'ingénierie est d'empêcher que ces situations se produisent ». La loi de Murphy étant ce qu'elle est, il faut tout de même s'y préparer.

Les humains, sans aucune distinction, passent avant les animaux et tout le reste

Si malgré toutes les précautions une situation dangereuse se révèle inévitable, « la protection de la vie humaine jouit d'une priorité absolue » affirme fermement le rapport. Ainsi, « les systèmes doivent être programmés pour endommager les animaux ou les biens en cas d'incident si cela signifie que des blessures peuvent être évitées ». 

La proposition suivante fixe des limites qu'un système de conduite autonome ne devrait pas être en mesure de franchir : « toute distinction fondée sur des caractéristiques personnelles (âge, sexe, constitution physique ou mentale) est strictement interdite. Il est également interdit de contre-balancer la vie des victimes les unes par rapport aux autres ».

Pas de choix entre des humains et d'autres humains

Vous voyez venir la suite : qu'en est-il lorsque deux vies humaines se trouvent dans la balance ? Pour la commission, les variables en jeu sont trop nombreuses pour répondre directement à cette question. Tout dépend donc de la situation, mais aussi du comportement imprévisible des parties concernées. Dans ce genre de cas, les décisions à prendre ne peuvent pas être clairement normalisées et, par conséquent, programmées de telle sorte qu'elles soient éthiquement incontestables.

Les auteurs en profitent pour rappeler un jugement de 2006 de la Federal Constitutional Court sur l'Aviation Security Act : « Le sacrifice de personnes innocentes en faveur d'autres victimes potentielles est inadmissible, car les parties innocentes seraient alors réduites à de simples instruments ». Cette position n'est pas sans controverse, reconnaissent les auteurs du rapport, aussi bien au niveau constitutionnel qu'éthique, mais « elle devrait être respectée par les législateurs ».

Réduire le risque global, mais refuser le principe de compensation des vies

Dans le cas d'une programmation du système visant à diminuer les risques de blessures corporelles, la situation est différente : « une prévision des probabilités doit être faite en dehors de la situation, où l'identité des parties blessées ou tuées n'est pas encore connue. Une programmation faite afin de minimiser le nombre de victimes (les dommages causés aux biens prévalents sur les blessures corporelles, les blessures corporelles prévalent sur la mort, le plus petit nombre possible de personnes blessées ou tuées) pourrait donc être justifiée, en tout cas sans violation de la loi, si la programmation réduisait le risque pour chaque utilisateur de la route de manière égale ».

Ainsi, « tant que la programmation minimise les risques pour tous de la même manière, elle est également dans l'intérêt de ceux qui ont été sacrifiés » explique le rapport. Il fait au passage une analogie avec la vaccination imposée par la loi. De manière générale elle permet de limiter les maladies, même si elle peut conduire à des complications pour certains. « Malgré cela, il est dans l'intérêt de tous d'être vaccinés et de réduire le risque global d'infection ».

Afin d'être clair sur ses ambitions, la commission ajoute qu'elle « refuse d'en déduire que la vie des humains peut être "compensée" par celle d'autres personnes en situation d'urgence, de sorte qu'il soit possible de sacrifier une personne afin d'en sauver plusieurs autres [...] l'individu doit être considéré comme "sacro-saint". Aucune obligation de solidarité ne doit être imposée aux individus qui les obligeraient à se sacrifier pour d'autres, même si c'est la seule façon de sauver d'autres personnes ».

D'un principe simple, on se retrouve vite avec des cas particuliers

Les auteurs évoquent un autre genre de situation : « Une décision différente peut être prise si plusieurs vies sont menacées de manière imminente et que la seule chose qui compte est de sauver autant de personnes innocentes que possible. Dans des situations de ce genre, il semble raisonnable d'exiger que le plan d'action soit celui qui coûte le moins de vies humaines possible ». La commission reconnait qu'elle n'est pas encore arrivée à un consensus sur cette question et suggère donc de mener des études approfondies.

Dans la lignée se profile une épineuse question : la protection du conducteur prévaut-elle sur la protection d'autrui, ou bien a-t-elle une priorité inférieure ? « Sa protection n'est pas en soi subordonnée à la protection des parties innocentes. Néanmoins, le principe fondamental est que les personnes impliquées ne doivent pas sacrifier celles qui ne sont pas impliquées » explique le rapport.

La morale et la justice entrent dans l'équation

Dans tous les cas, une intelligence artificielle ne peut pas « remplacer ou anticiper la décision d'un conducteur responsable ayant la capacité morale de faire des jugements corrects ». Les chercheurs en rajoutent une couche : s'il est illégal pour un conducteur de tuer une personne pour en sauver une ou plusieurs autres, il n'est pas forcément coupable en fonction des circonstances.

Il est délicat cependant de prendre en compte l'ensemble de la jurisprudence sur ce sujet et de la transformer en ligne de codes pour une voiture autonome. « Pour cette raison, peut-être plus que tout autre, il serait souhaitable d'avoir une agence indépendante du secteur public (par exemple un Bureau d'enquête sur les accidents impliquant des systèmes de transport automatisés ou un Office fédéral de la sécurité dans les transports automatisés et connectés) afin de traiter systématiquement les leçons apprises » préconise le rapport.

Voitures autonomes
Crédits : chombosan/iStock

À qui la faute ?

Autre problème soulevé avec les voitures autonomes : la responsabilité n'incombe plus forcément à l'automobiliste, mais aux fabricants et organismes en charge de prendre des décisions politiques et juridiques sur les infrastructures.

Si les constructeurs peuvent être tenus pour responsables d'un accident entrainant des blessures, voire un décès, qu'en est-il en cas « d'erreur » d'appréciation de la part de l'ordinateur de bord ? Pour la commission, ce n'est pas spécialement un problème.

Elle fait cette fois-ci une analogie avec les fabricants d'airbags ou de ceintures de sécurité : « La mort résultant d'un gonflement des airbags de façon incorrecte est une erreur, mais le fabricant ne sera pas tenu responsable s'il a fait tout ce qui pouvait raisonnablement être fait pour minimiser les risques ». Difficile cependant de savoir s'il est vraiment possible de comparer un airbag qui se déclenche en cas d'accident et des milliers de lignes de code.

Ce n'est pas à l'homme de s'adapter, mais à la voiture autonome

De fait, il faut pouvoir savoir à tout moment si la voiture conduit en mode autonome ou si le conducteur est aux commandes, et donc qui est responsable. Dans certaines circonstances, l'ordinateur de bord peut décider de redonner le contrôle au conducteur derrière le volant, mais il faut éviter un transfert abrupt autant que possible note le rapport.

« Les systèmes doivent s'adapter davantage au comportement communicatif humain plutôt que d'exiger des humains qu'ils améliorent leurs capacités d'adaptation ». Dans une situation d'urgence, le véhicule doit pouvoir se mettre en sécurité sans intervention humaine. 

Information, sécurité, vie privée... les autres points évoqués dans le rapport

Dans tous les cas, l'information auprès du public doit être claire et transparente. Le rapport préconise que l'éducation numérique des citoyens devrait comprendre une partie sur la gestion des véhicules autonomes. De manière plus large, on rappellera qu'un autre rapport du Comité économique et social européen recommandait d'ailleurs de faire de même, mais pour l'intelligence artificielle au sens large du terme.

Il faut également que les systèmes informatiques des voitures soient suffisamment protégés contre une attaque. Un point évident, mais qu'il est toujours bon de rappeler tant certains semblent parfois laisser ce point de côté. Un exemple parmi d'autres : les caméras connectées Foscam. La question de la vie privée et des données générées par les véhicules autonomes est aussi pointée du doigt : « Ce sont les détenteurs et les utilisateurs des voitures qui décident si les données doivent être transmises et utilisées ».

De manière plus globale, la commission soulève d'autres questions intéressantes : dans quelle mesure peut-on interdire à un conducteur de reprendre volontairement le contrôle du véhicule ? Existe-t-il une « obligation éthique » empêchant un humain de prendre le volant si cela permet d'améliorer la sécurité globale des usagers de la route ? Pas de réponse pour le moment.

Quoi qu'il en soit, il ne s'agit pour le moment que des pistes d'un rapport, qui doivent maintenant être adaptées et éventuellement inscrites dans la loi. C'est l'objectif du plan d'action annoncé par Alexander Dobrindt :  « Nous allons maintenant mettre en œuvre ces lignes directrices » s'exclame-t-il.

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Sacrifier le conducteur pour sauver plus de vies : oui, mais...

Le ministère allemand des Transports se penche sur les questions éthiques

Limiter les accidents, améliorer la mobilité des personnes

Les humains, sans aucune distinction, passent avant les animaux et tout le reste

Pas de choix entre des humains et d'autres humains

Réduire le risque global, mais refuser le principe de compensation des vies

D'un principe simple, on se retrouve vite avec des cas particuliers

La morale et la justice entrent dans l'équation

À qui la faute ?

Ce n'est pas à l'homme de s'adapter, mais à la voiture autonome

Information, sécurité, vie privée... les autres points évoqués dans le rapport

Commentaires (37)


<img data-src=" /> Sous-titre 2020


Reporter (même partiellement) la responsabilité des erreurs sur le fabricant va poser la question de la mise-à-jour des programmes informatiques.



Si un bug est considéré comme un défaut, alors l’IA sera considérée comme défectueuse. Et si l’IA est un élément défectueux, alors le constructeur est tenu de faire un rappel et une correction a ses frais.


My Skynet is rich.





Plus sérieusement, on autorise des véhicules à rouler presque seuls alors qu’ils foutent les jetons quand on parle de robots tueurs. <img data-src=" />


De mon point de vue, il faut admettre que parfois il n’y a pas de responsables. Des assurances existeront pour rembourser les victimes. L’étude de l’incident doit se faire au cas par cas pour éviter de le reproduire.



Deuxièment, quant à choisir qui prend les coups, toujours de mon point de vue, l’IA ne devrait avoir qu’une seule règle : minimiser les dommages pour toutes les victimes humaines (c’est à dire les voir comme un ensemble). Ces incidents resteront rares quand tout le parc automaubile sera automatisé et connecté.



Autre chose : si vous voyez un piéton qui traverse, le premier réflexe va être un coup de volant, vous voudriez éviter d’abord le gamin puis ensuite le lampadaire : le tout en pilant. Résultat : le hasard décide, mais dans votre tête vous voulez éviter de le tuer et de vous tuer donc ça rejoint mon 2ème point.


On voit bien le problème pour les constructeurs de vouloir vendre toujours plus de sécurité : il leur est impossible de négliger le conducteur si ils veulent pouvoir continuer de vendre des voitures.



Il arrivera donc forcément des situations ou le sacrifice du conducteur aurait permis d’épargner d’autres vies.



Et forcément avec la multiplication au fil du temps de ces situations, il deviendra obligatoire de ne pas “surprotéger” le conducteur, et donc les ventes chuteront auprès du grand public.


En tant que piéton je suis pas du tout d’accord avec l’idée d’être la potentielle victime pour sauver 1 voir 4 occupants. Quand des personnes montent dans 1T de taule pour se déplacer ils font un choix.

Sans ça, les marques vont être tentées de privilégier d’écraser des piétons pour afficher le moins de risque possible pour leur conducteur.


Ces propositions sont déjà un peu plus raisonnables&nbsp; que ce qu’on a vu jusqu’à présent.

Mais cela me paraît encore prématuré. On ne sait rien des types d’accident qui vont rester une fois que les voitures autonomes seront majoritaires. Dans un premier temps, il est déjà suffisamment compliqué d’implémenter parfaitement le Code de la Route, qu’il est démesuré de vouloir faire plus sans connaissance réelle du problème qui reste posé.

De plus, ce simple respect des règles actuelles va drastiquement réduire le nombre de victimes. C’est facile de dire ce qu’il faut faire quand on cause au bar du café du coin, mais si vous saviez ce que représente cette première étape d’automatisation, et si vous aviez vous-même à le faire, votre avis serait surement différent. Il n’y a pas de baguette magique.

Dans 10 ans, on en saura beaucoup plus,&nbsp; et il sera alors possible d’aller plus loin.

Un pas après l’autre, c’est toujours la meilleure façon d’arriver au bout d’un chemin inconnu.

&nbsp;


Isaacs Asimov y avait pas mal réfléchi…


Je pense toujours que ça n’a aucune importance de prendre une telle décision dans une telle situation, le principal étant d’éviter l’accident en faisant usage au mieux de nos capacités technologiques.



D’autant plus qu’on a toujours le problème d’éviter ce que l’on connait en se jetant dans l’inconnu (sortir de la zone qui a été analysée par les capteurs pour éviter les humains qu’on a détecté), comme on ne sait pas ce qu’il y a, on doit éviter d’y envoyer la voiture.


« les systèmes doivent être programmés pour endommager les animaux ou les biens en cas d’incident si cela signifie que des blessures peuvent être évitées »=&gt; “endommager les animaux plutôt que les humains” ??

&nbsp;Ouh la laaa.. on va vite voir débouler les ayatollahs de la défense des animaux, qui sont déjà très, très actifs sur les réseaux sociaux et ont acquis un tel pouvoir qu’ils arrivent à faire voter des lois… (pas &nbsp;tapeeeer !!)



&nbsp;Quand à endommager les biens, je rejoins ArchangeBlandin sur un principe : “Comme on ne sait pas ce qu’il y a, on doit éviter d’y envoyer la voiture”.&nbsp;En effet, derrière le mur d’une maison il peut y avoir une famille en train de dormir paisiblement.. (déjà que ça arrive IRL, des gens qui se retrouvent avec un camion dans le salon…)



&nbsp;Un truc qu’il va falloir gérer, aussi: les pannes “hardware” et leur détection : Une explosion d’un pneu ok ça se détecte, mais un simple bruit bizarre dans le maître-cylindre de freins annonciateur d’un pépin plus sérieux ?Il va falloir de plus en plus de capteurs sophistiqués, donc sources de nouvelles pannes eux aussi (et de faux-positifs!).

Le boulot de garagiste va devenir de plus en plus important, car il faudra des voitures autonomes très bien entretenues (l’avantage, c’est qu’elles pourront elles-même prendre RdV et se rendre au garage pendant qu’on travaille, par ex.), et les plus fiables possibles.



&nbsp;Reste l’assureur. Le patron d’Axa avait écrit récemment une chronique (ma foi bien plus intéressante que je ne l’aurais imaginé au premier abord), sur l’évolution de leur métier. Demain, c’est contre les défaillances logicielles et le piratage, qu’il va falloir assurer..


Pour éviter un risque d’accident, je propose l’auto-destruction de la voiture si les capteurs préssentent un risque de collision avec un piéton ou un animal. La voiture sera bonne pour la casse, le conducteur et ses éventuels passagers seront bon pour la morgue (du moins leurs morceaux).



Le piéton ou l’animal aura été sauvé et cela permettra d’éviter de longues affaires judiciaires pour connaître le responsable de l’accident.



Beaucoup y pensent actuellement, tellement le sujet est complexe. L’intelligence artificielle dans les voitures autonomes, que les technophiles et les constructeurs nous vendent comme sûre et sans bug, peut au moins avoir l’intelligence de faire crever le conducteur et ses éventuels passagers plutôt que de faire mourir un pauvre piéton ou un pauvre animal.



Attention au virus de l’intelligence artificielle. La représentation parfaite endort les cerveaux de certains qui la préfère à l’intelligence humaine.


On pourrait améliorer le dispositif en éjectant les passagers avant la destruction de la voiture. Ah oui, dans le cas qui nous intéresse, il n’y a plus de conducteur, juste des passagers.



Mais si le piéton ou l’animal s’est jeté devant la voiture, tu penses qu’il faut quand même tuer les passagers innocents ?


Il y a la méthode Hidalgo, aussi: plus de voitures, plus de problème …Mais dans le&nbsp;fin fond du Cantal, ça va être assez problématique 😂😂


Loi 0 <img data-src=" />








elec a écrit :



Il y a la méthode Hidalgo, aussi: plus de voitures, plus de problème …Mais dans le&nbsp;fin fond du Cantal, ça va être assez problématique 😂😂



Plus d’Hidalgo, plus de problème<img data-src=" />

Autrement j’attends le premier procès qui éclatera car la voiture bien-pensante aura écrasé un piéton, pensant qu’il s’agit d’une vie décrétée comme inférieure d’un animal.

On va rigoler.



Dr Susan Calvin sort de corps :)

Très bonne remarque; oui il était loin Isaac. Il me semble avoir lu que les 3 lois de la robotique sont un éléments de réflexion de la branche IA.


analyse automatique : changer module XB1599, 5mn c’est du plug and play,1699euros svp :)








Heretron a écrit :



En tant que piéton je suis pas du tout d’accord avec l’idée d’être la potentielle victime pour sauver 1 voir 4 occupants. Quand des personnes montent dans 1T de taule pour se déplacer ils font un choix.

Sans ça, les marques vont être tentées de privilégier d’écraser des piétons pour afficher le moins de risque possible pour leur conducteur.





Dans l’article :



le principe fondamental est que les personnes impliquées ne doivent pas sacrifier celles qui ne sont pas impliquées



Donc à moins que tu n’ai fait le choix de te jeter sous les roues du véhicule, l’IA devrait te protéger avant les passagers <img data-src=" />

J’ajouterai qu’une IA a bien plus de chance de trouver une solution n’impliquant la mort de personne qu’un humain, et à plus de chances de respecter le code de la route.









Heretron a écrit :



En tant que piéton je suis pas du tout d’accord avec l’idée d’être la potentielle victime pour sauver 1 voir 4 occupants. Quand des personnes montent dans 1T de taule pour se déplacer ils font un choix.

Sans ça, les marques vont être tentées de privilégier d’écraser des piétons pour afficher le moins de risque possible pour leur conducteur.





Mais avec ça, des rigolos vont s’amuser à se jeter devant une voiture auto pour la faire partir dans le décors (ou à jeter un mannequin suffisamment bien fait).







elec a écrit :



Ouh la laaa.. on va vite voir débouler les ayatollahs de la défense des animaux, qui sont déjà très, très actifs sur les réseaux sociaux et ont acquis un tel pouvoir qu’ils arrivent à faire voter des lois… (pas  tapeeeer !!)





On trouve quand même pas grand monde pour (sérieusement) soutenir qu’il faut privilégier une vie animale à une vie humaine.







elec a écrit :



Quand à endommager les biens, je rejoins ArchangeBlandin sur un principe : “Comme on ne sait pas ce qu’il y a, on doit éviter d’y envoyer la voiture”. En effet, derrière le mur d’une maison il peut y avoir une famille en train de dormir paisiblement.. (déjà que ça arrive IRL, des gens qui se retrouvent avec un camion dans le salon…)





Autre approche, le faire sur la base de probabilités. Si 99% des murs ne cassent pas quand la voiture rentre dedans, il ne pourrait être préférable de ne ‘pas trop’ tenir compte de la famille qui pourrait être derrière.

Moche pour celle qui est effectivement derrière un mur en carton, mais efficace globalement.







elec a écrit :



Un truc qu’il va falloir gérer, aussi: les pannes “hardware” et leur détection : Une explosion d’un pneu ok ça se détecte, mais un simple bruit bizarre dans le maître-cylindre de freins annonciateur d’un pépin plus sérieux ?Il va falloir de plus en plus de capteurs sophistiqués, donc sources de nouvelles pannes eux aussi (et de faux-positifs!).





Là-dessus, je ne vois pas vraiment de différence avec une voiture non-automatique. Certaines pannes sont déjà détectées, d’autres nécessitent la jugeote du propriétaire de la voiture.



Merci pour l’article !


Terreau-risque !! (et périls) <img data-src=" />


C’est qui me fait peur avec les voitures autonome, c’est que quand on regarde la qualité de code actuellement embarqué dans les voitures c’est une horreur



Voir ici pour les toyota

ou un résumé en français chez numerama

&nbsp;



&nbsp;


Merci pour l’article.



Quant à savoir qui des occupants du véhicule oud es piétons il faut préserver, il y a -à mon sens deux autres possibilités &nbsp;:

&nbsp;- épargner les piétons uniquement s’il traverse sur un passage piéton (idem avec les vélos sur leurs pistes cyclables).

&nbsp;- tuer piétons ET occupant du véhicule



C’est un peu le dilemme dans le filme “I, Robot”, sauver le vieux au lieu de l’enfant car ses chances de survie sont meilleures.


Jeter des “poupées gonflables” sera un bon test, mais dans la réalité, la voiture sera sûrement bardées de caméras enregistrant chaque seconde.

On retrouvera facilement le coupable qui en prendra pour meutre avec préméditation.



Le cas d’un suicidaire est par contre plus délicat.

Comment une IA pourra faire la distinction entre quelqu’un qui fait un chute devant le véhicule et quelqu’un qui se couche devant ?


Si les voitures autonomes sont correctement programmées (i.e. respect du code de la route et adaptation aux conditions de circulations)&nbsp; les cas possibles de chocs piétons/voitures seront de 2 types qui ne sont pas de la responsabilité des occupants de la voiture:




  • traversée de la chaussée&nbsp; sans respecter le code de la route&nbsp; et les règles élémentaires de prudences -&gt; responsabilité du pièton

  • traversée de la chaussée en respectant le code de la route -&gt; aménagement inadapté -&gt; responsabilité des services techniques concernés.



    Dans tous les cas, pourquoi sacrifier les passagers plutôt que le(s) piéton(s)?


Les standards de programmation imposés par les constructeurs à leurs fournisseurs évolueront en conséquence, comme c’est le cas actuellement dans l’aéronautique. Par exemple, on imposera de respecter à la lettre le MISRA-C et MISRA-C++ au lieu de le suggérer.



Alors en effet, ça allongera les cycles de développement, et il faudra sans doute se faire auditer et certifier son logiciel a un moment donné, mais c’est éprouvé partout ailleurs où les bugs/failles ont des conséquences importantes, et ça marche.








fred42 a écrit :



On pourrait améliorer le dispositif en éjectant les passagers avant la destruction de la voiture. Ah oui, dans le cas qui nous intéresse, il n’y a plus de conducteur, juste des passagers.




 Mais si le piéton ou l'animal s'est jeté devant la voiture, tu penses qu'il faut quand même tuer les passagers innocents ?








 J'ai écrit mon commentaire en utilisant une syntaxe et une sémantique différente de ce que je fais habituellement, ceci pour montrer mon opposition à la voiture autonome. Je préfère encore le cerveau humain, l'intelligence humaine, c'est à dire un conducteur en chair et en os, plutôt qu'une intelligence       

artificielle qui piloterait une voiture autonome.






Je ne rentrerais pas dans un nouveau débat. Je pense que les partisans de la voiture autonome m'ont largement donner leurs arguments au cours de différentes actus. Des arguments qui ne m'ont jamais convaincus.      






Comme je l'indique à la fin de mon précédent commentaire, les partisans de la voiture autonome se font une représentation parfaite de l'intelligence artificielle, comme si celle-ci ne pouvait être jamais être déficiente. C'est finalement ce qui me dérange le plus. Une intelligence artificielle n'est ni plus ni moins qu'un programme et tout programme peut avoir ses faiblesses (les fameux bugs).      






M'affirmer que les faiblesses d'une intelligence artificielle sont plus sécures que les faiblesses de l'intelligence humaine, je n’adhère absolument pas à ce propos. Un conducteur humain, malgré ses faiblesses sait s'adapter en toute occasion. Il est capable d'anticiper et de corriger sa conduite en toute occasion. Et pour moi, tout ça vaut mieux qu'une intelligence artificielle, qui a été programmée pour être finalement bornée, même si il y a le mot "intelligence".      






Je ne suis pas contre l'intelligence artificielle. Je pense simplement que les partisans de la voiture autonome lui accordent trop de confiance. Nous allons vers un monde où l'intelligence artificielle ne nous aidera plus. Elle dictera nos faits et gestes. Elle réfléchira pour nous parce que des gens ont décrété que l'intelligence artificielle était moins faible qu'une intelligence humaine. Pardon, mais un monde comme celui-là, je n'en veux pas, quitte même à devenir rétrograde, voir technophobe.


Il faudra aussi gérer les messages de diagnostic du genre “le nouvel élément AE-35 va tomber en panne, mon centre de contrôle indique une défaillance&nbsp;dans un délai de vingt-quatre&nbsp;heures”, et autres “cela semble en effet bizarre, mais je puis t’assurer que la défaillance est certaine” ou bien encore “je m’en voudrait d’insiter, mais je suis incapable de la moindre erreur” et enfin “je suis pleinement opérationnel et tous mes circuits fonctionnent parfaitement”.


En effet. Mais les software de ces voitures “autonomes” pour conducteurs (déficients, n’ayaons pas peur des mots), ne devraient-ils pas répondre aux normes les plus sévères comme en avionique ? Car visiblement, c’est loin d’être le cas…Cela me semble une anomalie trop grosse à mes yeux…








pyves a écrit :



Si les voitures autonomes sont correctement programmées (i.e. respect du code de la route et adaptation aux conditions de circulations)  les cas possibles de chocs piétons/voitures seront de 2 types qui ne sont pas de la responsabilité des occupants de la voiture:




  • traversée de la chaussée  sans respecter le code de la route  et les règles élémentaires de prudences -&gt; responsabilité du pièton

  • traversée de la chaussée en respectant le code de la route -&gt; aménagement inadapté -&gt; responsabilité des services techniques concernés.



    Dans tous les cas, pourquoi sacrifier les passagers plutôt que le(s) piéton(s)?





    Tu oublie le cas n°3, celui auquel je répondais, qui est le dilemme du tramway : le véhicule détermine qu’un accident mortel est inévitable, et que la solution “préférable” est d’aller écraser le type sur le trottoir qui n’était pas jusque là en danger. La proposition des allemands dis clairement “non, quelqu’un d’initialement non impliqué (piéton ou non d’ailleurs) ne peut être volontairement impliqué par l’IA”.

    Si tu ne prends pas de risque stupide, tu ne devrais jamais être tué par une IA qui suit ces recommandations.



    Personnellement, je suis d’accord que ton cas 1 doit amener la mort du piéton (si la fatalité est inévitable), mais le cas 2 ne devrait jamais arriver suivant les hypothèses “une voiture bien programmée” et “le piéton suit les règles de prudence”. C’est à ça que sert le code en fait <img data-src=" />









Romaindu83 a écrit :



[…]

Un conducteur humain, malgré ses faiblesses sait s’adapter en toute occasion.

[…]







Voilà une hypothèse fausse, démontrée malheureusement quotidiennement.

Je ne vais pas citer la liste des personnes que je connais qui sont mortes à cause d’un comportement inadapté d’un conducteur, ça me descendrait le moral dès le matin.



Juste pour répondre à une éventuelle objection du genre «tu es sûre que ces gens n’avaient pas pris des risques inconsidérés ?», voici 2 exemples: piéton fauché par une voiture alors qu’il marchait sur un trottoir, motard arrété au feu (arrété, pas s’arrêtant) et explosé par une voiture qui arrive par derrière.



Tu mets en doute l’intelligence artificielle et à raison . Je pense qu’il faut savoir prendre du recul et ne pas croire qu’elle sera quasi infaillible. Surtout que ce n’est que le début, on se sait pas vraiment ce que cela donnera au final.



Par contre, tu ne mets pas du tout celle que tu nommes “humaine” en doute… Et là, ça me laisse perplexe car, rien que dans le domaine des transports routiers (auto/moto/camion/pieton/velo/…), les exemples et conséquences des limites considérables de cette “intelligence” sont légions.

&nbsp;

Les fous furieux qui, n’ayant aucune visibilité ne ralentissent pas du tout, ceux qui pensent que traverser la route n’importe où/comment est normal et qu’un véhicule de plusieurs 100aines de kilos s’arrêtent sur 30 cm, ceux qui accélèrent si un piéton attend à un passage piéton et qui considère que, tant qu’il ne s’est pas jeté sur la route, il n’a pas priorité .. Et après il est mort. Je passe sur le non respect des feux, stop, sens de circulation, limite de vitesse, distance de sécurité, téléphone au volant, … Mais bien sur, dans tout les cas, comme ils sont intelligents, il n’y a eu aucun accident ou alors juste ceux qui étaient “inévitables”.



Si les gens pensaient plus à être attentifs aux autres plutôt que de les voir comme des obstacles qui gênent leur progression, peut être qu’on pourrait faire confiance (un peu plus) à leurs capacités de décision que tu appelles intelligence. Mais il y en aura toujours beaucoup qui seront plus accaparés par d’autre sujets:




  • se prendre pour un pilote de formule 1 et/ou faire peur à tous ceux autour parce que c’est de la balle

  • diminuer leur temps de transport à tout pris car ils sont en retard de 2 minutes

  • raconter leur journée/vie/dépits amoureux/… à ceux qu’ils viennent de quitter ou qu’il vont voir dans 30 min

  • se prendre pour des chefs car ils font se qu’ils veulent&nbsp; et que les règles c’est juste pour éviter que les autres leur cassent les c….





    Je pense que, tout comme les processeurs, nos capacités sont limitées et que ces points là prennent beaucoup de ressource. Nos comportements “automatiques” qui sont gérés par nos “réflexes” (je ne me rappelle plus du terme exact: sans que des choix réfléchis interviennent) n’étant en aucun cas irréprochables, ils augmentent les risques d’accidents. Quand ça arrive, l’attention de ces gens et le contexte (absence de distance de sécurité par exemple ou de visibilité ou …), font qu’il reste peut de chance d’éviter les accidents la plupart du temps matériel quand c’est 2 voitures, mais s’il y a un piétons ou cycliste/moto/… C’est jackpot à chaque fois.


Bah, la circulation urbaine est une jungle et je ne donne pas cher de la “peau” de la voiture autonome “intelligente” quand elle sera confrontée à nos “Juan Manuel Fangio” à nous, au sommet de leur art. Si comme on le prétend elle n’est affectée d’aucun comportement routier “déviant”, je pense qu’elle va rapidement “se dire” une fois en ville, que la meilleure solution pour elle est de rester à l’arrêt (situation potentiellement comique pour un véhicule). Tout conducteur “malin” (certains diront “sournois” ou “vicieux”) saura immédiatement qu’il suffira de jouer l’esbroufe pour que le vertueux véhicule automatisé s’efface…



L’autre solution, ce serait de retirer immédiatement le permis à tous et de leur confisquer leur véhicule “manuel”, chose peu aisée à réaliser, je pense. Bref, plus sérieusement, je pense que la phase “de transition” vers ce genre de véhicule sera délicate. Sa vertu entraînera sa chute…


J’ai une solution: Faire circuler des voitures autonomes blindées, soit vide, soit avec du personnel assermenté dedans pour faire le ménage

















(j’espère que personne ne pense que je suis sérieux)


<img data-src=" /> les assurances ne marchent pas sans responsables, elles facturent à celui/ceux d’en face.


L’absence de réelle sanction des délinquants routiers est connue en France.

Retirer son permis au délinquant n’empêchera pas ce délinquant de rouler sans permis, sans assurance, et bourré et/ou drogué. Et de tuer. Leur élimination physique devrait être envisagée. Couic !


c’est super anxiogene leur truc pour un pb qui est pour l’instant bcp plus un exercice intellectuel qu’un besoin réel de regulation. On demande des trucs aux robots ou aux developpeurs qu’on ne demande même pas aux conducteurs. En plus la liste des regles à la noix risque de complexifier terriblement les choses sans les rendre véritablement plus sûre pour tout le monde. (le plus drole serait que même avec une puissance de calcul suffisante, le temps de décider quoi faire l’accident est deja fini, en ligne droite en freinant)



Le chapitre sur les données personnelles deja a ete mis en breche dans le monde réel, puisque Tesla lors de l’ accident mortel, a fait download toutes les videos prises par leurs véhicules pour perfectioner l’IA.