Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Accidents mortels : la délicate question du choix des victimes pour les voitures autonomes

« Faites ce que je dis, ne faites pas ce que je fais »
Tech 11 min
Accidents mortels : la délicate question du choix des victimes pour les voitures autonomes
Crédits : Delpixart/iStock

Face à un risque mortel et immédiat, les conducteurs réagissent généralement à l'instinct. Mais qu'en est-il pour les voitures autonomes qui auront la capacité d'analyser la situation et d'agir en conséquence ? Doivent-elles sacrifier le moins de vies possible ? Si oui, faut-il imposer une régulation des algorithmes ?

Les voitures autonomes sont une réalité et, même si elles ne circulent pas encore en masse sur les routes, cela arrivera inévitablement à un moment donné. Les constructeurs mettent en avant la grande capacité d'analyse et la rapidité de réaction des intelligences artificielles qui se trouvent à bord, et qui permettent d'éviter de nombreux accidents (pas tous non plus, comme en a fait l'expérience une Google Car il y a quelques mois). Mais que se passe-t-il lorsque la voiture est soumise à un « dilemme social » et qu'il faut choisir entre des options qui ont toutes des conséquences funestes pour une ou plusieurs personnes ? 

Faut-il sacrifier le conducteur pour sauver une ou plusieurs vies ? 

Prenons un exemple afin de poser le décor. Un piéton déboule de manière inattendue devant une voiture autonome. En une fraction de seconde cette dernière le détecte, analyse la situation et calcule qu'elle ne peut pas freiner suffisamment pour l'éviter, le tuant si elle continue sur sa trajectoire. Reste deux solutions : faire une embardée à droite ou une à gauche. Mais, sur la droite se trouve un groupe de piétons et sur la gauche un précipice. Que faire dans cette situation ? Ou plutôt qui « sacrifier » ? Le piéton, le groupe de personnes, le conducteur et les éventuels passagers ?

Un exemple parmi tant d'autres. Même si cela ne devrait pas arriver à chaque coin de rue (loin de là même), ce genre de situation peut arriver (et arrivera donc d'après la fameuse Loi de Murphy) et il faut donc l'anticiper. Si, dans le cas d'un humain, ce sont les réflexes qui prennent les commandes, pour la voiture se sera aux algorithmes de décider... en fonction de la manière dont ils auront été programmés. La question est justement de savoir comment ils doivent agir dans ce genre de situation.

Une version moderne en quelque sorte du « dilemme du tramway ». Un jeu de l'esprit dans lequel on se demande s'il est éthique pour le conducteur d'un tramway devenu incontrôlable d'actionner une manette qui déviera la machine afin qu'il ne tue qu'une seule personne, au lieu de plusieurs s'il ne réalise aucune action. Le conducteur est remplacé par une intelligence artificielle... elle-même créée par des humains. Faut-il agir sciemment pour limiter les pertes, ou bien ne rien faire pour changer la trajectoire et, en quelque sorte, laisser faire « le destin » ?

Via Amazon Mechanical Turk, des scientifiques ont posé la question à 1 928 résidents des États-Unis (chaque participant obtenait 25 centimes en échange de ses réponses, étaient répartis dans six groupes. Chacun planchait sur des situations différentes. Le compte-rendu de cette étude, publié dans le magazine Science, ne représente évidemment pas le sentiment de toute la population américaine, mais permet tout de même de se faire une idée de la manière dont les gens appréhendent ce problème, tout en soulevant de nombreuses problématiques.

76 % pensent que oui pour sauver 10 piétons par exemple...

Dans le premier groupe, la question était simplement de savoir s'il était « plus moral » de tuer un passager d'une voiture autonome plutôt que dix piétons. Pour 76 % des sondés, la réponse est sans surprise : oui. Lorsqu'on leur demande de noter sur une échelle allant de 0 (protéger le conducteur à tout prix) à 100 (minimiser le nombre de victimes), le résultat est du même acabit avec une médiane à 85 %. En théorie, le bien du groupe l'emporte donc sur l'individu, du moins pour une large majorité des personnes.

La situation se corse avec le groupe suivant lorsque le nombre de piétons varie entre 1 et 100. Avec un seul piéton impliqué, 23 % environ pensent qu'il faut sacrifier le passager de la voiture, « mais leur approbation morale augmente avec le nombre de vies qui pourraient être sauvées, jusqu'à un niveau correspondant aux 76 % observés avec le premier groupe ».

Science études voitures autonomes

Les membres du troisième groupe pour leur part devaient imaginer qu'il se trouvait dans la voiture, parfois avec des personnes de leur famille. Même dans cette situation présentée comme « très agressive », le sacrifice des occupants de la voiture revenait majoritairement dans les réponses (entre 54 et 66 % pour 95 % des réponses) lorsque cela permettait de sauver plus de vies.

Pour résumer, les personnes interrogées s'accordent à dire que sauver le plus grand nombre de vies serait la meilleure option, même si de la famille est présente dans la voiture. Mais entre savoir ce qui est le mieux pour l'intérêt général et passer aux actes, il y a un fossé que certains ne veulent pas franchir.

... mais seulement 19 % seraient prêt à acheter ce genre de voiture autonome

En effet, peu de personnes semblent intéressées par l'achat d'une voiture autonome, même si elle est pensée pour protéger ses occupants en priorité. Mais lorsqu'on précise qu’eux et/ou des membres de la famille puissent être sacrifiés pour sauver le plus grand nombre, seulement 19 % des sondés ont indiqué être prêt à acheter une telle voiture. En d'autres termes, bien que pensant que les voitures sauvant un maximum de vies sont « plus morales », ils ne souhaitent pas en acheter une. 

Les résultats du quatrième groupe vont dans le même sens. Trois algorithmes leur étaient soumis et ils devaient noter sur 100 la moralité de ceux-ci, leur sentiment si des voitures étaient programmées de cette manière et leur intention d'acheter une telle voiture autonome. Voici les trois situations proposées : faire une embardée pour tuer un piéton et en sauver dix autres, tuer les occupants de la voiture pour sauver dix personnes, faire une embardée et tuer un piéton pour sauver une vie.

Sans surprise, le fait de sacrifier une personne pour en sauver dix engrange le plus de points, tandis qu'en tuer une à la place d'une autre ne reçoit que quelques-uns. Le troisième cas (tuer les passagers pour sauver dix piétons) est là encore plus compliqué. Cette manière d'agir obtient des notes de moralité élevées et elle est considérée comme étant un bon algorithme par les personnes interrogées, mais elles sont beaucoup moins nombreuses à vouloir qu'un algorithme de ce genre arrive dans les voitures, et encore moins à vouloir en acheter une de ce genre.

Science études voitures autonomes

Les conclusions de l'équipe de chercheurs sont simples : « Une fois de plus, il semble que les gens votent pour l'utilitarisme, l'abnégation des voitures autonomes et souhaitent voir ce comportement sur la route, mais sans réellement vouloir en acheter une pour eux-mêmes ». Un cas typique de dilemme social où « tout le monde cède à la tentation de l'autopréservation au lieu d'adopter un comportement de groupe qui conduirait à un meilleur résultat global ».

Et si les gouvernements imposaient une réglementation utilitariste ? 

Pour passer outre ces considérations, les chercheurs proposent une solution : « que les régulateurs imposent de faire respecter le comportement conduisant au meilleur résultat global ». Un principe d'application qui n'a rien de nouveau et que l'on retrouve déjà dans d'autres domaines : vaccination des enfants, paiement des impôts, etc.

Mais dans le cas des voitures autonomes, les choses ne sont pas aussi simples comme le montre le cinquième groupe de cette étude. Pour commencer, il est demandé aux participants de noter quatre choix (de 0 à 100) : se sacrifier pour sauver une ou dix personnes lorsque l'on conduit, et la même chose si une intelligence artificielle est aux commandes de la voiture. Dans tous les cas, la moyenne est au-dessus des 50 % avec un score bien plus élevé quand le nombre de piétons est plus important. Bref, un résultat déjà obtenu auparavant.

Mais ce même groupe avait droit à une autre série de questions dont le but était de savoir s'ils étaient prêts à ce que ce principe (sacrifier les passagers de la voiture pour sauver les piétons en plus grand nombre) soit inscrit dans la loi. Cette fois-ci, le score est systématiquement en dessous des 50 %. Une majorité s'accorde donc à dire qu'il est bien plus moral de tuer une personne dans la voiture pour en sauver dix, mais quand il s'agit de graver cela dans le marbre (ou dans des lignes de codes), la tendance s'inverse.

Les robots plus à même de prendre des décisions « sensées » ?

Pour Jean-François Bonnefon, chercheur au CNRS, co-auteur de cette publication et interrogé par La Dépêche, la question est donc de savoir s'il faut laisser les robots décider pour nous de ce qu'il faut faire pour le bien du plus grand nombre. « Le monde est déjà en train de changer » ajoute-t-il, et il faut donc se décider assez rapidement.

Lors d'une conférence en 2011 à Toulouse sur la psychologie des risques, le chercheur expliquait qu'« on peut, peut-être au bout d'un moment, désespérer du genre humain. Vont venir s'empiler, démonstrations après démonstrations, des éléments qui laissent penser que vraiment nous sommes très très peu à même de juger correctement du risque ou de prendre des décisions censées ». Une intelligence artificielle (telle qu'on les connait aujourd'hui, en attendant les IA fortes) n'a pas ce genre d'état d'âme et sera capable d'agir de manière rationnelle... pour peu qu'aucun bug ne soit présent dans les lignes de codes bien évidemment.

Alors les gens auraient moins l'intention d'acheter une voiture autonome

Dans la dernière étude, les scientifiques ont demandé aux participants s'ils achèteraient une voiture dont les algorithmes auraient été réglementés. Là encore, différents scénarios sont évidemment mis en place : une personne seule au volant, avec un membre de sa famille et enfin avec leur enfant. 

Comme avec les autres groupes, le fait de sacrifier les passagers pour sauver un grand nombre de personnes l'emporte, certes moins franchement lorsqu'il y a des membres de la famille et/ou des enfants à bords. Les participants sont par contre moins nombreux à vouloir qu'une régulation soit mise en place par le gouvernement (même lorsqu'ils sont seuls au volant).

Ils sont encore moins nombreux à vouloir acheter une voiture autonome avec algorithmes réglementés (21 % en moyenne), contre 59 % dans le cas contraire :

Science études voitures autonomes

La situation est donc relativement complexe, car rien n'oblige (pour le moment) les automobilistes à acheter des voitures autonomes, que les algorithmes soient réglementés ou non. De plus, selon les conclusions de cette étude, si les fabricants automobiles veulent vendre en masse des voitures autonomes, ils n'ont pour le moment aucun intérêt à ce qu'une loi impose des algorithmes minimisant les victimes puisque cela baisserait drastiquement le nombre de clients potentiels. Dans le même temps, cela aurait pour effet de limiter le nombre de tués à cause des voitures, ce qui irait dans le bon sens. Dilemme...

Gouvernements, fabricants et consommateurs doivent se mettre d'accord

Les scientifiques expliquent ainsi que « trois groupes peuvent être en mesure de décider comment gérer les dilemmes éthiques des voitures autonomes : les consommateurs qui les achètent, les fabricants qui les programment et le gouvernement qui peut réguler le type d'algorithmes que les fabricants peuvent proposer et que les consommateurs peuvent choisir ».

« Nos résultats suggèrent que la réglementation des voitures autonomes peut être nécessaire, mais aussi contre-productive » tempèrent-ils. En effet, si des voitures autonomes protectrices des passagers et utilitaristes sont mises sur le marché en même temps, peu de gens seraient prêts à monter dans le second type de voitures pour l'instant, et ce, alors qu'elles aimeraient bien que d'autres le fassent.

Quand imposer des algorithmes pourrait avoir l'effet inverse que celui recherché

« Un règlement peut apporter une solution à ce problème, mais les régulateurs seront confrontés à deux difficultés » ajoutent les chercheurs. Tout d'abord, la plupart des gens semblent désapprouver la mise en place d'un règlement qui imposerait l'utilitarisme. Ensuite, plus problématiques, les résultats suggèrent que cette réglementation pourrait considérablement retarder l'adoption des voitures autonomes, « ce qui signifie que les vies sauvées grâce à l'utilitariste pourraient être dépassées en nombre par les décès causés en retardant l'adoption des voitures autonomes ».

Et encore, nous sommes restés dans des situations « faciles » où il n'est question « que » de vie et de mort. Que se passe-t-il avec des incertitudes sur l'issue d'un accident ? Est-il acceptable pour une voiture autonome d'éviter une moto en déviant dans un mur, car elle estime que la probabilité de survie est plus importante pour les passagers que pour le pilote de la moto ? Le pilote de la moto dirait certainement que oui, alors que le conducteur de la voiture serait certainement plus mitigé. 

Faut-il prendre en compte l'âge, le sexe et la condition physiques ou sociales des personnes impliquées ? Imaginons maintenant qu'on laisse le choix à l'automobiliste entre plusieurs algorithmes, faut-il le condamner en cas de conséquences funestes ? Bref, un beau casse-tête en perspective, aussi bien pour les régulateurs, les constructeurs que les utilisateurs.

Et vous, quelles décisions prendriez-vous ? 

Afin de vous mettre face à vos propres choix, les chercheurs ont mis en place un site poétiquement baptisé Moral Machine. Vous pouvez proposer vos propres scénarios catastrophes, mais aussi répondre à une série de 13 questions et accéder à une analyse de votre comportement. De manière générale, vous pourrez ainsi consulter les « personnages » les plus épargnés et au contraire ceux le plus souvent sacrifiés.

Mais le plus intéressant reste l'analyse plus fine des données en fonction de certains cas : avez-vous tendance à sauver le plus de vie possible, les passagers de la voiture, les piétons qui respectent la signalisation, les personnes en fonction de leur genre (sexe, âges, condition sociale), les humains ou les animaux et, dernier point et pas des moindres, éviter d'influencer sur la trajectoire de la voiture ? Dans ce dernier cas, il faudra voir si l'absence de décision est une décision ou non, mais c'est un autre débat.

185 commentaires
Avatar de Paraplegix Abonné
Avatar de ParaplegixParaplegix- 28/06/16 à 10:41:05

Le dernier commit strip qui est bien en rapport avec le sujet :D :
http://www.commitstrip.com/fr/2016/06/27/god-mode-on/

Avatar de sebp Abonné
Avatar de sebpsebp- 28/06/16 à 10:45:51

c'est intéressant comme débat.
Par contre je me demande combien de personnes se posent réellement la question dans une situation d'urgence. c'est plutôt une réaction instinctive qui ne suit pas un algorithme précis.
 
De mon point de vue je pense qu'il vaut à peu près toujours protéger le piéton. même en cas d'accident les protections dont disposent les passagers de la voiture leur laissent bien plus de chance de s'en sortir en vie.

Avatar de Athropos INpactien
Avatar de AthroposAthropos- 28/06/16 à 10:54:57

Article très intéressant, le genre qui justifie l'abonnement :chinois:

Avatar de Bae Abonné
Avatar de BaeBae- 28/06/16 à 10:56:23

Très intéressant en effet.

Pour reprendre l'exemple donné ci-dessus dans l'article, il y a un facteur qui n'est pas pris en compte : la réaction du piéton.

Dans le cas où la voiture saute dans le fossé : blessés ou morts assurés;
Dans le cas où la voiture fonce dans un groupe de piéton : blessés ou morts assurés (partant du principe qu'il est plus difficile d'éviter un groupe plutôt qu'un individuel).
Par contre, dans le cas où la voiture freine au max et fait usage de ses avertisseurs, cela laisse une chance au piéton de dévier de la trajectoire de la voiture. Sans compter qu'il a de la chance ce piéton, la voiture va réagir en quelques ms quand un conducteur humain aura besoin d'au moins 1 voire 2 secondes pour réagir.

Enfin, c'est une réflexion comme ça sans aucune base scientifique.

Et quid des questions d'assurance ? Si mon véhicule fonce dans le mur ou dans le vide et que je me retrouve blessé (au mieux), tout ça pour éviter un animal sauvage ou un autre obstacle créant un faux positif au radar ?

C'est clair que ce débat est loin d'être fini :mad2:
 

Avatar de Charly32 Abonné
Avatar de Charly32Charly32- 28/06/16 à 10:57:06

sebp a écrit :

c'est intéressant comme débat.
Par contre je me demande combien de personnes se posent réellement la question dans une situation d'urgence. c'est plutôt une réaction instinctive qui ne suit pas un algorithme précis.
 
De mon point de vue je pense qu'il vaut à peu près toujours protéger le piéton. même en cas d'accident les protections dont disposent les passagers de la voiture leur laissent bien plus de chance de s'en sortir en vie.

C'est bien là qu'est l'os : on sait que l'humain est faillible et que son temps d'analyse et de réaction ne lui permet pas de poser de question.
Renverse un pieton, et on ne te reprochera pas de ne pas avoir jeté ta voiture dans le précipice pour l'éviter. On pourra au pire te condamner pour une entorse au code de la route.

Maintenant on sait que la machine a la capacité d'analyser la situation et d'agir. A partir de là, que doit-elle faire?

Avatar de XMalek INpactien
Avatar de XMalekXMalek- 28/06/16 à 10:59:39

La "zone grise" de l'IA (si on considère le bien impossible comme étant blanc pur et le mal absolu étant noir pur et n'existant de ce fait pas), débat qui a commencé dans les années 40 et qui est encore à ce jour d'actualité (et qui l'est encore plus aujourd'hui en fait).

Il y a deux débats au minimum derrière ce sujet. Quel est notre zone grise, notre zone grise vis à vis des autres et quel est la zone grise qu'on tolère pour les autres. (premier débat)

Et le débat sur peux t'on faire confiance à une IA sur des sujets "moraux", et l'IA sera t'elle plus morale que l'humain.

Sujet au choix vous avez deux heures :D

(sachant qu'il y a une hypothèse de base à définir sur qu'est ce que la moralité)

Édité par XMalek le 28/06/2016 à 11:03
Avatar de anonyme_47da8d4ad4eb955aa025af080b0387df INpactien

10 personne contre une. Sauf que le une c'est le futur prix Nobel, jeune et avec de grandes chances de survie et les 10 c'est que des vieux de plus de 85 ans en sortie sans grande chance de survie non plus. (penchez un peu sur les regles d'indemnisation des victimes d'un avion.... vous allez être dans le cynisme le plus total)

C'est des questions tellement inextricables que le plus simple va être le mieux. Je ne peux pas éviter le piéton, je le percute. Fin de l'histoire. De toute facon à 30Km/h en ville il aura juste une clavicule cassé,

Concernant le régulateur il a laissé trainé des bagnoles avec des pare-buffles qui détruisent plus bien les personnes accidentées qu'un pare-coc simple etudié pour peter les tibias, fémur et ne pas réduit en bouillie l'articulation du genoux complexe à réparer.

Avatar de John Shaft Abonné
Avatar de John ShaftJohn Shaft- 28/06/16 à 11:03:41

La bagnole sera programmée pour tuer ceux qui ont un véhicule chez un concurrent :ouioui:

Avatar de Drepanocytose Abonné
Avatar de DrepanocytoseDrepanocytose- 28/06/16 à 11:06:09

On a posé la question aux gens en fonction de la couleur de peau et du sexe des piétons ou pas ?
Et si le choix c'est de se crasher ou d'écraser un chaton tout mignon en ville ou un bambi en campagne, ça compte ?
==> loin

Avatar de Melcerin INpactien
Avatar de MelcerinMelcerin- 28/06/16 à 11:07:39

Au final on se pose jamais la question de la réelle utilité de la voiture autonome, et si il s'agit bien d'un "progrès" pour l'Homme.
 
Qui ici serait prêt à confier sa vie à un ordinateur et une bardée de capteurs confrontés à toutes les conditions climatiques ?

Il n'est plus possible de commenter cette actualité.
Page 1 / 19
  • Introduction
  • Faut-il sacrifier le conducteur pour sauver une ou plusieurs vies ? 
  • 76 % pensent que oui pour sauver 10 piétons par exemple...
  • ... mais seulement 19 % seraient prêt à acheter ce genre de voiture autonome
  • Et si les gouvernements imposaient une réglementation utilitariste ? 
  • Les robots plus à même de prendre des décisions « sensées » ?
  • Alors les gens auraient moins l'intention d'acheter une voiture autonome
  • Gouvernements, fabricants et consommateurs doivent se mettre d'accord
  • Quand imposer des algorithmes pourrait avoir l'effet inverse que celui recherché
  • Et vous, quelles décisions prendriez-vous ? 
S'abonner à partir de 3,75 €