Voiture autonome : l'accident mortel d'Uber ou la « bêtise » de l'intelligence artificielle

Voiture autonome : l’accident mortel d’Uber ou la « bêtise » de l’intelligence artificielle

Mais elle ne fait que ce qu'on lui demande

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

07/11/2019 11 minutes
155

Voiture autonome : l'accident mortel d'Uber ou la « bêtise » de l'intelligence artificielle

L'accident mortel avec une voiture autonome Uber pourrait presque être un tragique cas d'école. Elle avait détecté le piéton, mais sans parvenir à le classer correctement car il n'était pas sur un passage clouté. Si un pilote automatique n'est pas capable de gérer une situation en dehors des clous du Code de la route, on n'est pas sorti de l'auberge.

Mardi 19 novembre, le National Transportation Safety Board (NTSB) réunira son Conseil afin de déterminer la cause probable de l'accident mortel impliquant une voiture autonome Uber – une Volvo XC90 2017 modifiée – en mars 2018. La réunion sera retransmise en direct sur cette page

En amont, 43 documents pour un total de 439 pages ont été mis en ligne par le NTSB, permettant d'avoir de nouveaux éclairages sur cette sombre histoire. Dans le lot, on trouve notamment le « Vehicle Automation Report » donnant de nombreux détails sur le fonctionnement de la voiture autonome dans les secondes précédant l'impact.

Le régulateur y décrit chronologiquement l'ensemble des détections et actions des capteurs et du pilote automatique, permettant de mieux comprendre pourquoi le système n'a pas réagi plus tôt. Mais surtout ce rapport met en lumière un des gros problèmes des intelligences artificielles/pilotes automatiques : la faculté d'anticiper et de réagir face à un événement hors scénario. Dans le cas présent, un simple piéton en dehors d'un passage clouté.

Une première détection 6 secondes avant l'impact

Pour rappel, l'accrochage impliquait un piéton traversant la route avec son vélo (des photos du lieu sont disponibles par ici). Elaine Herzberg, âgée de 49 ans, est décédée des suites de cet accident. Le conducteur de test présent dans la voiture n'a souffert pour sa part d'aucune blessure physique. Il n'avait par contre quasiment pas réagi avant le choc.

Uber accident mortel NTSB

Un rapport préliminaire avait été mis en ligne en mai 2018, deux mois après l'accident. On y apprenait que les radar et lidar avaient détecté le piéton environ 6 secondes avant l'impact, sans pouvoir l'identifier.

De son côté, « le conducteur du véhicule a pris le volant moins d'une seconde avant l'impact et a commencé à freiner moins d'une seconde après », pas suffisant pour éviter le drame. Problème, selon des éléments de l'enquête le conducteur de la Volvo était en train de regarder une vidéo sur son smartphone au moment de l'accident, ce qui expliquerait le délai de réaction beaucoup trop long.

Lidar, radar et caméra : trois « yeux » sur la route

Dans son nouveau rapport, le NTSB rappelle s'il en était besoin que l'Aide à la conduite automobile (ADAS) de Volvo était désactivée pour ne pas interférer avec le pilote automatique d'Uber. Les capteurs de la voiture modifiée par Uber avaient été calibrés une semaine plus tôt.

Avant d'entrer dans les détails, le National Transportation Safety Board pointe un élément important pour la suite : le fonctionnement de la détection d'objet sur et autour de la route. Cette fonction « est principalement effectuée par les systèmes lidars, radars et caméras, qui ont chacun des fonctions spécialisées différentes. Lorsqu'un objet est détecté, il est suivi, son cap et sa vitesse sont calculés. Ils sont classés par le système en tant que véhicules, piétons ou cyclistes, mais un objet peut aussi être classé dans la catégorie "autre" ».

Des algorithmes internes se chargent de mélanger les différentes sources d'informations pour arriver à la bonne conclusion. Une fois un objet détecté, le système tente de prédire sa direction et sa vitesse. Par exemple, un véhicule sur une voie de circulation sera généralement considéré comme roulant dans le sens de circulation de cette voie. L'historique des détections d'un objet permet d'affiner les prédictions, continuellement mises à jour en fonction des informations reçues.

Catégorisation et calcul de trajectoire des objets détectés

On touche au problème lorsqu'un objet change de catégorie : son historique n'est plus pris en compte pour le calcul des trajectoires possibles. Pour en ajouter une couche, les objets classés dans « autres » sont considérés comme n'ayant pas d'objectif particulier.  Pour ces objets, « leur emplacement actuellement détecté est généralement considéré comme un emplacement statique, à moins que cet emplacement ne se trouve directement sur le trajet du véhicule automatisé, cet objet n'est pas considéré comme un obstacle possible ». Sans être expert on voit vite arriver les problèmes potentiels... 

Le NTSB en profite pour expliquer qu'il en est de même pour les piétons se trouvant en dehors d’un passage clouté : ils n'ont pas d'objectif selon le système. Mais il peut toujours prédire une trajectoire basée sur les vitesses observées, lorsque l'objet est continuellement détecté en tant que piéton. S'il existe un risque de collision, des mesures sont prises.

Seconde par seconde, le déroulement de l'accident

Dans le cas de l'accident de Tempe (Arizona) en mars 2018, le NTSB retrace très précisément les événements :

  • 9,9 secondes avant impact : le véhicule commence à accélérer (il était à 56 km/h).
  • 5,8 secondes avant impact : le véhicule atteint la vitesse de 71 km/h environ, dans le respect de la limitation.
  • 5,6 secondes avant impact : le radar fait une première détection et classe le piéton comme véhicule, sans identifier qu'il croise la trajectoire de la voiture.
  • 5,2 secondes avant impact : le lidar détecte aussi le piéton et le classe dans la catégorie « autre », en estimant qu'il est statique. La vitesse de la voiture est maintenant de 72 km/h.
  • 4,2 secondes avant impact : le lidar classe le piéton comme véhicule, sans garder l'historique des précédentes détections puisqu'il change de catégorie. Le pilote automatique le considère toujours comme statique.
  • 3,9 secondes avant impact : le lidar maintient sa version d'un véhicule. Le système calcule sa trajectoire supposée et estime que l'objet se déplace sur la voie de gauche, à côté de la voiture, sans risquer de croiser son chemin.
  • 3,8 à 2,7 secondes avant impact : le système alterne plusieurs fois entre véhicule et autre pour classer le piéton, perdant l'historique à chaque fois. Le piéton est considéré comme statique ou en déplacement sur la voie de gauche.
  • 2,6 secondes avant impact : le lidar détecte le piéton comme un vélo, de nouveau sans avoir d'historique. La prédiction est alors qu'il s'agit d'un objet statique, qui ne croise pas la route de la voiture.
  • 2,5 secondes avant impact : le lidar maintient sa version d'un vélo et le système dispose désormais d'un court historique pour estimer son déplacement. Il serait sur la voie de gauche et ne croiserait pas la route du SUV. 
  • 1,5 seconde avant impact : le lidar change de nouveau sa version et classe le malheureux piéton dans « autre », sans historique ni objectif, le système considère l'objet comme statique et partiellement sur le chemin de la voiture. Une manœuvre d’évitement par la droite semble alors suffisante. La vitesse est de 71 km/h.
  • 1,2 seconde avant impact : le lidar revient à sa version d'un vélo. On perd de nouveau l'historique et le système estime cette fois-ci qu'il est sur le chemin du SUV. La vitesse est de 69 km/h. Le plan d'évitement défini 300 ms auparavant n'est plus d'actualité, car dangereux ; « la suppression de l'action commence ».
  • 0,2 seconde avant impact : la suppression est terminée (une seconde tout de même). La situation est toujours considérée comme dangereuse, le système baisse la vitesse (64 km/h) et envoie une alerte sonore.
  • 0,02 seconde avant impact : le conducteur donne un coup de volant, désengageant le pilote automatique. La vitesse est de 63 km/h.
  • Impact mortel.
  • 0,7 seconde après impact : le conducteur appuie sur les freins.

Un piéton en dehors d'un passage clouté ? Ça n'existe pas voyons 

La première détection a donc eu lieu moins de 6 secondes avant l'accident, un délai en théorie largement suffisant pour anticiper et éviter le drame. Problème, « le système n'a jamais classé [Elaine Herzberg] comme piéton ni prédit correctement sa trajectoire en tant que piéton ou cycliste piétonnier - parce qu’elle traversait l’avenue en dehors des passages cloutés ».

Or, « la conception du système n'incluait pas la prise en compte des piétons traversant en dehors des passages », explique le régulateur américain. Le Code de la route est une chose, mais on le sait parfaitement : tout le monde n'a pas une conduite parfaite et ne le respecte pas scrupuleusement à la lettre. C'est valable pour les voitures, les piétons, les cyclistes, les trottinettes électriques, etc. 

De plus, le changement régulier de catégorie a également empêché une bonne détection de la direction et de la vitesse d'Elaine Herzberg par le pilote automatique. 

Lorsque la collision est formellement identifiée à 1,2 seconde avant impact, une manœuvre d'évitement aurait nécessité un changement de trajectoire et un freinage trop important, en dehors des capacités définies dans le système. Il a donc lancé la suppression de son plan, qui s'est terminée une seconde plus tard.

À ce moment-là, « le véhicule était toujours sur la trajectoire d'une collision avec le piéton et, pour l'empêcher, il fallait encore une manœuvre d'évitement extrême. De par sa conception, le système n’a pas actionné d'urgence les freins, mais a fourni une alerte sonore au conducteur du véhicule tout en diminuant la vitesse du véhicule ». La suite, tragique, on la connaît. 

Uber accident mortel

37 autres accidents entre septembre 2016 et mars 2018

Pendant l'enquête, ATG (Uber) a partagé avec le NTSB l'ensemble des enregistrements de sa flotte avec au moins un accident impliquant une de ses voitures (responsable ou non) : « Les dossiers ont montré qu'entre septembre 2016 et mars 2018 (à l'exception du crash actuel), il y a eu 37 accidents impliquant des véhicules ATG, qui fonctionnaient en mode autonome ». 

Dans la grande majorité des cas (33 sur 37), un autre véhicule est venu heurter la voiture d'Uber, généralement par derrière. Dans deux cas, la voiture autonome « a été endommagée par un piéton qui passait alors que le véhicule était arrêté ».

Il reste donc deux cas. Une borne de piste cyclable occupant partiellement la voie a été heurtée dans l'un, tandis que dans l'autre, le conducteur a repris le volant pour éviter un véhicule arrivant en sens inverse, en heurtant au passage une voiture stationnée.

Uber a pris des mesures, qui auraient pu éviter le drame

Depuis l'accident mortel, l'Advanced Technologies Group (ATG) d'Uber a retiré ses véhicules autonomes pendant plusieurs mois, avant de les remettre doucement en circulation fin 2018. Le fabricant a aussi « modifié la façon dont le système fusionne les informations du capteur et prédit les chemins possibles pour prendre en compte l'historique de suivi ». Ce n'est pas tout, certains systèmes d'aide à la conduite de Volvo restent désormais actifs avec le pilote automatique Uber, notamment l'avertissement de collision frontale et le freinage d'urgence automatique.

Désormais, la phase de suppression n'existe plus en cas d'urgence (elle a duré une seconde à un moment critique pour rappel). En cas de danger immédiat, le système enclenche le freinage d'urgence, même si cela ne permet pas d'empêcher l'accident (au moins il l'atténuera). Désormais, lorsqu'un objet change de catégorie, son historique est conservé afin de calculer au mieux sa trajectoire, sa vitesse et le risque de croiser le chemin de la voiture. 

Les enquêteurs du NTSB ont demandé à Uber quelles auraient été les conséquences de l'accident de mars 2018 avec l'ensemble de ces changements sur le pilote automatique. En le simulant avec une version de septembre 2018 du logiciel (qui comporte d'autres changements que ceux mentionnés), Uber estime que le piéton aurait été détecté à environ 88 mètres, soit 4,5 secondes avant l'impact. Après analyse, la voiture aurait freiné un peu plus de 4 secondes avant l'impact, un délai qui aurait été suffisant pour éviter le drame.

Quoi qu'il en soit, nous attendons désormais les conclusions de l'enquête du NTSB sur les causes probables de l'accident. Espérons qu'il ne faudra pas un accident mortel par situation inattendue pour agir. Des changements ont été apportés sur le lieu de l'accident, avec des panneaux d'interdiction de traverser pour les piétons.

Pour rappel, Uber a très rapidement (fin mars 2018) signé un accord avec la famille de la victime, s'évitant ainsi une bataille judiciaire. « L'affaire a été résolue », affirmait simplement l'avocate de la famille.

155

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une première détection 6 secondes avant l'impact

Lidar, radar et caméra : trois « yeux » sur la route

Catégorisation et calcul de trajectoire des objets détectés

Seconde par seconde, le déroulement de l'accident

Un piéton en dehors d'un passage clouté ? Ça n'existe pas voyons 

37 autres accidents entre septembre 2016 et mars 2018

Uber a pris des mesures, qui auraient pu éviter le drame

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (155)


Intéressant, mais on voit aussi que celle qui a traversé ne faisait vraiment pas attention ! On ne peut pas tout reprocher à l’IA !



On peut juste supposer, car c’est souvent le cas, que le piéton est parti du principe que la voiture allait ralentir en le voyant de loin et ne s’attendait pas à ce que ce soit une IA au volant, IA qui forcément ne détecte pas aussi bien que c’est un piéton comparé à un vrai pilote.



En fait, la première réaction de l’IA devrait être de ralentir tant qu’il ne pige pas ce que c’est !


Ça parait assez fou leur gestion initiale avec suppression de l’historique lors du changement de catégorisation…

C’est vraiment une grossière erreur dans leur développement, car peu importe l’objet, il a toujours une position, direction, vitesse. Aucune logique alors de tout effacer.








killtoo a écrit :



Ça parait assez fou leur gestion initiale avec suppression de l’historique lors du changement de catégorisation…

C’est vraiment une grossière erreur dans leur développement, car peu importe l’objet, il a toujours une position, direction, vitesse. Aucune logique alors de tout effacer.







C’est ce que je me disais, c’est pas sérieux, quel abruti se dit qu’un historique de la situation en cours ne sert à rien.



Sympa le victim blaming, en attendant la fille est morte, alors que ça aurait pu être évité, malgré son attitude hors cadre légal.

Si t’es conducteur, que t’as un piéton qui traverse devant toi, tu n’accélères pas ou ne fait pas mine de pas l’avoir vu, parce qu’il est en tort, quitte à le tuer…


Alors si on part de ce principe, tout ceux qui traverse au feu rouge pourront se faire écraser par les voitures contrôlées par l’IA par ce qu’ils ne sont pas sensés le faire ?


Donc on a :





  • Une IA incapable de conserver un historique, même sur quelques secondes, couplée à une analyse de trajectoire foireuse et à un comportement “par défaut on va dire que ça va, allez on continue”

  • Un conducteur au téléphone qui ne surveille pas la route

  • Une piétonne qui traverse dans le noir, sans doute sans regarder non plus (elle aurait du voir les phares de la voiture)



    Au final, la faute en incombe selon moi en grande partie à la piétonne, avec une voiture normale et même avec un conducteur attentif, l’accident était tout de même très probable. 

     

    Ceci étant, tout l’intérêt des voitures autonomes est justement d’éviter ce genre d’accident, et de plus le conducteur aurait du réagir bien avant.



     Bref c’est le bordel.  Pour citer l’article … “on n’est pas sorti de l’auberge” 








darkbeast a écrit :



C’est ce que je me disais, c’est pas sérieux, quel abruti se dit qu’un historique de la situation en cours ne sert à rien.





Au hasard une équipe sous pression qui doit donner des résultat rapide et éviter que son véhicule ne s’arrête tout les 10m à cause de faux positif trop nombreux sur le système de détection.









plusquezero a écrit :



Sympa le victim blaming, en attendant la fille est morte, alors que ça aurait pu être évité, malgré son attitude hors cadre légal.

Si t’es conducteur, que t’as un piéton qui traverse devant toi, tu n’accélères pas ou ne fait pas mine de pas l’avoir vu, parce qu’il est en tort, quitte à le tuer…





Il faut quand même admettre que l’accident est du au cumul de 2 erreurs humaines:




  • Le piéton qui traverse hors du passage clouté et ne dégage pas de la route alors que 6 secondes se sont écoulées

  • Le conducteur de la voiture qui regardait une vidéo et n’était pas attentif



    C’est dramatique mais la nature humaine impose toujours plus de contraintes aux systèmes automatisés.









Obidoub a écrit :



Il faut quand même admettre que l’accident est du au cumul de 2 erreurs humaines:




  • Le piéton qui traverse hors du passage clouté et ne dégage pas de la route alors que 6 secondes se sont écoulées

  • Le conducteur de la voiture qui regardait une vidéo et n’était pas attentif



    C’est dramatique mais la nature humaine impose toujours plus de contraintes aux systèmes automatisés.





    Surtout que l’IA était en apprentissage, et c’est justement pour cela qu’il y a un conducteur derrière. Du coup, je trouve que dans ce cas précis, le conducteur du véhicule de test est le responsable, car son métier est justement d’éviter que ce type de situation n’arrive.



L’accident n’est dû qu’à la voiture qui entre en colision avec le piéton. 6sec c’est beaucoup, c’est pas comme si elle s’était jeté sous les roues.



Les responsables ce sont l’IA et l’agent qui branlait rien.



Ce serait un gamin qui courait après son balon, inconscient des dangers car c’est un gamin, ce serait de sa faute aussi ?


Toute mort est tragique, et on ne trouvera pas grand monde pour juger que le victime l’avait bien mérité, quelle que soit sa faute personnelle.

Il faut que cette erreur permette à tous de progresser. Uber doit comprendre comment ils auraient du améliorer leur système, et ça semble avoir été bien fait ici.

Mais à trop se focaliser sur les erreurs du pilote automatique, on semble oublier que cet évènement devrait aussi servir de leçon à ceux qui traversent hors des clous une 2 voies limitée à + de 70km de nuit…


Deux voies !? Désolé mais vu la photo aérienne, à l’endroit ou elle traverse moi j’en compte 4.

Alors oui, évidement, le conducteur qui se la coule douce en matant une vidéo c’est n’importe quoi. Oui l’algorithme est foireux (et merci pour l’article hyper interessant au passage) et j’espère que les devs sont pas tous aussi mauvais.



Mais bordel un piéton qui traverse une autoroute 4 voies de nuit !? Moi la première chose que j’envisagerai c’est clairement l’hypothèse du suicide…


Bien sûr que ce serait la faute du gamin (et de ceux qui auraient du le surveiller).

Et selon le comportement du véhicule, ça serait peut-être aussi la faute du conducteur (en particulier s’il arrivait trop vite au regard des lieux ou a mis un temps excessif à réagir)



Être en faute ne signifie par mériter ce qui nous arrive. Dans cette hypothèse la ‘sanction’ qui tombe sur le gamin (ou sur la cycliste du cas uber) est complètement disproportionnée, tout le monde est d’accord là-dessus. Ça ne retire pas le fait qu’ils n’avaient rien à faire là.


J’abandonne, vous êtes trop de droite en fait.



C’est jamais la faute de la personne qui déplace 1.5 T et qui est censé être maitre du véhicule.








plusquezero a écrit :



J’abandonne, vous êtes trop de droite en fait.



C’est jamais la faute de la personne qui déplace 1.5 T et qui est censé être maitre du véhicule.







Laisse tomber, c’est le genre de mec qui trouverait une excuse à un conducteur bourré avec 2 grammes dans chaque oeil entrain d’envoyer un mail en grillant un feu rouge. Mais il faut comprendre car ce salopard de môme a traversé 27 cm à droite du passage piéton !!!



Personne n’a dit que le véhicule et son “conducteur” n’était pas en faute, juste que comme beaucoup d’accidents, il y a plusieurs causes qui ont menées à l’accident.



Si on part du principe que le piéton n’y est pour rien, ça reviendrait à dire que le jour ou toutes les voitures sont pilotée par IA, je pourrais traverser où et quand ça me chante, toute façon c’est à l’IA de m’éviter.


C’est surtout une question d’être binaire ou non.

On n’a pas dit qu’il n’y avait jamais de faute des véhicules, et dans le cas d’Uber, il y a faute évidente de l’IA qui n’a pas su réagir correctement et de la conductrice qui était plongée dans son smartphone.

C’est pas pour autant qu’il ne peut pas y avoir AUSSI une faute du piéton qui traverse une deux-voie en dehors d’un passage piéton.



Je me suis fait faucher une fois (plus de peur que de mal). Je peux te garantir que ça change définitivement la vision qu’on a de la traversée de la route, et notamment qu’on réalise qu’on était avant complètement inconscience des risque qu’on prenait en traversant n’importe comment.


Clairement le programme était très mal développé mais l’intelligence humain n’a pas était non plus très fine non plus. C’était un concours pour savoir qui ignorerait l’autre le plus longtemps possible.









Edtech a écrit :



Intéressant, mais on voit aussi que celle qui a traversé ne faisait vraiment pas attention ! On ne peut pas tout reprocher à l’IA !



On peut juste supposer, car c’est souvent le cas, que le piéton est parti du principe que la voiture allait ralentir en le voyant de loin et ne s’attendait pas à ce que ce soit une IA au volant, IA qui forcément ne détecte pas aussi bien que c’est un piéton comparé à un vrai pilote.



En fait, la première réaction de l’IA devrait être de ralentir tant qu’il ne pige pas ce que c’est !







Le problème, c’est le nombre de “autres” sur la route qui peut être aussi bien un poteau, un sac plastique, un artefact d’identification (du bruit) ou un piéton dans un costume de banane. Par défaut considérer que “autre” en tant qu’objet statique et ce qui est le plus probable.







killtoo a écrit :



Ça parait assez fou leur gestion initiale avec suppression de l’historique lors du changement de catégorisation…

C’est vraiment une grossière erreur dans leur développement, car peu importe l’objet, il a toujours une position, direction, vitesse. Aucune logique alors de tout effacer.





Comment fait-tu le lien entre un objet “autres” dans une image et un “pieton” dans l’autre ? Je pense que l’algo derrière est aussi stupide que “soit objet1 un objet détecté dans l’image1 et objet2 détecté dans image2, si objet1.catégorie=objet2.catégorie et objet1.position~=objet2.position alors objet1 et objet2 sont les même”



Cette accident montre qu’il faudrait sûrement un programme dédiée au tracking des objets quelconques (sans avoir à le catégoriser) en particulier ceux en mouvement par rapport à son environnement.



La réalité rattrape la fiction (ou la SF).



 On peut citer le problème de l’IA pas au point (une liste de films gravement longue).



 Ou que l’on sort une IA sort de son usage conforme. Ex: HAL9000 à qui on a demandé de mentir alors que c’est opposé à ces directives de base.



 Et quand bien même ce serait au point. Il restera l’éternel problème de la décision (élcairée ou pas). ex: 2 personnes en danger, 1 robot, un seul sauvetage possible (I-robot). Les critères de sélection pourraient bien s’opposer entre faisabilité et morale.

 

Et puis quelles seront les répercutions de tels critères (légaux?) vis à vis de la morale ? Il faudra bien le transcrire dans la loi un jour. Seulement la machine n’est pas une ‘personne’. Cela répond pas aux même règles. De plus à partir du moment ou il y a décision, il ne peut pas y avoir innocuité. Juste impossible.



 Le piétons n’avait peut être rien à faire là à ce moment. Toutefois dans une approche entrepreneuriale, il ne faudra pas longtemps pour qu’un cadre pense qu’il faudrait changer la loi pour extraire la société de cet étau juridique. Ou d’éventuelles ‘complications’ futures. Uber va tout faire pour se défausser aujourd’hui pour mieux préparer l’avenir. Toutefois le dispositif est sous leur responsabilité. Ca a du bon de signer des accords avec la famille…



 On risque d’assister à un changement de perception sur ce thème. Comprendre que la vie humaine vaudra un peu moins cher suivant qu’on est piéton dans son droit ou pas. Car il est évident qu’Uber ou autre n’on pas envie de tirer des chèques tous les 4 matins.



Et on aura un carrousel des crétins qui nous sortiront des excuses du genre “Je nettoyais le fusil et le coup est parti tout seul, m. le juge”. “Le bon vieux c’est pas ma faute, c’est l’IA”. et l’entreprise de répondre qu’elle produit des équipements conforme aux lois et que toutes les mesures on été prise blah blah. A n’en plus finir.



C’est toujours les mêmes schémas quand il y a du business dans la partie.



 

Note mentale: Acheter un tank. Au moins si je me fait emplafonner par une IA j’aurai rien. Problème : homologuer le véhicule pour la route. sic

 








plusquezero a écrit :



L’accident n’est dû qu’à la voiture qui entre en colision avec le piéton. 6sec c’est beaucoup, c’est pas comme si elle s’était jeté sous les roues.



Les responsables ce sont l’IA et l’agent qui branlait rien.



Ce serait un gamin qui courait après son balon, inconscient des dangers car c’est un gamin, ce serait de sa faute aussi ?







Le gamin, dans cas présent aurait plus eu de chance d’être reconnu comme un piéton car il aurait été sûrement plus facilement identifiable qu’une personne à pied avec un vélo à là main sur la voie de gauche.







plusquezero a écrit :



J’abandonne, vous êtes trop de droite en fait.



C’est jamais la faute de la personne qui déplace 1.5 T et qui est censé être maitre du véhicule.







Tout le temps, dans notre vie quotidienne (et pas uniquement sur la route) on évalue les situations les plus probable (un piéton qui marche sur un trottoir a toute ses chance de continuer sur ce trottoir et non pour une raison quelconque soudainement sauter et s’allonger sur la route) et on prend une décision en conséquence des risques. Généralement, au vu de la proportion “d’accident évité de justesse”, je pense que l’on est assez large dans nos marges de sécurité.



Mais il y a toujours possibilité qu’un événement improbable que l’on n’a pas forcément imaginé ou jugé suffisamment probable (oui, derrière chaque voiture, chaque pot de fleur… il peut y avoir un gamin prêt à sauter sur la route, mais le fait de ne voir aucun parent, autre enfant, aucun indice de la présence a priori d’un enfant qui plus est avec une envie soudaine de sauter sur la route, la probabilité qu’il existe un tel enfant derrière est dérisoire) pour le prendre en considération dans notre décision.



Pour résumé, dans notre vie quotidienne, toutes nos décisions sont prises de la même manière et si il fallait considéré tous les cas possibles lorsque l’on doit prendre un risque, il faudrait aussi prendre en compte les cas les moins probable (en posant un objet sur une table, l’intégralité de ses particules se sont transformé en onde et sont passer au travers de la table, l’objet tombe par terre : c’est un cas physiquement possible) et ce que l’on ne peut pas imaginer (ce qui pose problème aux bayésiens). Tu te rend bien compte que ça en devient débile.



Mais comme je l’ai dit au début, nous accordons en général une marge assez large, et un accident et rarement monocausale, c’est souvent la somme de plusieurs causes extrêmes qui pris individuellement n’aurait pas suffit pour provoquer l’accident.









TexMex a écrit :



On risque d’assister à un changement de perception sur ce thème. Comprendre que la vie humaine vaudra un peu moins cher suivant qu’on est piéton dans son droit ou pas. Car il est évident qu’Uber ou autre n’ont pas envie de tirer des chèques tous les 4 matins.





Ils vont aussi faire du lobbying pour que l’on adapte les routes aux IA. Avec les routes de “cinquième génération”, on va pallier les défauts de ces machines… Ce n’est pas Uber qui va payer ça. <img data-src=" />



Comme le cycliste que j’ai failli écraser, y à une heure, ce con passe au feu rouge alors que c’est vert pour moi, il été à un mètre de voler au cimetière.<img data-src=" />








Zerdligham a écrit :



…C’est pas pour autant qu’il ne peut pas y avoir AUSSI une faute du piéton…





Pratique du “en même temps” -&gt; tu es de droite. CQFD

(pas taper on est presque dredi)



Plus sérieusement je me range du coté de ceux qui donnent le “conducteur” comme responsable numéro 1. La piétonne est humaine et fait une erreur humaine : manque de prudence et penser que la voiture l’évitera. L’IA est incomplète. Le conducteur aurait dû avoir les yeux rivés sur la route.









Ami-Kuns a écrit :



Comme le cycliste que j’ai failli écraser, y à une heure, ce con passe au feu rouge alors que c’est vert pour moi, il été à un mètre de voler au cimetière.<img data-src=" />







Et maintenant c’est encore mieux, c’est de nouveau la saison des cyclistes ninja invisibles. <img data-src=" />



En tant que cycliste aussi, j’ai uniquement envie de les tuer.



C’est beau, les voitures autonomes…



Et demain, lors des accidents entre voitures autonomies, quelles assurances vont raquer ? Celles des conducteurs alors qu’ils n’ont rien fait ? Celles des constructeurs ?




Note mentale: Acheter un tank. Au moins si je me fait emplafonner par une IA j’aurai rien. Problème : homologuer le véhicule pour la route. sic

&nbsp;

A défaut d’un tank, tu peux déjà commencer par un SUV, ou un Hummer (c’est homologué ^^)


fout un coup de pied en doublant par la droite, à ceux qui n’ont pas de lumières et sont habillés tout en noir.



Tkt je met mon pare-buffle








killtoo a écrit :



Ça parait assez fou leur gestion initiale avec suppression de l’historique lors du changement de catégorisation…

C’est vraiment une grossière erreur dans leur développement, car peu importe l’objet, il a toujours une position, direction, vitesse. Aucune logique alors de tout effacer.



Et il y a pas que ça. Faire confiance à 100 % à un logiciel “en test” en retirant les sécurités de base (l’alerte de collision et le freinage d’urgence) de Volvo est ahurissant.



Je suppose que ce genre d’équipement ne s’active pas tous les 100 mètres, je ne vois donc pas où était le risque d’interférence avec l’IA. Au pire, il aurait pu être désactivé sous condition (si le conducteur regarde la route et à les mains sur le volant, par exemple).



Ca me fait penser aux deux alarmes que Boeing avait mis en option (payante) sur ces 737 MAX. Une alarme, si elle existe, est faite pour avertir un danger. Et si le danger n’est pas en option, l’alarme ne l’est pas non plus.



Même si on peut considérer le comportement de la piétonne comme en parti responsable, c’est la voiture qui lui a foncé dessus et non l’inverse.





Même si on peut considérer le comportement de la piétonne comme en parti responsable, c’est la voiture qui lui a foncé dessus et non l’inverse.



Tiens, je vais me poster au milieu de l’A89, et attendre. Ce seront les voitures qui me “fonceront dessus, et pas l’inverse” ;)



Tu vois le ridicule de la situation ? La piétonne EST responsable… et UBER d’avoir fourni un soft pas suffisamment bien codé pour éviter un piéton.


Dites, les gars.

Je veux bien croire qu’on est en fin de semaine mais faudrait arrêter avec la détente cérébrale là.



On va se calmer avec le slutshaming/victim bashing parce que là, les commentaires prennent des airs zemmouriens pas franchement reluisant.

C’est le débat sur le voile qui vous a mis dans cet état?

Faut arrêter avec bfm tv et cnews, ça aide pas à la réflexion.



Allez, pour se décrasser un peu de ces commentaires salissants, on va faire un petit rappel à la loi (art. R412-34 et suivants du Code de la route):




  • les piétons sont prioritaires en toute circonstance;

  • ET OUI, un piéton peut marcher sur la route quand il n’y a pas d’aménagement dédié (ce qui était le cas ici);

  • ET OUI, un piéton peut traverser de nuit sur la route, du moment qu’il le fait perpendiculairement à l’axe de la route ‘c’était approximativement le cas ici);



    Si on appliquait le droit français à cette affaire, la piétonne était tout à fait dans son droit, et le conducteur était totalement en tort.

    &nbsp;



    Bref, pour résumer, si vous êtes automobiliste, VOUS AUREZ TOUJOURS TORT FACE A UN PIÉTON, même s’il se jette sous vos roues.

    &nbsp;La logique est simple: c’est celui qui manipule le véhicule qui est responsable, l’idée étant que le véhicule est une arme. Si tu ne sais pas t’en servir, si tu as peur de causer un accident, alors ne l’utilise pas


La deux voies identifiée ici n’est pas une autoroute, c’est une avenue.

La piétonne n’est en rien responsable: il appartient au conducteur d’être vigilant et de réagir en cas de danger. Il a passé un permis pour ça, à lui de respecter les règles.

&nbsp;

Merci d’arrêter avec la mauvaise foi.








DayWalker a écrit :



Tiens, je vais me poster au milieu de l’A89, et attendre. Ce seront les voitures qui me “fonceront dessus, et pas l’inverse” ;)



Tu vois le ridicule de la situation ? La piétonne EST responsable… et UBER d’avoir fourni un soft pas suffisamment bien codé pour éviter un piéton.



Dans mon échelle de responsabilité, ce serait plutôt “Conducteur &gt; piétonne &gt; IA”





  • Le conducteur est majoritairement responsable parce qu’inattentif à la route alors que c’est son boulot.

  • La piétonne est “responsable” non pas parce qu’elle a chercher à se mettre en danger mais parce qu’elle a reproduit un comportement de tout les jours (ne me dit pas que tu traverses EXCLUSIVEMENT sur les passages piétons, même quand ça t’obligerait à faire un détour de 100m). Dans ton exemple, tu serais responsable à 100 % parce que tu cherches à provoquer un accident et je doute qu’en traversant avec son vélo, elle cherchait à frauder une assurance ou à rendre coupable le premier type qui passe.

  • Une IA est ni plus, ni moins qu’un logiciel complètement con qui suivra les ordres dictés en pondérant les réponses d’après des statistiques. Et c’est pire quand c’est en test.







    Certes, Uber a quand même sa part de faute là-dedans et il faut croire que certains scénarios ont été oubliés / fait à la va-vite. Avoir retirer les sécurités de Volvo reste une hérésie permise par une sur-confiance.

    Mais dans l’histoire, il y avait quand même un garde-fou : le chauffeur de la bagnole, qui était plus collé à son téléphone qu’à ce qu’il y avait sur la route.



C’est fou cette volonté de vouloir simplifier le problème en cherchant UN coupable.



Y’a pas de faute de l’un plutôt que de l’autre.

C’est une somme de condition qui ont provoqué un drame.

Enlever l’une de ces conditions, y’a plus de drame.



Oui si la cycliste/piétonne n’avait pas traversé la route, elle serait pas morte.

Si le conducteur avait fait son taf, peut être aurait-il pu stopper le véhicule à temps

Et avec un autre algo, l’IA aurait eu une réflexion différente, et donc une réaction différente.



Mais globalement, c’est bien la conjonction des 3 qui a déclenché le drame et on peut pas y faire grand chose.

Maintenant l’idée c’est juste d’éviter que ces conditions soient à nouveau réunies.








js2082 a écrit :



Bref, pour résumer, si vous êtes automobiliste, VOUS AUREZ TOUJOURS TORT FACE A UN PIÉTON, même s’il se jette sous vos roues.





Ce n’est pas tout à fait exact du point de vue du code de la route. Pour que le piéton soit prioritaire, il faut qu’il respecte le code, qui lui impose entre autres choses de s’assurer avant de traverser de l’absence de danger (art. R412-37).



Il y a 35 000 accidents par an en France d’animaux sauvages qui se jettent sur une voiture… un humain freine quant il voit un bestiau se rapprocher, pendant que l’IA perd son temps à essayer de comprendre ce qu’il se passe <img data-src=" />





Dans deux cas, la voiture autonome « a été endommagée par un piéton qui passait alors que le véhicule était arrêté ».





Il y a vraiment des piétons qui se jettent sur des voitures à l’arrêt? Ils sont bizarres les Américains <img data-src=" />








iFrancois a écrit :



…un comportement “par défaut on va dire que ça va, allez on continue”…







Ça c’est indéfendable dans une phase de TEST, Uber devrait être poursuivi pour meurtre <img data-src=" />



Un “vrai pilote” peut aussi être distrait.

Il y a des accidents tous les jours sans qu’une IA y soit pour quelque chose.



<img data-src=" /> Un piéton qui traverse en espérant que le conducteur va s’arrêter sans s’assurer que ce dernier a commencé à ralentir donne du grain à moudre à la sélection naturelle. <img data-src=" />








Edtech a écrit :



(…)

En fait, la première réaction de l’IA devrait être de ralentir tant qu’il ne pige pas ce que c’est !





Quand on voit l’autopilot de base de la Tesla M3, qui ralentit des fois tout seul (et que l’humain, moi par exemple ou le passager, se dit, mais bordel qu’est-ce qu’il fait cet AP?) et qu’on lit l’articile, on voit clairement que l’implémentation de Tesla a l’air plus prudente (peut-être pas parfaite, pas la moins cher mais prudente est le mot).

Y a des fois où il se plante à chaque fois (détection de danger alors qu’il n’existe pas) : exemple rue courbe vers la gauche, stationnement en épis, zone 30 km/h et une voiture est “un peu limite”… la voiture freine toute seule, on la sent hésiter, mais la réaction est saine a mon avis.

Par contre un baffe au conducteur lors de cet accident qui zonais sur son smartphone…





Pour rappel, Uber a très rapidement (fin mars 2018) signé un accord avec la famille de la victime, s’évitant ainsi une bataille judiciaire. « L’affaire a été résolue », affirmait simplement l’avocate de la famille.







CGU d’Uber :

Pour bénéficier de notre expérience utilisateur avec rémunération :

-adoptez un enfant

-passez-le sous les roues d’un Uber

-demandez à éviter le procès pour toucher la prime

-remboursez le prix du passeur



Uber vous remercie de votre participation à l’étude du service expérience utilisateur avec rémunération





Ne pas lire les CGU n’est pas plus mal en fait. <img data-src=" />








DayWalker a écrit :



C’est beau, les voitures autonomes…



Et demain, lors des accidents entre voitures autonomies, quelles assurances vont raquer ? Celles des conducteurs alors qu’ils n’ont rien fait ? Celles des constructeurs ?





<img data-src=" /> Et si on envoi sa voiture toute seule chercher mamie Germaine à la gare, c’est qui le responsable à l’aller ?

Si autonome, pas besoin de conducteur. <img data-src=" />



Un point qui n’est pas forcément abordé ici c’est le fait qu’a T - 1.2s (quand le calculateur détermine la trajectoire de collision sérieuse) , l’option de donner un coup de volant d’évitement n’est pas envsagée. C’est pourtant ce qu’aurait fait un conducteur humain : A 1s de la collision, si tu vois un pieton devant , t’écrases le frein et tu braques.



Oui, c’est sans doute idiot, car ton freinage interviendra trop tard, et le coup de volant risque de te faire partir en vrille. Malgré tout , c’est un réflexe, et même consciemment c’est “logique” : Toi t’es dans une voiture avec des airbag partout , donc tu peux survivre.

Le piéton à 70km , à l’impact il a aucune chance.



Là, le calculateur a clairement fait un compromis en faveur du conducteur , solvable et client, face à une femme en vélo .

Je ne suis pas sur que ce genre de choix doive être laissé aux constructeurs.


« La victime est responsable parce qu’elle n’a pas traversé sur un passage clouté », sérieusement ?



Tout le monde traverse hors des passages cloutés, cette situation arrive tout le temps et partout (vous sortez de chez vous un peu ?) De chez mes parents à la cambrousse, le 1er passage clouté est à plusieurs kilomètres, avec cette logique je devrais vraiment faire un détour de plusieurs kilomètres pour aller voir mon voisin d’en face ? Sinon une IA est légitime pour m’écraser parce que je ne respecte pas ses règles arbitraires ? Non parce que dans le droit commun, un piéton traverse où et quand il veut, et le conducteur est responsable de son véhicule. Et ce parce qu’en cas de choc, y’en a un qui va faire beaucoup plus de mal à l’autre, quelle que soit la situation.



Aussi, vous avez regardé la photo ? Il y a un croisement prévu pour les vélos, et aucun passage piéton.

Si en vélo tu crèves un pneu sur la route, si t’as un claquage, si te fait renverser, etc. et que tu te retrouve à pied, tu deviens responsable des automobilistes qui t’arrivent dessus ?



Si l’IA n’est pas capable de gérer l’imprévu, elle n’a rien à foutre aux commandes d’un véhicule, parce que l’imprévu encore une fois, il arrive partout et tout le temps, et que l’enjeu c’est quand même la vie des gens. Y compris de ceux en situation imprévue. Sans compter qu’un système qui n’arrive pas à catégoriser un objet commun aux abords des routes, c’est une aberration, mais s’il choisit de maintenir sa vitesse alors qu’il sait que quelque chose ne va pas, alors c’est beaucoup + con que de traverser une route de nuit. Avec des défauts pareils, je suis très surpris qu’aucun accident lié à ce paramétrage n’ai eu lieu avant.



Certes les pilotes sont carrément faillibles, mais si les IA ne sont pas capables de gérer des situations que l’humain sait résoudre, quel est l’intérêt ? Pouvoir mater son smartphone pendant le trajet ? Bonne nouvelle, ça c’est gagné.








DayWalker a écrit :



Tu vois le ridicule de la situation ? La piétonne EST responsable… et UBER d’avoir fourni un soft pas suffisamment bien codé pour éviter un piéton.





N’oublie pas le couillon au téléphone devant le volant. <img data-src=" />









Arkeen a écrit :



Tout le monde traverse hors des passages cloutés, cette situation arrive tout le temps et partout (vous sortez de chez vous un peu ?) De chez mes parents à la cambrousse, le 1er passage clouté est à plusieurs kilomètres, avec cette logique je devrais vraiment faire un détour de plusieurs kilomètres pour aller voir mon voisin d’en face ?





La vraie règle, en France (là c’est aux USA), c’est qu’à plus de 50m d’un passage piéton ou d’une intersection à feu tricolore, c’est traversée libre (mais il faut respecter la règle de la perpendicularité). Donc le détour maxi c’est 100m.



Dans certaines municipalités voulant faciliter la vie des piétons, des passages piétons disparaissent dans des rues peu fréquentées pour libérer les piétons de l’obligation de les emprunter.



<img data-src=" /> Tout à fait.

Même si un jugement déterminera quelle “partie” est en tord, c’est bien la conjoncture de ses trois conneries qui on abouti à ce drame.








Arkeen a écrit :



vous avez regardé la photo ?





Oui





Arkeen a écrit :



Il y a un croisement prévu pour les vélos





Où ça ?









Quiproquo a écrit :



La vraie règle, en France (là c’est aux USA), c’est qu’à plus de 50m d’un passage piéton ou d’une intersection à feu tricolore, c’est traversée libre (mais il faut respecter la règle de la perpendicularité). Donc le détour maxi c’est 100m..





<img data-src=" />Ça sera dur d’expliquer qu’on a écrasé un piéton à 30m d’un passage parce qu’il n’était pas dans son droit.<img data-src=" />



Perso, j’ai une règle plus simple, je m’arrête si je vois qu’un piéton veut traverser quelque soit l’endroit parce que je suis dans une position bien plus confortable que lui. Une personne qui veut traverser à des mimiques facilement identifiable si on y prête attention et mes faux positif se comptent sur les doigts d’une main et c’est pas dramatique car en agglomération je me traîne comme un vieux. <img data-src=" />









tazvld a écrit :



Le gamin, dans cas présent aurait plus eu de chance d’être reconnu comme un piéton car il aurait été sûrement plus facilement identifiable qu’une personne à pied avec un vélo à là main sur la voie de gauche.







Tout le temps, dans notre vie quotidienne (et pas uniquement sur la route) on évalue les situations les plus probable (un piéton qui marche sur un trottoir a toute ses chance de continuer sur ce trottoir et non pour une raison quelconque soudainement sauter et s’allonger sur la route) et on prend une décision en conséquence des risques. Généralement, au vu de la proportion “d’accident évité de justesse”, je pense que l’on est assez large dans nos marges de sécurité.



Mais il y a toujours possibilité qu’un événement improbable que l’on n’a pas forcément imaginé ou jugé suffisamment probable (oui, derrière chaque voiture, chaque pot de fleur… il peut y avoir un gamin prêt à sauter sur la route, mais le fait de ne voir aucun parent, autre enfant, aucun indice de la présence a priori d’un enfant qui plus est avec une envie soudaine de sauter sur la route, la probabilité qu’il existe un tel enfant derrière est dérisoire) pour le prendre en considération dans notre décision.



Pour résumé, dans notre vie quotidienne, toutes nos décisions sont prises de la même manière et si il fallait considéré tous les cas possibles lorsque l’on doit prendre un risque, il faudrait aussi prendre en compte les cas les moins probable (en posant un objet sur une table, l’intégralité de ses particules se sont transformé en onde et sont passer au travers de la table, l’objet tombe par terre : c’est un cas physiquement possible) et ce que l’on ne peut pas imaginer (ce qui pose problème aux bayésiens). Tu te rend bien compte que ça en devient débile.



Mais comme je l’ai dit au début, nous accordons en général une marge assez large, et un accident et rarement monocausale, c’est souvent la somme de plusieurs causes extrêmes qui pris individuellement n’aurait pas suffit pour provoquer l’accident.







Merci, enfin un peu de nuance dans les commentaires.



Quelque soit la loi ou les avis, faut quand même être vraiment con pour traverser tranquillement (les phares devaient bien se voir de loin sur une ligne droite en pleine nuit) une 4 voies, en pleine nuit, avec une voiture qui arrive… Se dire que même si on meurt, bah au moins on ne sera pas en tord, c’est complètement con comme raisonnement. Le conducteur est en tord, on ne regarde pas son smartphone en conduisant, le fait qu’il y ai une IA ne change rien. Mais le piéton a aussi décidé de traverser dans des conditions dangeureuses.



Est-ce qu’un conducteur sans IA l’aurait évité? Combien de vie ce type d’IA va t’elle sauver en réagissant plus vite qu’un humain? En france y a plus de 500 piétons qui meurt faucher par une voiture chaque année, et il n’y a pas d’IA la dedans, juste de la connerie humaine.



Au passage, en France, la loi dit (source legifrance):



Article R412-37

Modifié par Décret n°2010-1390 du 12 novembre 2010 - art. 12

Les piétons doivent traverser la chaussée en tenant compte de la visibilité ainsi que de la distance et de la vitesse des véhicules.

Ils sont tenus d’utiliser, lorsqu’il en existe à moins de 50 mètres, les passages prévus à leur intention.

Aux intersections à proximité desquelles n’existe pas de passage prévu à leur intention, les piétons doivent emprunter la partie de la chaussée en prolongement du trottoir.

Les dispositions du présent article ne s’appliquent pas aux aires piétonnes et aux zones de rencontre.










Quiproquo a écrit :



La vraie règle, en France (là c’est aux USA), c’est qu’à plus de 50m d’un passage piéton ou d’une intersection à feu tricolore, c’est traversée libre (mais il faut respecter la règle de la perpendicularité). Donc le détour maxi c’est 100m.



Dans certaines municipalités voulant faciliter la vie des piétons, des passages piétons disparaissent dans des rues peu fréquentées pour libérer les piétons de l’obligation de les emprunter.







Tu n’es pas précis. Sans passage piéton à moins de 50m, il peut traverser, en tenant compte de la visibilité ainsi que de la distance et de la vitesse des véhicules.



Et dans ce cas la, si c’était arrivé en France, ça change quand même la donne.



“On touche au problème lorsqu’un objet change de catégorie : son historique n’est plus pris en compte pour le calcul des trajectoires possibles.”



&nbsp;Les mecs qui ont osé concevoir une bouze pareille sont des putains de criminels. Même un étudiant en première année d’informatique n’oserait sans doute pas être aussi crétin.Il ne faut pas plus de 5 sec de réflexion à une personne normalement constituée pour dire, à la question “comment tu ferais pour détecter et anticiper un objet en utilisant plusieurs capteurs”, “je rassemble toutes les sources pour faire un suivi unique avec un ‘identifiant’ unique”.








cyp a écrit :



Au hasard une équipe sous pression qui doit donner des résultat rapide et éviter que son véhicule ne s’arrête tout les 10m à cause de faux positif trop nombreux sur le système de détection.





Rien à foutre.&nbsp;

C’est comme le chercheur, pardon, le connard, qui se fait embaucher pour expérimenter des produits / techniques industrielles dont il ne peut ignorer que le premier usage sera l’armement.&nbsp;

Si t’as une conscience, tu prends un taf acceptable et tu fais ton job proprement.&nbsp;



Après, je suis d’accord avec les autres que le conducteur était complètement en tort aussi : “véhicule de test” -&gt; t’es pas là pour te branler la nouille, mais pour être aussi attentif (voire plus) qu’un conducteur normal.

&nbsp;



ProFesseur Onizuka a écrit :



Il y a 35 000 accidents par an en France d’animaux sauvages qui se jettent sur une voiture… un humain freine quant il voit un bestiau se rapprocher, pendant que l’IA perd son temps à essayer de comprendre ce qu’il se passe <img data-src=" />







Il y a vraiment des piétons qui se jettent sur des voitures à l’arrêt? Ils sont bizarres les Américains <img data-src=" />





Bah ouais, je comprends pas comment un développeur (un mec censément un minimum intelligent) peut accepter d’avoir n’importe quelle autre réaction que ça face à l’inconnu.



La vidéo de l’accident est facilement trouvable sur Youtube (vidéo officielle de la Police, coupée juste avant l’impact postée par Euronews).



La cycliste, qui traverse en marchant à côté de son vélo, est dans une zone d’ombre complètement noire. Même si la conductrice avait été attentive (elle quitte clairement les yeux de la route vers son téléphone plusieurs secondes) l’impact me semble inévitable (après, à voir si les conditions lumineuses étaient bien équivalentes à celles rendues par la dashcam qui ne sont pas des caméras cinéma quoi…)



Par contre, grosse faute du système qui n’a pas besoin normalement de lumière pour détecter les objets : pas d’obstacle, pas d’autres véhicules…

Uber aurait pu justement montrer là la supériorité sécuritaire d’un véhicule autonome, raté pour eux…



Une fois de plus, excellent article de votre part, fouillé, complet, avec le recul qu’il faut, vous faites plaisir à lire.

Je trouve juste qu’il manque un bouton “pouce bleu” sous chaque article.








Arkeen a écrit :



« La victime est responsable parce qu’elle n’a pas traversé sur un passage clouté », sérieusement ?



Tout le monde traverse hors des passages cloutés, cette situation arrive tout le temps et partout (vous sortez de chez vous un peu ?) De chez mes parents à la cambrousse, le 1er passage clouté est à plusieurs kilomètres, avec cette logique je devrais vraiment faire un détour de plusieurs kilomètres pour aller voir mon voisin d’en face ?





Bien sûr que ça arrive à tout le monde, mais dans ce cas, moi je vérifie au moins trois fois qu’il n’y a aucun véhicule qui arrive.

Et même quand je traverse sur un passage piéton, je vérifie deux fois. Pourtant je vis dans une région où les gens roulent très très soft…



Il faut prendre les choses factuellement et rationellement, pas émotionnellement. Sinon ce genre d’accident arrivera encore.

L’IA a été mise en défaut face à cette situation tragique, et est responsable de l’accident.

Mais le piéton, quoiqu’il arrive est aussi responsable de ses actes (un humain sait faire preuve d’intelligence), et un piéton qui traverse sans regarder et en comptant uniquement sur le bon réflexe des véhicules, ne peut pas s’attendre à ne jamais avoir d’accident.

Si on agissait tous ne comptant que sur le bon réflexe des autres véhicules sur la route, le nombre d’accident par an serait bien plus élevé !



Le fait qu’une personne soit morte, ne la déresponsabilise pas enitèrement de sa mort si elle a été imprudente !


Juste je voudrais quand même rajouter un point concernant la configuration de l’accident.

Tout le monde ici parle de piéton, mais en réalité c’était un cycliste pied à terre.



De mon point de vue, le fait d’avoir son vélo à la main, aurait du obliger le cycliste à utiliser la route et non de se faire passer pour un piéton (ce qui interdisait donc la traversée perpendiculaire).



Et sinon pour ceux qui veulent “voir” les conditions de l’accident :https://twitter.com/TempePolice/status/976585098542833664

C’est la vidéo diffusée par la police d’Arizona



Personnellement, je crains que je n’aurais pas pu réagir à temps vu “l’apparition” du vélo aussi tard (pour mes yeux, je compte 3 secondes seulement pour réagir, alors que le radar qui “voit dans la nuit” a eu lui le double de temps)


Ça pause une vrai question, le comportement décrit est clairement éloigné d’une IA, c’est un bête algo codé à la main,on ne peut pas être considéré que ce véhicule est autonome.



La détection d’un objet ne doit pas être lié à l’emplacement où il se trouve ! La détection ne doit pas avoir d’apriori, est un objet détecté doit avoir plusieurs catégories.

Par ex : piéton 80%, cycliste 60%, objet statique 30%. C’est l’IA qui doit ingurgiter ces paramètres plus d’autres (vitesse, composition des voies, panneaux en cours ou passage piéton…) pour prendre la décision la plus probable et/ou sécurisée.

Si chaque composant simplifie sa vision (prend des décisions sans tout la vision du contexte), c’est équivalent à laisser conduire un aveugle guider par un GPS et de l’électronique moderne (détection de frnahcissement de ligne, régulateur de vitesse adaptatif aux panneaux et véhicules devant…). ça peut sans doute fonctionner quelques km, mais c’est de l’inconscience pûre !!!







” il n’était pas sur un passage clouté”



C’était pas un accident alors, c’était un suicide.



Après, effectivement, si l’IA se limite au code de la route, ça va pas le faire. On n’est pas encore dans le cas où toutes les voitures sont autonomes et respectent le Code.


Dans la grande majorité des cas (33 sur 37), un autre véhicule est venu heurter la voiture d’Uber, généralement par derrière.



C’est alarmant ça veut dire quoi ? Un véhicule autonome qui freine sans raison (faux positif), trop fort par rapport à la situation, ou alors qui change de voie au dernier moment !?

En bricolant l’algo suite à la mauvaise détection du piéton, ils vont augmenter les faux positifs, les freinages intempestifs et les accidents par collision d’un autre véhicule.



C’est vraiment du bricolage sauce Start-up (code à l’arrache, et plein de comm’ avec des mots à la mode)



J’ai déjà croisé un véhicule autonome en ville une volvo avec un barda sauce google car d’1m haut sur le toit. La caisse m’a fait une énorme queue de poisson sans clignotant alors que j’étais sur une voie de dégagement à sa droite avec mon clignotant.

J’ai compris la raison en peu plus tard le véhicule est resté en plein au milieu de la voie qui était en train de s’élargir, elle n’a serré le bon côté de sa destination qu’au moment où le pointillé du milieu commence à être peint sur la chaussée.

Tu fais ça à l’examen du permis tu finis même pas ta session, il y’a un grand coup de frein et tu repasses passager illico !

Aucune anticipation, aucun respect des angles morts / rétro, le clignotant au moment du coup de volant, c’est le briefing avant la première leçon de conduite ça !


Juste un commentaire pour éclairer un peu ceux que ça “choque” de voir qu’un objet “perd” son historique quand il change de catégorie.

C’est malheureusement un problème propre à la vision d’un ordinateur :

Il faut bien s’imaginer que le système c’est un programme qui comme tout programme reste “con”, c’est pas de “l’intelligence” artificielle, c’est de l’analyse statistique dans un programme.

Et dans un programme on manipule des des variables.

un programme de vision fait plusieurs choses qu’on va séparer en groupes, plus ou moins indépendants :

Tout d’abord, une partie du programme traite l’image fournie par la caméra :

Chaque objet vu se voit affecter un nom de variable pour pouvoir le ranger dans la mémoire, le catégoriser et le traiter.

Si il voit un truc il commence par l’appelle par exemple “obj_25458”

“obj_25458” est un tableau, qui contient tout ce qui est utile comme renseignements.

Il lui affecte d’ores et déjà quelques caractéristiques suivant ce qu’il a reconnu.

par exemple il dit “ça a toutes les chances d’être une poubelle, sa position est X,Y”

et cette partie du programme répète l’opération pour tout ce qu’elle trouve dans son champ de vision

C’est une des étapes les plus critiques puisque cette partie référence tous les objets.



En parallèle, c’est une autre partie du programme traite les infos en provenance du lidar.

Lui ne voit pas assez nettement les formes pour pouvoir les ranger dans des catégories, mais il vapouvoir fournir l’information de distance nécessaire pour compléter le tableau pré-rempli par l’algorithme de vision



une autre partie du programme va ensuite faire le tri dans tout ce qui est vu.

un objet que la partie vision à catégorisé comme “poubelle” est classé dans les objets “autres” qui entre nous sont la plupart du temps des objets statiques peu dangereux tant qu’ils sont pas en feu ou au milieu de la route

un objet de type véhicule ou pieton par contre va avoir droit à un traitement plus poussé

ces choix de sélectionner et traiter certaines infos mieux que d’autres c’est juste indispensable sinon il faudrait un calculateur de la nasa embarqué dans chaque voiture



Maintenant le problème :

A l’instant T, mon objet “obj_25458” était considéré comme une poubelle position X,Y,Z

A l’instant T+1 mon véhicule à avancé, mon objet “obj_25458” est toujours considéré comme une poubelle position X2,Y2,Z2.

Maintenant je sais calculer sa vitesse vu que j’ai deux coordonnées dans l’espace. Mais mon véhicule s’est aussi déplacé.

Calculer la vitesse de l’objet poubelle implique donc de déduire le déplacement du véhicule, et comporte forcément quelques erreurs et approximations.

Mon objet poubelle était classé dans “autre”, donc je vais pas utiliser du précieux temps CPU pour calculer au millième près sa vitesse. Un calcul rapide suffira, et ce calcul me donne une vitesse proche de zéro

On va donc ignorer cet objet et le considérer statique



Maintenant à l’instant T+2, mon véhicule s’est rapproché de cette poubelle et lorsque l’algorithme de vision à balayé l’image, il ne voit plus de poubelle, mais il reconnait maintenant un vélo

il créé donc une nouvelle entrée dans son tableau “obj_99922” et le range cette fois dans les bonnes cases



A l’instant T+3, “obj_99922” n’est plus reconnu, c’est de nouveau une poubelle qui est vue, on va l’appeller “obj_2000”



Vous commencez à voir le problème ?



Même si il y a une partie du code qui fait le tri et fusionne les données qu’il suppose identiques, à un moment où un autre un objet est “perdu de vue” ou a changé de nom de variable, il est pour ainsi dire perdu

c’est pas un choix du développeur mais un algo, aussi performant qu’il soit, ne sait pas aussi facilement que nous fusionner des données au fur et à mesure que sa vision change



Ca viendrait à l’idée de personne que le programme fusionne arbitrairement des variables, là encore c’est des choix de probabilités.








regaber a écrit :



tu es de droite. CQFD











plusquezero a écrit :



vous êtes trop de droite en fait.







Euh vous deux on peut savoir pourquoi vous sortez un « tu es de droite » à vos contradicteurs comme si c’était un argument décisif dans une discussion ?

Ça pue le sophisme du déshonneur par association et la malhonnêteté intellectuelle.









Citan666 a écrit :



“On touche au problème lorsqu’un objet change de catégorie : son historique n’est plus pris en compte pour le calcul des trajectoires possibles.”



 Les mecs qui ont osé concevoir une bouze pareille sont des putains de criminels. Même un étudiant en première année d’informatique n’oserait sans doute pas être aussi crétin.Il ne faut pas plus de 5 sec de réflexion à une personne normalement constituée pour dire, à la question “comment tu ferais pour détecter et anticiper un objet en utilisant plusieurs capteurs”, “je rassemble toutes les sources pour faire un suivi unique avec un ‘identifiant’ unique”.





Ce comportement de l’algo est sans doute là pour éviter les faux positifs, c’est à mon avis pas si simple, si tu gardes l’historique d’un objet le risque est de confondre deux objets, et croire que le camion qui passe sous un pont devant toi fusionne avec le pont comme objet à l’arrêt. Où alors un piéton derrière un panneau qui devient subitement un panneau qui traverse la route.



Le vrai problème est d’essayer de reproduire un cerveau en train de conduire en algorithme booléen.

Ce n’est pas possible, il y’a toujours une probabilité / un facteur risque:

Quand tu doubles un véhicule ou passe au niveau de piétons sur un trottoir tu ne les ignores pas complètement sous prétexte qu’ils ne sont pas dans ta voie.

Inconsciemment t’évalues les risques que le piéton saute sur la route / tombe (est-il au téléphone, t’as-t-il vu, est-il bourré -je suis dans le nord- :-) ), ou que le véhicule que tu doubles ne va pas être amené à doubler lui-même en oubliant de regarder son angle mort.

La conduite c’est pas manichéen, et le principe de base est la sécurité (si on te grille une priorité tu freines pour éviter un accident, si quelqu’un te colle au cul t’évites de piller si ce n’est pas nécessaire)









ForceRouge a écrit :



Quelque soit la loi ou les avis, faut quand même être vraiment con pour traverser tranquillement (les phares devaient bien se voir de loin sur une ligne droite en pleine nuit) une 4 voies, en pleine nuit, avec une voiture qui arrive…





Mais bien sur… La victime était conne maintenant <img data-src=" />



Des gens peuvent perdre la réalité des choses pour plein de raison: parcequ’ils ont bu, parcequ’ils prennent des médicaments (effets secondaires), parcequ’ils rêvent, parcequ’ils croient qu’ils vont y arriver… Bref, dans une vie personne ne peut dire qu’il a tout le temps était raisonnable.

Est-ce une raison pour mourir en traitant la personne de conne ?



Sérieusement, quand on utilise une voiture on a entre les mains plus d’1 tonne de métal en déplacement à haute vitesse.

Dans une situation de nuit, sur une route mal éclairée c’est encore pire: il faut redoubler d’attention.



De plus vu les erreurs de programmation de l’IA on peut clairement dire qu’on a mis sur la route un engin de mort. C’est beau de jouer avec la vie des gens comme cela.



“Ca viendrait à l’idée de personne que le programme fusionne

arbitrairement des variables, là encore c’est des choix de probabilités.”



Donc en conclusion, on ne peut pas appeler ça de l’IA mais du calcul de probabilités &nbsp; … &nbsp; CQFD&nbsp;<img data-src=" />


Oui absolument, le terme serait bien plus exact


Faut pas se leurrer le choix de ne pas garder l’historique n’est pas un soucis de mise en commun des variables, c’est un peu la base d’un véhicule autonome d’utiliser les différents capteurs pour “voir” le monde extérieur, si ils ont viré l’historique c’est pour un gain de perf facile, ca toune pas sur des bi core xeon avec 512 go de ram une voiture, plutot que d’optimiser le code, zou on vire l’histo ca va plus vite.&nbsp;


Moi ce que j’en retire, c’est qu’on arrive pas encore au niveau du cerveau d’une mouche en stratégie d’évitement de collision.








carbier a écrit :



Mais bien sur… La victime était conne maintenant <img data-src=" />



Des gens peuvent perdre la réalité des choses pour plein de raison: parcequ’ils ont bu, parcequ’ils prennent des médicaments (effets secondaires), parcequ’ils rêvent, parcequ’ils croient qu’ils vont y arriver… Bref, dans une vie personne ne peut dire qu’il a tout le temps était raisonnable.

Est-ce une raison pour mourir en traitant la personne de conne ?



Sérieusement, quand on utilise une voiture on a entre les mains plus d’1 tonne de métal en déplacement à haute vitesse.

Dans une situation de nuit, sur une route mal éclairée c’est encore pire: il faut redoubler d’attention.



De plus vu les erreurs de programmation de l’IA on peut clairement dire qu’on a mis sur la route un engin de mort. C’est beau de jouer avec la vie des gens comme cela.







Ok, bah si tu laisse tes gamins jouer au ballon sur l’autoroute en te disant que de toute façon, ils ne seront pas responsable, c’est ton point de vue. Mon point de vue, c’est que même si la loi le permet, c’est pas une raison de jouer avec la mort. Parce que oui, quand on traverse une 4 voies la nuit alors qu’une voiture arrive, c’est complètement con.









choukky a écrit :



Perso, j’ai une règle plus simple, je m’arrête si je vois qu’un piéton veut traverser quelque soit l’endroit parce que je suis dans une position bien plus confortable que lui. Une personne qui veut traverser à des mimiques facilement identifiable si on y prête attention et mes faux positif se comptent sur les doigts d’une main et c’est pas dramatique car en agglomération je me traîne comme un vieux. <img data-src=" />





Pareil, sauf que de plus en plus souvent je croise des aveugles et sourds qui se jette sur la route (comprendre avec des pod dans les oreilles et le nez dans téléphone).

Le pire, même en tant que piéton je fait ce genre de rencontre ….









ForceRouge a écrit :



Ok, bah si tu laisse tes gamins jouer au ballon sur l’autoroute en te disant que de toute façon, ils ne seront pas responsable, c’est ton point de vue. Mon point de vue, c’est que même si la loi le permet, c’est pas une raison de jouer avec la mort. Parce que oui, quand on traverse une 4 voies la nuit alors qu’une voiture arrive, c’est complètement con.





C’est beau cette certitude absolue sur la vie, surtout quant on s’aperçoit que tu n’as absolument pas compris mon propos.



C’est un peu éxagéré de dire que par pur souci économique on va faire “exprès” de faire un truc bâclé et tant pis si ça tue des gens…sur un véhicule de test, pas sûr que le hardware soit soumis aux restrictions budgétaires nécessaires pour un véhicule de série..



Ensuite si je te donne une image de la route : combien d’objets es-tu capable de reconnaître ?en observant bien, tu va pouvoir distinguer du gravier à la feuille d’arbre, soit un sacré paquet de choses tout de même.ça fait facilement plusieurs milliers (millions?) d’objets.Maintenant fais ça 30 fois par secondes&nbsp;et maintenant calcule combien de données à traiter ça représente sur une durée de 5 minutes.



Sans filtrer un peu les infos dès la source, c’est très vite impossible de faire un quelconque traitement. même avec un hardware presque illimitéUn humain filtre très bien ce qui est pertinent d’observer. Une IA c’est moins évident mais ça filtre aussi.&nbsp;



Mais surtout un humain sait se dire “merde ce carton a bougé, puis 2 secondes après :&nbsp; ah mais en fait c ‘était pas un carton mais un chien !“parce que quand on a un doute sur un objet une partie de nous plus ou moins consciente va concentrer un peu plus d’efforts d’observation pour lever le doute.une machine ça reste une machine, ça ne sait appliquer que des comportements pré-établis. Et c’est pour ça que ça reste des maths, des statistiques, mais surement pas de l’intelligence.


Intéressant. Ca prend vraiment tant de temps que ça que de calculer la vitesse absolue d’un objet ? Car pour moi, ça se règle en quelque calculs (qui plus est seulement des soustraction et des addition) qui sont même exécutable comme une matrice sur une GPU (ou sur un CPU avec une instruction comme l’AVX/SSE):

Pabs_t0=Prelative_t0

Pabs_t1=Prelative_t1-deltaPos_t0-t1

V_t0-t1=Pabs_t1-Pabs_t0



après, je pense que ce calcule est un peu brut, et que ce qui prend du temps, c’est adoucir les petites imprécisions (le petites erreurs s’additionne lorsque l’on commence à faire des delta). On peut par exemple utiliser une inertie Vinertiel :

Vsoft_t0-t1=aVinertiel+(1-a)V_t0-t

Vinertiel=Vsoft_t0-t1



Le paramètre a (compris entre 0 et 1) va donner plus d’importance à l’inertie passé. Le problème d’un tel calcule c’est qu’il a tendance justement a être “en retard”. Une solution serait peut-être d’ajouter le calcule de l’accélération.













Vin Diesel a écrit :



“Ca viendrait à l’idée de personne que le programme fusionne

arbitrairement des variables, là encore c’est des choix de probabilités.”



Donc en conclusion, on ne peut pas appeler ça de l’IA mais du calcul de probabilités   …   CQFD <img data-src=" />





Recherche dans google :

“apprentissage statistique”



C’est malheureusement là le problème du terme IA. Le public voit Asimov, là ou les ingénieurs voient des formules mathématique et des algos.



Mais en soit, ne sommes nous pas des machines calculant en permanence, avec une heuristique plus ou moins fiable, des espérances afin de choisir l’action à faire qui maximiserait nos gains ?



Je constate surtout que le véhicule n’a aucune catégorie du type Animal, ou encore Objet poussé par un vent fort…


Oula, je me sens vachement insulté.

Niveau d’impact du commentaire? pas plus que zero.



(il est bien plus facile d’être maitre de son corps que d’un&nbsp; véhicule…)


Dredi!!!!!





  • ET OUI, un piéton qui respecte la loi est malgré tout suicidaire dan certains cas. “argh…. m’en fous, j’étais dans mes droi…”


On peut avoir 3 cons, je ne vois pas l’intérêt de dire que tel ou tel est plus que l’autre.

Et un con mort reste un con, mais oui sa mort est triste.



Ici on a 3 erreurs, et

le conducteur n’est pas responsable de l’erreur du véhicule,

le véhicule n’est pas responsable de l’erreur du piéton,

le piéton n’est pas responsable de l’erreur du conducteur.


Si je meurs comme ça, je mourrais en disant “mais quel con!”



Surtout si j’ai bu, encore plus si j’étais sobre…



Et pas besoin d’IA pour parler d’engin de mort. Depuis qu’on m’a forcé à avoir un permis, je considère ce dernier comme un permis d’arme. Mortelle.


Disons que vu la zone, s’il faut attendre de trouver un passage piéton pour traverser c’est pas gagné…

Je ne sait pas ce qu’il en est aux USA mais en France on a le droit de traverser hors passage piéton tant qu’on est à plus de 50m d’un tel passage (et là c’est clairement le cas).

&nbsp;

Et 6 sec c’est énorme (d’ailleurs un conducteur aurait certainement repéré le piéton/cycliste avant).



Bref, la personne à traversé la route à cet endroit car il n’y avait pas de passage piéton, bien en amont de l’arrivée d’une voiture, et s’est fait percutée car l’IA n’est pas au point et surtout le conducteur humain ne regardait pas la route.


“A l’instant T, mon objet “obj_25458” était considéré comme une poubelle position X,Y,Z A l’instant T+1 mon véhicule à avancé, mon objet “obj_25458” est toujours considéré comme une poubelle position X2,Y2,Z2. Maintenant je sais calculer sa vitesse vu que j’ai deux coordonnées dans l’espace. Mais mon véhicule s’est aussi déplacé. Calculer la vitesse de l’objet poubelle implique donc de déduire le déplacement du véhicule, et comporte forcément quelques erreurs et approximations. Mon objet poubelle était classé dans “autre”, donc je vais pas utiliser du précieux temps CPU pour calculer au millième près sa vitesse. Un calcul rapide suffira, et ce calcul me donne une vitesse proche de zéro On va donc ignorer cet objet et le considérer statique Maintenant à l’instant T+2, mon véhicule s’est rapproché de cette poubelle et lorsque l’algorithme de vision à balayé l’image, il ne voit plus de poubelle, mais il reconnait maintenant un vélo il créé donc une nouvelle entrée dans son tableau “obj_99922” et le range cette fois dans les bonnes cases “






Bah tu mets juste en exergue la stupidité fondamentale de ce type d'approche.       

1. On ne CRÉÉE PAS UN NOUVEL OBJET bordel. On change son type. D'ailleurs, en fait, non.




  1. ON NE CHERCHE PAS À CATÉGORISER UN OBJET PAR PRINCIPE. Le principe doit être d’identifier une potentielle collision et si le risque existe de l’éviter. Peu importe que l’objet soit fragile ou non, destructible ou non, etc. Certes tu peux faciliter ces calculs d’anticipation si tu sais que l’objet est un véhicule ou pas par exemple, mais ce type d’assertion ne PEUT PAS intervenir avant qu’il n’y ait PLUS AUCUN DOUTE sur la nature de l’objet.



    1. On n’évite pas de faire des calculs précis sous prétexte que ça coûte du CPU. Sur des bagnoles à 15000+ euros, oser prétendre qu’on n’a pas les moyen de mettre un CPU décent (genre octocore min), c’est du foutage de gueule. Et quand bien même je suppose que ces bagnoles ont des capteurs par dizaine, seuls quelques traitements du type analyse de forme sont coûteux. Un calcul de vitesse c’est trivial.

      &nbsp;

      “En parallèle, c’est une autre partie du programme traite les infos en provenance du lidar. Lui ne voit pas assez nettement les formes pour pouvoir les ranger dans des catégories, mais il vapouvoir fournir l’information de distance nécessaire pour compléter le tableau pré-rempli par l’algorithme de vision ”

    2. Eh bien si cette techno a une meilleure portée mais est de type “laser” (genre juste un “pointeur”), tu multiplies les capteurs avec des angles/distances légèrement différentes pour pouvoir, à tout intant, constituer une “carte en points” de la forme détectée pour déjà commencer à réfléchir à sa nature possible, et ensuite au plus tôt affiner/confirmer/infirmer ce que détectent les caméras.



      Tu vas me dire “ça coûte cher, c’est super compliqué” ? Je veux bien te croire, mais c’est pour ça que rien ne vaut l’humain à qui tu fournirais simplement l’accès aux informations fournies par un ou deux capteurs.



      —-&gt; Inutile d’avoir une soi-disant intelligence artificielle chimérique, ou même les “assistants” actuels qui sont essentiellement pète-couilles. Imposons l’installation de quelques capteurs de ce type sur les véhicules, avec remontée d’informations sonores ou visuelles, l’humain, LUI, sait parfaitement exploiter la connaissance, et SURTOUT, son absence.



Voici l’accidenthttps://youtu.be/ufNNuafuU7M, je sais pas si j’aurais vu le pieton traverser la route….


Difficile de comparer la vision humaine à celle d’une caméra.

La gestion des contraste est beaucoup plus dynamique pour l’oeil humain et un simple mouvement perçu bien avant peu éveiller l’attention.

En ville il m’arrive souvent de deviner un mouvement derrière une fourgonnette stationnée pour anticiper le piéton qui va se jeter sous mes roues.








the_cat a écrit :



Juste je voudrais quand même rajouter un point concernant la configuration de l’accident.

Tout le monde ici parle de piéton, mais en réalité c’était un cycliste pied à terre.



De mon point de vue, le fait d’avoir son vélo à la main, aurait du obliger le cycliste à utiliser la route et non de se faire passer pour un piéton (ce qui interdisait donc la traversée perpendiculaire).





C’est plutôt l’inverse, non ?

Tu dois descendre de vélo lorsque tu traverses une route (sur un passage piéton, en France). Et rouler avec le vélo lorsque tu utilises la route.









fofo9012 a écrit :



Dans la grande majorité des cas (33 sur 37), un autre véhicule est venu heurter la voiture d’Uber, généralement par derrière.



C’est alarmant ça veut dire quoi ? Un véhicule autonome qui freine sans raison (faux positif), trop fort par rapport à la situation, ou alors qui change de voie au dernier moment !?





Je pense que c’est parce que c’est le principal type d’accrochage entre deux voitures (surtout depuis la démocratisation des téléphones portables).









the_cat a écrit :



De mon point de vue, le fait d’avoir son vélo à la main, aurait du obliger le cycliste à utiliser la route et non de se faire passer pour un piéton (ce qui interdisait donc la traversée perpendiculaire).





Je sais pas aux US, mais en France un cycliste à terre est un piéton. Sa place est sur le trottoir.

Perso je trouve ça logique, puisqu’il se comporte d’une façon très similaire.







tpeg5stan a écrit :



Euh vous deux on peut savoir pourquoi vous sortez un « tu es de droite » à vos contradicteurs comme si c’était un argument décisif dans une discussion ?





La seule explication que j’ai trouvé à cette affirmation c’est que mettre l’accent sur la responsabilité individuelle serait de droite alors qu’être de gauche incite à faire porter la responsabilité sur les méchants capitalistes.

C’est caricatural, mais j’ai pas trouvé mieux.







uzak a écrit :



Moi ce que j’en retire, c’est qu’on arrive pas encore au niveau du cerveau d’une mouche en stratégie d’évitement de collision.





Toi tu n’as jamais vu de mouche sur une vitre <img data-src=" />



L’IA a énormément de défauts, donc effectivement, faut corriger. Mais je plussoie aussi le fait que le piéton a pas été très malin… on traverse pas une route à grande vitesse les yeux fermés, normalement tu le vois que la voiture arrive à pleine balle sans faire mine de ralentir ou esquiver… si je devais compter sur le réflexe des conducteurs, je serais mort quelques fois déjà.



Et même en temps que conducteur, j’ai frôlé la catastrophe quelques fois, les gens qui traversent sans regarder sont suicidaires… oui ils sont prioritaires, mais on les voit pas toujours… et en attendant la priorité va pas te sauver la vie.


Exactement.








dematbreizh a écrit :



On peut avoir 3 cons, je ne vois pas l’intérêt de dire que tel ou tel est plus que l’autre.

Et un con mort reste un con, mais oui sa mort est triste.



Ici on a 3 erreurs, et

le conducteur n’est pas responsable de l’erreur du véhicule,

le véhicule n’est pas responsable de l’erreur du piéton,

le piéton n’est pas responsable de l’erreur du conducteur.



Légalement, on est censé rester maître du véhicule en permanence. Cumulé au fait qu’il faisait n’importe quoi SAUF regarder la route et tenir le volant, si, il est responsable (au moins au niveau légal).



Je trouve les commentaires, de chaque côté, presque pire que le logiciel de la voiture…



On a droit à tout. Du bashing gratuit sur la victime, sur les développeurs, sur ceux qui mettent le test en place, le tout sans avoir la moindre once de contexte, ni sur comment ça a été développé, ni sur les circonstances complètes de l’accident, ni même sans prendre du recul par rapport à une situation sans IA…



On a aussi droit à un rappel au code de la route, qui ne contient aucune règle sur le fait de traverser ou pas une autoroute, c’est bien pour ça qu’on voit des gens traverser des autoroutes en permanence…



La seule personne en tort ici, est l’agent derrière le volant. Non pas parce qu’elle n’a pas réussi à éviter l’accident, car on ne saura pas si c’était humainement évitable (rappel, il faisait très sombre, et on ne sait pas à quel point le piéton était visible), mais pour ne pas avoir fait son taff, à savoir rester concentré sur la route.



Tout le reste est juste hors sujet…


par véhicule, j’entendais l’IA.


Une IA est censée être LARGEMENT supérieure à une IH. SInon, c’est du pipeau…


Nous vous souhaitons de passer sous les roues d’une voiture pilotée par une IA.








ForceRouge a écrit :



Est-ce qu’un conducteur sans IA l’aurait évité?



&nbsp;

Juste pour rebondir sur ce point que j’ai vu passer plusieurs fois.

Si à 70km/h un conducteur humain n’est pas capable de voir et d’éviter le piéton qui traverse (à tort ou à raison), alors il roule trop vite pour ses capacités de perception. Ça n’est pas plus compliqué que ça.









dematbreizh a écrit :



par véhicule, j’entendais l’IA.



Vu que ce sont des véhicules en test, il faut justement redoubler d’attention puisqu’on ne connait pas le comportement dans des situations “anormales”…



Tu sors encore une fois de mon exposé… ce que tu affirmes, c’est ce que j’ai affirmé dans mon point 3: le conducteur a fait une erreur (et c’est le manque d’attention).



On tourne donc en rond là. Je pointe&nbsp; du doigt un algo, ou une équipe d’experts (qui ont fait une erreur), et tu insiste pour reporter CETTE erreur sur le conducteur.

Non, il n’y est pour rien, sur CETTE erreur.


J’invite les commentateurs à jeter un oeil sur les photos des lieux de l’accident qui sont en lien dans l’article. On pourra pointer un coupable supplémentaire : l’aménagement des lieux.

La zone centrale contient une voie piétonne qui ne donne sur aucun passage pour piéton et qui se termine par un panneau rappelant l’interdiction de traverser en dehors d’un passage… panneau qui n’est pas visible depuis la zone piétonne mais depuis la route (apparemment les autorités locales se sont dit depuis que ça n’était peut-être pas la meilleure idée du monde).

D’ailleurs, en regardant un peu la zone de l’accident par une vue aérienne (pour voir un peu au-delà), j’ai du mal à comprendre comme un piéton qui échouerait sur cet îlot au milieu des voies peut en sortir sans traverser “n’importe comment”.








dematbreizh a écrit :



Tu sors encore une fois de mon exposé… ce que tu affirmes, c’est ce que j’ai affirmé dans mon point 3: le conducteur a fait une erreur (et c’est le manque d’attention).



On tourne donc en rond là. Je pointe  du doigt un algo, ou une équipe d’experts (qui ont fait une erreur), et tu insiste pour reporter CETTE erreur sur le conducteur.

Non, il n’y est pour rien, sur CETTE erreur.



Le conducteur était sur son téléphone, au lieu d’être attentif à la route et corriger si besoin (surtout que, je te le rappelle encore puisque tu ne sembles pas avoir compris, c’est un véhicule DE TEST, donc pas fiable par définition). Oui, le conducteur est responsable de cette connerie. Et non, le fait que le véhicule ait fait une erreur aussi ne le dédouane absolument pas.



Je n’ai jamais dit ça.

Enfin bref.







(au fait, même après les tests, ça ne sera jamais fiable à 100%…)


Je ne comprends pas cette phrase:

“Dans deux cas, la voiture autonome « a été endommagée par un piéton qui passait alors que le véhicule était arrêté »”



C’est le fameux problème du platane qui traverse sur une ligne droite? OU c’est vraiment des gens qui ont “agressé” le véhicule sans raison? <img data-src=" />


C’est le principe de base, mais même cette règle là n’est pas respecté par les humains….



L’anticipation est une chose qui se perd complètement sur la route (en plus des distances de sécurité mais ça c’est un autre point)…








Burn2 a écrit :



C’est le principe de base, mais même cette règle là n’est pas respecté par les humains….



L’anticipation est une chose qui se perd complètement sur la route (en plus des distances de sécurité mais ça c’est un autre point)…





Ça en fait partie : la distance te permet l’anticipation :)









Zerdligham a écrit :



Toi tu n’as jamais vu de mouche sur une vitre <img data-src=" />





Je demande à voir un autopilot se garer devant une véranda !!



Mais pas que!

L’anticipation ce n’est pas que la distance.



Exemple simple, je suis une file de voiture, je regarde au delà de la voiture devant moi, si ça freine, alors avant que le véhicule devant moi ne freine, je vais décélérer.





Maintenant autre cas précis, et ou j’ai franchement peur que l’ia ne soit pas capable de réagir.

Quand on voit quelqu’un sur le bord de la route, que ça soit un animal, un gamin, on ralenti avant. Perso même je prévoie la possibilité de m’arrêter MEME si sur l’instant au moment ou je regarde “l’obstacle” n’en est pas un….



Comment l’ia va t-elle comprendre: “Le gamin est seul, ou le gamin n’est pas tenu par la main, attention il peu traverser, il faut que je décélère quand même alors qu’il n’y a pas d’obstacle réel”?

Idem, un animal sauvage est sur le bas côté immobile. Avec leurs algo ce n’est pas un obstacle.

Le véhicule ne va réagir que si la trajectoire est susceptible de traverser la notre!

Or si un animal avance même parallèle à nous, il peut changer de direction brusquement.



Idem j’approche d’un bus, ou d’un véhicule qui masque la vue, je décélère et prévoie l’arrêt au niveau de l’avant, parce qu’il y a toujours une personne qui déboîte ou peu déboîter.



Tout ça ça s’appelle le jugement, l’expérience ET l’anticipation, je ne vois pas comment une ia va gérer ça.


La vraie raison de l’accident, c’est que quelque part sur le Web, un utilisateur a foiré un CAPTCHA.



(et tant pis si quelqu’un l’a déjà posté au milieu de ce monceau d’engueulade)


Eh je vais pas faire le difficile mais depuis la source cité :&nbsp;



Article R412-37   



&nbsp;Les piétons doivent traverser la chaussée en tenant compte de la visibilité ainsi que de la distance et de la vitesse des véhicules.

Ils sont tenus d’utiliser, lorsqu’il en existe à moins de 50 mètres, les passages prévus à leur intention.



Aux intersections à proximité desquelles n'existe pas de    



passage prévu à leur intention, les piétons doivent emprunter la partie

de la chaussée en prolongement du trottoir.&nbsp;

Article R412-43


















Le fait, pour tout piéton, de contrevenir aux dispositions de la    



présente section est puni de l’amende prévue pour les contraventions de

la première classe.&nbsp;Et d’après ce que j’ai lu le véhicule ce déplaçait à son max. à 70km/h le choc à eu lieu 6sec après.



La largeur d’un Volvo XC90 : 2,008m



Un la vitesse de marche moyenne d’un piéton c’est 4,5 km/h aller je retiens 4km/h qui est encore plus lent.

En retenant tout ça la voiture à parcouru env. 116m , le piéton lui avait donc 2m en zone de risque.&nbsp;

A 4km/h on fait 1,10m par seconde&nbsp; donc avait deux secondes pour être en sécurité.



Je suis désolé mais, oui le piéton c’est littéralement jetté sous les roues du véhicule…. Intelligence artificielle au rabais ou conducteur réel inattentif, le résultat est là.&nbsp;

Le piéton s’est délibérément mis en danger en s’imposant.

Vu l’endroit le piéton en apercevant la voiture n’aurait jamais dû persisté dans son entreprise.&nbsp; &nbsp;

&nbsp;&nbsp;

&nbsp;

&nbsp;


Merci pour la source.

je rajouterai que je ne sais pas pour les USA, mais En France les catadioptres es obligatoires.

&nbsp;

https://www.service-public.fr/particuliers/vosdroits/F34169



Sauf mauvaise interprétation de ma part je n’ai pas l’impression que le cycliste en avait lattéralement sur son véhicule.

&nbsp;


J’aurai éventuellement être de ton avis à une nuance prêt. L’incident s’est fait de nuit.



Sur la vidéo de la police, même en connaissant je n’arrive pas à distinguer le cycliste à moins de 2 sec de l’impacte.

&nbsp;&nbsp;


Merci NextInpact pour ce sujet magnifique qui permet à tout un chacun de troller à qui mieux mieux.



A votre avis, quand les logiciels des voitures autonomes seront arrivés à un degré de perfectionnement satisfaisant (dans quelques années, 10 ans au plus) les voiture autonomes feront elles plus de mort sur nos routes que les “bons” conducteurs que nous croisons tous les jours (vitesse excessive, pas de respect des distances de sécurité, freinages intempestifs, queux de poisson après dépassement, oubli d’allumage de feux de code quand la nuit tombe où qu’il pleut, etc, etc …).









Krystanos a écrit :



Je trouve les commentaires, de chaque côté, presque pire que le logiciel de la voiture…



On a droit à tout. Du bashing gratuit sur la victime, sur les développeurs, sur ceux qui mettent le test en place, le tout sans avoir la moindre once de contexte, ni sur comment ça a été développé, ni sur les circonstances complètes de l’accident, ni même sans prendre du recul par rapport à une situation sans IA…



On a aussi droit à un rappel au code de la route, qui ne contient aucune règle sur le fait de traverser ou pas une autoroute, c’est bien pour ça qu’on voit des gens traverser des autoroutes en permanence…



La seule personne en tort ici, est l’agent derrière le volant. Non pas parce qu’elle n’a pas réussi à éviter l’accident, car on ne saura pas si c’était humainement évitable (rappel, il faisait très sombre, et on ne sait pas à quel point le piéton était visible), mais pour ne pas avoir fait son taff, à savoir rester concentré sur la route.



Tout le reste est juste hors sujet…







Tu dis que tout le monde raconte n’importe quoi, qu’on manque de contexte. Puis tu donne ton avis :)



Sinon je te rassure, 100% des gens ici designent le conducteur comme seul et unique responsable. Maintenant le débat, c’est si le piéton est responsable, juste con, ou dans son droit.









Burn2 a écrit :



C’est le principe de base, mais même cette règle là n’est pas respecté par les humains….



L’anticipation est une chose qui se perd complètement sur la route (en plus des distances de sécurité mais ça c’est un autre point)…







Moi je pense que plus on roule vite, moins de temps on est sur la route, donc moins de temps on est dangereux, cqfd <img data-src=" />









dematbreizh a écrit :



Je n’ai jamais dit ça.

Enfin bref.







(au fait, même après les tests, ça ne sera jamais fiable à 100%…)



Il faut vraiment te remontrer la phrase où tu dis toi-même que le conducteur n’est pas responsable de la voiture?



C’est une vidéo.

De nuit la dynamique de luminosité des appareil actuel est bien moindre que celle de l’œil.



Bref, impossible de se faire une idée avec cette vidéo.

En revanche on peut se faire une idée avec les distances en jeu.








XXC a écrit :



Pareil, sauf que de plus en plus souvent je croise des aveugles et sourds qui se jette sur la route (comprendre avec des pod dans les oreilles et le nez dans téléphone).

Le pire, même en tant que piéton je fait ce genre de rencontre ….





J’en vois aussi mais on ne peut pas obliger les personnes à tenir à leur intégrité physique ou à leur vie.

Même en faisant gaffe, personne n’est à l’abri de “charger” une personne dans un moment d’égarement.





ungars a écrit :



Une IA est censée être LARGEMENT supérieure à une IH. SInon, c’est du pipeau…





Oui, sauf que lorsque je traverse la route je m’attend plus à ce que ça soit un humain au volant.

Peut-être que dans quelques années je penserais différemment mais je doute fort que je perdrais mon habitude à fixer le véhicule arrivant pour m’assurer qu’il ralentisse s’il me semble trop près, c’est mon instinct de préservation qui me dicte cette règle. <img data-src=" />



J’ai cité cette règle 10 commentaires plus haut, là je précisait juste qu’il n’est pas nécessaire de faire un détour de 10km pour prendre un passage piéton.



Quoi qu’il en soit, ça ne change pas le fait que les piétons peuvent mésestimer les vitesses des véhicules et surestimer leur propre visibilité (surtout la nuit), que l’aménagement routier peut être mal conçu (c’est le cas ici), que la signalisation peut être absente ou inadaptée (c’est le cas ici), l’éclairage insuffisant (c’est également le cas). Il ne faut donc pas seulement tenir compte des règles (qui servent surtout à harmoniser les comportements pour diminuer le nombre de situations surprenantes) mais aussi et surtout de la situation réelle à chaque instant. Il faut savoir renoncer à sa priorité pour diminuer le risque (c’est le B-A BA de la survie des usagers vulnérables).





Dans cet accident précis, qui n’a peut-être pas grand chose à voir avec la règlementation française de toute façon, il y a une conjonction de facteurs qui rendent la situation très complexe :





  • Le cheminement des piétons est complètement ubuesque, il y a une portion de trottoir qui mène obliquement à une chaussée qu’il est interdit de traverser, il faut en fait prendre un autre embranchement vers une zone où le trottoir disparait carrément pour se transformer en chemin de terre).

  • Il y a des piles de pont et de la végétation qui gênent la visibilité.

  • Il y a une signalisation qui est placée en dépit du bon sens, et probablement peu visible la nuit en l’absence d’éclairage (les piétons n’ont pas de phares pour éclairer les panneaux).

  • La limitation de vitesse est à 72 km/h en zone semi-résidentielle, ce qui est élevé en Arizona (la vitesse standard en zone urbaine est de 25 mph soit 40 km/h.) La zone est péri-urbaine, partiellement aménagée (mèlant désert, zone commerciale et immeubles), la limite date peut-être d’une époque où il n’y avait pas d’habitations.







    La victime s’est retrouvée au milieu d’une avenue où la limitation de vitesse est élevée alors qu’elle était quelque secondes plus tôt sur un trottoir bien protégé. Elle ne s’attendait peut-être pas du tout à cette situation.



    Le pilote automatique a complètement chié dans la colle face à une situation hors norme. Il est intéressant de noter que la victime a eu le temps de traverser trois voies et demi avant la collision. Il est probable qu’un conducteur humain aurait mis un coup de volant vers la gauche en la voyant à la dernière seconde. Il est également probable qu’un conducteur attentif aurait freiné au moment où elle s’est engagée. Un conducteur raisonnable réduit sa vitesse en ville la nuit, car les piétons semblent toujours surgir de nulle-part (il sont peu visibles et peu nombreux).








Edtech a écrit :



Intéressant, mais on voit aussi que celle qui a traversé ne faisait vraiment pas attention ! On ne peut pas tout reprocher à l’IA !





Et ça justifie de se faire écraser ?



A la base, le sol est aux piétons;&nbsp; Utiliser/deployer un appareil ( en occurrence une voiture), rend responsable des risques qui en découlent.



Heu non non pas du tout.&nbsp;



S’il est certain que le comportement du “conducteur” était complètement repréhensible moralement, civilement et pénalement, un certain nombre d’INpactiens (que je remercie au passage pour l’avoir fait pour tous) ont été investiguer plus en profondeur le contexte de l’accident, et notamment l’environnement et la vidéo.&nbsp;



Plusieurs soulignent que le contexte rendait très improbable la possibilité pour le conducteur d’éviter l’accident, fût-il au taquet dès le premier instant où percevoir quelque chose humainement était possible. Au mieux il aurait pu ralentir, évitant peut-être le décès du piéton?



Les principaux responsables sont les développeurs qui ont osé sortir une pareille bouze.&nbsp; Sans déconner, audelà de la débilité profonde de certains des principes de conception (relevés et détaillés dans l’article inutile d’y revenir) quand bien même il eut été impossible de concevoir différemment (ce qui est faux, la preuve dans l’article)…&nbsp;

Quand un capteur change de catégorie une forme plusieurs fois en une/deux secondes (ce qui implique en creux qu’il n’est pas capable de réellement déterminer la nature de l’objet), TU RALENTIS ET TU SIGNALES PAR TOUT MOYEN AU CONDUCTEUR QU’IL LUI REVIENT DE TRAITER ET DECIDER.&nbsp;








Herbefol a écrit :



J’invite les commentateurs à jeter un oeil sur les photos des lieux de l’accident qui sont en lien dans l’article. On pourra pointer un coupable supplémentaire : l’aménagement des lieux.

La zone centrale contient une voie piétonne qui ne donne sur aucun passage pour piéton et qui se termine par un panneau rappelant l’interdiction de traverser en dehors d’un passage… panneau qui n’est pas visible depuis la zone piétonne mais depuis la route (apparemment les autorités locales se sont dit depuis que ça n’était peut-être pas la meilleure idée du monde).

D’ailleurs, en regardant un peu la zone de l’accident par une vue aérienne (pour voir un peu au-delà), j’ai du mal à comprendre comme un piéton qui échouerait sur cet îlot au milieu des voies peut en sortir sans traverser “n’importe comment”.







+1.



Cela nous fait quatre responsables, à des degrés divers :





  1. la personne qui a traversé. C’est sûrement celle dont la responsabilité, qui n’est pas nulle, est la moins élevée là-dedans. Elle a commis une erreur de jugement en s’engageant sur la chaussée, mais cela ne méritait pas la peine de mort. Surtout qu’il était matériellement possible d’éviter le pire ;



  2. l’intelligence artificielle. Elle aurait pu servir à éviter le choc, mais sa programmation a abouti au drame. Pour sa défense, elle était en phase de test, et il était sensé y avoir quelqu’un derrière le volant pour compenser ses défauts de programmation ;



  3. la personne derrière le volant justement. Elle aurait pu compenser la connerie de l’IA, et elle ne l’a pas fait par pire qu’inatention, par non-attention ;



  4. et le plus responsable de tous, l’aménageur qui a conçu ce carrefour. Franchement, quelqu’un a compris la logique de mise en sécurité des traversées de piétons de cet espace-là, au vu des photos ? Apparemment, personne ne s’est posé la question de comment faire traverser cet endroit par des piétons sans jouer à la roulette russe avec leur vie. J’ai même cru que c’était un endroit délibérément inaccessible aux piétons quand j’ai vu la configuration des lieux…



    Bref, il n’y a pas que l’IA à revoir, la conductrice à virer et la victime à enterrer dans cette histoire…









Citan666 a écrit :



Heu non non pas du tout. 



S’il est certain que le comportement du “conducteur” était complètement repréhensible moralement, civilement et pénalement, un certain nombre d’INpactiens (que je remercie au passage pour l’avoir fait pour tous) ont été investiguer plus en profondeur le contexte de l’accident, et notamment l’environnement et la vidéo. 



Plusieurs soulignent que le contexte rendait très improbable la possibilité pour le conducteur d’éviter l’accident, fût-il au taquet dès le premier instant où percevoir quelque chose humainement était possible. Au mieux il aurait pu ralentir, évitant peut-être le décès du piéton?





C’est aussi difficile à dire, l’oeil humain est très bon et dépasse largement la majorité des caméras en termes de rang de luminosité vu on est capable de voir des contours dans les partie sombre et d’autre dans des parties très lumineuse.

A part refaire une reconstitution, difficile de dire.







Citan666 a écrit :



Les principaux responsables sont les développeurs qui ont osé sortir une pareille bouze.  Sans déconner, audelà de la débilité profonde de certains des principes de conception (relevés et détaillés dans l’article inutile d’y revenir) quand bien même il eut été impossible de concevoir différemment (ce qui est faux, la preuve dans l’article)…





L’article ne dit pas si le programme avait donné la même ID au piéton après chaque changement de catégorie.

L’analyse des log ici est fait par un humain qui lui est capable de tracker le piéton (surtout que l’on sait déjà a posteriori que le piéton était ici).



Dans n’importe quel programme, il est difficile de prévoir tous les cas. C’est pour ça par exemple que le monkey testingexiste.

Dans l’apprentissage automatique, le plus chiant est de gérer les cas rares. Ça reste des statistiques, et c’est très difficile de tirer une règle de cas dont on a qu’une poignée d’exemple.

C’est justement là l’intérêt de faire rouler en condition réelle les véhicules afin qu’ils soient testés pour gérer ces cas difficiles. L’agent à bord est là normalement pour faire garde-fou.

Cependant, il est admis que le boulot de l’agent est difficile. Il me semble qu’à la base, pour les garder éveillé et attentif, on testait les véhicules avec 2 agents. Le choix de ne mettre qu’un seul agent dans le véhicule et aussi une des causes de l’accident.









Commentaire_supprime a écrit :





  1. et le plus responsable de tous, l’aménageur qui a conçu ce carrefour. Franchement, quelqu’un a compris la logique de mise en sécurité des traversées de piétons de cet espace-là, au vu des photos ? Apparemment, personne ne s’est posé la question de comment faire traverser cet endroit par des piétons sans jouer à la roulette russe avec leur vie. J’ai même cru que c’était un endroit délibérément inaccessible aux piétons quand j’ai vu la configuration des lieux…



    Bref, il n’y a pas que l’IA à revoir, la conductrice à virer et la victime à enterrer dans cette histoire…







    Par curiosité, je suis allé [I]explorer[/I] les lieux sur Google Maps. De jour, on voit bien comment c’est pensé. Il y a cette zone pavée sur le large terre-plein central qui semble avoir été conçue pour une traversée en deux temps. À la date de l’accident, il y avait déjà des panneaux indiquant aux piétons de ne pas utiliser ce passage, mais un autre situé plus loin, au niveau d’une intersection. Ces panneaux sont implantés de telle sorte qu’il y a un trajet par lequel on ne les voit jamais de face (cf la reconstitution photo liée dans l’article). La nuit, ils sont probablement peu visibles des piétons.



    Au niveau où a eu lieu l’accident, la route vient de s’élargir, et la visibilité est probablement mauvaise pour quelqu’un qui se tiendrait sur le bord du trottoir (il manque une photo montrant ce point de vue dans la reconstitution, c’est dommage).



Le code de la route stipule qu’un conducteur doit rester maître de son véhicule en toute circonstance. Un humain qui tuerait un piéton hors des clous alors qu’il l’a vu 10 secondes avant l’impact aurait très certainement à faire face à des conséquences pénales.



Cet exemple démontre qu’une IA n’a aucun bon sens et qu’elle adoptera donc de temps en temps des comportements totalement absurdes et imprévisibles.








Edtech a écrit :



En fait, la première réaction de l’IA devrait être de ralentir tant qu’il ne pige pas ce que c’est !







Tout à fait d’accord, comme les humains apprennent à faire d’ailleurs : quand on n’est pas sûr, on ralentit pour se donner plus de temps pour évaluer la situation et surtout, pour pouvoir se mettre plus rapidement à l’arrêt si finalement ça s’avère nécessaire.







plusquezero a écrit :



Sympa le victim blaming, en attendant la fille est morte, alors que ça aurait pu être évité, malgré son attitude hors cadre légal.

Si t’es conducteur, que t’as un piéton qui traverse devant toi, tu n’accélères pas ou ne fait pas mine de pas l’avoir vu, parce qu’il est en tort, quitte à le tuer…







Le victim blaming a quand-même bon dos, quand une personne traverse la route alors qu’il y a de la circulation. En tant que piéton, tu es censé savoir qu’une voiture, c’est un véhicule de +/- une tonne propulsé à plusieurs dizaines de km/h avec une forte inertie. Même avec un conducteur irréprochable, le freinage ça prend du temps et de la distance. Raison pour laquelle avant de traverser, si tu as un tant soit peu de bon sens, tu t’assures d’avoir le temps de traverser OKLM pour le faire. Surtout hors-agglo, sur une grosse route à plusieurs voies.



C’est bien joli de dire “nan mais elle était dans son bon droit” (à supposer que ce soit vrai, ce qui n’est pas une évidence), mais “elle était dans son bon droit” fait une très mauvaise épitaphe sur une tombe.



Ça n’empêche pas par ailleurs que le mec qui a le nez plongé dans son smartphone alors qu’il est au volant d’une voiture à IA à l’algo expérimental et dont le modèle est encore en cours d’apprentissage (et dont la loi prévoit qu’il doit rester au volant JUSTEMENT parce qu’on ne peut pas encore faire pleinement confiance à cette IA) est un crétin doublé d’un criminel.



N’empêche que traverser une 2x2voies sans s’assurer d’avoir le temps de le faire au vu des voitures qui arrivent, faut manquer du plus élémentaire bon sens ou bien être suicidaire.







plusquezero a écrit :



Ce serait un gamin qui courait après son balon, inconscient des dangers car c’est un gamin, ce serait de sa faute aussi ?







Si un gamin trop jeune pour connaître les dangers des voitures court après un ballon sur une route limitée à + de 70km/h (donc hors-agglo), c’est surtout la faute de ceux qui en ont la garde et la responsabilité. Parce que clairement c’est le genre de truc qui est censé ne JAMAIS arriver.



Franchement si un jour ton gamin court après son ballon sur une route limitée à 80, t’es coupable de négligence et tu mérites au minimum de te faire remonter les bretelles par les services sociaux, qu’il lui arrive quelque chose ou pas.







js2082 a écrit :



Dites, les gars.

Je veux bien croire qu’on est en fin de semaine mais faudrait arrêter avec la détente cérébrale là.







Faudrait surtout arrêter de prendre les gens de haut à ce point, surtout si c’est pour balancer des idées reçues foireuses sur le Code de la Route, comme certains te l’ont fait remarquer. (et alors je vois VRAIMENT pas le rapport avec le slutshaming, vraiment…).



Le pire, c’est que tu cites le Code de la Route avec un lien mais que tu ne l’as manifestement pas lu, vu qu’il te contredit sur plusieurs articles.



Donc bon, peut-être baisse d’un ton et lit correctement les trucs avant de traiter tout le monde de crypto-zemmourien…









carbier a écrit :



Est-ce une raison pour mourir en traitant la personne de conne ?







Peut-être que tu devrais te contenter de réagir à ce que les gens disent, au lieu d’inventer des propos et de t’en offusquer dans la foulée. Parce que personne ici a dit que c’était “une raison pour mourir”.







Patch a écrit :



Légalement, on est censé rester maître du véhicule en permanence. Cumulé au fait qu’il faisait n’importe quoi SAUF regarder la route et tenir le volant, si, il est responsable (au moins au niveau légal).







L’histoire de rester maître de son véhicule est un mythe, ou une grossière simplification. Ce que dit le Code de la Route, c’est qu’il faut “rester constamment maître de sa vitesse et de régler cette dernière en fonction de l’état de la chaussée, des difficultés de la circulation et des obstacles prévisibles”, “à tout moment, adopter un comportement prudent et respectueux envers les autres usagers des voies ouvertes à la circulation”, “faire preuve d’une prudence accrue à l’égard des usagers les plus vulnérables” et enfin “se tenir constamment en état et en position d’exécuter commodément et sans délai toutes les manoeuvres qui lui incombent.”



Mais ça ne veut pas dire que tu dois être capable, quelles que soient les circonstances, d’éviter les accidents même les plus improbables. Tu dois seulement éviter les accidents raisonnablement prévisibles notamment en respectant les limitations de vitesse et en les adaptant, si besoin, aux conditions de visibilité etc.



Pour autant, si un piéton débarque de nulle part au beau milieu de l’autoroute et que, élancé à 130 avec de bonnes conditions météo et tout, tu ne peux rien faire pour l’éviter, tu seras pas coupable au motif que “tu dois être maître de ton véhicule”, en tant que conducteur tu as fait tout ce que tu avais à faire : ta vitesse était adaptée, tu t’étais préparé aux obstacles prévisibles (un piéton au milieu de l’autoroute c’est imprévisible, à moins de le voir arriver de super loin), tu as fait preuve de prudence en ne faisant pas n’importe quoi (genre changer de file sans prévenir) et tu étais en état d’effectuer les manœuvres qui t’incombaient (mais tu ne peux rien faire contre l’inertie d’une bagnole élancée à 130, c’est comme ça tu n’y peux rien). À partir de là, tu auras rien à te reprocher.









luk a écrit :



Le code de la route stipule qu’un conducteur doit rester maître de son véhicule en toute circonstance. Un humain qui tuerait un piéton hors des clous alors qu’il l’a vu 10 secondes avant l’impact aurait très certainement à faire face à des conséquences pénales.







S’i l’a vu 10 secondes avant et que sa vitesse lui permettait de s’arrêter à temps (ou qu’il dépassait les limitations de vitesse et que c’est pour ça qu’il pouvait rien faire), alors oui il sera responsable. Sinon, non.









Liam a écrit :



À partir de là, tu auras rien à te reprocher.



Ce qui n’est absolument pas le cas ici. CQFD.

Et je ne comprends pas pquoi tu parles d’une autoroute à 130. Surtout quand dans la légende des 2 photosatellites de la zone d’accident, ils indiquent “Northbound Mill avenue”.









Patch a écrit :



Ce qui n’est absolument pas le cas ici. CQFD.

Et je ne comprends pas pquoi tu parles d’une autoroute à 130. Surtout quand dans la légende des 2 photosatellites de la zone d’accident, ils indiquent “Northbound Mill avenue”.







C’était pour donner un exemple extrême. Je ne m’aventurerais pas pour dire si oui ou non dans le cas d’espèce, un conducteur réel aurait pu et dû éviter le piéton ou si l’accident était difficilement évitable au vu des circonstances. Je m’inscrivais seulement en faux face à ce mythe du “le conducteur doit toujours être maître de son véhicule donc quoi qu’il arrive il est toujours en tort car il est censé pouvoir passer de la vitesse maximale à l’arrêt complet instantanément et deviner magiquement tous les obstacles qui peuvent se dresser devant lui”.



La loi a parfaitement conscience qu’il y a en voiture des temps de réaction, des temps de freinage, des vitesses autorisées (elle prévoit même qu’il est illégal de rouler à une vitesse dangereusement basse), des obstacles qui sont raisonnablement prévisibles et d’autres qui ne le sont pas, des lois de la physique dont on ne peut s’affranchir, et en tient compte pour savoir si le conducteur est responsable ou non de l’accident. L’histoire de “le conducteur doit être un maître magique de son véhicule et il a toujours tort en toutes circonstances” est un mythe, une légende urbaine, je trouve utile de le rappeler.









Liam a écrit :



Peut-être que tu devrais te contenter de réagir à ce que les gens disent, au lieu d’inventer des propos et de t’en offusquer dans la foulée. Parce que personne ici a dit que c’était “une raison pour mourir”.







L’histoire de rester maître de son véhicule est un mythe, ou une grossière simplification. Ce que dit le Code de la Route, c’est qu’il faut “rester constamment maître de sa vitesse et de régler cette dernière en fonction de l’état de la chaussée, des difficultés de la circulation et des obstacles prévisibles”, “à tout moment, adopter un comportement prudent et respectueux envers les autres usagers des voies ouvertes à la circulation”, “faire preuve d’une prudence accrue à l’égard des usagers les plus vulnérables” et enfin “se tenir constamment en état et en position d’exécuter commodément et sans délai toutes les manoeuvres qui lui incombent.”



Mais ça ne veut pas dire que tu dois être capable, quelles que soient les circonstances, d’éviter les accidents même les plus improbables. Tu dois seulement éviter les accidents raisonnablement prévisibles notamment en respectant les limitations de vitesse et en les adaptant, si besoin, aux conditions de visibilité etc.



Pour autant, si un piéton débarque de nulle part au beau milieu de l’autoroute et que, élancé à 130 avec de bonnes conditions météo et tout, tu ne peux rien faire pour l’éviter, tu seras pas coupable au motif que “tu dois être maître de ton véhicule”, en tant que conducteur tu as fait tout ce que tu avais à faire : ta vitesse était adaptée, tu t’étais préparé aux obstacles prévisibles (un piéton au milieu de l’autoroute c’est imprévisible, à moins de le voir arriver de super loin), tu as fait preuve de prudence en ne faisant pas n’importe quoi (genre changer de file sans prévenir) et tu étais en état d’effectuer les manœuvres qui t’incombaient (mais tu ne peux rien faire contre l’inertie d’une bagnole élancée à 130, c’est comme ça tu n’y peux rien). À partir de là, tu auras rien à te reprocher.









Merci pour les deux points de ton commentaires, à savoir, mettre carbier devant ses contradictions, et expliquer clairement ce que dis la loi.



Oui, difficile de comparer. Le problème n’est pas la partie optique. Le cerveau humain est extrêmenent doué pour repérer les entités ou objets en mouvement et les reconnaître. Les objets sont reconnus longtemps avant que l’on en prenne “conscience”.



Difficile de reproduire avec un peu de technologie en quelques ce que nos super-ordinateurs de cerveau triés sur le volet par plus de 200 000 ans de sélection.



Et même lorsque l’on sera capables de faires des IA aussi performantes pour la reconnaissance, restera le problème des choix à faire (morale vs utilitarisme, etc.).



En l’état actuel, ce que l’on a est super pour faire de l’ assistance à la conduite, pas pour remplacer le conducteur








Meptalon a écrit :



En l’état actuel, ce que l’on a est super pour faire de l’ assistance à la conduite, pas pour remplacer le conducteur







Le niveau 4 de la conduite autonome a pourtant bel et bien l’objectif de rendre le conducteur facultatif. (et le 5 de rendre le poste de conduite facultatif)



Le détail à ne pas oublier est que les IA de la conduite autonome apprennent constamment, d’où ces expérimentations. On ne peut décider de l’avenir des véhicules autonomes à cet accident d’Uber, surtout que le rapport démontre bien de graves défauts de conception.



En parallèle à cela, il y a plusieurs autres acteurs qui perfectionnent continuellement leurs procédés. Et qu’au final, le nombre d’accidents mortels de véhicules autonomes est extrêmement faible… En fait, il me semble que celui-ci est le seul. (les Tesla ne sont pas des véhicules autonomes, ils requièrent l’attention du conducteur et les mains sur le volant, c’est du niveau 2 pas loin du 3)



Quant aux choix moraux, l’humain en est déjà incapable en situation d’urgence et de stress intense pour des situations extrêmement rares. Donc l’IA aura le temps d’apprendre d’ici là… Et d’ici là elle sera surement déjà majoritaire sur la route et donc limitera encore plus ces cas.



Après, un élément qui semble souvent être mis de côté c’est l’infrastructure routière. Celle-ci va devoir forcément évoluer (balises, éléments repérables, interconnexions, etc) pour favoriser le trafic autonome. Même si l’IA apprend à se démerder avec le terrain qu’elle cartographie en temps réel et aidée par différents autres systèmes (géolocalisation, info trafic, etc), viendra un moment où même pour le conducteur humain, une infrastructure propre réduira les risques.

Je pense notamment aux routes avec un marquage complètement effacé en temps normal et quasi invisible en temps de pluie, une catastrophe.



Je pense que technologiquement, on est encore loin de faire du niveau 5, l’algo n’est pas encore là.

Le Niveau 4 est difficile et en l’état actuel des routes et de la circulation dessus. L’humain derrière le volant sera indispensable encore longtemps.

Comme tu le dis, il faudra surement aménager les routes pour aider les programmes en particulier pour réduire ou contrôler les cas rares qui sont justement trop rare pour avoir suffisamment d’exemple pour apprendre.



Le niveau 3 est selon très dangereux, car bercé par l’absence d’action, la personne derrière le volant risque de perdre totalement son attention sur la route. Ce genre de chose est connu par exemple chez les conducteurs de trains et c’est exactement ce qui c’est passé ici.


Je ne souhaite bloquer en rien les “objectifs” des futurs systèmes de conduite automatisée ni ne remet en cause le fait que les infrastructures actuelles ne sont pas adaptées.



Par contre, à l’heure actuelle et tant que les IA de conduite ne seront pas à même de faire de véritables choix considérés par accceptables par le conducteur du véhicule (et non un choix du constructeur), je reste sur mes positions, merci.



Ce n’est pas à lhomme de se plier à la technologie, mais l’inverse. On peut me mettre un #vieuxcon ou autre tant qu’on veut, mais jusqu’à maintenant, tout tend à montrer que ces systèmes ne sont pas prêts à être mélés au traffic tel qu’il se passe dans la plupart des pays (et on ne parle même pas des pays où l’infrastructure est à la ramasse)








Meptalon a écrit :



Difficile de reproduire avec un peu de technologie en quelques ce que nos super-ordinateurs de cerveau triés sur le volet par plus de 200 000 ans de sélection.







Mouais enfin… les super cerveaux triés sur le volet par plus de 200 000 ans de sélection, c’est quand-même des machins qui sont capables de te faire chercher pendant 20 minutes ce que t’as fait de tes clés, pour t’apercevoir finalement que tu les as dans ta main gauche depuis le début. Ou d’ouvrir ton frigo, de rester figé, et de te demander au bout de 2 minutes ce que tu étais venu chercher. Ou d’oublier ton gosse dans la voiture en allant au boulot alors que tu devais le déposer chez la nounou. Ou d’avoir 20 types qui te font des appels de phare et te demander ce qu’ils te veulent tous bon sang, avant de t’apercevoir que t’as juste oublié d’allumer les tiens, de phare…



Bref faut vachement relativiser le caractère supposément ultra-performant de notre super-cerveau, par certains aspects, notre cerveau relève plus d’un logiciel bugué sous Windows 3.1 que d’un supercalculateur à l’algo redoutable.



Le niveau 5 c’est encore de la SF, clairement.

Après plus de 30 ans de métro autonome, ceux-ci ont toujours un poste de conduite intégré (c’est juste qu’il n’y a pas de cabine dédiée) et sont surveillés durant toute l’exploitation.

Alors qu’il n’y a pas plus balisé, prévisible et peu changeant comme parcours !



A plus court terme, les transports en commun autonomes ou encore la conduite autonome sur longue distance (comme les autoroutes qui sont moins enclins à l’imprévu) sont envisageables.

Pour les transports en commun, c’est même à l’essai. Il y a par exemple une navette autonome d’une dizaine de passagers qui fait tout le tour du campus de la cité scientifique de Villeneuve d’Ascq.

Et vu comment les rageux du volant la double n’importe comment quitte à tuer 23 étudiants sur la route, m’est avis que son IA doit en avoir déjà vu des vertes et des pas mûres… (oui, le hic est qu’elle roule pour le moment à la vitesse d’un piéton, engendrant une ribambelle de frustrés derrière)



Les bus me paraissent être une étape intéressante car le circuit est prédéfini et peut être facilement supervisé. Tout en bénéficiant des imprévus d’une circulation réelle.



Quant au niveau 3, ils ont effectivement l’effet pervers de nous donner la fausse impression de conduite autonome. C’est ce qui a provoqué la plupart des accidents mortels de Tesla d’ailleurs en dehors du cas où le système n’avait pas “vu” le camion.

Raison pour laquelle ils ont mis une approche similaire au volant de l’homme mort des trains (où le conducteur doit le lâcher et remettre les mains dessus régulièrement il me semble) en obligeant le conducteur à avoir les mains sur le volant quand l’Autopilot est engagé. En cas de refus, le véhicule émet une alarme de plus en plus insistante puis fini par se garer sur le bas côté et bloque la fonction.



Bref, la technologie arrive et commence à être au point… Reste l’upgrade du tas de viande à mettre en oeuvre. <img data-src=" />








SebGF a écrit :



Le niveau 5 c’est encore de la SF, clairement.





Volvo ne savait pas que c’était impossible. Donc, ils l’ont fait!



Tu aurais dû lire le lien que tu as mis.

C’est pour le moment un concept avec des prototypes.

C’est fait pour des environnements maîtrisés (ports, centre logistiques, …), donc pas prévu pour la route avec d’autres usagers.



En cherchant un peu plus sur ce truc, j’ai lu que ça circule pour le moment à faible vitesse, ce qui réduit les risques.



Bref, ce n’est pas du niveau 5.








Liam a écrit :



Peut-être que tu devrais te contenter de réagir à ce que les gens disent, au lieu d’inventer des propos et de t’en offusquer dans la foulée. Parce que personne ici a dit que c’était “une raison pour mourir”.





Commence par comprendre ce que les autres veulent dire. Le “une raison” ne se référait pas au verbe mourir mais au fait de traiter une personne de “conne”.

Ce qui est relativement compréhensible quand on ne sort pas une phrase de son contexte et qu’on prend le temps de lire ce qui précède.







Liam a écrit :



L’histoire de rester maître de son véhicule est un mythe, ou une grossière simplification. Ce que dit le Code de la Route, c’est qu’il faut “rester constamment maître de sa vitesse et de régler cette dernière en fonction de l’état de la chaussée, des difficultés de la circulation et des obstacles prévisibles”, “à tout moment, adopter un comportement prudent et respectueux envers les autres usagers des voies ouvertes à la circulation”, “faire preuve d’une prudence accrue à l’égard des usagers les plus vulnérables” et enfin “se tenir constamment en état et en position d’exécuter commodément et sans délai toutes les manoeuvres qui lui incombent.”



Mais ça ne veut pas dire que tu dois être capable, quelles que soient les circonstances, d’éviter les accidents même les plus improbables. Tu dois seulement éviter les accidents raisonnablement prévisibles notamment en respectant les limitations de vitesse et en les adaptant, si besoin, aux conditions de visibilité etc.



Pour autant, si un piéton débarque de nulle part au beau milieu de l’autoroute et que, élancé à 130 avec de bonnes conditions météo et tout, tu ne peux rien faire pour l’éviter, tu seras pas coupable au motif que “tu dois être maître de ton véhicule”, en tant que conducteur tu as fait tout ce que tu avais à faire : ta vitesse était adaptée, tu t’étais préparé aux obstacles prévisibles (un piéton au milieu de l’autoroute c’est imprévisible, à moins de le voir arriver de super loin), tu as fait preuve de prudence en ne faisant pas n’importe quoi (genre changer de file sans prévenir) et tu étais en état d’effectuer les manœuvres qui t’incombaient (mais tu ne peux rien faire contre l’inertie d’une bagnole élancée à 130, c’est comme ça tu n’y peux rien). À partir de là, tu auras rien à te reprocher.







Cela tombe bien cela n’a strictement RIEN à avoir avec le cas présent: une avenue limitée à 70 mal éclairée qui aurait du inciter à la prudence (on traverse une ville). Avec une IA qui repère le piéton 6 secondes avant l’impact. Tu pourrais y ajouter 3 paragraphes supplémentaires de digression que cela n’y changerait rien.



La discussion étant contextualisée sur les véhicules personnels, il ne m’était pas venu à l’esprit de préciser cela.



Car juste après je cite un exemple de transport en commun avec une automatisation de niveau 5. Expérimental, faisant la course avec les escargots et freinant au moindre caillou sur la route (j’exagère), mais bel et bien dépourvu de poste de conduite (il peut se conduire en manuel avec une manette de jeu, c’est marrant à voir sur le coup) et évoluant sur la voie publique.



Le Vera, aussi impressionnant soit-il (et perso j’adore) est plus proche des robots de logistique qu’on trouve en entrepôt, ou encore du robot qui gare les voitures à Lyon St Ex, que d’un camion autonome prévu pour rouler sur la voie publique. Il s’agit plutôt d’une fourmilière orchestrée par une tour de contrôle, roulant à 40km/h max, et assisté de différentes balises (tout ceci est indiqué sur le site de Volvo d’ailleurs) pour évoluer dans un endroit maîtrisé.

Mais ça peut être une étape pour préparer le terrain du camion autonome.


Juste une remarque, c’est 70 miles/h soit environ 110 km/h.









SebGF a écrit :



Le niveau 5 c’est encore de la SF, clairement.

Après plus de 30 ans de métro autonome, ceux-ci ont toujours un poste de conduite intégré (c’est juste qu’il n’y a pas de cabine dédiée) et sont surveillés durant toute l’exploitation.

Alors qu’il n’y a pas plus balisé, prévisible et peu changeant comme parcours ! (…)





Pour l’anecdote, lors du déploiement des tramways en remplacement de certaines lignes de bus, les chauffeurs étaient stressés car le fait d’être sur des rails empêche toute manœuvre d’évitement en cas d’obstacle inopiné (ah ! ces humains et leur besoin de chaos).

Mais il est sûr qu’une assistance au freinage d’urgence dans ce cas peut être un plus (quelques millisecondes de gagner ce sont quelques mètres).





SebGF a écrit :

Après plus de 30 ans de métro autonome, ceux-ci ont toujours un poste de conduite intégré (c’est juste qu’il n’y a pas de cabine dédiée) et sont surveillés durant toute l’exploitation.



Ca me parait étrange, sur la ligne 14 par exemple on se rend bien compte qu’il n’y a aucune supervision humaine.

(portes qui se ferment au terminus alors qu’il reste des gens, portes qui se ferment sur la laisse d’un chien toujours sur le quai, portes qui se ferment alors que les gens sont encore en train de monter sans trainer, non prise en compte des portes de quai condamnées…)


Pour moi le principal problème, c’est que UBER a désactivé le système de freinage d’urgence de Volvo.

Que ce soit une IA ou un conducteur humain au volent, rien ne peut remplacer un bête capteur qui dit :

“ça va taper !!!” ==&gt; Freinage d’urgence



Je pense que ce type d’accident il y en a et en aura encore. C’est pourquoi on a ajouté ces technos de détections. Après UBER a cru que leur système pouvait faire pareil…


“Mais surtout ce rapport met en lumière un des gros problèmes des intelligences artificielles/pilotes automatiques : la faculté d’anticiper et de réagir face à un événement hors scénario.”

C’est pas la faute aux IA ca, mais a Uber… Celle de Google a bien réagi face à la vieille qui chassait un oiseau sur la route. pourtant je suis sur qu’aucun code spécifique n’avait été fait en amont !


Perso je considère que tant qu’il n’y a pas d’infrastructure dédiée pour les véhicules autonomes (et interdits au reste), ben on aura toujours les cas imprévus.

Chute de pierres, sanglier, branches…..

Faire du développement pour essayer de gérer tout ça c’est se prendre encore plus la tête. Dans un environnemen maitrisé, c’est beaucoup plus simple (cf métro automatique).








carbier a écrit :



Commence par comprendre ce que les autres veulent dire. Le “une raison” ne se référait pas au verbe mourir mais au fait de traiter une personne de “conne”.







Je comprends pas ce que tu comprends pas. Tu reproches aux gens, en substance, de dire que l’erreur de la piétonne justifie sa mort.

Sauf qu’en vrai personne ne dit ça. Personne ne dit “c’est bien fait” ou même “bah tant pis pour elle, elle avait qu’à pas”. Personne ne dit que c’est pas tragique, non plus. Et y a même personne pour dire que l’IA s’est comporté de façon tout à fait satisfaisante ou que le conducteur avait raison d’être inattentif.



Tout ce que les gens disent, c’est que la piétonne a fait une erreur en s’engageant sur une voie dangereuse sans s’assurer de pouvoir le faire en toute sécurité.



Et toi, tu lis ça, et tu en conclues “ah bande de salauds, vous justifiez sa mort”.



Bah non.



Laisse tomber, tu refais à chaque fois un nouveau “fil” au lieu de garder celui d’origine, ou je n’ai jamais dit LE CONTRAIRE de

“Oui, le conducteur est responsable de cette connerie. Et non, le fait

que le véhicule ait fait une erreur aussi ne le dédouane absolument pas.”



Amuse-toi à écrire un autre fil sans historique si tu veux, j’ai autre chose à faire.








dematbreizh a écrit :



Laisse tomber, mais je refais quand même un laïus parce que j’ai forcément raison parce que je ne peux pas avoir tort et blablabla… <img data-src=" />



Toujours aussi logique et sur la même ligne sans jamais en bouger, quoi.

(Je préfère préciser au cas où tu n’aurais pas compris : c’est ironique.)



PS : je n’ai pas de “”“fil”“”, on est sur les commentaires de news, pas un forum.



Mouais enfin… les super cerveaux triés sur le volet par plus de 200 000 ans de sélection, c’est quand-même des machins qui sont capables de te faire chercher pendant 20 minutes ce que t’as fait de tes clés, pour t’apercevoir finalement que tu les as dans ta main gauche depuis le début



–&gt; rien à voir avec le sujet de départ. On parle là d’une tâche bien particulière : reconnaître qu’il y a dans son champ de vision un objet ou être vivant en mouvement. Pas d’appel à la mémoire, aucune variation possible en fonction des capacités de mémorisation, d’organisation générale, de stress, etc. rien à voir avec les capacités intellectuelles non plus.



Il faut savoir différencier fonctionnement du cerveau et fonctions intellectuelles évoluées








Meptalon a écrit :



–&gt; rien à voir avec le sujet de départ. On parle là d’une tâche bien particulière : reconnaître qu’il y a dans son champ de vision un objet ou être vivant en mouvement. Pas d’appel à la mémoire, aucune variation possible en fonction des capacités de mémorisation, d’organisation générale, de stress, etc. rien à voir avec les capacités intellectuelles non plus.







C’est pas le sens de mon commentaire. Ce que j’explique c’est que le cerveau humain est en réalité une machinerie hyper approximative, pleine de bugs et d’incohérences, à l’attention extrêmement faillible (1 accident mortel sur 3 sur autoroute c’est quelqu’un qui s’est endormi au volant : on peut - et c’est même pas rare - S’ENDORMIR au volant… je te laisse imaginer combien de personnes ont de simples pertes d’attention une fois de temps en temps), super facile à piéger par illusion d’optique…



Ça me paraît super présomptueux de croire que nos cerveaux sont de super machines ultra efficaces. La réalité est plus proche de “nos cerveaux sont amas de bricolages bâtis les uns sur les autres et de code spaghetti qui marche plus ou moins mais avec pas mal de bugs et des plantages réguliers”. Le fait qu’on confie à des machins aussi imparfaits la tâche de gérer un engin d’une tonne à plusieurs dizaines de km/h dans un environnement imprévisible fait d’autres engins, de piétons, d’animaux et d’obstacles, me terrifie, en réalité. L’évolution ne nous a absolument pas préparé à ça.



Mouais, c’est un peu capillotracté…

Si on s’endort c’est parce qu’on est fatigué et en cas de manque de sommeil important il y a l’option destructrice ou l’option dormir, normal que le cerveau choisisse d’imposer le sommeil. Après le chaos qui consiste à continuer à réaliser un acte dénué de fondement, c’est celui qui permet la créativité.



Quand à la conduite d’une véhicule, le cerveau n’est pas préparé, effectivement, et c’est pour ça qu’on l’instruit en lui donnant : Des leçons de conduite. D’ailleurs comme l’humain a constaté que ces leçons n’étaient pas immédiatement acquises, il a imposé des règles supplémentaires aux nouveaux conducteurs.

Je ne me rappelle plus combien de milliards d’itérations il a fallut à un calculateur avant de pouvoir jouer aux échec ou à starcraft, s’il en faut autant (et le calculateur qui va avec) avant qu’une voiture ne soit autonome, ça va en faire des accidents.








Tandhruil a écrit :



Mouais, c’est un peu capillotracté…

Si on s’endort c’est parce qu’on est fatigué et en cas de manque de sommeil important il y a l’option destructrice ou l’option dormir, normal que le cerveau choisisse d’imposer le sommeil.





Sans vraiment s’endormir, si tu roules pendant plus ou moins longtemps sans qu’il ne se passe rien de spécial (sur autoroute avec un trafic fluide, par exemple) ton cerveau peut se mettre en veille. Tu restes plus ou moins conscient, les yeux ouverts, mais ne réagit plus ou que très tardivement aux stimuli.

Ça m’est déjà arrivé, ça fait bizarre. Heureusement que j’avais ma mère pour me crier dans les oreilles sinon je me serais pris la voiture de devant qui freinait…







Tandhruil a écrit :



Je ne me rappelle plus combien de milliards d’itérations il a fallut à un calculateur avant de pouvoir jouer aux échec ou à starcraft, s’il en faut autant (et le calculateur qui va avec) avant qu’une voiture ne soit autonome, ça va en faire des accidents.





C’est pour ça qu’on utilise de plus en plus des simulations plutôt que la réalité pour faire apprendre aux IA. Avec tout le problème de réalisme et représentativité de la simulation…



Il me semble qu’il est préconisé sur ce genre de trajet de s’arrêter toutes les 2h pour justement éviter ce type de problème.

Assez bizarrement, depuis que mon véhicule dispose d’un régulateur de vitesse, je fatigue beaucoup moins sur les grands trajets monotones. Il me semble que c’est parce que j’éprouve moins de stress à vérifier régulièrement si je suis à la bonne vitesse.


Autant pour moi c’est bien 70 km/h pour une vitesse limitée à 45 mph ce qui correspond à une départementale à double sens (80 km/h en France).



Voir Arizona


Les voies et quais de métro sont bardées de caméras et détecteurs. Même s’il n’y a pas forcément d’intervention humaine pour les cas que tu cites (le système doit déjà détecter de lui-même les blocages de portes et compagnie), il reste supervisé par un poste de commandement centralisé.



Donc à tout moment, en cas d’incident, des opérateurs humains peuvent intervenir ou déclencher une intervention sur place.



A titre personnel je connais mieux le métro de Lille, mais celui-ci a les mêmes principes vu que c’est le premier métro autonome.








Tandhruil a écrit :



Mouais, c’est un peu capillotracté…

Si on s’endort c’est parce qu’on est fatigué et en cas de manque de sommeil important il y a l’option destructrice ou l’option dormir, normal que le cerveau choisisse d’imposer le sommeil.







L’option destructrice, faut pas pousser. La mort survient après plusieurs semaines d’absence totale de sommeil. Les premiers vrais troubles neurologiques (hallucinations, ce genre de trucs), après plusieurs jours à une semaine. La plupart de ceux qui s’endorment au volant ont même pas une nuit blanche dans les pattes.



Mais c’est surtout que si le cerveau est capable de déconnecter totalement au point de t’endormir dans des cas un tant soit peu extrêmes (et encore, pas tant que ça), tu imagines bien qu’il est capable de déconnecter légèrement dans des conditions beaucoup moins extrêmes. Même 2h de concentration intensive et absolue non-stop, personne n’en est réellement capable en fait. Tout le monde a des moments d’absence et de déconcentration quand il conduit, à part sur les très courts trajets à la rigueur.







Tandhruil a écrit :



Quand à la conduite d’une véhicule, le cerveau n’est pas préparé, effectivement, et c’est pour ça qu’on l’instruit en lui donnant : Des leçons de conduite.







Les leçons c’est bien joli mais ça remplace pas 200 000 ans d’évolution justement. L’évolution nous a préparé à gérer une vitesse de, allez, 15-20km/h. Aucun cerveau n’est adapté à gérer du 130km/h. On le fait quand-même, mais c’est aussi pour ça qu’on met des sécurités de partout et qu’on autorise les vitesses élevées que sur des routes dénuées au maximum de trucs imprévisibles, et même comme ça, y a régulièrement des accidents.



Tu surestimes complètement la capacité de notre cerveau. On est pas fait pour maintenir une attention suffisante pour avoir des réflexes de quelques millisecondes pendant des heures. On en est rigoureusement incapables. On compte principalement sur le fait qu’en mettant suffisamment de sécurités, on arrivera à corriger les erreurs d’inattention (ou les erreurs liées à de mauvaises décisions ou à de mauvais réflexes) avant qu’elles nous provoquent des accidents, et que si accident il y a les sécurités des véhicules protègeront le conducteur. Ça marche à peu près… m’enfin même comme ça on est quand-même à plusieurs milliers de morts par an en France chaque année et encore beaucoup plus d’accidents divers et variés.



Il y a encore pas mal de boulot pour que l’IA soit au point sur ce sujet, après la comparaison à Starcraft ou aux échecs ne me paraît pas correcte : en vrai les IA ont toujours sû jouer à ces jeux. Elles ont juste mis du temps à battre des champions du monde. Mais ce qu’on demande aux IA c’est pas de battre les meilleurs pilotes de F1. C’est d’être meilleures que le commun des mortels. Même ça, ça va demander encore du temps, mais franchement, quand on voit les capacités en conduite réelles du commun des mortels, ça me paraît pas du tout inatteignable. J’veux dire, y a quand-même 9 conducteurs sur 10 qui savent pas prendre un putain de rond point…









SebGF a écrit :



Le niveau 4 de la conduite autonome a pourtant bel et bien l’objectif de rendre le conducteur facultatif. (et le 5 de rendre le poste de conduite facultatif)




Le détail à ne pas oublier est que les IA de la conduite autonome apprennent constamment, d'où ces expérimentations. On ne peut décider de l'avenir des véhicules autonomes à cet accident d'Uber, surtout que le rapport démontre bien de graves défauts de conception.       






En parallèle à cela, il y a plusieurs autres acteurs qui perfectionnent continuellement leurs procédés. Et qu'au final, le nombre d'accidents mortels de véhicules autonomes est extrêmement faible... En fait, il me semble que celui-ci est le seul. (les Tesla ne sont pas des véhicules autonomes, ils requièrent l'attention du conducteur et les mains sur le volant, c'est du niveau 2 pas loin du 3)      






Quant aux choix moraux, l'humain en est déjà incapable en situation d'urgence et de stress intense pour des situations extrêmement rares. Donc l'IA aura le temps d'apprendre d'ici là... Et d'ici là elle sera surement déjà majoritaire sur la route et donc limitera encore plus ces cas.





Alors sur “les IA apprennent constamment”, ça me fait doucement rire. Les IA apprennent selon les codes d’apprentissage qu’on leur fournit. Et pour l’instant on est loin de leur fournir un cadre suffisamment flexible et complet pour approcher, même de très loin, la capacité d’auto-apprentissage du cerveau humain (faut-il s’en plaindre d’ailleurs ? Je suis pas pressé de voir arriver un scénario à la Terminator moi perso XD).



Sur le caractère “choix moral”, bah c’est faux, l’humain le fait. Ou plus précisément, il “l’a déjà fait”. Clairement il n’y aura aucune réflexion consciente dans l’instant, mais tout aussi clairement, le choix que tu vas faire “instinctivement” ne sera que la résultante intuitive de tout un tas de critères sur lesquels tu auras déjà pu travailler un peu, consciemment ou pas. Mais ton choix restera un choix “moral”, au sens d’un choix arbitraire et partial qui pourra être différent d’une personne à l’autre en fonction de ses connaissances et sa manière de vivre.

&nbsp;



Liam a écrit :



Mouais enfin… les super cerveaux triés sur le volet par plus de 200 000 ans de sélection, c’est quand-même des machins qui sont capables de te faire chercher pendant 20 minutes ce que t’as fait de tes clés, pour t’apercevoir finalement que tu les as dans ta main gauche depuis le début. Ou d’ouvrir ton frigo, de rester figé, et de te demander au bout de 2 minutes ce que tu étais venu chercher. Ou d’oublier ton gosse dans la voiture en allant au boulot alors que tu devais le déposer chez la nounou. Ou d’avoir 20 types qui te font des appels de phare et te demander ce qu’ils te veulent tous bon sang, avant de t’apercevoir que t’as juste oublié d’allumer les tiens, de phare…




Bref faut vachement relativiser le caractère supposément ultra-performant de notre super-cerveau, par certains aspects, notre cerveau relève plus d'un logiciel bugué sous Windows 3.1 que d'un supercalculateur à l'algo redoutable.







Je ne vois pas en quoi la description de comportements aisément explicables comme relevant de la fatigue ou de la surstimulation du monde moderne (pour prendre deux causes possibles évidentes, avec l’âge) remet en question les formidables capacités d’apprentissage et d’analyse du cerveau.&nbsp;

(D’ailleurs le coup du gosse que t’oublie, le problème c’est pas le cerveau en général, c’est toi qui n’a jamais réfléchi pour définir correctement tes priorités).&nbsp;&nbsp;





Liam a écrit :



C’est pas le sens de mon commentaire. Ce que j’explique c’est que le cerveau humain est en réalité une machinerie hyper approximative, pleine de bugs et d’incohérences, à l’attention extrêmement faillible (1 accident mortel sur 3 sur autoroute c’est quelqu’un qui s’est endormi au volant : on peut - et c’est même pas rare - S’ENDORMIR au volant… je te laisse imaginer combien de personnes ont de simples pertes d’attention une fois de temps en temps), super facile à piéger par illusion d’optique…




Ça me paraît super présomptueux de croire que nos cerveaux sont de super machines ultra efficaces. La réalité est plus proche de "nos cerveaux sont amas de bricolages bâtis les uns sur les autres et de code spaghetti qui marche plus ou moins mais avec pas mal de bugs et des plantages réguliers". Le fait qu'on confie à des machins aussi imparfaits la tâche de gérer un engin d'une tonne à plusieurs dizaines de km/h dans un environnement imprévisible fait d'autres engins, de piétons, d'animaux et d'obstacles, me terrifie, en réalité. L'évolution ne nous a absolument pas préparé à ça.








MDR : "on maîtrise pas vraiment comment marche le cerveau donc c'est approximatif".&nbsp;     



Tu peux pourtant trouver de par le monde de nombreux exemples “d’efficacité” : entre les gens tellement spécialisés dans une tâche que, justement, on croirait voir des robots,&nbsp; les capacités d’abstraction raisonnée des plus grands scientifiques, la précision millimétrique (et la capacité de concentration pendant plusieurs heures) des chirurgiens…&nbsp;

Le monde entier te donne des contre-exemples.



Le truc, c’est pas que le cerveau est approximatif. C’est que nous faisons partie de générations qui n’ont plus réellement&nbsp; besoin d’apprendre à vraiment s’en servir. Du moins je vise par là les populations occidentales “issues d’elles-mêmes”. Bien qu’il existe toujours des dangers mortels, la preuve par la news XD, ceux-ci sont extrêmement rares au quotidien.&nbsp;

Rajoute à ça les innombrables stimulis inutiles qu’on subit, volontairement ou non, qui perturbent notre capacité à nous concentrer et apprendre.&nbsp;

Rajoute encore à ça nos modes de vie de plus en plus décousus en termes de nutrition, sommeil et activité physique…

Rajoute encore à ça la “religion scientifique” qui fait des ravages depuis 30 ans à justement dévaloriser le cerveau au détriment de la “science” en général, et des machines en particulier, alors que ce sont justement ces principes, dont découle le management moderne, qui empêche l’humain en général d’exploiter son vrai potentiel à vouloir le cloisonner dans une petite case…



Tu comprendras pourquoi je ris (jaune) quand je lis de pareilles assertions.

&nbsp;

Le seul point d’accord est celui-ci “l’évolution ne nous a absolument pas préparés à ça”. Note d’ailleurs que ça s’applique à tout, et que c’est généralement cette absence totale de recul de l’homme vis-à-vis de ses propres “avancées” (double double guillemets) qui nous conduit à notre perte…

Malgré tout, ce n’est pas parce que l’évolution ne nous rend pas “intrinsèquement préparés” que nous sommes incapables d’être efficaces.&nbsp;

A nouveau, prend l’exemple des chirurgiens qui doivent rester de marbre pendant des heures. Des musiciens d’orchestre pour un opéra. Pour des soldats en mission extérieure.&nbsp;

Tu ne peux pas être “prêt et optimal” toute ta vie. Pour plein de raisons, la première étant le vieillissement et tout ce qui s’ensuit. Mais des techniques d’apprentissage, de conditionnement et de préparation physique existent pour te “préparer” à plus ou moins n’importe quoi. C’est juste que ça prend plus ou moins de temps, et ça bouffe plus ou moins d’autres de tes capacités. ^^&nbsp;









Citan666 a écrit :



de par le monde



On ne dit jamais “de par”, sauf s’il s’agit de Dieu <img data-src=" />









SebGF a écrit :



Les voies et quais de métro sont bardées de caméras et détecteurs. Même s’il n’y a pas forcément d’intervention humaine pour les cas que tu cites (le système doit déjà détecter de lui-même les blocages de portes et compagnie), il reste supervisé par un poste de commandement centralisé.



Donc à tout moment, en cas d’incident, des opérateurs humains peuvent intervenir ou déclencher une intervention sur place.



Je ne doute pas des capacités des capteurs et des moyens de contrôle humain déportés.

Je doute par contre des capacités à le mettre en place en rognant sur les coûts ou en pensant que des millions de voyageurs vont s’adapter instantanément.



Exemple tout bête: encore la ligne 14, qui est une des lignes les plus modernes. Quelqu’un fait un malaise, c’est signalé, la rame arrêtée en station etc. Au bout d’un moment, la personne de la RATP contactée par le “téléphone” demande si une équipe d’intervention est sur place. Et elle répète trois fois la question car ne comprend pas la réponse.

&nbsp;- Un conducteur présent dans la rame l’aurait su tout de suite,

&nbsp;- Un système de comm efficace permettrait aux gens de se comprendre, (en 2019…)

&nbsp;- Des caméras adaptées à voir au milieu de la foule en heure de pointe suffiraient à répondre à la question,

&nbsp;- Les “gens” ont du mal à comprendre pourquoi on leur pose une question au téléphone vu que tout est automatisé…



SNCF ou RATP, la course aux outils numériques, robotiques etc. sera freinée par la volonté d’économiser argent et ressources humaines. Ça fonctionnera tout seul, mais mal.

Pour les voitures ce sera la même chose. Je rêve de villes 100% voitures autonomes, partagées et sûres. Mais on risque de déchanter quand sortiront les premiers modèles grand public…



On “fait de l’IA” mais on veut que ça coûte pas cher, ne demande pas de temps ni de recherches…









Citan666 a écrit :



MDR : “on maîtrise pas vraiment comment marche le cerveau donc c’est approximatif”.







C’est pas le fait qu’on maîtrise pas vraiment comment marche le cerveau qui me fait dire que c’est approximatif, mais le fait qu’il marche à “l’à peu près”. Le fait que tu ais compris mon propos complètement de travers en est d’ailleurs un bon exemple.

Mais on pourrait citer aussi le fait que même après 40 ans d’apprentissage et d’entraînement, même les écrivains vont encore de temps en temps des coquilles, le fait qu’on se fasse piéger facilement par des illusions d’optique basiques (preuve que le cerveau fait une interprétation “à peu près” des signaux visuels), le fait que sur une liste un peu longue, très souvent on ne remarque même pas à première lecture quand il y a un doublon, le fait que tout un chacun fasse régulièrement des lapsus, etc.



C’est un mythe quasi-créationniste d’envisager notre cerveau comme un produit parfait. Notre cerveau est comme le reste de notre corps : “good enough” pour l’environnement dans lequel il s’est développé (et il s’est pas développé ces derniers milliers d’années dans des machines propulsées à 100km/h), ce qui ne l’empêche pas de prendre des raccourcis et de se faire régulièrement avoir.



D’ailleurs tu parles d’effets de la surstimulation et de la fatigue, mais la fatigue, c’est la situation concrète dans laquelle des millions de gens prennent la toiture chaque matin et chaque soir, et la surstimulation, c’est précisément ce qu’exige la conduite automobile (des cues visuels de partout, un champ visuel énorme à balayer en permanence, des dizaines de paramètres à gérer constamment, être sur le qui vive en permanence et se préparer à avoir des réactions les plus rapides possibles), et en plus, la moitié des conducteurs ont l’attention à moitié détournée par leur autoradio (quand c’est pas par leur smartphone)…



Tiens, je sais pas si tu as remarqué, y a un endroit où j’ai écrit “toiture” au lieu de “voiture”. Si tu l’as remarqué, bien, tu es vigilant (mais mon post se lit en 5 minutes, pas en 2 heures). Si tu l’as pas remarqué, oups, quand on conduit, ce genre de manque d’attention c’est parfois la différence entre la vie et la mort.



Tu semble associer la flexibilité et la capacité d’apprentissage du cerveau à une supériorité sur la machine. Ca me semble loin d’être évident.

Certes le cerveau reste non égalé en terme de capacité d’adaptation, et l’intuition assure effectivement un comportement ‘pas trop con’ dans une bonne partie des situations.

D’un autre côté, la machine est très largement plus forte sur d’autres points, comme la vitesse de réaction, la prédictibilité du comportement, le mémoire, le capacité à analyser un grand nombre d’options en un temps réduit, à rester d’une attention sans faille pendant des heures…



En terme d’intelligence ‘all-purpose’, l’homme reste supérieur aujourd’hui, mais sur beaucoup de tâches un peu spécialisées sur lesquelles on a vraiment investi, il est battu à plat de couture par la machine. Et ces tâches sont de plus en plus nombreuses, diverses et complexes.

La conduite fait-elle partie de ces tâches où la machine a pris le dessus? Aujourd’hui c’est débattu. je suis persuadé que d’ici une dizaine d’années, il n’y aura plus de débat.





Cette mort choque que celle des 20 (de mémoire) personnes qui meurent chaque jour sur les route françaises, parce qu’elle donne l’impression qu’elle aurait été facilement évitable. La mort des 5-6 personnes dont le conducteur se sont endormi ne le seraient-elle pas aussi ?

Même s’il reste des cas absurdement stupides comme celui-ci (et il en restera, c’est certain), où une voiture autonome tuera un piéton (ou ses passagers) alors qu’elle avait toutes les informations qui auraient permis à un humain de l’éviter, ne serait-il pas criminel d’en retarder le déploiement si la fréquence de ces évènements est 10x inférieure à celle d’une mort par endormissement ou alcool évitée par cette même voiture autonome?








Liam a écrit :



Sauf qu’en vrai personne ne dit ça. Personne ne dit “c’est bien fait” ou même “bah tant pis pour elle, elle avait qu’à pas”.







Normal, tmtisfree/Jeanprofite n’est pas venu poster sur ce topic…



<img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







Liam a écrit :



C’est pas le fait qu’on maîtrise pas vraiment comment marche le cerveau qui me fait dire que c’est approximatif, mais le fait qu’il marche à “l’à peu près”. Le fait que tu ais compris mon propos complètement de travers en est d’ailleurs un bon exemple.

Mais on pourrait citer aussi le fait que même après 40 ans d’apprentissage et d’entraînement, même les écrivains vont encore de temps en temps des coquilles,







Je confirme, mes lecteurs aussi…



J’arrive même de temps à autre à taper des phrases qui n’ont aucun sens, Et à laisser passer des couilles malgré trois étages de correction dans mon flux de travail.