Voiture autonome : l'accident mortel d'Uber ou la « bêtise » de l'intelligence artificielle

Mais elle ne fait que ce qu'on lui demande 155
image dediée
Crédits : Olivier Le Moal/iStock
Automobile
Sébastien Gavois

L'accident mortel avec une voiture autonome Uber pourrait presque être un tragique cas d'école. Elle avait détecté le piéton, mais sans parvenir à le classer correctement car il n'était pas sur un passage clouté. Si un pilote automatique n'est pas capable de gérer une situation en dehors des clous du Code de la route, on n'est pas sorti de l'auberge.

Mardi 19 novembre, le National Transportation Safety Board (NTSB) réunira son Conseil afin de déterminer la cause probable de l'accident mortel impliquant une voiture autonome Uber – une Volvo XC90 2017 modifiée – en mars 2018. La réunion sera retransmise en direct sur cette page

En amont, 43 documents pour un total de 439 pages ont été mis en ligne par le NTSB, permettant d'avoir de nouveaux éclairages sur cette sombre histoire. Dans le lot, on trouve notamment le « Vehicle Automation Report » donnant de nombreux détails sur le fonctionnement de la voiture autonome dans les secondes précédant l'impact.

Le régulateur y décrit chronologiquement l'ensemble des détections et actions des capteurs et du pilote automatique, permettant de mieux comprendre pourquoi le système n'a pas réagi plus tôt. Mais surtout ce rapport met en lumière un des gros problèmes des intelligences artificielles/pilotes automatiques : la faculté d'anticiper et de réagir face à un événement hors scénario. Dans le cas présent, un simple piéton en dehors d'un passage clouté.

Une première détection 6 secondes avant l'impact

Lisez la suite : 88 % de ce contenu reste à découvrir

Seuls nos abonnés peuvent lire l'intégralité de cet article.


chargement
Chargement des commentaires...