Intelligence artificielle : les critères nécessaires à la confiance, selon le Conseil d'État

Tronc pas si commun
Droit 2 min
Intelligence artificielle : les critères nécessaires à la confiance, selon le Conseil d'État
Crédits : Marc Rees

Dans la première partie de notre dossier consacré au rapport du Conseil d'État sur l'intelligence artificielle, nous avons vu comme la haute juridiction faisait un constat tiède sur la situation française. Dans cette deuxième partie, nous nous penchons sur la confiance et les critères essentiels poussés par le Conseil.

Notre dossier sur le rapport du Conseil d'État sur l'intelligence artificielle :

Confiance : LE grand critère pour les SIA

Le cas Parcoursup illustre toute la problématique de la transparence et de sa nécessité pour instaurer la confiance autour de l’intelligence artificielle, au sens très large.

Le rapport du Conseil d’État consacre un chapitre conséquent à ce thème, en commençant par définir ce que lui semblent être ses sept grands principes fondateurs :

  • La primauté humaine
  • La performance
  • L’équité et la non-discrimination
  • La transparence
  • La sûreté (cybersécurité)
  • La soutenabilité environnementale
  • L’autonomie stratégique

Primauté humaine, performance et équité

La primauté humaine est sans doute le critère le plus fondamental. Il assure qu’un algorithme, quel qu’il soit, fonctionne au bénéfice de l’être humain. C’est reconnaitre également qu’il a été créé par des humains, qui en acceptent toute la responsabilité, y compris – surtout ! – ses dysfonctionnements. Dans le cadre du service public, l’intérêt général doit primer, de même que la réversibilité du processus d’automatisation et la chaine clairement identifiée de la responsabilité humaine, impliquant une personne à contacter en cas de problème, et plus généralement la possibilité de parler à un agent si le processus automatique ne donne pas satisfaction.

En matière de satisfaction, la question de la performance est centrale. Elle couvre tous les critères de bon fonctionnement, comme l’exactitude des informations ou résultats. La note de faux positif y est contenue avec toutes les problématiques qu’elle engendre, car elle ne signifie pas la même chose pour un drone de l’armée et alarme anti-incendie. Le système doit être robuste, rapide et doit tendre vers une satisfaction maximale, ce qui suppose un outil d’évaluation par les personnes l’utilisant. Cela implique de minimiser, prévenir et de résoudre rapidement tout dysfonctionnement.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !