Les Français veulent des explications claires sur les modèles algorithmiques

Je peux parler à un humain ?
Droit 5 min
Les Français veulent des explications claires sur les modèles algorithmiques
Crédits : Max Gruber/Better Images of AI

Obtenu en exclusivité par Next INpact, un sondage de Research Collective pour la Fondation Panoptykon montre que les citoyens français souhaitent que la législation européenne leur garantisse la transparence et l'explicabilité des modèles algorithmiques qui les touchent. Les répondants demandent par ailleurs des outils leur permettant de porter plainte s'ils estiment être discriminés.

Les législateurs travaillent à un règlement européen sur l’intelligence artificielle (« AI Act »). Les jeux olympiques, en France, serviront aussi bien de bêta-test que de « vitrine industrielle » à l’industrie de la vidéosurveillance algorithmique. Et les citoyens, pendant ce temps, qu’en disent-ils ? 

Les Français appellent à plus de transparence lorsqu'un modèle est utilisé pour réaliser des prédictions à leur sujet, constate un sondage (.pdf) réalisé par Research Collective, un institut de sondage polonais, pour l’ONG de défense des droits numériques Panoptykon, elle aussi polonaise, et obtenu en exclusivité par Next INpact.

Réalisée auprès de 906 répondants français, 910 allemands et 905 néerlandais en octobre et novembre 2022, le rapport montre que dans les trois pays, le souci d’être informé de l’usage de modèles algorithmiques et d’avoir accès à des explications sur leur usage est très fort. 

91 % des Français interrogés estiment en effet important, voire très important, d’être informés sur l’usage de modèles d’intelligence artificielle par une entreprise privée ou une institution lorsque celui-ci sert à évaluer ou faire une prédiction sur leur comportement. Précisément, les 26-35 ans sont les plus inquiets parmi la population interrogée, puisque 83 % d’entre eux jugent utile d’être informés, contre trois personnes sur quatre parmi les 46-55 ans.

L'explicabilité des modèles, une préoccupation importante

L’explicabilité est un véritable enjeu dans les trois pays étudiés. Côté français, 87 % des répondants estiment important, voire très important, d’avoir la possibilité de vérifier ce que le modèle algorithmique est censé faire (ce pour quoi la machine a été construite doit être expliqué en toutes lettres).

IA AI Act

Par ailleurs, 85 % estiment décisif d’avoir accès à une explication de la logique du modèle, dans une langue simple. Autant de personnes déclarent vouloir obtenir une explication lorsque le résultat d’une machine les surprend ou les inquiète. Les 56-65 ans, en particulier (la tranche la plus âgée de ce sondage) sont 50% à estimer ce type d'explication « très important », 8 points au-dessus du total des Français interrogés.

En moyenne, seule une personne sur dix estime soit ces questions peu importantes, soit déclare ne pas savoir comment y répondre. 

Réguler les systèmes de recommandation

La Fondation Panoptykon a aussi interrogé les répondants sur les sujets qu’ils et elles estiment crucial de voir couverts par l’Union Européenne dans son travail sur l’AI Act. Résultat des courses, 71 % des Français interrogés estiment très importants de réguler les algorithmes de recommandation de contenu comme ceux utilisés par Facebook, YouTube ou Netflix.



71 % estiment très important de cadrer ceux qui modèrent automatiquement du contenu (qui le signalent, l’enlèvent ou le cachent) sur les réseaux sociaux et 67 % sont du même avis au sujet des algorithmes déterminant quelles publicités seront montrées à chaque utilisateur. Les 26-35 ans, en particulier, estiment « très important » l'encadrement des modèles publicitaires, soit 9 points de plus que le total des Français interrogés.

AI Act

Une demande d'outils pour pouvoir demander des comptes

Enfin, l’étude s’est penchée sur la question des solutions envisageables pour assurer les droits des utilisateurs face à l’usage de systèmes algorithmiques. Interrogés sur l’exemple d’un recrutement pour lequel la sélection de dossiers aurait été assistée par des outils algorithmiques, plus d’un répondant français sur deux a ainsi estimé très important de laisser à l’usager la possibilité de s’adresser à un humain pour que celui-ci puisse expliquer les raisons du rejet.

Femmes et hommes présentent un relatif écart en la matière, 60% des premières estimant « très important » de pouvoir s'adresser à quelqu'un, contre 49% des hommes. En revanche, elles ne sont plus que 30% à trouver cela « plutôt important », contre 37% des hommes.

Plus d’un répondant sur deux a aussi déclaré très important de fournir le droit d’enregistrer une plainte, en particulier si la personne pense avoir été victime d’une discrimination. Avec 66% de « très important » (13 points au-dessus de la population totale), les 56-65 ans sont les plus demandeurs de ce type de mécanismes.

Enfin, 40 % ont déclaré « très important » de pouvoir demander à une organisation civile indépendante de les représenter sur ce type de cas.

AI Act

Selon Panoptykon, les protections prévues dans les travaux sur une directive européenne sur l’intelligence artificielle ne répondent pas aux attentes des citoyens dans la mesure où elles ne fournissent pas, pour le moment, d’outils ou de procédures permettant aux usagers ou aux organisations qui pourraient les représenter de porter plainte facilement.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !