Les algorithmes et les intelligences artificielles peuvent être de formidables outils… à condition qu’ils soient bien conçus et entrainés. Ils sont néanmoins très fortement dépendants des données mises à leur disposition et peuvent donc enfermer les utilisateurs, perpétuer et amplifier les biais des humains.
L’intelligence artificielle est omniprésente dans la vie de tous les jours : on la retrouve à différentes sauces dans tous les domaines (ou presque) de la vie numérique. Problème, il s’agit parfois (souvent ?) d’une boîte noire dont le fonctionnement n’est pas bien vraiment connu du grand public… quand il a conscience de son existence.
Le yin et yang de l’intelligence artificielle
Nous avons déjà eu l’occasion de l’expliquer à de nombreuses reprises : les intelligences artificielles peuvent avoir des biais parfois importants qui ne sont pas toujours faciles à appréhender, y compris pour les chercheurs. En fonction du jeu de données utilisées pour son apprentissage, une IA peut donner des résultats « étonnants », voire discriminatoires, alors que ce n’était pas le but ni la volonté de départ.
Tout le monde n’est pas égal devant les algorithmes et les IA : « Si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne », expliquait Philippe Besse, professeur de mathématiques et de statistique à l’Université de Toulouse, dans un rapport de la CNIL.
Mis entre de mauvaises mains, l’intelligence artificielle peut aussi avoir des effets pervers et dangereux. Un autre rapport dressait une liste non exhaustive des risques : malware avec une incroyable capacité d'adaptation, robot détourné de sa fonction première pour identifier et détruire une cible, système prédictif de perturbation civile et autres fake news.
Toutes ces préoccupations avaient également été soulevées par Cédric Villani dans son épais rapport sur l’intelligence artificielle, ainsi que dans celui de Bruce Schneier qui s'inquiétait du temps où, « après avoir piraté l'humanité, les systèmes d'IA pirateront ensuite d'autres systèmes d'IA, et les humains ne seront guère plus que des dommages collatéraux ».
- Algorithmes, intelligence artificielle : à la découverte de l'épais rapport de la CNIL
- Intelligence artificielle : décortiquons les 235 pages du rapport de Cédric Villani
- Une étude pointe les possibles effets pervers et dangers de l'intelligence artificielle
- Les IA sont des hackers, pour le meilleur et pour le pire
Dans le Journal du CNRS, Sihem Amer-Yahia, directrice de recherche au Laboratoire d'informatique de Grenoble, revient sur les « formes de discrimination » qui découlent des algorithmes et qui transpirent dans les intelligences artificielles.
Des algorithmes à l’intelligence artificielle
Pour planter le décor, voici la définition d’un algorithme, telle que donnée par la CNIL en 2018 : « la description d’une suite finie et non ambigüe d’étapes (ou d’instructions) permettant d’obtenir un résultat à partir d’éléments fournis en entrée ». Pour simplifier, une recette de cuisine est un algorithme.
On retrouve un lien avec les IA : « L’intelligence artificielle qui repose sur le machine learning concerne donc des algorithmes dont la particularité est d’être conçus de sorte que leur comportement évolue dans le temps, en fonction des données qui leur sont fournies ».
Si la partie technique est différente, « une approche globale des algorithmes et de l’IA demeure cependant pertinente. Algorithmes déterministes et algorithmes apprenants soulèvent en effet des problèmes communs » ; ils dépendent notamment fortement des données. « L’algorithme sans données est aveugle. Les données sans algorithmes sont muettes » résumait poétiquement la Commission.
La directrice de recherche du CNRS rappelle que si les algorithmes sont si populaires, c’est qu’ils sont « en mesure de s’exécuter à très grande échelle et ainsi de traiter une grande masse de données rapidement et de manière complètement automatisée, ce dont l’être humain est totalement incapable ».
Quand son passé « détermine ses préférences futures »
Actuellement, « la grande majorité des algorithmes qui servent à aiguiller le résultat de nos recherches via un moteur de recherche ont été conçus pour personnaliser le résultat de ces recherches, et cela vaut également pour les plateformes de e-commerce et les sites de rencontre en ligne. Il est donc logique d’obtenir des résultats qui diffèrent selon le contexte dans lequel est effectuée la recherche et selon les préférences de tel ou tel individu ».
Pour Sihem Amer-Yahia, « nous déléguons tous ces choix à l’algorithme » – de manière consciente ou non –, mais ce n’est pas sans conséquences puisque nous ne disposons pas « d’un moyen de parcourir ou d’agréger, ni même d’avoir une idée de la diversité des informations qui sont réellement disponibles sur le web ». Faire confiance à un algorithme revient donc à avoir des œillères numériques dont on ne connait pas le niveau d’occultation.
Autre problème : « De nombreux sites partent du principe que le comportement d'un utilisateur dans le passé détermine ses préférences futures. Ce dernier peut alors se retrouver enfermé dans des choix limités ».
Ce sujet revient régulièrement dans le cas des réseaux sociaux : des utilisateurs peuvent en effet se retrouver « enfermés » dans une bulle de connaissance avec des personnes partageant les mêmes idées, sans forcément voir l’océan des autres avis. On pense notamment aux adeptes des théories du complot.
Cette constatation est aussi valable pour de la recommandation de produits : on vous proposera volontiers des articles en fonction de vos achats précédents. Le but pour les entreprises est d’essayer de maximiser les ventes, pas d’ouvrir vos chakras.
Pour Sihem Amer-Yahia, se retrouver « enfermé dans des choix limités » est un des trois principaux risques liés aux algorithmes.
Tracer des individus et discriminations
Le second risque concerne « le traçage de l’individu au travers de ses habitudes alimentaires, de ses loisirs ou de ses données médicales ». Nous avons déjà pu voir que le traçage sur Internet peut aller bien plus loin… Facebook, pour ne citer que lui, est un bon exemple.
Enfin, le dernier risque que la chercheuse souhaite mettre en avant « concerne le traitement inégalitaire, voire défavorable que peuvent subir certaines catégories de personnes en raison de leur appartenance ethnique, de leur lieu d’habitation, de leur âge ou de leurs préférences sexuelles ».
Les algorithmes de classement (pour des résultats sur un moteur de recherche, des personnes sur un site de rencontre, etc.) induisent un risque de discriminations : « À partir du moment où l’algorithme a fait ces choix, l’internaute va être exposé à certaines informations, ou à des individus lorsque le résultat de la recherche est une liste ordonnée de personnes, plus souvent qu’à d’autres ». Tout le monde n’est pas forcément conscient de cette réalité et surtout on n’a quasiment jamais accès aux algorithmes en question.
L’IA peut perpétuer et amplifier les biais des humains
La cause est finalement assez simple à comprendre : la grande majorité des plateformes utilisent les données de leurs utilisateurs (les réseaux sociaux en tête) pour leurs algorithmes et l’apprentissage de leurs intelligences artificielles.
Problème : « ces données sont biaisées puisqu’elles sont générées par des individus qui n’échappent pas aux préjugés de la société dans laquelle ils vivent. Les algorithmes vont ainsi avoir tendance à perpétuer des biais qui existent déjà dans les milieux professionnels en les amplifiant ».
Un exemple avait été trouvé par des chercheurs sur la plateforme Adsence de Google : « Les femmes se voyaient proposer des offres d’emploi moins bien rémunérées que celles adressées à des hommes, à niveau similaire de qualification et d’expérience ».
Début 2019, les chercheurs Patrice Bertail (Université Paris Nanterre), David Bounie, Stephan Clémençon et Patrick Waelbroeck (Télécom ParisTech) résumaient ce problème en quatre mots : « Garbage in, garbage out », que l’on pourrait traduire par « foutaises en entrée, foutaises en sorties ».
Cela « fait référence au fait que même l’algorithme le plus sophistiqué qui soit produira des résultats inexacts et potentiellement biaisés si les données d’entrée sur lesquelles il s’entraîne sont inexactes ». Un exemple de foutaise (parmi tant d’autres) : en 2015, un algorithme de reconnaissance faciale de Google « a considéré qu’une personne de couleur noire présentait plus de similitudes avec l’objet "gorille" qu’elle avait été entrainée à reconnaitre qu’avec l’objet "humain" ».
Il y a aussi du positif
D’un autre côté, Sihem Amer-Yahia affirme que les algorithmes peuvent aussi contribuer à limiter la discrimination :
« L’un des principaux intérêts de l’embauche algorithmique est qu’elle permet d’agir directement sur l’algorithme pour qu’il intègre par exemple à une sélection de candidats un certain pourcentage de personnes qualifiées pour le poste mais ayant peu d’expérience. En donnant simplement de nouvelles instructions à l’algorithme il est donc possible, en théorie, d’exposer a minima certains profils qui auraient été ignorés par un raisonnement algorithmique plus classique.
Il est bien plus difficile de modifier réellement le raisonnement humain à l’œuvre lors d’un processus de sélection : les motifs de discrimination à l’égard de certains candidats vont être à la fois plus nombreux et plus difficiles à écarter, pour la simple raison que tout un ensemble de facteurs président à la décision d’un individu.
C’est ce qu’a notamment montré le testing de grande ampleur, réalisé entre novembre 2018 et janvier 2019 par l’université Paris-Est Marne-la-Vallée à la demande du gouvernement français ».
Développer l’informatique sociale
La directrice de recherche espère également que « grâce aux récentes découvertes de l’informatique sociale », les environnements « favorisant les échanges professionnels tout en contribuant à améliorer la qualité des interactions sociales » se multiplieront à l’avenir.
« En tant qu’informaticiens, nous devons nous assurer que ces futurs outils de communication numériques seront davantage orientés vers le bien-être au travail en faisant en sorte qu’ils intègrent des valeurs et des principes humains dès leur conception » ; d’autant plus en cette période de crise sanitaire et de télétravail.
Plutôt que Zoom, WebEx ou encore Teams qui ont le vent en poupe depuis début 2020, elle met en avant Gather Town – une application mélangeant visioconférence et univers virtuel en 2D – qui est utilisé au Laboratoire d’informatique de Grenoble « pour organiser des événements en ligne à destination de nos étudiants ».