En Afrique, les algorithmes amplifient la désinformation depuis longtemps

Des algorithmes b(i)aisés…
Tech 3 min
En Afrique, les algorithmes amplifient la désinformation depuis longtemps
Crédits : Daisy-Daisy/iStock

« L'hystérie autour de l’IA est une distraction, les algorithmes sèment déjà la désinformation en Afrique » écrit le chercheur de la fondation Mozilla Odanga Madung dans The Guardian.

Des dirigeants d’entreprises leaders de l’intelligence artificielle générative comme Sam Altman (OpenAI) font le tour de l’Union Européenne et des États-Unis en évoquant leurs propres produits comme de probables « dangers pour la démocratie », tout en déployant des efforts de lobbying pour que les régulations en cours d’élaboration, comme le règlement européen sur l’IA, leur reste favorable.

Saper les discussions publiques

Pourtant, écrit le chercheur kényan, voilà longtemps que les algorithmes participent à saper les discussions publiques, notamment dans divers pays d’Afrique.

L’industrie des « mercenaires de la désinformation » manipule facilement l’algorithme de « trending topic » de Twitter au Kenya comme au Nigeria. De même, l’algorithme qui distribue le contenu sur l’onglet « For You » de TikTok a soumis quantité de vidéos haineuses et clivantes en amont des élections kényanes de 2022.

Une large problématique

« Cela signifie qu'il n'est pas nécessaire de s'appuyer uniquement sur le contenu généré par l'IA pour mener des campagnes de désinformation efficaces », écrit Odanga Madung. Il ajoute que « le nœud du problème ne réside pas tant dans le contenu produit par des outils d’IA comme ChatGPT, mais dans la manière dont les gens reçoivent, traitent et comprennent les informations générées par les systèmes d'IA des plateformes technologiques ».

Le chercheur déclare donc qu’il prend les brusques alertes de l’industrie numérique « avec des pincettes », dans la mesure où celle-ci a déjà eu de nombreux effets néfastes documentés sur divers régimes politiques, mais aussi sur les vies quotidiennes de milliers de travailleurs du clic résidant dans divers pays en développement.

Quand l’IA perpétue des préjudices

Le problème est encore plus large, dans la mesure où il touche jusqu'à l'efficacité des modèles d'intelligence artificielle. Il y a plus de cinq ans, par exemple, la CNIL indiquait déjà que les données servant à entraîner les modèles médicaux représentaient principalement des hommes ayant des ancêtres européens : « Si vous êtes une femme d’origine africaine et jeune, je ne pense pas que la médecine personnalisée vous concerne », expliquait alors Philippe Besse, professeur de mathématiques et de statistique à l’Université de Toulouse.

Les alertes sur les risques de l’IA « sélectionnent commodément ce sur quoi il faut se concentrer et ce qu'il faut ignorer », écrit Odanga Madung. « Je parie que les populations africaines n'effleurent même pas l'esprit d'Altman et de ses collègues », quand bien même ce sont elles, notamment par leur travail du clic, qui ont « contribué à faire de ChatGPT le phénomène qu'il est aujourd’hui ».

Et le chercheur « d'implorer les défenseurs et les observateurs de la démocratie, en particulier dans les pays en développement, de ne pas perdre de vue les préjudices déjà existants que l’IA perpétue ».

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !