Alors que le Digital Services Act entre en application ce 25 août pour les plus grandes plateformes numériques, l’association Ekō démontre que Meta ne régule pas encore correctement les contenus publicitaires contenant de la violence ou de la désinformation.
Ce 25 août, le Règlement sur les services numériques (Digital Services Act, DSA) entre en application pour les plus grandes plateformes numériques (Very large online platforms, VLOP, dans le jargon), désignées il y a pile quatre mois par la Commission européenne. Dans le lot se trouvent évidemment Facebook et Instagram, dans la mesure où chacun engrangeait 304 millions et 281 millions d’utilisateurs en Europe fin 2022.
En prévision de cette évolution règlementaire, l’association Ekō a voulu vérifier s’il y avait eu des évolutions dans la gestion publicitaire des plateformes de Meta. Autrefois nommé SumOfUs, Ekō se décrit comme « une communauté de personnes engagées pour limiter le pouvoir grandissant des entreprises à travers le monde », et a travaillé sur ce projet en lien avec le réseau People Vs Big tech.
- Que change le Digital Services Act en pratique ?
- Haine en ligne : l’Arcom publie son rapport sur les actions des plateformes
L’entité a tenté de soumettre (.pdf) treize messages publicitaires entre le 4 et le 8 août, tous contenant des images créées à partir de Stable Diffusion ou Dall-E (donc des modèles d’intelligence artificielle générative). Tous contenaient aussi des propos incitant à la violence ou de la désinformation politique.
Aucune modération pour haine ou incitation à la violence
Parmi les cas testés, Ekō a soumis à la machine un message « appelant nommément à attaquer un député européen en vue à cause de ses propos sur l’immigration », censé être publié en France. Un autre, destiné à une audience allemande, appelait à « brûler des synagogues au motif de la "protection des Allemands Blancs" ». Deux autres contenaient un discours à la « Stop the Steal » (qui met en doute la validité d’une élection) en Espagne. Une dernière, à destination de la Roumanie, appelait au nettoyage ethnique des personnes LGBT.
Résultat des courses : huit ont été acceptés par le système publicitaire, cinq ont été bloqués, mais seulement « au motif qu’elles mentionnaient des élections ou des politiciens, et donc qu’elles étaient des publicités politiques », indique le rapport. Toutes contrevenaient aux propres règles de Meta en matière de discours haineux, de désinformation politique et d’incitation à la violence.
Les chercheurs d’Ekō ont suspendu chacune de leur publication avant d’aller au bout de la démarche publicitaire : personne ne les a donc vues sur Facebook ou Instagram.
Ekō demande un contrôle de la bonne application du DSA
Ekō s’inquiète de tels résultats alors que le DSA a précisément vocation à protéger les citoyens européens de divers risques systémiques. Sous ce vocable, rappelle l’association, le régulateur européen a inscrit les « risques actuels ou prévisibles » qui porteraient sur l’exercice des droits fondamentaux, la diffusion de fausses informations et de contenus illégaux, sur les processus électoraux ou encore sur la sécurité publique.
Pour l’organisation, l’expérience démontre que Meta n’a pas pris les mesures suffisantes pour appliquer ces nouvelles obligations. L’entité estime que le système de modération de l’entreprise américaine, dans la mesure où il laisse passer de telles publications violentes, « constitue un risque systémique qu’elle devra corriger en vertu des obligations du DSA ».
Ekō s’inquiète, cela dit, des méthodes de mise en application du règlement : sans contrôle, écrit-elle, la plateforme n'est « guère incitée à s'attaquer à ces risques systémiques », dans la mesure où son modèle économique « dépend de la publicité et de l'amplification de tous les types de contenus, y compris ceux qui suscitent un fort engagement, comme les discours haineux et la désinformation ».
L’entité finit donc son rapport par un plaidoyer en faveur de la mise en application effective de la réglementation. Par ailleurs, elle enjoint la Commission européenne à demander aux plateformes concernées (parmi lesquelles LinkedIn, TikTok, Twitter (X) ou encore YouTube) de publier des informations sur la manière dont elles prévoient de faire face à la désinformation et aux autres risques systémiques qui émergeront en 2024.
2024, année politique
Ekō et 55 autres ONG (dont AlgorithmWatch, EU DisinfoLab, EDRi, People vs BigTech) appellent par ailleurs la Commission européenne à utiliser ses nouveaux pouvoirs en vertu de la loi sur les services numériques pour obliger les plateformes à mettre en œuvre un certain nombre de mesures, dont :
- recruter des équipes de modération dans toutes les langues,
- payer les modérateurs un salaire décent et leur fournir un soutien psychologique,
- permettre aux chercheurs, aux médias et à la société civile de pouvoir analyser les (méta)données des contenus rétrogradés et recommandés.
Les signataires rappellent que parallèlement aux élections européennes, plus de 50 autres pays se rendront aux urnes en 2024 : « en faisant pleinement usage de ses pouvoirs, la Commission européenne a une occasion cruciale de montrer la voie à l'échelle mondiale en démontrant que les plateformes peuvent aligner leurs opérations sur la démocratie et les droits de l'homme ».