Peu d’éléments relatifs aux réseaux sociaux ont été rendus publics dans le rapport du comité de la Chambre des représentants américains en charge d’enquêter sur l’attaque du Capitole. Pourtant, leur travail révèle des dysfonctionnements graves et récurrents.
À la suite de l’attaque du Capitole par des membres de l’alt-right américaine, le 6 janvier 2021, la Chambre des représentants du Congrès américain a chargé un comité bipartisan d’enquêter sur les actes et décisions qui ont permis aux événements de se dérouler. Au cours de l’enquête, plusieurs personnes ont juré sous serment que Donald Trump avait conscience d’avoir perdu les élections. Les membres du comité ont aussi réfléchi, très vite, au rôle des plateformes numériques dans l’ « inflammation du discours politique ».
En décembre 2022, le comité a finalement voté de manière unanime pour renvoyer Trump devant le département de Justice. Il a aussi publié son rapport d’enquête, qui s’est avéré, lui, plus surprenant : si le document fait plus de 800 pages, il a plutôt tendance à épargner les réseaux sociaux et à ne fournir que des recommandations relativement vagues. Le comité aurait préféré renoncer à s’engager dans une bataille publique avec les géants de la tech, selon plusieurs sources du Washington Post.
Le média américain a tout de même obtenu le document résumant les conclusions de l’enquête menées sur le rôle des acteurs numérique, un mémo long de 122 pages. Celui-ci souligne clairement que « les entreprises de réseaux sociaux possèdent et tirent profit des services qu’elles fournissent aux utilisateurs. (…) Elles ont une obligation éthique d’empêcher que ces services soient utilisés pour commettre des crimes, orchestrer de la violence ou contribuer d’autres manières à des violences hors ligne. »
Si le rapport final de la Chambre des représentants ne produit qu’une version très expurgée de ces travaux, ce mémo fournit des informations éloquentes sur l’état des débats politiques en ligne aux États-Unis et ailleurs dans le monde. Après tout, ce sont peu ou prou les mêmes plateformes qui ont permis aux pro-Bolsonaro de s’organiser pour envahir la place des Trois-Pouvoirs, à Brasília, le 8 janvier 2023, et contester l’élection du Président Lula à la tête du Brésil.
Le mémo permet, aussi, d’étudier clairement certaines logiques proprement numériques de radicalisation.
Des problèmes de modération plus que d’algorithmes
Avant de plonger dans le rapport, il faut rappeler que les appels à rejeter les résultats des élections américaines et à attaquer le Capitole ont eu lieu après quatre ans d’un usage aussi débridé que politisé des réseaux sociaux par l’ex-président américain et ses soutiens. Des hackers ont accédé aux emails du parti démocrate pendant la campagne électorale de 2016 et les ont fait fuiter, des trolls russes se sont fait passer pour des Américains et ont diffusé de la désinformation sur Facebook et Twitter, Donald Trump lui-même est un maître de la provocation et du buzz à tendance violente… Quant aux Républicains, ils sont longtemps restés persuadés que les plateformes sociales présentaient un biais en faveur des Démocrates (biais qui, dans le cas de Twitter, s’est plutôt avéré être en leur faveur selon une étude menée par les propres équipes de la plateforme).
Le comité d’enquête s’est penché sur les décisions prises au sein d’une quinzaine de plateformes de toutes tailles, de Facebook à Twitch en passant par Parler ou 4Chan. Son premier constat est clair : le problème n’est pas tellement que les algorithmes présentent des biais. Il est plutôt que ces réseaux ont des politiques de sécurité trop laxistes et/ou qu'ils ne les font que très peu respecter.
Les auteurs du mémo soulignent aussi très vite la nature multicanal des débats et de l’organisation des militants : si un forum comme r/The_Donald a permis de s’échanger des mèmes et de promouvoir violence et discours de haine, les utilisateurs ont facilement émigré vers le site TheDonald.win lorsque les règles de communauté de Reddit sont devenues trop restrictives à leur goût, ou vers 4chan, 8kun, ou les nouveaux services de l’époque Gab et Parler.
Ces lieux numériques, qui utilisent la « couverture de la liberté d’expression » pour rester quasiment vierges de règles d’usages, sont devenus « des espaces où les néo-nazis et les suprémacistes blancs pouvaient se mélanger numériquement avec des membres de milices, des activistes d’extrême-droite et des internautes curieux – en particulier des jeunes ».
Pour autant, la somme des témoignages et des documents collectés par le comité d’enquête démontre que ces logiques ne se sont pas cantonnées à des plateformes méconnues du grand public. Sur Facebook, en particulier, les documents internes révélés par la lanceuse d’alerte Frances Haugen ont permis de retracer la manière dont des militants s’étaient coordonnés pour pousser la discussion « Stop the Steal » – beaucoup l’ont fait en multipliant les comptes, une violation directe des conditions d’utilisation de la plateforme.
Les auteurs du mémo soulignent aussi combien, « pendant au moins les deux ans précédant les élections, des dirigeants de Facebook sont intervenus et ont créé des exceptions à leurs propres règles pour d’importants partisans conservateurs présents sur leur plateforme, Président Trump compris ». Surpris par les explosions de violence en cours dans les groupes Facebook, ils n’ont réagi que trop tardivement. Plusieurs plateformes ont d'ailleurs fait évoluer leurs règles pour ne pas avoir à pénaliser les conservateurs, d’autres n’ont pas osé ralentir le mouvement « Stop the Steal », même après que des militants de l’alt-right américaine ont envahi le capitole. Les auteurs du mémo notent que les accusations de biais formulées par le camp conservateur ont très certainement joué (entre autres raisons) dans le manque de modération des plus grands acteurs numériques.
Une propagation des discours de haine clairement visible
Certains « cas pratiques » permettent de retracer très précisément comment les discours de haine se propagent d’un bout à l’autre d’internet. Quelques heures après que Donald Trump a publié un tweet déclarant que le 6 janvier serait « fou » ou « sauvage » (wild), par exemple, le 19 décembre 2020, Discord a dû fermer un serveur de discussion parce que des utilisateurs s’en servaient pour organiser comment amener des armes à feu à Washington.
YouTube a aussi eu un grand rôle à jouer, estiment les enquêteurs, ne bannissant pas les affirmations de fraudes électorales avant le 9 décembre. Propriété de Google, le réseau se défend en déclarant avoir appliqué ses politiques de régulations, mais les auteurs du rapport estiment que lesdites politiques, assez légères, ont tout de même permis à la plateforme de devenir un « dépôt de fausses déclarations de fraude électorales ». Cela signifie que, même si ces théories ne sont pas recommandées par ses algorithmes, les contenus partagés sur YouTube pouvaient ensuite être diffusés partout sur internet.
Des plateformes moins grand public, comme Reddit, sont aussi critiquées. Cette dernière a été bien trop lente à supprimer le forum r/The-Donald selon les enquêteurs, étant donné que ses modérateurs y publiaient ouvertement de la publicité pour le site TheDonald.win, qui proposait des publications violentes en amont du 6 janvier. Enfin, note le rapport, très peu ont suffisamment alerté les forces de l’ordre sur ce qu’elles pouvaient observer au sein de leurs services.
Chez Twitter, l’alerte sonnée en vain
Le cas de Twitter prend une couleur particulière, alors que le réseau vient d’être repris en main par un Elon Musk persuadé de la présence d’un biais du réseau en faveur du camp démocrate. C’est au nom de ce prétendu déséquilibre que l’entrepreneur a fait publier une série de documents qu’il a intitulée les « Twitter Files » – des documents dont la valeur scandaleuse est toute relative, souligne cette enquête conjointe de The Verge et The New York Magazine.
En l’occurrence, le mémo de la Chambre des représentants constate plutôt un traitement de faveur à l’endroit de Trump. Les dispositifs techniques à destination des équipes ont aussi franchement laissé à désirer. Des employés de Twitter ont ainsi témoigné ne même pas pouvoir voir les tweets de l’ancien Président américain dans Profile Viewer, leur outil de modération, ce qui les empêchait de voir ce que leurs collègues avaient pu noter et décider dans le passé, malgré les 88 millions de followers du personnage. Ils en ont été réduits à créer un Google doc pour suivre les prises de parole de Trump en temps réel.
Autre cas : celui de cette employée ayant longtemps travaillé pour l’équipe de sécurité de Twitter, Anika Collier Navarolli. En audition et auprès du Washington Post, elle a expliqué avoir sonné l’alarme au sujet de tweets appelant à la violence dès les semaines après l’élection de novembre. Au 19 décembre, elle et ses équipes alertaient sur la focalisation des appels à la violence sur la date du 6 janvier 2021. Au 29 décembre, elles s’inquiétaient du manque de plan de réponse coordonnée de Twitter. Le 6 janvier, cette experte des règles de modération explique avoir dû entrer elle-même le hashtag #ExecuteMikePence dans la barre de recherche de Twitter pour pouvoir suivre l’évolution de cette menace, puis copier chaque tweet répréhensible à la main dans l’outil d’alerte de l’entreprise.
L’ancienne directrice du pôle confiance et sécurité de Twitter, Del Harvey, a aussi été décrite par ses collègues comme centrale dans les décisions prises. Lorsque Collier Navarolli lui a demandé de restreindre les tweets #LockedandLoaded, utilisé par des personnes armées en marche vers le Capitole, Harvey a répondu que le hashtag pouvait être utilisé pour des raisons d’autodéfense, donc devait rester visible. De façon inexplicable, elle n'a jamais été entendue par le comité d'enquête.
La grande majorité de ces équipes ont été licenciées par Musk, provoquant une explosion des messages haineux sur Twitter.
L’inaction des réseaux sociaux, facteur direct de l’amplification de l’extrémisme
« Les contenus extrémistes se retrouvent dans tous les coins du web : dans des forums, sur des sites web statiques, des réseaux sociaux, des services de streaming, de chat en direct, de jeux vidéo, sur des applications de communication chiffrées » ont souligné auprès du comité Heather Williams et Alexandra Evans, deux expertes des discours violents en ligne.
Les conclusions du mémo sont claires : la somme des manques de réponse de chacune des plateformes étudiées a aidé ces discours à sortir des franges reculées d’internet pour s’amplifier, se relier, s’organiser… Elles ont aussi bien permis aux groupes les plus extrêmes de se réunir en et hors ligne, qu’aux politiciens de droite et d’extrême-droite les plus mainstream d’attiser les tensions.
Finalement, la violence ainsi décuplée a participé à paralyser les équipes exécutives et de modération des différentes plateformes, terrifiées par l’éventuel retour de bâton politique que toute suspension de compte pourrait entraîner. Ceci a permis aux discours violents de continuer à se développer… jusqu’à prendre une forme très réelle hors ligne.