Pour lutter contre les vidéos complotistes, YouTube affichera bientôt des extraits de Wikipédia associées à certains sujets. Pour Christophe Henner de Wikimedia, l'encyclopédie doit devenir une plateforme au contenu exportable, mieux financée par les services qui l'utilisent, alors que les géants du Net prennent conscience de leur rôle social.
Le 13 mars, lors d'un entretien au festival SXSW d'Austin, Susan Wojcicki a annoncé l'intégration d'extraits de Wikipédia sous certaines vidéos conspirationnistes sur YouTube. La directrice générale de la plateforme vidéo promet cet ajout dans les semaines à venir. Les sujets concernés sont tirés d'une liste préétablie, que YouTube recoupe avec ceux les plus traités par les vidéastes. Parmi eux, les premiers pas de l'Homme sur la lune ou les chemtrails.
Dans un communiqué, la fondation Wikimedia déclare ne pas avoir été prévenue de ce choix. Elle estime que Wikipédia est « une part essentielle de l'infrastructure d'Internet » qu'il s'agit aussi de financer à hauteur de son utilisation. S'adresse-t-elle à Google ?
« Il est plutôt dans les bons élèves de la classe. Entre le Summer of Code, les hackatons, les événements techniques qu'ils financent, en plus de bourses... Google contribue déjà en partie à l'écosystème Wikipédia » nous répond Christophe Henner, le président de la fondation. Avec lui, nous revenons sur cette annonce et le contrôle que Wikipédia peut exercer sur ces réutilisations de son contenu.
Wikipédia : passer d'un site à une plateforme
Selon le président de la fondation, il n'est jamais agréable d'apprendre une telle opération par voie de presse, surtout que Wikimedia collabore bien avec Google d'habitude. Ils ont pris contact à ce sujet depuis, d'abord pour comprendre pourquoi l'organisation n'a pas été associée. Ce n'est pourtant pas une surprise : selon Christophe Henner, Wikimedia est rarement prévenu de l'intégration de Wikipédia dans un produit commercial... et l'encyclopédie rarement rétribuée.
« On a mentionné le financement dans le communiqué parce qu'on veut rendre les données de Wikipédia utilisables par tous. Elles sont utilisées en dehors, par Alexa et Siri par exemple, qui reposent beaucoup sur notre infrastructure, sans contribuer comme Google à ce bien commun » regrette Henner. Il demande au moins une mention de l'encyclopédie et de la possibilité de contribuer, après les réponses de ces assistants vocaux.
Wikipédia n'a donc pas d'opposition de principe à ces intégrations. « En tant que tel, ça ne nous gêne pas plus que ça. Dans notre stratégie, on veut faire évoluer Wikipédia sur du "knowledge as a service", soit devenir une plateforme. C'est ce que nous initions avec Wikidata et d'autres projets, pour une plus grande réutilisation des contenus de Wikipédia » note le responsable.
Cette vision ne serait poussée que depuis trois à quatre mois. Ce serait le moyen de cadrer ces reprises de contenus, pour que l'encyclopédie en profite plus directement. Vis-à-vis de YouTube, Wikipédia n'a aucun contrôle : ni sur le champ des vidéos concernées par l'opération, ni sur l'authenticité de la reprise. « Le Knowledge Graph [de Google] a déjà repris un contenu pendant qu'une erreur était en ligne. Elle a été corrigée dans les cinq minutes sur Wikipédia, mais est restée en ligne dans le Knowledge Graph » note par exemple notre interlocuteur, qui juge ces cas anecdotiques.
Entre liberté d'expression et contrôle des contenus
En utilisant une liste de complots et les données de Wikipédia, YouTube tente de maintenir une apparence de neutralité. Comme Facebook, la société assure ne pas vouloir devenir une arbitre de la vérité. Quand Facebook choisit des médias partenaires (rémunérés) pour vérifier les informations, la plateforme vidéo a préféré une encyclopédie libre.
Au fond, l'encyclopédie ne sert-elle pas d'alibi à une plateforme privée ? « Il faut remettre l'annonce dans le contexte américain. Le Premier Amendement de leur constitution garantit la liberté d'expression. Légalement, rien n'empêche personne de faire de la "fake news", de la théorie du complot... contrairement à la France où la liberté d'expression est encadrée » explique Christophe Henner. YouTube est donc tenu de respecter ce droit.
Pour le président de Wikimedia, Wikipédia est sûrement le plus ancien organe de fact-checking du Net. « Même si c'est collaboratif, avec des erreurs, c'est la plus grande base de données d'informations recoupées en ligne » remarque-t-il. Dans le cadre américain, renvoyer vers Wikipédia est donc une solution acceptable. D'autant que l'approche encyclopédique faciliterait les changements d'opinions sur un sujet. « On ne donne pas de la vérité mais de l'information aux gens. »
L'action de YouTube, après plus d'un an de pression publique sur la désinformation en ligne, est tout de même une action à portée politique. « Les acteurs technologiques s'interrogent sur leur responsabilité. Ce sont des entreprises jeunes, sur une plateforme technologique pas si vieille. Que ce soit nous ou Facebook, avoir des centaines de millions de personnes regroupées à un endroit pose des questions nouvelles » pense encore Henner. Wikipédia a pris tôt le parti de l'inclusion et de la possibilité pour chaque internaute de participer, dans un cadre défini. « C'est facile pour une ONG, mais plus compliqué et disruptif pour une entreprise. »
Hébergeur un jour, hébergeur toujours ?
Comme toute grande plateforme, YouTube tient plus que tout à son statut d'hébergeur, qui lui évite tout contrôle et blocage des contenus en amont. La société, que ce soit en France ou outre-Atlantique, n'est tenue que de répondre rapidement aux signalements d'internautes ou d'acteurs tiers, comme les ayants droit.
Or, le tri et la mise en avant de contenu, c'est-à-dire l'éditorialisation, peuvent en théorie le faire basculer dans la catégorie des éditeurs. Là, la plateforme vidéo devrait mener un contrôle strict des très nombreux contenus qui s'empilent chaque jour sur ses serveurs. Aujourd'hui, YouTube s'autorise « seulement » à ne pas recommander ou démonétiser des contenus qui enfreignent ses règles, voire à rompre ses contrats avec des auteurs de contenus polémiques (comme PewDiePie ou Logan Paul).
En parallèle, la société est critiquée sur ses recommandations, qui privilégient les contenus similaires. Une vidéo complotiste mènerait ainsi facilement à une autre, et ainsi de suite. À SXSW, Susan Wojcicki a reconnu une « opportunité » d'amélioration sur la question, pour appuyer plus fortement la diversité des vidéos suggérées, un critère déjà pris en compte. Selon elle, la question serait particulièrement sensible sur les sujets politiques et d'actualité.
Au fond, est-ce aux plateformes de lutter contre certains comportements en ligne ? Pour Christophe Henner, au-delà de l'enjeu philosophique, c'est une question pragmatique. « En tant qu'organisation privée, nous pensons avoir cette responsabilité. Si on attendait cette démarche d'États, ce ne serait pas à un seul État de l'avoir mais plus de 200. C'est un choix politique, dans le sens "Vie de la cité" » argue-t-il.
« Wikimedia a un énorme projet sur les comportements toxiques. Jusqu'ici, on se sentait un peu seuls. Quand Twitter annonce qu'il compte parier plus fortement sur l'identification et une démarche plus volontariste, cela montre que le combat avance ».