Pourquoi la justice ordonne à Twitter de révéler ses moyens de modération

Pourquoi la justice ordonne à Twitter de révéler ses moyens de modération

Reporting judiciaire

Avatar de l'auteur
Marc Rees

Publié dans

Droit

07/07/2021 8 minutes
10

Pourquoi la justice ordonne à Twitter de révéler ses moyens de modération

La justice ordonne à Twitter de révéler dans les deux mois, les moyens matériels et humains mis en œuvre pour assurer la modération des contenus haineux en France. Retour sur la décision rendue hier à la demande de plusieurs associations de lutte contre la haine en ligne.

En mai dernier, l’Union des Étudiants Juifs de France (UEJF), SOS Homophobie, J’accuse !...action internationale pour la justice (IPJ), SOS Racisme, le Mouvement contre le Racisme et pour l'Amitié entre les Peuples (MRAP) et la La Ligue Internationale Contre le Racisme et l’Antisémitisme (LICRA) assignaient Twitter France et Twitter Inc. devant le tribunal judiciaire de Paris.

Leur objectif ? Qu’un expert soit nommé pour se faire communiquer et jauger, en substance, les moyens mis en œuvre par le réseau social pour assurer les règles de modération de contenus postés par les internautes.

Cet expert aurait pour mission au surplus de « fournir au tribunal toute indication de fait ou circonstance de nature à établir la nature et l'étendue des responsabilités encourues dans le cadre de l'action en responsabilité civile » que les associations entendent possiblement engager.

L’index est pointé sur plusieurs infractions, dont l'apologie de crimes contre l'humanité, l'incitation à la haine raciale ou encore les contenus drainant de la haine à l'égard de l’orientation sexuelle des personnes. Autant de chapitres où le service en ligne est régulièrement accusé de trainer la patte.

Twitter France mise hors de cause

Dans l'ordonnance rendue hier, le tribunal judiciaire de Paris a d’abord mis hors de cause Twitter France. Cette antenne française est en effet en charge du volet commercial des activités de Twitter Inc., seule entité reconnue comme hébergeur.

Juridiquement, l’action a été initiée sur l’autel de l'article 145 du code de procédure civile. Celui-ci prévient en effet que « s'il existe un motif légitime de conserver ou d'établir avant tout procès la preuve de faits dont pourrait dépendre la solution d'un litige, les mesures d'instruction légalement admissibles peuvent être ordonnées à la demande de tout intéressé sur requête ou en référé ».

Mesures « in futurum »

L’article permet ainsi de chaluter des mesures d’instruction « in futurum », celles taillées pour permettre à une partie de peaufiner ses stratégies en préparation d’un éventuel procès. (voir cet article sur Dalloz Actualité, par exemple).

Dans leur décision, les juges rappellent un point fondamental : « la mesure sollicitée n'implique pas d'examen de la responsabilité des parties ou des chances de succès du procès susceptible d'être ultérieurement engagé ». Ce qui n’a pas empêché le MRAP de titrer que Twitter était « condamné[e] pour absence de modération de la haine "en ligne" »… De fait la réalité est donc plus nuancée. 

Dans le cas présent, poursuit l’ordonnance, « il suffit que soit constatée l'éventualité d'un procès sur un fondement juridique déterminé dont la solution peut dépendre de la mesure d'instruction sollicitée, à condition que cette mesure ne porte pas une atteinte illégitime aux droits d'autrui ».

Ils rappellent tout autant que la mesure d’instruction visée doit être « suffisamment circonscrite » dans le temps et dans son objet, proportionné, ciblée, sans être excessive. « Si le demandeur à la mesure d'instruction n'a pas à démontrer la réalité des faits qu'il allègue, il doit justifier d'éléments rendant crédibles ses suppositions, ne relevant pas de la simple hypothèse, en lien avec un litige potentiel futur dont l'objet et le fondement juridique sont suffisamment déterminés et dont la solution peut dépendre de la mesure d'instruction, la mesure demandée devant être pertinente et utile ».

Des messages signalés mais peu modérés

Pour apporter cette démonstration, les associations ont produit plusieurs éléments « établissant la réalité de nombreux messages racistes, homophobes et antisémites échangés sur le réseau d’informations Twitter avec des demandes de retrait non satisfaites promptement ».

On découvre ainsi qu’un PV de constat d’huissier a montré que sur 1 100 tweets « haineux » signalés, Twitter n’avait supprimé dans les temps que 12 % d’entre eux, quand Facebook orchestrait pour sa part 67,9 % de retrait. De même, « un huissier a constaté par procès-verbal sur la période du 20 au 23 mai 2021 que seuls 28 des 70 tweets haineux notifiés ont été retirés par Twitter au bout de 48 heures ».

Autant de « résultats désastreux d’un testing ayant démontré les manquements terribles de la plateforme dans la modération des contenus de haine », résume l’UEJF dans un communiqué

Les juges ont été convaincus par ces premiers éléments. Ils ont estimé que la mesure d’instruction sollicitée « repose sur des faits précis, objectifs et vérifiables, qui permettent de projeter un litige futur comme plausible et crédible ».

Préparer un futur procès reposant sur le droit de l'hébergement

Un litige futur ? Les associations ont sur la rampe une possible action sur le terrain de la loi sur la confiance dans l’économie numérique de 2004. Cette fameuse LCEN oblige non seulement les hébergeurs à retirer promptement les contenus manifestement illicites, mais aussi à concourir à la lutte contre une série d’infractions graves, celles qui entrent justement dans le périmètre de l’objet social des associations requérantes. Le même texte impose à chacune des sociétés concernées à «rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites ».

La décision n’a certes pas été pleinement acquise aux associations. Elle leur a refusé l’expertise judiciaire qu’elles sollicitaient au motif que l’évaluation des responsabilités encourues relève du seul pouvoir du juge. Par contre, l'ordonnance a jugé « utile et pertinente » la demande de communication de pièces destinées à connaître les moyens mis en œuvre par Twitter Inc. et ce, pour assurer ses obligations nées de la LCEN.

Dans un second temps, ces éléments permettront en effet à l’UEJF, au MRAP, la LICRA et les autres d’évaluer les chances de succès de leur éventuel procès à venir. Les juges ont d’ailleurs considéré que l’atteinte au secret des affaires était « limitée » d’autant que la loi de 2004 oblige les hébergeurs à rendre publics ces moyens de lutte contre les contenus haineux.

Les moyens que devra révéler Twitter Inc. dans les deux mois

Au final, Twitter devra donc révéler les éléments suivants, mis en œuvre entre le 18 mai 2021, date de délivrance de l’assignation, et le 6 juillet 2021, date de la décision :

  • « tout document administratif, contractuel, technique, ou commercial relatif aux moyens matériels et humains mis en œuvre dans le cadre du service Twitter pour lutter contre la diffusion des infractions d'apologie de crimes contre l'humanité, l'incitation à la haine raciale, à la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle, l'incitation à la violence, notamment l'incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine »
  • « le nombre, la localisation, la nationalité, la langue des personnes affectées au traitement des signalements provenant des utilisateurs de la plate-forme française de ses services de communication au public en ligne »
  • « le nombre de signalements provenant des utilisateurs de la plate-forme Française de ses services, en matière d'apologie des crimes contre l'humanité et d'incitation à la haine raciale, les critères et le nombre des retraits subséquents »
  • « le nombre d'informations transmises aux autorités publiques compétentes, en particulier au Parquet, en application de l'article 6-1.7 de la loi pour la confiance dans l’économie numérique (LCEN) au titre de l'apologie des crimes contre l'humanité et de l'incitation à la haine raciale »

Relevons enfin que le Digital services act, projet de règlement européen dévoilé le 15 décembre par la Commission, obligera en l'état les plateformes à publier chaque année leurs activités de modérations de contenu (ce qu’elles font peu ou prou déjà).

Le même document en préparation réclame toutefois des très grandes plateformes en ligne le déploiement de moyens nécessaires pour atténuer « les risques systémiques », et parmi eux, la diffusion des discours de haine illégaux. En l'état, « elles devraient envisager, par exemple, d’améliorer ou d’adapter la conception et le fonctionnement de leurs systèmes de modération de contenu, de recommandation algorithmique et de leurs interfaces en ligne de manière à décourager et à limiter la diffusion de contenus illicites ».

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Twitter France mise hors de cause

Mesures « in futurum »

Des messages signalés mais peu modérés

Préparer un futur procès reposant sur le droit de l'hébergement

Les moyens que devra révéler Twitter Inc. dans les deux mois

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (10)


Triste qu’ils soit nécessaire d’avoir des régiment d’associations pour lutter contre la haine. :craint:


Déjà, s’il était simple de reporter certains contenus… impossible de trouver le choix de signalement correspondant


Quand une fois j’ai reporté un compte twitter qui était vraiment cringe avec des photos d’enfants ou de pré-ado prenant des poses d’adultes avec des commentaires d’adultes dégoutants et que twitter m’a répondu que le compte ne violait absolument pas les règles j’ai juste vomi intérieurement et abandonné la plateforme.



Ca reste difficile comme tâche j’en suis conscient mais ça reste révoltant de permettre à ces contenus d’exister.


Bah tant que les enfants ne sont pas nus (et encore, même là ça pourrait théoriquement passer si la pose est “correcte”, mais en pratique ça tranche direct), c’est parfaitement légal…


Je suis sur Twitter. Il y a bon et les mauvais côté. Sur Facebook, seuls les contacts d’une personne peuvent voir ses publications, ce qui limite le risque de se prendre de la haine en pleine gueule. Sur Twitter, tout le monde peut voir les publications d’une personne, à moins qu’elle ait verrouillée son compte, ce qui n’a aucun sens sur ce réseau social. Cela laisse donc libre les haineux de s’en donner à coeur joie. Le rouleau-compresseur de haine sur Twitter suite à une publication, j’ai connu cela. Heureusement que j’ai une carapace parce que, pendant quatre jours, cela a été très compliqué….



La haine fait malheureusement partie intégrante de Twitter, qui est très mollasson pour la combattre. Comme Facebook, ce réseau social est américain et les Etats-Unis divinisent leur Premier amendement. De fait, même Twitter.fr applique quasiment à la lettre cet amendement, qui fait l’exceptionnalisme des Etats-Unis sur le sujet de la liberté d’expression, où elle est totalement décomplexée. Même la France n’arrive pas au niveau des Etats-Unis, puisque notre liberté d’expression, bien que très large, est encadrée par des lois. Chez nous, l’incitation à la haine, à la violence ou à la discrimination raciale est clairement punie par la loi. Aux Etats-Unis, c’est bien plus complexe.



Bref, la modération sur Twitter existe mais il s’agit d’une modération à l’américaine. C’est pour cela que de nombreux comptes qui, vu du regard français, devraient fermés, restent ouvert.


Le rouleau-compresseur de haine sur Twitter suite à une publication….



c.p.ça
“qu’il faut faire, 7 fois, le tour de clavier”
AV. d’appuyer sur le bouton “Envoyer” !
(peut.être, que…) ?


Twitter, c’est assez n’importe quoi, alors que FB préfère censurer trop large que pas assez.



Une fois j’ai reçu un blame de 24 heures pour avoir partagé des paroles d’une chanson d’Alestorm (un groupe de pirate metal ; la chanson « fuck you with an anchor », et des paroles plus ou moins du même style). Il était clairement mis que c’était les paroles d’une chanson et que c’était à prendre comme tel. J’avais également bien sûr pris soin de remplacer les “fuck” par des “f*”.



La team premier degré est passé par là, le tweet a été signalé, et ça a été prestement censuré (ça a pris moins de 2 heures).



Donc bon, j’ai plutôt l’impression qu’ils censurent n’importe comment et n’importe quoi plutôt que pas assez.



Dans tous les cas, ça n’enlève rien au problème : si quelque chose n’a pas été censuré suite à un signalement, alors c’est volontaire.


Sur Twitter, un des gros problèmes de modération observé est aussi celui où des victimes de harcèlement se retrouvent suspendues - pour harcèlement - quand elles s’en plaignent publiquement… un comble…



La fachosphère a commencé à apprendre à utiliser le système de modération automatique à son avantage, et on voit de plus en plus de journalistes, de militants et de chercheurs se faire suspendre…



Romaindu83 a dit:


Sur Facebook, seuls les contacts d’une personne peuvent voir ses publications




C’est faux, la personne qui poste choisit la visibilité de son post. Sinon comment les marques feraient pour communiquer de façon publique sur FB?



vizir67 a dit:


Le rouleau-compresseur de haine sur Twitter suite à une publication….



c.p.ça “qu’il faut faire, 7 fois, le tour de clavier” AV. d’appuyer sur le bouton “Envoyer” ! (peut.être, que…) ?




Ce n’est pas mon style de censurer mon franc-parler.