L’appel de Christchurch, un coup de pioche dans le vent

#Rateau
Droit 6 min
L’appel de Christchurch, un coup de pioche dans le vent
Crédits : Xavier Berne

L’appel de Christchurch a été mis en ligne sur le site de l’Élysée. Le texte lancé par la France et la Nouvelle-Zélande se réduit à une simple charte, où gouvernements et entreprises du numérique prennent une série d’engagements contre le terrorisme et l’extrémisme violent.

« Les événements de Christchurch ont démontré une nouvelle fois qu’il était urgent d’agir et de renforcer la coopération entre les nombreux acteurs ayant une influence dans ce domaine, notamment les gouvernements, la société civile et les fournisseurs de services en ligne, comme les entreprises de réseaux sociaux, afin d’éliminer les contenus terroristes et extrémistes violents en ligne ».

Ces quelques lignes introductives à l’appel prononcé hier donne le « la ». Mais un « la » timide. L’appel annoncé depuis plusieurs jours, diffusé à l'occasion des deux mois de l’attaque sanglante dans les deux mosquées de Christchurch, se traduit concrètement par une charte, gorgée d’engagements non impératifs, parfois rédigés en des termes très vagues, la plupart du temps… déjà respectés par les acteurs du numérique.

Breaking : les gouvernements promettent d'appliquer la loi

Côté gouvernement, remarquons ces déclarations de principes où la France, la Nouvelle-Zélande ou encore le Royaume-Uni promettent de « veiller à l’application efficace des lois en vigueur qui interdisent la production ou la diffusion de contenus terroristes et extrémistes violents ».

Qui aurait pu imaginer le contraire ? Par contre, rien n'est dit sur les moyens dévolus à la justice.  « Selon les chiffres publiés par Bercy à l’occasion du Grand Débat, pour 100 euros de dépense publique, la justice, service régalien par essence, est reléguée au dernier rang et ne récolte que… 40 centimes, soit 0,4 % » constatait amèrement Me Alexandre Archambault dans une tribune publiée dans nos colonnes...

À destination des médias, l'appel plaide en tout cas pour l’adoption de règles « éthiques », qui existent déjà chez les journalistes…

Plus intéressant, notons ces vœux de régulation visant les plus petits acteurs, alors que les dernières lois présentées en France ont toutes adopté un système de seuil au-delà duquel des obligations spécifiques sont prévues : actions de sensibilisation, élaboration de normes sectorielles voire mesures réglementaires.

Un point qui montre que la stratégie consistant à plaider pour un déport des utilisateurs vers des solutions décentralisées, afin d’échapper à l’hégémonie des « GAFAM » et aux mesures de censures légales, ne sera que d’un intérêt temporaire et fragile. 

Remarquons également l'absence des États-Unis qui n'ont pas souhaité se joindre à ce dispositif, même s'ils partagent les objectifs. 

Chez Facebook, Twitter, Google, la promesse de mesures qui existent déjà

Du côté des fournisseurs de services en ligne, les plateformes comme Facebook, YouTube ou Twitter promettent des « mesures particulières et transparentes permettant de prévenir le téléchargement de contenus terroristes et extrémistes », avec retrait immédiat et permanent. Un système qui implique nécessairement des mesures d’identification par empreintes, avant éventuel filtrage. 

Dans l’appel, ces sociétés privées annoncent également vouloir fermer les comptes « lorsque c’est nécessaire » ou de modérer les contenus. Aucune nouveauté sur ce point, sachant toutefois que les conditions générales de Facebook optent désormais pour un système de tolérance zéro, du moins s’agissant des infractions les plus graves aux CGU, avec suspension durant une trentaine de jours de l’internaute. 

Une attention toute particulière vise les algorithmes, qui peuvent par leurs effets de bord, amplifier les contenus terroristes ou extrémistes et favoriser leur viralité.  L’appel suggère quelques ajustements dans ces tréfonds afin de « détourner les utilisateurs de ces contenus », outre « la promotion de discours crédibles et positifs contradictoires ou offrant une alternative ».

Le texte place des bornes néanmoins, à savoir la protection des secrets commerciaux. Une contrariété manifeste avec le rapport présenté en France la semaine dernière qui imaginait la possibilité pour une autorité administrative indépendante d’avoir accès aux algorithmes des plateformes.

Au final, gouvernements et plateformes promettent en chœur d’« œuvrer avec la société civile afin de promouvoir des actions locales pour lutter contre l’extrémisme violent sous toutes ses formes, notamment par l’élaboration et la promotion de discours alternatifs et de contremessages positifs ». S’y ajoutent les vœux de « bonnes pratiques », de meilleures collaborations avec les services d’enquêtes dans le respect des textes fondamentaux, l’adoption de protocoles de crises pour partager les informations. Une pluie de best effort.

Au même moment au G7...

Hier, une réunion informelle des ministres du numérique du G7. Les propos ont beaucoup moins la saveur du vent. Les pays membres, dont la France, vont élaborer « des pistes de travail et des actions » afin d’améliorer « l’efficacité et la transparence des pratiques de modération des grandes plateformes ». Audit, meilleure coopération avec les gouvernements, les sociétés du numérique doivent s’attendre à quelques initiatives législatives en la matière, nettement plus rugueuses que celles chantées dans la charte.

Dans un communiqué commun, Amazon, Google, Microsoft Facebook et Twitter annoncent prendre, en plus de l’appel de Christchurch, neuf engagements, aussi rutilant qu’un Minitel sorti du carton.

Par exemple, ils promettent « de mettre à jour [leurs] conditions d'utilisation, normes communautaires, codes de conduite, ainsi que les politiques pour interdire expressément la distribution de contenus extrémistes violents ». La mesure ne mange pas de pain, même pas une miette, puisque leurs CGU interdisent depuis des années de tels comportements.

Autre annonce : un système de signalement simplifié pour alerter de la présence de ces contenus. Là encore, aucune nouveauté, puisque cette annonce n’est qu’une récidive de ce qui a été déjà promis tant de fois par le passé.

Plus intéressant, ils s’engagent à améliorer leurs technologies (intelligence artificielle et empreintes numériques) afin d’aiguiser la détection des photos, textes, vidéos illicites. Dès hier, Facebook a annoncé sur ce terrain une collaboration avec trois universités américaines pour faciliter la reconnaissance des vidéos retirées qui seraient remises en ligne sous un format ou un angle différent (résolution modifiée, son accéléré ou ralenti, recadrage, etc.)

S’agissant des flux en streaming et live, les contrôles vont se démultiplier avec une meilleure prise en compte des « scores » sociaux de chaque compte.

Le chantier est ici immense. Il suffit de se souvenir qu’un million et quelques de vidéos de la tuerie de Christchurch avaient été retirées à tour de bras par Facebook, témoignage de la difficulté de traiter à la racine cette viralité.

Une vaine guerre technologique 

Hier, le directeur général de Facebook France, en plateau chez FranceInfo, a assuré malgré tout qu’avec les nouvelles règles de diffusion des vidéos, le tueur « n'aurait pas pu utiliser le Live ». 

Les mesures annoncées auront beau s’amonceler, il sera toujours impossible d’empêcher une mise en ligne par une détection précoce au plus près de l’intentionnalité. Penser que les intermédiaires techniques pourront prévenir à coup sûr ces propagations reviendrait à croire qu’une chaîne de télévision, une radio et le CSA pourraient éviter les diffamations, violences ou propos homophobes proférés en direct.

Un tel traitement est impossible, même sur ces flux largement moindres que l’océan Facebook, YouTube ou Twitter. Si des traitements automatisés peuvent détecter une nudité (se souvenir de la censure de l’Origine du Monde par Facebook), ces armes technologiques ne peuvent prévenir tous les phénomènes de violence.  

D’ailleurs, pas plus tard que le lundi 13 mai, en Malaisie, une adolescente de 16 ans s’est suicidée. Davia Emelia avait publié un sondage sur Instagram, propriété de Facebook depuis 2012, où elle demandait à sa communauté de choisir entre sa vie et sa mort.

Alors que le réseau social a multiplié là aussi les outils pour prévenir le suicide, les votes se sont massivement orientés en faveur de sa suppression (69 % pour). La jeune fille est passée à l’acte. Elle avait préalablement publié sur Facebook ce funeste message : « WANNA QUIT (MY) F*CKING LIFE, I’M TIRED. »

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !