Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France

Liberté d'expression et justice privée
Droit 6 min
[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France
Crédits : Richard Villalonundefined undefined/iStock

Tech In France, par la voix de son délégué général Loic Rivière, revient sur les inquiétudes soulevées par la proposition de loi contre la cyberhaine. Comme l’Asic et Syntec Numerique, ce représentant des acteurs du numérique craint des atteintes à la liberté d’expression et d’information.

La proposition de loi Avia entamera son examen en séance aujourd’hui à 15h à l’Assemblée nationale. Deux piliers dans ce dispositif. Le premier, une vaste liste de contenus illicites que devront supprimer les plateformes en 24 heures, sous peine d’amende pénale pouvant atteindre 1,25 millions d’euros. Sont concernés Twitter, Facebook, Dailymotion, YouTube, mais également les moteurs de recherches, notamment. 

Le second, des pouvoirs étendus au profit du CSA qui va devenir leur régulateur. L'autorité administrative pourra même leur infliger des sanctions d’un montant maximum de 4 % de leur chiffre d’affaires mondial en cas de mauvaise coopération, en particulier si ces intermédiaires n'appliquent pas à la lettre ses recommandations. 

Hier, Tech In France, association représentant 400 entreprises du secteur du numérique, a cosigné un appel avec l’Asic et Syntec Numérique pour exprimer ses inquiétudes. Loïc Rivière, son délégué général, nous en explique les raisons. 

Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?

Nous n’avons aucune opposition de principe, bien au contraire, sur le fait qu’un texte législatif organise un nouveau dispositif de protection des victimes de la haine en ligne. Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave.

En revanche, l’accueil est bien plus frileux au regard des dernières évolutions du texte. Elles en changent complètement la perspective et la portée. D’un texte spécial initialement centré sur la haine en ligne, on aboutit à une proposition de loi de portée beaucoup plus générale.

Que visez-vous en particulier ?

Le périmètre de départ, notamment couplé à ce retrait en 24 heures, innovation majeure de ce texte, a été considérablement élargi en commission des lois en se référant à la LCEN.

Nous sommes passés d’un texte qui visait spécifiquement la cyberhaine – un registre où on peut identifier les victimes, les coupables, dans un univers sémantique relativement défini qui sécurisait en partie les plateformes – à des éléments qui relèvent davantage de la morale publique, des mœurs, de conceptions de la société.

Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.

Quand on cumule ce périmètre étendu à des questions relevant de la morale publique, le retrait en 24 heures, le fait que les moteurs de recherche, qui sont le visage public d’internet, soient intégrés… tout cela fait peser un risque sur la liberté d’expression et d’information, en confiant des responsabilités exorbitantes aux plateformes.

Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?

On peut le craindre en effet. Les plateformes risquent de se retrouver prises dans un étau. D’un côté, la menace de sanctions considérables si elles n’assument pas efficacement ces nouvelles responsabilités. Et de l’autre, la tentation d’appliquer un principe de précaution de retrait sur un certain nombre de contenus dont elles pourraient craindre qu’ils ne soient in fine qualifiés de manifestement illicites et qu’il leur soit donc reproché de ne pas l’avoir retiré.

La viabilité de ce texte ne repose que sur un équilibre fin, un compromis juste entre les responsabilités nouvelles qu’on confie à ces plateformes et les capacités qu’elles auront à les assumer. En étendant considérablement le périmètre, au-delà de l’objet initial de la loi, qui je le rappelle justifiait un régime spécial de retrait, on crée de facto une disproportion entre ces responsabilités et les moyens de les assumer.

Un exemple concret : avec la définition retenue de la « plateforme » et le périmètre nouvellement étendu, des sites spécialisés dans la haine en ligne, qui ont aujourd’hui pignon sur Web, vont probablement ne pas rentrer dans le périmètre parce qu’ils n’atteindront pas le seuil de connexions défini, ou encore parce qu’ils ne pourront être qualités de « plateformes » au regard de la définition posée.

En revanche, les sites pornographiques, qui eux sont des plateformes dont le succès ne s’est pas démenti à travers l’histoire…entreront de facto dans la catégorie couverte. On peut tout à fait imaginer que des associations, pour des raisons de conception de la morale publique qui est la leur, demandent leur interdiction et déréférencement au motif que leur accès est trop aisé pour certains publics.

On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…

Ce n’est pas seulement une question quantitative, et c’est pour cela que les plateformes demandent à être accompagnées. Plus on va du manifestement illicite vers l’illicite, ou vers des contenus qui relèvent d’autre chose que de la haine en ligne, c’est-à-dire de la morale publique, plus cela exige une appréciation qualitative fine et avertie du sujet.

Cette approche exigera une capacité d’appréciation qui dépasse celles d’un algorithme, voire d’un modérateur parfaitement formé, pour déboucher sur une décision rapide de retrait.

Laetitia Avia nous répondrait à juste titre que dans un tel cadre, nous ne serions pas dans le manifestement illicite et donc dans le cadre de la loi…Mais que dira le juge a posteriori ? Comment se fera le tri dans le traitement massif de données ?

A-t-on une idée des coûts que génère une telle proposition de loi ?

Non, car les situations vont être différentes d’une plateforme à l’autre. Dans leur obligation de moyens, celles-ci devront documenter les investissements consentis pour faire face au sujet. Il est évidemment normal dans le cadre de nouvelles responsabilités que ces entreprises consacrent les ressources nécessaires.

Néanmoins, elles seront loin d’être en capacité de résoudre tous les problèmes. En raison de ses subtilités, la langue française est plus complexe que d’autres à entrer dans les canons de la traduction automatique, de l’intelligence artificielle. On sait aussi très bien qu’il est difficile pour un algorithme ou un modérateur de faire la différence rapidement entre un commentaire qui relève de la haine et celui évidemment critique de cette haine en ligne. Il y aura donc une phase d’apprentissage qui doit être accompagnée.

Nous attendons aussi un investissement des pouvoirs publics. La problématique du RGPD, qui a créé de nouvelles obligations, ne s’est pas traduite par une augmentation des moyens de la CNIL. Elle s’en est plainte à plusieurs reprises. Nous ne voudrions pas que les pouvoirs publics n’investissent pas eux aussi pour renforcer les compétences et moyens humains des régulateurs amenés à traiter de ces sujets, en l’occurrence le CSA.

Que plaidez-vous finalement ?

Pour satisfaire l’objectif initial du texte auquel nous souscrivons pleinement, nous plaidons pour un resserrement du périmètre de ce qui relève vraiment de la haine en ligne. Certaines choses n’ont en fait rien à faire dans ce texte.

Nous avons adressé également des commentaires visant les sanctions. On va faire peser une épée de Damoclès s’agissant de l’obligation de moyens (une sanction de 4 % du chiffre d’affaires mondial, décidée par le CSA). Or, y a-t-il un lien entre le chiffre d’affaires mondial des entreprises et le fait qu’elles aient mal assumé la responsabilité qu’on attendait d’elles en matière de régulation des contenus qui puisse fonder cette évaluation de la sanction ?

Enfin, au vu des effets collatéraux potentiels sur la liberté d’expression et le droit à information, autant d’éléments du bloc de constitutionnalité, il nous paraitrait de bon aloi que le gouvernement saisisse le Conseil constitutionnel, une fois le texte adopté. 

19 commentaires
Avatar de crocodudule INpactien
Avatar de crocodudulecrocodudule- 03/07/19 à 10:38:33

Curieux qu'eux-mêmes affirment une telle contrevérité : "Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave".

La mécanique de responsabilité existe et permet d'aller jusqu’au déréférencement et le blocage de site si on ne peut pas sanctionner l'auteur (cf. par exemple:https://www.nextinpact.com/news/107348-le-jugement-blocage-site-raciste-et-homop... )

S'il y a un reproche qui peut être fait, c'est le temps nécessaire pour arriver à une telle décision de condamnation, mais le régime de responsabilité n'est pas en cause.

Le problème vient des moyens laissés à la Justice pour trancher l'affaire, de sorte qu'il n'est pas rare que l'avocat se coltine un maximum d'actes (constat en ligne demandé à l'huissier, ordonnance autorisant ce dernier à entrer dans tel lieu pour récupérer telle info, analyse des whois pour tenter d'identifier les responsables juridiquement etc...) en amont (ce qui a un coût pour le client) et dépose le tout avec la plainte ou la citation, sachant que les Juges ne consacreront pas tous les moyens nécessaires aux investigations, pour ne pas en disposer eux-mêmes sinon que sur le papier. (Et sans parler des procédures civiles où là le demandeur doit tout réaliser seul et donc en réalité son Conseil).

A l'inverse, élargir les cas où la plateforme doit juger de ce qui est "manifestement" illicite, fait peser une responsabilité très aléatoire sur la tête de la plateforme, délègue des pouvoirs qui ne doivent pourtant être exercés que par un Juge, et va inévitablement pousser à la censure automatique par peur de complications.

Édité par crocodudule le 03/07/2019 à 10:41
Avatar de carbier INpactien
Avatar de carbiercarbier- 03/07/19 à 10:43:33

Effectivement c'est une atteinte manifeste à la liberté d'expression pornographique :incline:

Sinon je lis avec plaisir que selon lui le traitement automatique des contenus haineux est simple à mettre en place. :chinois:

Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.

Je suis agréablement surpris de voir que le proxénétisme et la diffusion de contenus pornographiques aux mineurs ne sont plus manifestement illicites.

Avatar de crocodudule INpactien
Avatar de crocodudulecrocodudule- 03/07/19 à 10:44:59

J'ajoute que la "cour suprême" de Facebook est une illustration parfaite de la dérive que représente cette proposition de Loi.
https://www.lemonde.fr/economie/article/2019/06/27/le-vertigineux-projet-de-cour...

Édité par crocodudule le 03/07/2019 à 10:45
Avatar de carbier INpactien
Avatar de carbiercarbier- 03/07/19 à 10:48:47

crocodudule a écrit :

A l'inverse, élargir les cas où la plateforme doit juger de ce qui est "manifestement" illicite, fait peser une responsabilité très aléatoire sur la tête de la plateforme, délègue des pouvoirs qui ne doivent pourtant être exercés que par un Juge, et va inévitablement pousser à la censure automatique par peur de complications.

Petit rappel: les plateformes privées et autres réseaux sociaux sont des sociétés privées qui ne sont en rien garant de la liberté d'expression. Avant même cette loi, ces mêmes réseaux sociaux avaient d'eux même interdits et censurés certains contenus: je te laisse essayer de publier un bout de sein sur FB...
La plupart des plateformes ont déjà mis en place, sans attendre cette loi, une modération des commentaires. Soit par une équipe dédiée, soit automatiquement via certains mots clés. NXi a déjà d'ailleurs modéré de nombreux commentaires sur certaines news.

Avatar de carbier INpactien
Avatar de carbiercarbier- 03/07/19 à 10:59:20

crocodudule a écrit :

J'ajoute que la "cour suprême" de Facebook est une illustration parfaite de la dérive que représente cette proposition de Loi.
https://www.lemonde.fr/economie/article/2019/06/27/le-vertigineux-projet-de-cour...

Tu veux dire que FB va créer un cour suprême pour gérer la modération sur son site à cause d'une loi française ? :mdr2:

Comme dit dans mon commentaire précédent, FB est une entreprise privée dont le but n'est pas la liberté d'expression mais de faire du cash. Si FB prend une telle décision, c'est aussi parceque de nombreuses voix se sont élevées un peu partout suite à la dérive constatée dans les commentaires.

A chaque ado qui se suicide à cause du cyberharcèlement...
A chaque vidéo en ligne de tueries xénophobes...
A chaque fake news et autes propos haineux...
Ce sont autant de voix (et pas seulement parlementaires) qui s'élèvent pour demander à ce que cela change.

Donc si FB prend des mesures telle que celle la, ce n'est surement pas par rapport à une loi française, mais simplement pour ne pas faire fuir une partie de ses "clients" et donc continuer à générer du cash.

Avatar de bourgpat INpactien
Avatar de bourgpatbourgpat- 03/07/19 à 11:14:03

carbier - Le mercredi 3 juillet 2019 à 12:43:33#2Effectivement c'est une atteinte manifeste à la liberté d'expression pornographique :incline: 

Si tu connais un peut y peu les histoires de censures dans les œuvres littéraires pour cause de pornographie ou de licence, ce sont des sujets qui sont loin d'être manifestes au point où des œuvres jugée pornographique à leur époque sont aujourd'hui des classiques.
Rien que l'origine du monde montre que la pornographie est loin d'être manifeste puisque le tableau aurait été fait à partir d'une photo pornographique de l'époque qui s'échangée sous le manteau avec cette nouveauté qu'était la photographie. Et si le tableau est aujourd'hui exposée, cette fameuse photo serait aujourd'hui traitée comme une œuvre pornographique.
Non, même la pornographie n'est pas quelque chose de manifeste et comme le montre les différents jugements sur les deux cent dernière année ayant trait à l'édition que cela reflète les idées d'une période.
Pleins de classiques ont quitté le côté pornographique pour devenir des œuvres classique.
 &nbsphttp://www.allocine.fr/film/fichefilm_gen_cfilm=10677.html
Par exemple un film qui après avoir été classé X est devenu art et essai avec le temps même si il présente des scènes de sexe non simulées.

Avatar de spidermoon Abonné
Avatar de spidermoonspidermoon- 03/07/19 à 11:16:37

Si ça passe, les commentaires de 20mn et Le Parisien vont être ennuyeux :transpi: Ça concerne aussi les forums et les plateformes de jeux vidéos en ligne ?

Avatar de Kevsler INpactien
Avatar de KevslerKevsler- 03/07/19 à 11:37:49

« Victime de la haine » ... C'est quoi ce pays de pignoufs là ? On est pas nécessairement victime de la haine... La haine c'est une émotion, avant d'être l'expression de quoi que ce soit. On est victime d'insultes, de harcèlement, d'agression physique, de racisme, de... Oh ! Bah tiens ! C'est marrant, tout ça c'est déjà interdit et légiféré !

Édité par Kevsler le 03/07/2019 à 11:38
Avatar de Typhlos Abonné
Avatar de TyphlosTyphlos- 03/07/19 à 12:11:25

carbier a écrit :

Comme dit dans mon commentaire précédent, FB est une entreprise privée dont le but n'est pas la liberté d'expression mais de faire du cash. Si FB prend une telle décision, c'est aussi parceque de nombreuses voix se sont élevées un peu partout suite à la dérive constatée dans les commentaires.

A chaque ado qui se suicide à cause du cyberharcèlement...
A chaque vidéo en ligne de tueries xénophobes...
A chaque fake news et autes propos haineux...
Ce sont autant de voix (et pas seulement parlementaires) qui s'élèvent pour demander à ce que cela change.

Donc si FB prend des mesures telle que celle la, ce n'est surement pas par rapport à une loi française, mais simplement pour ne pas faire fuir une partie de ses "clients" et donc continuer à générer du cash.

Justement, ce qu'on est plusieurs à demander, c'est que ce ne soit pas Facebook ou Google ou tout autre compagnie privée qui décide de ce qui est légal ou pas mais bien la justice publique et qu'on arrête d'essayer de la faire sauter pour je ne sais quelles raisons.

De plus, Facebook ou Google ou autres sont quand même tenus de respecter la loi et n'ont pas, à mon avis, à avoir les pouvoirs pour décider de ce qui doit être censuré ou non. Et s'ils décident de censurer quelque chose, alors ils ne doivent plus pouvoir se réfugier derrière l'irresponsabilité technique des hébergeurs car ils outrepassent leur rôle d'hébergeur. Donc soit ils se tiennent strictement à leur rôle d'hébergeur neutre, soit ils décident de censurer, ce qui les font normalement entrer dans le rôle d'éditeur avec de nouvelles contraintes (Benjamin Bayart en avait parlé de mémoire mais je n'en suis plus certain donc possible que je dise des bêtises : pour moi un hébergeur doit se contenter d'héberger et de répondre aux demandes de la justice et n'ont pas le droit de prendre d'initiatives de ce point de vue là d'après la LCEN. S'ils le font, ils perdent normalement leur statut d'irresponsabilité donné par la LCEN. Si une personne familière avec ce volet du droit peut confirmer ou infirmer ce que je dis, je lui en serai reconnaissant), et engagent leur responsabilité à chaque fois qu'ils censurent. quelque chose.

Édité par Typhlos le 03/07/2019 à 12:13
Avatar de carbier INpactien
Avatar de carbiercarbier- 03/07/19 à 12:26:14

Typhlos a écrit :

De plus, Facebook ou Google ou autres sont quand même tenus de respecter la loi et n'ont pas, à mon avis, à avoir les pouvoirs pour décider de ce qui doit être censuré ou non.

Ah bon ? Tu veux dire que la modération n'a jamais existé et/ou ne devrait pas exister dans les sites privés comme NXi ?
Tu veux dire que des sites privés ne peuvent pas décider de ce qu'ils veulent publier sur leurs pages ? Cela serait sympa de voir des images pornos dans les commentaires de sites pour enfants :mad2:

Ce n'est pas ma faute, si les naifs ont confié les clés de leur "pseudo" liberté d'expression à des réseaux sociaux privés dont le but n'a JAMAIS été de faire dans le mécénat ou l'humanitaire.

Il n'est plus possible de commenter cette actualité.
Page 1 / 2