Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Cyberhaine : mais que prévoit la proposition de loi Avia ?

Des actus de 25K
Droit 19 min
Cyberhaine : mais que prévoit la proposition de loi Avia ?
Crédits : Assemblée nationale

Ce mercredi, peu avant 18h30, les députés ont adopté la proposition de loi contre la cyberhaine. Dans une assemblée conquise au groupe LREM, la députée n’a pas eu de grande difficulté à faire passer son texte. Next INpact vous l'explique, ligne par ligne.

La proposition de loi contre la cyberhaine avait été déposée en mars 2019. Sans surprise, c’est désormais un réflexe, le gouvernement actionnait la procédure dite accélérée afin de limiter le nombre de navettes entre Assemblée et Sénat.

Une proposition de loi, texte d’origine parlementaire, est dénuée d’étude d’impact contrairement aux projets de loi gouvernementaux. Elle se passe également de l’avis du Conseil d’État. Pour le coup, la députée LREM l’avait tout de même transmis 1, Place du Palais Royal pour solidifier juridiquement sa construction tant le sujet est sensible.

Et pour cause, lutter contre la haine en ligne, c’est inexorablement toucher à la liberté de communication, d’information et d’expression. S’il s’agit certes d’en dénoncer les abus, cela revient aussi à opposer les expressions citoyennes énervées au franchissement du seuil infractionnel. Pas simple.

Rendu en mai 2019, l’avis du Conseil d’État avait suggéré plusieurs modifications que la députée s’était empressée d’engager. Mais ce parapluie juridique ne fut pas absolu puisque la Commission européenne a malgré tout repéré de lourdes indélicatesses avec le droit européen. Et pas des moindres, comme l'existence d'un filtrage généralisé, en pleine contrariété avec la directive de 2000 sur le e-commerce (voir ces « observations », révélées dans nos colonnes). 

Le texte concentre son attention sur une loi de 2004 fondamentale. La loi sur la confiance dans l'économie numérique (LCEN). C'est elle qui orchestre la responsabilité des « hébergeurs » en opposition avec celle d’« éditeurs ». Si ces derniers contrôlent et savent ce qu’ils diffusent au plus grand nombre (un site de presse, par exemple, sait ce qu'il diffuse), l’hébergeur ne contrôle pas a priori et ne sait donc pas ce que l’internaute va transférer sur ses infrastructures.

L’article 6 de cette fameuse LCEN organise une responsabilité naturelle : un hébergeur comme YouTube ou Twitter n’est pas responsable des infractions commises par les internautes sur ses machines. Mais il le devient si, alors qu’alerté par un autre internaute par exemple, il décide de maintenir une vidéo, un texte, une photo, une musique problématique. Il sait que ce contenu est illicite, mais assume sa persistance. Et donc devient responsable comme son auteur. 

D'une suppression prompte à une suppression en 24 heures

Lorsque le Conseil constitutionnel a ausculté cette loi, il a toutefois introduit une réserve d’interprétation. Une technique juridique permettant de déclarer un texte conforme, mais seulement s’il est lu sous un angle précis.

En l’occurrence, a-t-il détaillé, l’illicéité dont il est ici question ne peut être que manifeste. On parle de « manifestement illicite ». Depuis 2004, la jurisprudence s’est longuement penchée sur cet adverbe pour aiguiser peu à peu un édifice : le droit de la responsabilité des hébergeurs techniques.

Lorsque notre intermédiaire technique est face à un contenu manifestement illicite, il doit le supprimer « promptement ». Pas dans six mois. Pas après un dixième de seconde. L’agenda de cette suppression dépend des circonstances, sous l’œil des tribunaux qui ne se gênent évidemment pas pour sanctionner celui qui aurait trop tardé à réagir.

Ce régime opère un équilibre subtil entre plusieurs plateaux : la protection du commerce électronique et de la liberté d’entreprendre, la nécessaire lutte contre les infractions et la tout aussi précieuse consécration des libertés (d’expression, d’information et de communication).

Mais entre 2004 et 2019, il y a un monde. Les réseaux sociaux ont pris l’ampleur que l’on sait, avec un rôle social fondamental, où évidemment les abus existent puisqu’ils ne sont finalement que le miroir de notre société. La proposition de loi Avia est arrivée dans ce contexte. L’idée ? Isoler une série d’infractions qui devra être retirée non « promptement » mais dans les 24 heures, et pas une seconde de plus !

Et ce texte va bien plus loin, lorsqu’on soulève son couvercle. Les députés l'ont adopté ce mercredi en nouvelle lecture (sa version PDF).  Que prévoit-il ? Sans revenir sur l’ensemble des versions, nous vous en proposons une analyse ligne par ligne qui devrait vous permettre de mieux en comprendre les rouages.

Une suppression en 1 ou 24 heures

Le blocage administratif en 1 heure des sites « pédo » et « terro »

Cette disposition de tête a été introduite par amendement gouvernemental quelques heures avant la séance. Comme un cheveu sur la soupe. Il met à jour une disposition de l'article 6-1 de la LCEN, celle instaurant le blocage administratif des sites diffusant des contenus « pédo », faisant l’apologie ou incitant au terrorisme.

Jusqu’à présent, ce blocage sans juge laissait 24 heures aux éditeurs des sites et aux hébergeurs pour supprimer le contenu signalé par la police. Le gouvernement a souhaité ramener ce délai à... 60 minutes.

Si le site ne réagit pas, il risquera une condamnation voire un blocage par les fournisseurs d’accès qui interviendront sur ordre des mêmes autorités. La mesure n’est pas neutre : d’une part, qualifier une apologie du terrorisme est parfois très complexe. De deux, le délai d’une heure impose que l’éditeur ou l’hébergeur soit accessible 24 heures sur 24 et 365 jours par an (notre actualité).

Le retrait des contenus haineux en 24 heures

« C'est le cœur du texte », comme nous le soulignait la députée Laetitia Avia. L'obligation de retrait pèse sur les plateformes et les moteurs. Autant, on voit ce qu'est un moteur, mais une plateforme ?

La notion est définie par le Code de la consommation. Ce sont tous les sites « proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue de la vente d'un bien, de la fourniture d'un service ou de l'échange ou du partage d'un contenu, d'un bien ou d'un service ».

Une définition donc très large qui englobe des pans entiers du statut de l’hébergeur ! Pour éviter de faire tomber tout le Web dans cette définition, et donc la future loi Avia, seules seront concernées les plateformes dépassant un seuil. Quel seuil ? On ne le sait pas puisqu’il sera déterminé par un décret à venir. 

Ces acteurs devront en tout cas retirer ou rendre inaccessible, dans un délai de 24 heures après réception d’une notification adressée par un ou plusieurs internautes, « tout contenu contrevenant manifestement » à une série d’infractions. La liste est (très) longue :

  • Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs
  • Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion
  • Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du Code pénal
  • Contestation de l'existence des crimes contre l'humanité, négation, minoration ou banalisation des crimes de génocides, des crimes de réduction en esclavage ou des crimes de guerre
  • Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée
  • Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap
  • Harcèlement sexuel
  • Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur ; consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs
  • Fabrication, transport, diffusion ou commerce de message pornographique susceptible d’être vu ou perçu par un mineur
  • Provocation directe à des actes de terrorisme ou apologie publique de ces actes

En clair, quand Twitter recevra une notification signalant un tweet se rattachant manifestement à l’une de ces infractions, il devra appuyer sur le bouton « Supprimer ». Et Google, Bing ou Qwant devront gommer ces mêmes contenus de la page des résultats, en réponse à une requête.

Hier, lors des débats en nouvelle lecture, les députés ont ajusté le périmètre de ces infractions. Par exemple, la version antérieure intégrait les contenus violents « susceptibles » d’être vus par les mineurs. La mention a désormais disparu.

Assemblée nationale
Crédits : Marc Rees (licence CC-BY-SA 3.0)

Les contenus devront « contrevenir manifestement » ces dispositions, disait-on. La violation devra donc être flagrante. Voilà pourquoi Laetitia Avia a dit plusieurs fois que les contenus « gris », ceux dont le statut illicite n’est donc pas aussi évident, pourront être maintenus. Seulement, séduisante sur le papier, cette présentation d’une logique implacable souffre lors du basculement dans la complexité de la réalité.

Par exemple, quand finit l’érotisme et où débute la pornographie ? Qu’est-ce qu’un contenu « susceptible d’être vu ou perçu par un mineur » ? Et l’injure envers une personne à raison du sexe ? Entre l’humour gras, celui de comptoir et la vraie injure infractionnelle, la frontière peut être floue, mais Twitter devra se débrouiller.

En cas de doute, la députée assure que la plateforme pourra toujours saisir un tribunal. Sauf qu’on imagine mal une telle procédure lorsque des milliers de notifications sont réceptionnées, au surplus au regard des moyens dévolus à la Justice. 

Lorsque de tels faits sont auscultés par un tribunal, celui-ci pèse les éléments en présence, va interpréter le droit pénal strictement et rendre une décision. Bref, rendre justice. Cette fois, Twitter, Instagram, Facebook, YouTube, Google et les autres n’auront que 24 heures pour se déterminer.

Et s’ils ne suppriment pas un contenu qui aurait dû être pulvérisé, chacun risquera 250 000 euros. Par oubli.

On comprend sans mal la crainte soulevée par la proposition de loi : par précaution, les plateformes et moteurs pourraient supprimer à tour de bras, même des contenus gris, ce pour limiter le risque de condamnation. Le texte ne prévoit pas en effet d'équivalence des formes, à savoir l'infraction pénale pour cause de retrait abusif d’un contenu qui aurait dû être maintenu.

Une mention a été toutefois ajoutée selon laquelle « le caractère intentionnel de l’infraction (…) [pourra] résulter de l’absence d’examen proportionné et nécessaire du contenu notifié ». L’infraction sera donc intentionnelle. Il faudra démontrer cette volonté, mais elle pourra être déduite de l’absence d’examen sérieux des notifications adressées par un ou plusieurs internautes. Délicat. 

Des contenus remplacés en surface, conservés en coulisse

Les acteurs qui suppriment un contenu devront remplacer ces pixels vides par « un message indiquant qu’il a été retiré ».  L'effacement ne sera que de surface. En arrière-plan, plateformes et moteurs devront conserver ces propos haineux « pendant le délai de prescription de l’action publique pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ». Cette obligation ne concernant que le message, restera à savoir si la conservation vaudra aussi pour les données de connexion qui sont en principe conservées « seulement » un an (dont l’adresse IP).

Le filtrage exigé par une décision de justice

Une disposition (que l’on retrouve déjà dans la LCEN ou dans le Code de la propriété intellectuelle) prévoit qu’un tribunal pourra prescrire en référé ou sur requête aux plateformes et moteurs « toutes mesures propres à prévenir ou faire cesser un dommage occasionné par un contenu » manifestement rattaché à la liste des infractions. 

Prévenir un dommage, c’est orchestrer un filtrage des contenus. Mais comme celui-ci sera ciblé à une expression, et sans doute sur une période limitée, il devrait passer entre les griffes de l’interdiction de la surveillance généralisée inscrite dans la directive de 2000 sur le commerce électronique.

L’intervention des associations de défense

Des associations luttant contre l’esclavage, le racisme, les discriminations, défendant les déportés, les victimes de guerre, etc. âgées d’au moins cinq ans pourront exercer les droits des victimes des infractions identifiées dans la liste noire.

Sanction des dénonciations fallacieuses

La personne qui dénoncera aux plateformes ou aux moteurs un contenu ou une activité comme étant illicite « dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion alors qu’elle sait cette information inexacte » risquera un an d’emprisonnement et 15 000 euros d’amende. Il faudra toutefois démontrer qu’elle savait l’information inexacte, ce qui ne sera pas si simple. Une infraction similaire existe déjà dans la LCEN, rédigée dans des termes similaires.

Enfin, le texte étend la liste des infractions pour lesquelles les hébergeurs « doivent concourir à la lutte contre la diffusion des infractions » en particulier en mettant en place « un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données ». Ils doivent aussi informer « promptement les autorités publiques compétentes » et rendre publics les moyens consacrés contre ces activités. Bref, les députés ont rajouté à cette liste l'incitation à la haine à l’égard des personnes à raison de leur « identité de genre ».

Le formalisme des notifications

Pour qu’un hébergeur soit en situation de connaissance quant à l’existence d’un contenu manifestement illicite, la proposition de loi Avia réécrit le formalisme attendu de ces signalements.

On se souvient que dans une version précédente, la députée avait tenté de supprimer l’obligation de préciser la localisation du contenu litigieux. Les grondements de la Commission européenne l’ont remis sur le droit chemin. Et pour cause, si la plateforme ne sait pas où est le contenu posant souci, comment peut-elle être en situation de connaissance

En substance, lorsque le notifiant sera une personne physique, il devra comme aujourd’hui préciser ses nom, prénom, adresse, électronique, etc. Il faudra aussi spécifier « les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible ». Toutefois, cette condition sera réputée satisfaite dès lors que le site dispose d’un formulaire « proposant d’indiquer la catégorie d’infraction à laquelle peut être rattaché ce contenu litigieux ».

Dans la LCEN, le notifiant doit impérativement contacter préalablement l’auteur ou l’éditeur du contenu en cause. Cette obligation disparaît pour plusieurs infractions « haineuse », afin d’éviter qu’une victime n'ait à se confronter davantage à son auteur plus qu'indélicat.

Les associations et les mineurs

Les associations dont l’objet comporte la protection des enfants, constituées depuis au moins cinq ans pourront être saisies par un mineur pour notifier une plateforme ou un moteur.

Elle devra informer ce mineur des suites et, « selon des modalités adaptées à l’intérêt de l’enfant, ses représentants légaux ». Ce dernier point a été contesté (vainement) par le député MoDem Philippe Latombe, craignant par exemple que les parents découvrent par la même occasion l’orientation sexuelle de leur adolescente. 

L’association pourra enfin contester le défaut de retrait du contenu.

Le devoir de coopération des plateformes dans la lutte contre les contenus haineux

Les articles 2 et 3 prévoient une série d’obligations de moyens que devront respecter les plateformes. Elles devront être mises en œuvre proportionnellement au regard de l’atteinte susceptible d’être portée à la dignité humaine par un contenu. La disposition fait entrer sur la scène le CSA, nouveau gendarme de la haine en ligne.

Quelles sont ces obligations ?

  • Mettre en place d’un dispositif de notification uniforme directement accessible, facile d’utilisation et en français
  • Accuser réception de toutes les notifications, sans délai
  • Informer l’auteur d’une notification des suites et des motifs de la décision dans les 24 heures
  • Mettre en œuvre les procédures et les moyens humains et, le cas échéant, technologiques proportionnés pour garantir le traitement de ces notifications, leur examen et la prévention des risques de retrait injustifié. Derrière ces moyens, se cacheront évidemment des traitements algorithmiques que devront utiliser les intermédiaires pour absorber les demandes de retrait
  • Mettre en place des recours internes, afin de permettre à l’internaute à l’origine de la publication de faire un recours contre la décision (situation qui sera généralement impossible pour les moteurs), et à l’auteur de la notification de contester le défaut de retrait
  • Fournir une information accessible sur la liste noire des infractions à retirer en 24 heures, avec les sanctions encourues y compris en cas de dénonciations fallacieuses, et enfin les recours
  • Rendre compte des moyens humains et technologies pour réguler ces contenus
  • Fournir une information spécifique pour les mineurs de moins de 15 qui voudraient s’inscrire à leur service.
  • Informer « promptement » les autorités publiques compétentes des activités ayant justifié un retrait en moins de 24 heures
  • Désigner un représentant légal en France. Il sera chargé de recevoir les demandes de la justice ou du CSA
  • Rédiger clairement leurs CGU

Last but not least, les opérateurs devront se conformer aux délibérations prises par le Conseil supérieur de l’audiovisuel (et demain l’Arcom) pour fixer les règles permettant d’assurer le respect de toutes ces obligations. C’est donc cette autorité qui fixera le cap structurel de la régulation.

Sanction en hausse dans la LCEN

La violation de la disposition phare de la LCEN sur la responsabilité des intermédiaires est aujourd’hui sanctionnée à hauteur de 75 000 euros. Demain, le montant sera de 250 000 euros pour les personnes physiques. Et 1,25 million d’euros pour les personnes morales. Montant décidé par un tribunal.

Rôle du CSA dans la lutte contre les contenus haineux en ligne

Le rôle du CSA dans l’application des obligations précitées est consacré. Dans une logique de proportionnalité, il ne pourra faire peser les mêmes contraintes sur les opérateurs. Il prendra en compte « la pluralité des modèles (…) et l’adéquation des moyens mis en œuvre par chacun d’eux à la lutte contre la diffusion de contenus haineux en ligne ».

En somme, celui qui traine la patte devra s’attendre à une attention plus soutenue. Il examinera le suivi des obligations et dressera un bilan applicatif chaque année. Le rapport sera publié. Il pourra recueillir auprès des opérateurs « toutes les informations nécessaires au contrôle des obligations ».

L’opérateur qui ne satisferait pas l’une d’elles pourra être mis en demeure. Les surcensures (les retraits excessifs) pourront peser dans l’appréciation du CSA lorsqu’il grondera la plateforme sur les moyens humains et technologiques déployés.

Celui qui ne se conforme pas à une mise en demeure risquera jusqu’à 20 millions d’euros ou une amende de 4 % du chiffre d'affaires mondial. Bien entendu, cette amende administrative, prévue dans le cadre d’une obligation de moyen, devra être proportionnée et donc dépendre de la part de marché occupée en France. Le Conseil supérieur de l’audiovisuel pourra rendre publiques ces mises en demeure et les sanctions.

Les encouragements du CSA

Un volet « encouragement » et donc d'accompagnement est aussi attendu du Conseil. Partage d’information dans un format ouvert entre les opérateurs, mise en œuvre d’outils permettant de stopper la viralité d’un contenu manifestement haineux… Les plateformes et les moteurs pourront ignorer ces suggestions comme les respecter religieusement.

Pour l'accomplissement de ses missions, le CSA pourra en tout cas recueillir auprès de ces structures « toutes les informations nécessaires au contrôle des obligations ». Il aura notamment accès « aux principes et méthodes de conception des algorithmes ainsi qu’aux données utilisées par ces algorithmes pour se conformer ». Ce n’est pas un accès total aux algorithmes, mais on s’y approche.

Au détour d’une disposition, la proposition de loi Avia effectue un changement de casquettes dans le contrôle des mesures de blocage administratif. Si aujourd’hui c’est une personnalité qualifiée de la CNIL qui contrôle les contenus épinglés par l’OCLCTIC, demain, cette personnalité sera choisie par le Conseil supérieur de l’audiovisuel.

Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Le blocage des sites miroirs

L’article 6 de la loi orchestre une mesure pour lutter contre les sites miroirs. Lorsqu’une décision de justice ordonnera le blocage d’un site hébergeant des contenus raccrochés aux infractions « haineuses », les policiers de l’OCLCTIC pourront demander aux FAI d’étendre le blocage à d’autres sites « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle ». Cette demande pourra être adressée aux moteurs, annuaires et autres services de référencement. S’ils refusent, l’office central pourra saisir la justice pour espérer une extension du blocage.

Une liste noire tenue à disposition de l’univers de la publicité

Une liste noire de ces sites sera tenue à jour par ces mêmes policiers. Elle sera mise à disposition des annonceurs et des services d'achat, de stockage et de diffusion de messages publicitaires, de contrôle publicitaire et de mesures de performance ainsi par les services de gestion et de transmission de données relatives aux utilisateurs.

L’idée ? Que l’univers de la pub ferme les robinets pour asphyxier financièrement les sites diffusant ces contenus « haineux » déjà épinglés par la justice dans une décision de blocage. Ces acteurs seront de plus tenus de révéler au minimum une fois par an sur leurs sites Internet l’existence de relations avec ces sites, et d’en faire l’écho également dans leur éventuel rapport annuel. On nage en plein Name and Shame.

Renforcement de l’efficacité de la réponse pénale à l’égard des auteurs

L’article 6 bis A créé un tribunal judiciaire et un parquet spécialisé ayant compétence concurrente avec les juridictions habituelles. Une juridiction pourra au besoin interdire à une personne « d’adresser des messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique. »

Toujours sur le terrain des procédures, le délit de refus de retrait d’un message manifestement illicite pourra être jugé par le tribunal correctionnel est composé d’un seul magistrat.

Prévention de la diffusion de contenus haineux en ligne

Le Code de l’éducation est mis à jour pour assurer que les établissements d’enseignement (écoles, collèges et lycées, etc.) assurent une mission d'information sur les violences « y compris en ligne ». Les instituts nationaux supérieurs du professorat et de l'éducation qui préparent les futurs enseignants devront organiser des formations de sensibilisation à la lutte contre la diffusion de contenus haineux.

Dispositions finales, des articles appliqués à partir de juillet 2020

Un observatoire de la haine en ligne est créé. Il jaugera le suivi et l’analyse de l’évolution des contenus « haineux » en ligne. Il travaillera avec les opérateurs, les associations, les administrations et les chercheurs « concernés par la lutte et la prévention contre ces infractions ». Il sera placé auprès du Conseil supérieur de l’audiovisuel.

Enfin, il est prévu un calendrier pour l’entrée en vigueur de certaines dispositions. Les obligations de moyen listées aux articles 2 et 3 entreront par exemple le 1er juillet 2020, tout comme les dispositions relatives au rôle du CSA.

Le texte n’a toutefois pas terminé son long parcours législatif. Il revient en commission des lois au Sénat le 5 février, puis le 26 en séance où ces élus pourront revenir à la charge. Une charge sans doute vaine puisque les députés ont le dernier mot dans la procédure législative française.

Laetitia Avia est donc assurée de pouvoir maintenir les principales dispositions face à un hémicycle où le groupe LREM est en majorité. Viendra enfin l'examen du Conseil constitutionnel, si du moins celui-ci est saisi.

46 commentaires
Avatar de PrizeR INpactien
Avatar de PrizeRPrizeR- 23/01/20 à 07:14:10

Quid des captures d'écran d'un message considéré "haineux" ?

Est-ce qu'un site comme Archive.org (via sa Wayback Machine) ou même un hébergeur d'image comme Imgur sera considéré comme "site miroir" ? Au risque d'être de base bloqué par les FAI car des copies des messages haineux (qualifiés comme tels par un policier) seraient sans cesse hébergés chez eux.

Ça va être une vraie foire à la suppression cette nouvelle loi.

Avatar de Kazer2.0 Abonné
Avatar de Kazer2.0Kazer2.0- 23/01/20 à 07:15:55

Marc Rees a écrit :

Si le site ne régit pas, il risquera une condamnation voire un blocage par les fournisseurs d’accès qui interviendront sur ordre des mêmes autorités.

Et le blocage par les FAI est fait dans l'heure ? :transpi:

Marc Rees a écrit :

Ce sont tous les sites « proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne .

Je vois le à titre professionnel, les associations ou particuliers ayant une instance Mastodon ou PeerTube sont tranquillent ?

Marc Rees a écrit :

Apologie des crimes d’atteinte volontaire à la vie

Donc l'humour noir du type : "Je donne souvent du sang, mais jamais le miens" est maintenant interdit :troll: ?

Édité par Kazer2.0 le 23/01/2020 à 07:18
Avatar de carbier INpactien
Avatar de carbiercarbier- 23/01/20 à 07:46:59

Les contenus devront « contrevenir manifestement » ces dispositions, disait-on. La violation devra donc être flagrante. Voilà pourquoi Laetitia Avia a dit plusieurs fois que les contenus « gris », ceux dont le statut illicite n’est donc pas aussi évident, pourront être maintenus. Seulement, séduisante sur le papier, cette présentation d’une logique implacable souffre lors du basculement dans la complexité de la réalité.

Opinion du rédacteur. On n'est plus dans du factuel, mais dans du "politique"

Sinon je pense que NXi pourrait nous fournir des réponses quant à ces questions.

Extrait des règles de la communauté

Un peu de bon sens suffira en fait le plus souvent à rester dans les clous, dans la limite bien sûr du cadre imposé par la loi (1881). Car même avec politesse et un langage soutenu, une incitation à la haine reste interdite.

Les commentaires ou publications dans le forum qui ne respecteraient pas ces quelques règles seront modérés. La vérification du commentaire sera toujours humaine : pas d’algorithme chez nous.

Avatar de Norde Abonné
Avatar de NordeNorde- 23/01/20 à 08:28:21

Si tu veux juste le texte de loi, le pdf est en lien dans l'article.
Si tu ne veux pas l'analyse de NextInpact et bien... ne lit pas cet article.

Pour le reste épargne nous tes analyses et tes provocations bas du front :chinois:

Avatar de anonyme_eef969e99a274610807fd9faa41faeaa Abonné
Avatar de vizir67 Abonné
Avatar de vizir67vizir67- 23/01/20 à 08:57:49

c’est désormais un réflexe, le gouvernement actionnait la procédure dite accélérée ...

comme d'hab....quoi !
"tout est URGENT", donc pas le temps d'en débattre à l'AN. ? :reflechis:

  • au fait : elle sert à-quoi ?
Avatar de Jarodd INpactien
Avatar de JaroddJarodd- 23/01/20 à 09:25:49

Viendra enfin l'examen du Conseil constitutionnel, si du moins celui-ci est saisi.

Pour l'instant aucune annonce en ce sens ?
 Vu les nombreuses critiques émises, je doute qu'on en reste là.

Avatar de carbier INpactien
Avatar de carbiercarbier- 23/01/20 à 09:56:59

Norde a écrit :

Si tu veux juste le texte de loi, le pdf est en lien dans l'article.
Si tu ne veux pas l'analyse de NextInpact et bien... ne lit pas cet article.

Pour le reste épargne nous tes analyses et tes provocations bas du front :chinois:

Argumentaire imparable: seules les "analyses" de NXi sont justes et les seuls commentaires autorisés sont ceux allant dans le "bon" sens :incline:

Sinon un avis sur les règles de la communauté NXi ? et surtout leurs applications ?

Édité par carbier le 23/01/2020 à 09:58
Avatar de Patch INpactien
Avatar de PatchPatch- 23/01/20 à 10:07:29

carbier a écrit :

Argumentaire imparable: seules les "analyses" de NXi sont justes et les seuls commentaires autorisés sont ceux allant dans le "bon" sens :incline:

Sinon un avis sur les règles de la communauté NXi ? et surtout leurs applications ?

C'est vrai que "le bon sens" est un terme strictement objectif, que tout le monde mesure de la même facon (exactement comme la morale), c'est bien connu.

Avatar de OB Abonné
Avatar de OBOB- 23/01/20 à 10:15:37

Fabrication, transport, diffusion ou commerce de message pornographique susceptible d’être vu ou perçu par un mineur=> Ah donc le premier cul-béni venu va pouvoir faire lâcher 250k€ par vidéo à youporn ? :-)Surtout que:
Le texte ne prévoit pas en effet d'équivalence des formes, à savoir l'infraction pénale pour cause de retrait abusif d’un contenu qui aurait dû être maintenu.  => Donc le sérial-signaleur ne peux pas , lui, être inquiété.Il pourrait l'être si le signalement est fait spécifiquement dans l'intention de nuire :
 
La personne qui dénoncera aux plateformes ou aux moteurs un contenu ou une activité comme étant illicite « dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion alors qu’elle sait cette information inexacte » risquera un an d’emprisonnement et 15 000 euros d’amende.
 
... Sauf que dans le cas ci-dessus, le site serait effectivement en infraction.
 Si j'étais administrateur ou responsable de site porno (ou de forum , ou autre) basé en France j'installerais immédiatement un géoblock sur les IP française (*), à minima pour ne pas être emmerdé et pouvoir plaider la bonne foi le cas échéant, et je déplacerais ma structure ailleurs.

Si le site n'a aucune relation contractuelle avec la France je ferais juste rien, et les courriers en français iraient direct au recyclage - la France n'est pas les USA et n'est pas en position d'imposer sa propre loi dans le reste du monde.
C'est probablement ce que fera Mindgeek :-)
 
(*) Éventuellement avec un message d'accueil style "La loi n° machin voté le 22/01/2019 sous la présidence de Emmanuel Macron  nous empêche de vous donner accès à ce site en provenant de France".
C'est pas si grave, les gens apprennent vite à utiliser des proxy ou des
vpn désormais - quitte à les y aider un peu avec quelques vidéo youtube
(ça peux même faire une source de revenu supplémentaires :-/ )

Pour moi la vrai question sera la réaction de twitter (qui reste quand même, au moins actuellement, le 1er vecteur de réactions haineuses) et facebook.

Bien sur il y aura quelques forums obscurs qui seront aussi visés, mais bon.... rien de commun avec twitter.

En fait, plus j'y pense plus je me dit que ce sont vraiment les plateformes centralisés et *très* fréquentés qui présente cet effet de meute : Sur twitter, si 0.05% des lecteurs réagissent de manière haineuse à un message, ça provoque tout de suite un effet massif. Alors que sur mastodon tout le monde aurait juste ignoré le message.
Même une sextape non consentie, si elle reste sur 4chan personne la verra. mais qu'un lien circule sur twitter et c'est le déferlement.

Il n'est plus possible de commenter cette actualité.
Page 1 / 5