Haine en ligne : ce que prévoit la proposition de loi Avia après le vote du Sénat

Haine en ligne : ce que prévoit la proposition de loi Avia après le vote du Sénat

Haine, peine, LCEN

Avatar de l'auteur
Marc Rees

Publié dans

Droit

30/12/2019 17 minutes
17

Haine en ligne : ce que prévoit la proposition de loi Avia après le vote du Sénat

Le 17 décembre, le Sénat a voté, non sans la modifier profondément, la proposition de loi contre la haine en ligne. Les différences avec la version adoptée par les députés doivent maintenant être arbitrées en commission mixte paritaire. Next INpact vous propose une analyse ligne par ligne du texte, en l’état. 

La proposition de loi contre la haine en ligne est en dernière ligne droite. Ce texte organise une réforme de la responsabilité des hébergeurs comme YouTube, Facebook ou Twitter. C’est une nouvelle poussée après celle de la directive sur le droit d’auteur

La proposition rédigée, portée et défendue par la députée Laetitia Avia (LREM) ambitionne cette fois de lutter contre les contenus dits haineux. L’idée initiale fut de contraindre les intermédiaires à supprimer ces contenus dans un délai très court - 24 heures - sous peine d’une amende de 1,25 million d’euros par oubli. Cependant, plébiscité par les députés, ce régime a été revu et profondément corrigé par les sénateurs. 

Cette correction s’explique en partie par les foudres bruxelloises. Comme l’a révélé Next INpact, la Commission européenne avait adressé un courrier d’une dizaine de pages pour critiquer le cœur du dispositif. La France ne pouvait prendre le risque d’une guerre frontale, qui aurait été arbitrée par la Cour de justice de l’Union européenne (l’avis, nos explications). 

Plus d’infractions, plus de concours de la part des hébergeurs

Dans l’article 1er de la proposition modifiée par les sénateurs, on ne retrouve plus cette obligation de retrait en 24 heures. Il modifie avant tout la liste des infractions pour lesquelles les hébergeurs sont tenus d’apporter tout spécialement leur concours. 

À ce jour, cette liste concerne :

  • L’apologie des crimes d'atteinte volontaire à la vie, d'atteinte volontaire à l'intégrité de la personne, d'agression sexuelle, de vol aggravé, d'extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi
  • Les cris ou chants séditieux
  • La provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion
  • La provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap
  • Le harcèlement sexuel
  • La traite des êtres humains
  • Le proxénétisme
  • La pédopornographie
  • La fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d'être vu ou perçu par un mineur
  • La provocation directe à des actes de terrorisme ou apologie publique de ces actes 

Les sénateurs ajoutent à cette liste déjà conséquente :

  • L'incitation à la haine à l'égard de personnes à raison de leur genre
  • Les injures envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée, de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.

Pour ces infractions, les hébergeurs devront « mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données ». Ils devront tout autant « informer promptement les autorités publiques compétentes » et « rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites ».

Message de substitution, conservation des preuves 

Lorsqu’un de ces messages sera donc supprimé, Twitter ou Facebook devra lui substituer une annonce expliquant « qu’il a été retiré en raison de son caractère illicite » (alinéa 4). 

La suppression ne sera que de façade puisque les contenus litigieux resteront accessibles aux autorités judiciaires durant un délai que devra définir un décret en Conseil d’État, pris après avis de la CNIL (alinéa 5). 

Retour du formalisme, après les critiques européennes 

L’article 1 ter A revient sur le formalisme des notifications adressées par les internautes aux hébergeurs. Pour mémoire, ces notifications sont juridiquement très importantes puisqu’elles placent YouTube, Facebook ou Twitter en situation de « connaissance » effective du fait potentiellement illicite, à charge pour cet acteur d’en assumer la responsabilité s’il décide de ne pas le supprimer. 

Laetitia Avia avait voulu alléger ces règles de forme afin, nous confiait-elle, de « simplifier l’expérience utilisateur ». 

De fait, elle n’exigeait plus que la localisation exacte du contenu litigieux soit soufflée à l’hébergeur, laissant ce dernier dans l’expectative. En sortie d’Assemblée nationale, la proposition de loi se contentait aussi d'une simple description de « la catégorie à laquelle peut être rattaché le contenu litigieux » et des « motifs pour lesquels il doit être retiré ». 

Ces deux mesures en retrait ont été mal accueillies par la Commission européenne dans l’avis révélé dans nos colonnes : « la recherche active d’un tel emplacement incombe ainsi à la plateforme, qui devra par exemple parcourir de nombreux contenus (comme de longues vidéos ou de longs textes) » regrettait l’institution. De plus, « les plateformes en ligne pourraient être amenées à évaluer toutes les dispositions nationales concernant toutes les catégories de contenus relevant de l’article premier du projet notifié ».

Au Sénat, ces remarques ont été prises en compte : lorsqu'il signale un contenu qu'il pense être manifestement illicite, l’internaute devra indiquer « la description du contenu litigieux, sa localisation précise et, le cas échéant, la ou les adresses électroniques auxquelles il est rendu accessible ». Il aura aussi à préciser « les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible ». 

Une exception a été ajoutée s’agissant de la liste des infractions précitées. Les personnes notifiant des contenus odieux se voient dispensées d’ajouter à leur notification, la preuve des démarches entreprises préalablement pour contacter leur auteur. 

Des notifications adressées par une association 

L’article 1er ter B permet à une association reconnue d’utilité publique de notifier un contenu contrevenant manifestement aux dispositions pénales inscrites à l’article 7 de la loi sur la confiance dans l’économie numérique (la liste précitée, là encore). 

L’association devra être âgée de plus de cinq ans et son objet statutaire comporter la protection des enfants. Enfin, elle aura à être saisie par un mineur. Les intermédiaires techniques devront accuser réception sans délai de cette notification puis l’informer des suites données ainsi que des motifs de leur décision. L’association pourra contester « s’il y a lieu le défaut de retrait ou de déréférencement du contenu, sans préjudice du droit d’agir des représentants légaux du mineur concerné ». 

De nouvelles obligations pour les opérateurs de plateformes

À l’article 2, sont orchestrées de nouvelles obligations pour certains acteurs. 

Il s’agit d’une part des opérateurs de plateforme, lesquels ne se confondent pas parfaitement avec les hébergeurs. Selon la définition portée par le Code de la consommation, on trouve en effet derrière tous les sites de mise en relation « de plusieurs parties en vue du partage de contenus publics ». Ces obligations ne seront appliquées que si leur activité sur le territoire français dépasse un ou plusieurs seuils déterminés par décret en Conseil d’État. 

D’autre part, le CSA pourra étendre ces obligations à une plateforme (ou un site) à l’activité plus modeste si elle acquiert en France « un rôle significatif pour l’accès du public à certains biens, services ou informations en raison de l’importance de son activité et de la nature technique du service proposé ». 

Quelles seront ces obligations ?   

D’abord, respecter les consignes et modalités techniques définies par le CSA pour lutter contre les contenus odieux en ligne. Sont donc consacrés de nouveaux pouvoirs entre les mains de cette instance calibrée à l’origine pour la télévision et la radio.

Ensuite, ils devront mettre en place « un dispositif de notification uniforme directement accessible et facile d’utilisation permettant à toute personne de signaler un contenu illicite dans la langue d’utilisation du service. »

Ils auront à accuser réception sans délai de toute notification qui leur est adressée, du moins celle suivant les règles formelles.

Ce n’est pas tout. Ils devront mettre en œuvre « les procédures et les moyens humains et, le cas échéant, technologiques proportionnés permettant de garantir le traitement dans les meilleurs délais des notifications reçues et l’examen approprié des contenus notifiés, ainsi que de prévenir les risques de retrait injustifié ».

Ils auront à prévoir des dispositifs de contre-notification et d’appel, sauf cas particulier (demandes de retrait adressées par les autorités publiques). 

Retour du délai de 24 heures, une obligation de moyen, non de résultat

Le texte n’évacue finalement pas le délai de 24 heures voulu par Laetitia Avia. Les opérateurs de plateformes, qu’ils soient très importants ou désignés par le CSA, devront accomplir « les diligences proportionnées et nécessaires au regard de la nature du contenu et des informations dont ils disposent pour retirer ou rendre inaccessibles dans les vingt-quatre heures les contenus manifestement illicites qui leur sont notifiés. »

Ce délai ne concerne que la liste des infractions spécifiques, toujours celles pour lesquels les intermédiaires doivent apporter leur concours. L’auteur d’une notification sera informé des suites données et des motifs de la décision. 

Il y a tout de même une importante différence avec la version adoptée par les députés. Si l’Assemblée nationale imposait une obligation de résultat (un retrait en moins de 24 heures, ou bien une sanction), le Sénat se contente d’une obligation de moyen. Le sénateur Christophe-André Frassa, durant les débats, a imaginé des circonstances exceptionnelles où l’intermédiaire n’aurait pas à respecter ce délai : « afflux massif de signalements difficiles à évaluer, pannes imprévisibles, etc. »  

Un représentant légal en France

L’article 3 ajoute d’autres obligations comme celle visant à fournir « une information claire et détaillée, facilement accessible et visible, présentant à leurs utilisateurs les modalités de modération des contenus illicites ». Une autre contraint à rendre des comptes sur les moyens humains et technologiques pour se conformer à la présente loi. 

Les acteurs devront tout autant lors de l’inscription à l’un de leurs services d’un mineur âgé de moins de quinze ans « prévoir une information à destination du mineur et du ou des titulaires de l’autorité parentale sur l’utilisation civique et responsable dudit service et les risques juridiques encourus en cas de diffusion par le mineur de contenus haineux ». 

Trois dernières obligations font leur apparition dans le paysage législatif français : désigner un représentant légal en France, chargé de recevoir notamment les demandes des autorités judiciaires et du CSA. Formuler en termes « précis, aisément compréhensibles, objectifs et non discriminatoires les conditions générales d’utilisation ». Enfin, mettre en place des moyens pour supprimer les comptes d’utilisateurs « ayant fait l’objet d’un nombre de notifications par plusieurs personnes », du moins lorsqu' « au vu de ce faisceau d’indices », est constatée une contravention sérieuse aux infractions « odieuses ».

L’article 3 bis confirme l’aggravation des peines. L’hébergeur ou le FAI qui violerait la loi sur la confiance dans l’économie numérique (LCEN) risquera 250 000 euros d’amendes (contre 75 000 euros aujourd’hui). Rappelons que ce montant, infligé par un tribunal, vaut pour les personnes physiques. Il est multiplié par cinq pour les personnes morales.

Le rôle du CSA dans la lutte contre la haine en ligne

L’article 4 s’attache au rôle du Conseil supérieur de l’audiovisuel dans la lutte contre les contenus haineux. Il est chargé de veiller au respect des nouvelles dispositions introduites par le législateur. Il peut à ce titre adresser aux opérateurs des recommandations et surveiller le respect de leurs obligations. Il peut recueillir auprès d’eux toutes les informations nécessaires et publie chaque année un bilan d’application. 

S’agissant de son pouvoir de sanction, le CSA pourra d’abord adresser à l’acteur peu coopérant une mise en demeure. « Dans l’appréciation du manquement de l’opérateur, le Conseil supérieur de l’audiovisuel prend en compte le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait des contenus portés à sa connaissance ou qu’il constate de sa propre initiative » prévient le texte modifié par le Sénat. 

Une sanction administrative portée à 4 % du C.A. mondial 

L’opérateur qui ne donnerait pas (correctement) suite à une mise en demeure risquera alors 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu). Deux seuils inspirés du RGPD. Ce montant sera proportionné à la gravité du manquement, mais ne dépendra pas par exemple du degré de coopération comme le prévoit le règlement du 25 mai (article 83). Ces mises en demeure et sanctions pourront être rendues publiques. 

Une dose de « soft law » 

La proposition de loi a également une composante de « droit souple ». Le Conseil supérieur de l’audiovisuel pourra encourager les opérateurs à mettre en œuvre plusieurs mesures comme « des dispositifs techniques proportionnés facilitant, dans l’attente du traitement de la notification d’un contenu illicite, la désactivation ou la limitation temporaire des fonctionnalités qui permettent de multiplier ou d’accélérer l’exposition du public à ce contenu, et notamment les possibilités de partage, d’interaction, ou d’envoi de messages liés à ce dernier ». 

Les sénateurs ont également prévu que le CSA pourra inciter Twitter, YouTube, Facebook ou Instagram à adopter « des standards techniques communs d’interopérabilité entre services de communication au public en ligne, conformes à l’état de l’art, documentés et stables, afin de favoriser le libre choix des utilisateurs entre différentes plateformes ». Cette mesure n’est cependant qu’une invitation : les concernés pourront l’ignorer sans conséquence juridique. 

Selon l’article 4 I bis A, le CSA se voit reconnu le droit de recueillir auprès des opérateurs « toutes les informations nécessaires » et notamment les « principes et méthodes de conception » de leurs algorithmes. Le secret des affaires ne pourra lui être opposé. 

Le CSA, contrôle du blocage administratif des sites

L’article 4 I ter modifie l’article de la loi sur la confiance dans l’économie numérique relatif au blocage administratif des sites soit pour apologie ou incitation au terrorisme, soit pour diffusion de contenus pédopornographiques. Aujourd’hui, c’est une personnalité de la CNIL qui contrôle les mesures de blocage décidées par l’OCLCTIC (voir cette actualité de février 2019).

Avec la proposition de loi Avia, « bye bye » la CNIL, bonjour le CSA. C’est en effet une personnalité désignée par le régulateur des télécoms qui sera chargée de contrôler les policiers.

L’article 6 de la « PPL » change d’ailleurs les règles procédurales en matière de blocage judiciaire cette fois. Actuellement, un juge ne peut ordonner le blocage d’un site directement entre les mains d’un FAI que si l’hébergeur est inconnu. La proposition de loi supprime ce passage obligé, laissant donc au juge la liberté de s’adresser directement à l’un ou l’autre. Précision de rigueur : cette mesure vaut pour tous les contenus, non pas seulement les contenus « haineux ». 

Plus de latitude dans le blocage judiciaire

Le même article traite aussi des mesures de blocages judiciaires. Lorsqu’une décision ordonne « toute mesure propre à empêcher l’accès » à un site, dont le contenu relève des infractions « haineuses », alors l’autorité administrative pourra, d’instinct ou saisie par toute personne intéressée, demander aux FAI de bloquer l’accès à tout site reprenant le contenu litigieux, soit parce que la reprise est totale soit parce qu’elle est substantielle.

La demande pourra viser également les moteurs de recherche, dans les mêmes conditions. Si le FAI ou le moteur refuse, l’autorité judiciaire pourra être saisie. 

« Follow the money »

À l’article 6 bis AA est abordée la question des annonceurs publicitaires. Ils devront publier et tenir à jour une cartographie au minimum mensuelle des emplacements de leurs annonces, tels que communiqués par les vendeurs d’espaces. 

Christophe-André Frassa avait soutenu cette initiative en commission, en ce qu’elle vise « à s'attaquer au financement de sites diffusant de façon quasi-professionnelle de tels discours (« follow the money ») et [joue] sur le risque réputationnel pour les annonceurs (« name and shame ») ».  

Une juridiction spécialisée, mais non exclusive

L’article 6 bis A permet de désigner par décret un tribunal et un parquet spécialisés en matière de lutte contre la haine en ligne. « Cette spécialisation n'entraîne pas d'unification du contentieux au sein de cette juridiction ou des poursuites à l'initiative de ce seul parquet, explique le rapport de la commission des lois, puisque la compétence exercée le sera de manière concurrente et permettra en conséquence de traiter les affaires dans le ressort le plus adéquat ».

Obligation pour un internaute de ne pas adresser de message à une victime

L’article 6 bis B enrichit les mesures de contrôle judiciaire ordonnées par le juge d'instruction ou par le juge des libertés et de la détention. Il pourra ainsi donner à l’auteur d’un contenu haineux en ligne l’ordre de « ne pas adresser de messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique ». 

Ces mêmes mesures pourront être décidées par la juridiction de condamnation ou le juge de l'application des peines.

Une autre disposition prévoit que le tribunal correctionnel sera composé d'un seul magistrat pour traiter des affaires relatives au refus de retirer un message manifestement haineux. Plusieurs mesures finales concernent le Code de l’éducation. Les élèves et les enseignants seront sensibilisés aux questions relatives aux contenus haineux en ligne.

À l’article 7, la proposition de loi modifiée par les sénateurs instaure, auprès du CSA, « un observatoire des contenus illicites en ligne ». Il aura pour mission le suivi et l’analyse de l’évolution des contenus visés par ce texte, « en lien avec les opérateurs, associations et chercheurs concernés, en prenant en compte la diversité des publics concernés, notamment les mineurs ».

Un agenda d'application s’étendant jusqu’au 1er janvier 2021

Enfin, l’article 9 détaille l’agenda d’entrée en application. Les pouvoirs relatifs au CSA sont par exemple repoussés au 1er janvier 2021. D’ici là, l’institution devrait être renommée ARCOM, suite à l’entrée en vigueur de la future loi sur l’audiovisuel qui lui attribue les compétences de la Hadopi

Le 7 janvier, le texte fera l'objet d'une commission mixte paritaire (où siègent sept députés et sept sénateurs), afin de trouver un compromis entre le texte de l'Assemblée et celui du Sénat. La PPL sera en commission des lois le 13 janvier et le 20 en séance à l'Assemblée. Faute d'accord, le dernier mot sera donné à cette dernière. 

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Plus d’infractions, plus de concours de la part des hébergeurs

Message de substitution, conservation des preuves 

Retour du formalisme, après les critiques européennes 

Des notifications adressées par une association 

De nouvelles obligations pour les opérateurs de plateformes

Quelles seront ces obligations ?   

Retour du délai de 24 heures, une obligation de moyen, non de résultat

Un représentant légal en France

Le rôle du CSA dans la lutte contre la haine en ligne

Une sanction administrative portée à 4 % du C.A. mondial 

Une dose de « soft law » 

Le CSA, contrôle du blocage administratif des sites

Plus de latitude dans le blocage judiciaire

« Follow the money »

Une juridiction spécialisée, mais non exclusive

Obligation pour un internaute de ne pas adresser de message à une victime

Un agenda d'application s’étendant jusqu’au 1er janvier 2021

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (17)


Ne serait il pas ironique que, à l’avenir, la totalité des tweets et posts facebook de la députée Laetitia Avia (et des autres députés ayant soutenu cette proposition) soient systématiquement et massivement dénoncés grâce aux moyens mis en place ?

J’espère que la formulation de ma phrase ne laisse aucun doute sur le fait qu’elle soit un questionnement sur l’aspect comique d’une hypothèse fictive, et pas une incitation à l’action.

<img data-src=" />


Pendant ce temps la “irl” ça parle de bruler des bébé blanc, de violer des femmes et ça crame des voiture pour des clips. Au maximum c’est 5k l’amende sois de la publicité quasiment gratuite. Loi évier !


“La fabrication, transport, diffusion ou commerce de message violent ou

pornographique susceptible d’être vu ou perçu par un mineur”

On supprime toutes les formes d’art et Internet avec quelque chose d’aussi vague, ça va être pratique.



Quant à la notion de race, cela fait un moment qu’on sait que concernant l’homme il n’y en a qu’une, la race humaine, tout autre utilisation étant un abus de langage ou un détournement de la réalité, j’ai donc un peu de mal à voir l’utilisation pratique de cette portion de la loi.


On aimerait autant d’action de nos politicards sur les spams téléphoniques qui dure depuis plus 2 ans sur la plupart des lignes fixes en France… Mais là, il doit y avoir des copains de copains qui… (filent du pognon).


Et donc si je lis bien, rien en cas de sur-filtrage/censure.

Donc au moindre signalement, l’hébergeur (gros) coupe, et comme ca il est tranquille, et ne se pose pas de question.

Encore une loi mal ficelée sur un sujet qui lui a un intérêt.

Bref comme d’hab.








JanBathyst a écrit :



Quant à la notion de race, cela fait un moment qu’on sait que concernant l’homme il n’y en a qu’une, la race humaine, tout autre utilisation étant un abus de langage ou un détournement de la réalité, j’ai donc un peu de mal à voir l’utilisation pratique de cette portion de la loi.







C’est un peu le même débat que le mot “race” présent dans l’article garantissant l’égalité devant la loi de la Constitution. La science ne reconnaît pas l’existence de races au sein de notre espèce, mais il y a néanmoins des discriminations basées sur une supposée race.



(tiens d’ailleurs le projet de loi constitutionnelle qui contenait un amendement pour supprimer le terme “race” et ajouter “de sexe” dans le-dit article n’est toujours pas passé apparemment)







Bourrique a écrit :



Et donc si je lis bien, rien en cas de sur-filtrage/censure.

Donc au moindre signalement, l’hébergeur (gros) coupe, et comme ca il est tranquille, et ne se pose pas de question.

Encore une loi mal ficelée sur un sujet qui lui a un intérêt.

Bref comme d’hab.







Sans faire l’avocat du diable (et détestant toute forme de filtrage ou de censure, ça risque pas), je doute qu’un hébergeur prenne le risque de ternir sa réputation en pratiquant la politique du bulldozer à l’aveugle au moindre signalement et supprimer des comptes clients par effets de bords.

Si les grands médias sociaux n’ont pas peur de la censure et du filtrage arbitraire (ils le pratiquent déjà après tout) ou encore de supprimer quelques milliers de comptes, tout le monde n’a pas la même gestion de risque.

Je doute que beaucoup iront au cas extrême de la Russie qui a bloqué des plages d’adresses AWS et Google pour flinguer Telegram chez eux.





M’enfin, d’un point de vue purement personnel, comme ça fait 20 ans qu’on nous promet la mort de la liberté d’expression sur Internet à chaque loi de ce genre, j’ai un peu des doutes que ça aille au delà du pétard mouillé type Hadopi et équivalents.









romu79 a écrit :



On aimerait autant d’action de nos politicards sur les spams téléphoniques qui dure depuis plus 2 ans sur la plupart des lignes fixes en France… Mais là, il doit y avoir des copains de copains qui… (filent du pognon).





http://www.bloctel.gouv.fr/<img data-src=" />



Heureusement que tu précises “gros”. Vu le pavé (et le bordel que c’est) j’ai lu très en biais, mais quid des plateformes décentralisés ? Surtout que certaines sont des associations ou de simple particulier qui ont l’impossibilité de faire un retrait en 24h.


Laetitia Avia avait voulu alléger ces règles de forme afin, nous confiait-elle, de

« simplifier l’expérience utilisateur ».



‘alléger’…quoi ? <img data-src=" />



la mouture du ‘Sénat’ me paraît, pourtant assez, claire !







..le formalisme des notifications adressées par les internautes aux hébergeurs. Pour mémoire, ces

notifications sont juridiquement très importantes puisqu’elles placent YouTube, Facebook ou Twitter

en situation de « connaissance » effective du fait potentiellement illicite, à charge pour cet acteur d’en assumer la responsabilité s’il décide de ne pas le supprimer.


Je pense que ce dispositif vise en priorité les médias sociaux majoritaires et centralisés qui brassent des millions d’utilisateurs à la journée.



Ceux qui sont décentralisés (type Mastodon, Diaspora, etc) me semblent bien trop confidentiels pour risquer de subir les foudres de cette usine à faire des usines à gaz.

Et pis de toute façon c’est juste des repères à théoriciens du complot et chercheurs de vérités de tout genre qui doivent se cacher des réseaux “mainstream” contrôlés par les Etats Reptiliens des aliens de la NSA. (car la technologie d’écoute de la NSA ne peut venir que d’une civilisation extra terrestre)



(à l’attention de la team premier degré : une subtile ironie s’est glissée dans ce message)



Par contre j’ai hâte de voir des messages de politiques censurés par ce dispositif.


« collaboration avec l’ennemi »

« cris ou chants séditieux »



Quel est ce champ lexical d’un pays sous loi martiale ? Des phrases comme « J’aime la Corée du Nord » ou bien « vive l’indépendance de la Corse/Nouvelle Calédonie/Hout-si-plou/votre irrédentisme préféré » rentrent dedans ?

Ça me fait penser à cet autre projet de loi qui voulait sanctionner les discours anti-républicains, sans rien préciser évidemment si ça concerne les Britanniques, Belges, Espagnols, etc. qui n’ont souvent aucun problème à être royalistes..









SebGF a écrit :



Je pense que ce dispositif vise en priorité les médias sociaux majoritaires et centralisés qui brassent des millions d’utilisateurs à la journée. Ceux qui sont décentralisés (type Mastodon, Diaspora, etc) me semblent bien trop confidentiels pour risquer de subir les foudres de cette usine à faire des usines à gaz.

&nbsp;

Et pis de toute façon c’est juste des repères à théoriciens du complot et chercheurs de vérités de tout genre qui doivent se cacher des réseaux “mainstream” contrôlés par les Etats Reptiliens des aliens de la NSA.





Si je déverse ma haine sur une plateforme décentralisée de manière publique n’importe qui pourra reprendre mon texte en le publiant le lien sur un gros réseau social. Même si le lien est rapidement effacé n’importe qui pourra reprendre à nouveau ce lien. Au pire tu pourra faire une demande pour bannir automatiquement le lien mais il sera possible de faire un nouveau poste et un nouveau lien. Donc logiquement il faudra aussi mettre le nez dans le décentralisé.



Et à un moment donné ça ne suffira pas, un posteur peut très bien avoir une autre nationalité, n’être qu’une couverture ou simplement une armée de bot. Si il y à trop à réguler alors la machine va s’emballer et devenir rapidement inutile.



La seule option sera donc le filtrage automatique via une intélligence artificielle avant de valider un poste ou chaque pays aura donné sa propre liste. A terme c’est le fameux big brother ou les plus complotistes penseront qu’a terme d’autre chose que la haine pourra être filtré / quantifiée.









Assez ironique sachant que ce soir des milliers de voitures vont bruler dans l’indifférence la plus totale, et la c’est pas sur “l’internet”. Ce que je regrette un peu c’est que nxi cale des gros pavé sans justement poser ces bonnes questions. Mais l’avocat du diable me répondra surement “ va pas leur filer de mauvaises idées “.









skankhunt42 a écrit :



Pendant ce temps la “irl” ça parle de bruler des bébé blanc, de violer des femmes et ça crame des voiture pour des clips. Au maximum c’est 5k l’amende sois de la publicité quasiment gratuite. Loi évier !







Ben quoi ? Tu n’a pas la fibre artistique, c’est tout <img data-src=" />



Les clips ont souvent été violents …https://www.youtube.com/watch?v=JqWGA5xQYqA



Voilà, nous y sommes. Internet est en passe d’être aussi bridé que la télévision.

&nbsp;

Tout sera bientôt lisse et politiquement correct pour les petites gens du camp des contribuables sans histoires.



&nbsp;Cependant, il est probable que&nbsp;les pédophiles pseudo-intellectuels continueront de se vanter de leurs saloperies à longueur de bouquins récompensés par d’autres corrompus et les progressistes pourront continuer leur lavage de cerveau inhumain sans craindre la moindre contradiction.



N’oublions pas qu’à ce stade, on peut penser que la liberté de culte l’a visiblement&nbsp;emporté sur la liberté d’expression et la liberté tout court d’ailleurs, si l’on considère la façon dont la rue évolue dans de plus en plus de grandes villes où les “communautés” font quotidiennement montre de la paix et de la tolérance qui caractérisent leurs discours.








OB a écrit :



Les clips ont souvent été violents …https://www.youtube.com/watch?v=JqWGA5xQYqA





C’est violent ça ?









Honey Badger a écrit :



N’oublions pas qu’à ce stade, on peut penser que la liberté de culte l’a visiblement&nbsp;emporté sur la liberté d’expression et la liberté tout court d’ailleurs, si l’on considère la façon dont la rue évolue dans de plus en plus de grandes villes où les “communautés” font quotidiennement montre de la paix et de la tolérance qui caractérisent leurs discours.





Tiens d’ailleurs il n’y aurais pas moyen de créer un culte de “la sainte liberté d’expression” ou du “très grand secret des échanges numériques” et répondre par la négative aux directives du gouvernement pour cause d’incompatibilités avec la pratique religieuse ?









skankhunt42 a écrit :



Pendant ce temps la “irl” ça parle de bruler des bébé blanc,







https://www.youtube.com/watch?v=T2BfFtTjGko

<img data-src=" />