Une nouvelle polémique entache la proposition de lutte contre la surveillance des contenus pédosexuels

#ChatControl 2.0

Une nouvelle polémique entache la proposition de lutte contre la surveillance des contenus pédosexuels

Une nouvelle polémique entache la proposition de lutte contre la surveillance des contenus pédosexuels

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

La Commission européenne aurait violé les règles publicitaires de Twitter, le RGPD ainsi que le Digital Services Act (DSA) pour « micro-cibler », sur la base de critères politiques et religieux, des tweets faisant la promotion de son décrié projet de règlement visant à scanner les messageries à la recherche de contenus pédosexuels.

Danny Mekić, un juriste et entrepreneur néerlandais, a découvert dans le rapport de transparence publicitaire de Twitter plusieurs tweets envoyés contre rémunération par la DG Migration & Home Affairs de la Commission (responsable des questions migratoires, des frontières et de la politique sécuritaire) à destination d'utilisateurs de Twitter sélectionnés en fonction de leurs profils politiques et religieux.

Une découverte qui rallonge la liste des griefs répertoriés par les opposants à cette proposition de règlement, auxquels nous avons consacré plusieurs articles : 

 Une campagne excluant Assange, l'extrême-droite et la christianophobie

La campagne, qui aurait ciblé les « Twittos » d'au moins sept pays membres (dont la Belgique, mais pas la France), et cumulé plus de 4 millions de vues, avait été paramétrée pour ne pas s'afficher sur les profils de personnes intéressées par Julian Assange (et donc sensibles, a priori, aux questions de surveillance et de vie privée), les responsables politiques européens d'extrême-droite et eurosceptiques, Poutine, le Sinn Fein, le terme « nazi » et, plus étrangement, les chrétiens et la christianophobie.

CSAM, Twitter

La liste des catégories exclues de la campagne publicitaire ciblée de la Commission européenne

« La Commission [utilise] des tactiques qui rappellent étrangement les campagnes de désinformation lors des élections américaines et du Brexit », explique Mekić à Politico. Sur Twitter, la branche européenne de l'Internet Society qualifie la campagne de « honteuse : le projet de loi contre la maltraitance des enfants en ligne n'est qu'une simple justification pour créer une société surveillée ». 

Le clip vidéo, publié mi-septembre, « utilise des images choquantes de jeunes filles aux côtés d'hommes à l'apparence sinistre, une musique menaçante et commet une forme de chantage émotionnel en suggérant que les opposants au projet de loi ne voudraient pas protéger les enfants », souligne Danny Mekić. 

Et ce, alors qu'un sondage Eurobaromètre indique que 95 % des européens considéreraient que la détection des abus sexuels commis sur des enfants « est plus ou aussi importante que le droit à la vie privée », que 86 % sont favorables à ce que les sociétés Internet détectent automatiquement les images et vidéos d'abus sexuels commis des enfants ainsi que les cas de manipulation psychologique dans les messages en ligne, « même ceux qui sont envoyés en utilisant le cryptage (sic) de bout en bout (81 %) ».

CSAM, Eurobaromètre
CSAM, Eurobaromètre

La Commissaire déplore insultes et menaces sexistes

En réponse à ces accusations, Yvla Johansson, la Commissaire européenne aux affaires intérieures, rétorque que ses services ont « suivi les directives et la loi à 100 % », que ce type de promotion « est une pratique normale et standard » et que « cette proposition vise à protéger les enfants contre les abus sexuels ».

Dans un billet de blog, elle déplore avoir « été victime ces dernières semaines d'insultes, de menaces et d'intimidations » de la part des opposants à sa proposition, qui « se sont concentrés sur mon sexe ou sur mon apparence », au point que « la violence de leur langage contrecarre leurs tentatives de se présenter comme des personnes raisonnables dans ce débat » : 

« Ils ont fait preuve sur les réseaux sociaux du genre de diffamation que je reconnais de la part des extrémistes d’extrême droite dans le débat sur la migration, mais que je n’attendais pas de la part des défenseurs de la vie privée. Cela inclut des tweets racistes, misogynes et sexistes, car lorsque vous êtes une femme en politique, vous devez être traitée de "sorcière" et de "garce", et pire encore. Laissez-moi vous assurer que cela ne fait que renforcer ma détermination. »

La Commissaire reproche en outre à EDRi, qui fédère les ONG européennes de défense des libertés numériques et qui a qualifié sa proposition de règlement (surnommée #ChatControl par ses opposants) de « projet de loi européen le plus critiqué de tous les temps », d'être en partie financée par Apple.

Et ce, alors qu'Apple, qui a récemment expliqué avoir renoncé à détecter les contenus pédocriminels pour éviter la surveillance de masse, fait l'objet d'une campagne de lobbying à ce sujet, financée par une ONG qui commercialise, par ailleurs, un système de détection des contenus pédosexuels.

Danny Mekić déplore de son côté que son compte Twitter a fait l'objet d'un « shadow ban » suite à la publication de son article empêchant les twittos de trouver des informations à son sujet (il aurait depuis été levé, sans plus d'explications).

L'eurodéputée néerlandaise Sophie in 't Veld a pour sa part écrit à la Commission pour lui réclamer des explications à ce sujet, notamment sur la conformité de cette campagne avec le RGPD et le DSA.

L’Allemagne propose de reporter les propositions contestées

Euractiv rapporte, par ailleurs, qu'en réponse à la polémique, l’Allemagne a suggéré de retirer les parties les plus controversées du projet et de les intégrer dans un nouveau règlement : 

« La proposition de règlement visant à empêcher et à combattre le matériel pédopornographique en ligne (CSAM) obligerait les plateformes numériques de l’UE à détecter et à signaler ce type de contenu. Cependant, certains éléments de la proposition — en particulier les injonctions de détection qui, selon certains, rompent le chiffrement et violent la vie privée des utilisateurs — se sont avérés controversés et ont bloqué la législation. »

Et ce, d'autant que d’après un document officieux de la Commission européenne du 16 mai, « une discussion juridique approfondie sur la conception des injonctions de détection » serait encore nécessaire « pour établir une conformité avec la Charte des droits fondamentaux de l’UE ».

L'objectif serait de scinder le dossier en deux parties, à savoir les « dispositions généralement acceptables », qui devraient rester dans le texte de compromis, et les « dispositions controversées », qui devraient être supprimées, pour ensuite être incluses dans un nouveau projet de règlement.

Les dispositions « considérées comme généralement acceptables » concernent les mesures d’évaluation et d’atténuation des risques, « qui s’appliqueront aux fournisseurs de services d’hébergement et de services de communications interpersonnelles afin de déterminer les risques d’apparition de CSAM sur les services qu’ils offrent », ainsi que les injonctions relatives au signalement des CSAM, au retrait, au blocage et au déréférencement : 

« La détection du contenu pédopornographique ne devrait toutefois pas figurer dans le projet de loi, car il s’agit d’une question controversée qui devrait faire l’objet d’un nouveau projet de règlement. »

Euractiv rappelle à ce titre qu'une « orientation générale partielle » de la présidence espagnole, datée du 10 octobre, « a également suggéré de limiter le champ d’application des injonctions de détection aux CSAM connus pour l’instant » : 

« Les CSAM connus se réfèrent aux contenus déjà répandus sur Internet, tandis que les contenus inconnus se réfèrent à ceux qui n’ont pas encore été détectés. Les contenus connus sont plus faciles à détecter, grâce notamment à des technologies de hachage (hashing en anglais), qui permettent la création d’une empreinte qui sera partagée avec d’autres organisations afin que celles-ci comparent leurs propres fichiers avec ceux qui ont déjà été vérifiés comme étant illégaux (matching). Les contenus inconnus, ainsi que le pédopiégeage, sont en revanche beaucoup plus difficiles à détecter. »

Euractiv conclut que l’Allemagne estime que les autres parties du dossier constitueraient « une valeur ajoutée significative au statu quo juridique actuel » et qu’en s’accordant sur « ces bases juridiques créées pour la première fois au niveau de l’UE », la lutte contre les abus sexuels commis sur des enfants progresserait, « notamment en renforçant les autorités chargées d’agir et de diffuser ce type de contenu », ce qui « contribuerait également à la coopération internationale ».

Commentaires (13)


Donc si je comprends bien Mme Johansson, ce serait une “pratique normale et standard” de violer le RGPD et la DSA pour faire passer ses messages ? Les règlements sont bons pour les autres mais pas pour soi-même ? Il n’y aurait pas un peu de f* de gueule dans l’air ?… Après, il ne faut pas s’étonner si le rôle de la commission européenne est de plus en plus décrié et que les eurosceptiques prennent un peu partout de plus en plus d’importance.


:merci: Jamais je ne l’aurais aussi bien dit.



sylvaing a dit:


Donc si je comprends bien Mme Johansson, ce serait une “pratique normale et standard” de violer le RGPD et la DSA pour faire passer ses messages ? Les règlements sont bons pour les autres mais pas pour soi-même ? Il n’y aurait pas un peu de f* de gueule dans l’air ?… Après, il ne faut pas s’étonner si le rôle de la commission européenne est de plus en plus décrié et que les eurosceptiques prennent un peu partout de plus en plus d’importance.




Eux, ce sont les gentils. Et comme ce sont les gentils, ils peuvent faire n’importe quoi, ce n’est pas grave vu que ce sont les gentils!


C’est tellement ça…


Quelqu’un peut-il me dire si le CSAM impose une obligation de résultat aux plates-formes ?
Est-il impossible pour elles de fournir “juste” un système de reconnaissance d’image au sein de leur logiciel qui bloquerai l’envoi du message si un contenu pédo est détecté en local par le logiciel ?



Madame Johansson se plaind de mauvais traitements à son égard venant d’après elle de défenseur de la vie privée. Avons-nous plus d’informations à ce sujet (j’ai rien vu de probant dans son article) ? Ne ferait-elle pas un amalgame entre ceux qui l’attaquent malhonnêtement et ceux qui s’opposent courtoisement à son projet ? J’aimerais bien avoir des chiffres.
Notez bien que je ne renie pas ce qu’elle subis (je n’en ai aucune idée) : j’ai juste l’impression qu’elle cherche à se victimiser pour mieux appuyer son avis.


Luttons contre tout, prenons tous la castration chimiques et hop plus de problème



Ceci est du second degré.


Pas plus étrangement. Le néo-libéralisme de la CE est l’antithèse exacte du Christianisme. Attention, ne pas confondre avec les catho gauchistes, dont le christianisme a été souillé par le marxisme.



Cela prouve juste que la CE a clairement identifié ses ennemis.


On a affaire à une des commissions européennes les plus interventionniste de l’Histoire, et c’est pas peu dire ! Alors, parler de “libéralisme” à son encontre, c’est au mieux un bel oxymore…


anagrys

On a affaire à une des commissions européennes les plus interventionniste de l’Histoire, et c’est pas peu dire ! Alors, parler de “libéralisme” à son encontre, c’est au mieux un bel oxymore…


Je n’ai pas parlé de libéralisme mais de néo-libéralisme.



Je sépare le libéralisme keynesien (qui consiste à laisser privés les monopoles inévitables),
du communisme (qui consiste à tout nationaliser) et de sa version corrompue qu’est le socialisme,
de leurs versions privatisées que sont l’ultra-libéralisme (qui consiste à tout privatiser) et de sa version corrompue qu’est le néo-libéralisme.



Degaulle était libéral keynesien.
L’URSS était communiste initialement, socialiste avant sont effondrement.
Les USA et l’UE sont ultra-libéraux initialement, néo-libéraux avant leur effondrement.


Je ne comprend pas. 70% de la population sont pour la surveillance de masse ? Sachant que au bout du compte, c’est souvent les proches qui sont très largement responsables de crimes sexuels (père, oncle, frère, etc. (je ne sais pas si peux mettre une URL ici pour sourcer)), et que donc les enfants concernés ne seront pas plus protégés étant donné que ça ne se passe pas sur les réseaux, mais chez eux ou dans leur famille. Est-ce que ceux qui répondent aux sondages sont les mêmes qui pensent que leur pot de yaourt est recyclé, et qu’ils ont fait leur part pour la planète ?



pierreonthenet a dit:


Quelqu’un peut-il me dire si le CSAM impose une obligation de résultat aux plates-formes ? Est-il impossible pour elles de fournir “juste” un système de reconnaissance d’image au sein de leur logiciel qui bloquerai l’envoi du message si un contenu pédo est détecté en local par le logiciel ?




Le CSAM (lien vers wikipédia, pas vers des exemples :transpi:), ce sont les images, pas une loi.



Sinon, le principe pourrait être envisagé, mais c’est pas l’objectif de la proposition, si j’ai bien compris.




Madame Johansson se plaind de mauvais traitements à son égard venant d’après elle de défenseur de la vie privée.




En même temps, quand on fait de la merde faut pas être étonné d’en recevoir en retour aussi…



Et ce, alors qu’un sondage Eurobaromètre indique que 95 % des européens considéreraient que la détection des abus sexuels commis sur des enfants « est plus ou aussi importante que le droit à la vie privée », que 86 % sont favorables à ce que les sociétés Internet détectent automatiquement les images et vidéos d’abus sexuels commis des enfants ainsi que les cas de manipulation psychologique dans les messages en ligne, « même ceux qui sont envoyés en utilisant le cryptage (sic) de bout en bout (81 %) ».




Que mettent-ils derrière le mot «vie privée» ? L’argument en général c’est «moi je ne fais rien de mal j’ai rien à cacher» yavait même un site dédié à débunker ça, je ne pense pas que les concepteurs avaient prévu que leur scénario deviendrait si proche du projet…




Puis-je vous demander une copie de tous vos emails, de vos messages et photos sur Facebook, et de tous les fichiers sur votre ordinateur ? J’aimerais tout savoir sur votre vie privée.




En cherchant ça j’ai aussi trouvé un article d’Usbek et Rica qui parle de la question.



Je dis projet, mais jai l’impression qu’on se rapproche de Le procès en fait (que je n’ai pas lu, juste d’après le synopsis que j’ai lu). Le protagoniste n’a rien à cacher. Les juifs n’avaient rien à cacher dans la période avant les nazis. Les personnes ciblées avec le logiciel Pegasus (israélien) n’avaient rien à cacher.




C’est ce que montre cette liste de 50 000 personnes ciblées : on ne met pas sur écoute 50 000 maisons, il n’y a pas assez de spécialistes dans le domaine pour pouvoir le faire. Mais s’il y a juste besoin de tendre le bras vers quelque chose dans votre poche, ils peuvent le faire et ils le feront. (citation de Snowden interviewé dans l’article)




Et le procès du 8 décembre est en cours, selon la Quadrature la principale charge est… de vouloir avoir le secret des correspondances en chiffrant ses communications !




Dans ce dossier, protéger sa vie privée et chiffrer ses communications n’est plus seulement suspect mais devient constitutif d’un « comportement clandestin », un moyen de cacher un projet criminel. À travers différentes notes, la DGSI s’est ainsi affairée à démontrer comment l’utilisation d’outils comme Signal, Tor, Proton, Silence, etc., serait une preuve de la volonté de dissimuler des éléments compromettants. Et en plus de cela, comme nous le dénonçions en juin dernier, la DGSI justifie l’absence de preuves d’un projet terroriste par l’utilisation d’outils de chiffrement : les éléments prouvant une intention terroriste sont nécessairement, selon elle, dans ces fameux messages chiffrés et inaccessibles. Le serpent se mord la queue, ce qui amène les avocats d’un des inculpé·es à dénoncer le fait qu’« ici, l’absence de preuve devient une preuve ».




On est chez Kafka là pour moi.



Un récent article de NXI titre «L’UE, un sanctuaire pour les éditeurs de logiciels espions».




Dans ses recommandations de juin, la Commission a conclu que « ni les États membres, ni le Conseil, ni la Commission ne semblent vouloir tout mettre en œuvre pour faire toute la lumière sur le recours abusif à des logiciels espions, et qu’ils protègent ainsi sciemment des gouvernements de l’Union qui portent atteinte aux droits de l’Homme à l’intérieur et à l’extérieur de l’Union », rappelle Euractiv




Je pense que les gens n’ont pas peur de l’interception des lettres dans des enveloppes, ça a l’air fastidieux. Mais maintenant on n’envoie plus de lettres mais des emails,



«Fournisseurs de services en ligne» c’est abstrait aussi. Si on posait la question aux gens :



«Pensez-vous raisonnable, pour détecter les cas de pédopornographie et messages manipulant les enfants, de :




  1. d’abord scanner automatiquement, (en obligeant les entreprises à le rendre possible) chaque email ou message sur n’importe quelle plateforme (Facebook, Signal, Whatsapp) envoyé, reçu, ou sauvegardé comme brouillon, à la recherche de :




  • contenu pédopornographique connu ou déduit comme étant pédopornographique par un programme informatique appelé «intelligence artificielle» ;

  • conversations manipulant les enfants y participant




  1. ensuite éventuellement demander à un humain de vérifier les messages litigieux;

  2. et enfin dénoncer automatiquement les messages où du contenu pédopornographique a été trouvé» ?



(j’ai pas exagéré le truc là non ?)



Et en leur exposant le cas réel, rapporté par le New York Times et Nxi, de deux hommes dont au moins un (l’autre est «cas similaire») a été dénoncé à la police par Google suite à la détection automatique de photos des parties génitales d’un enfant envoyée à un médecin pour avoir un diagnostic ? (vu via)




Et c’est cet outil, par ailleurs utilisé par Facebook et d’autres entreprises, qui a identifié les photos de Mark et de Cassio comme potentiellement problématiques. Elles auraient ensuite été transmises à un modérateur, afin qu’il confirme qu’elles relèveraient bien de « la définition fédérale de matériel pédopornographique »



Sauf erreur de ma part, et pour information, selon la source citée par cet article, c’est 70%-71% qui sont prêt à remettre en cause le chiffrement de bout en bout, pas 81%, ni 95%.


Fermer