Pédopornographie : Apple s'explique, mais la colère et les craintes restent

Pédopornographie : Apple s’explique, mais la colère et les craintes restent

Rien à craindre ? Alors rien à cacher

Avatar de l'auteur
Vincent Hermann

Publié dans

Société numérique

12/08/2021 19 minutes
58

Pédopornographie : Apple s'explique, mais la colère et les craintes restent

Depuis la présentation de son plan de lutte contre les images à caractère pédopornographique sur les iPhone, iPad et Mac, Apple a déclenché un incendie que l'entreprise a bien du mal à calmer. À travers des explications et une FAQ, elle tente l’apaisement, mais les protestations ne faiblissent pas.

Il y a quelques jours, Apple présentait plusieurs mécanismes visant à combattre l’exploitation et les abus sexuels des enfants. Trois volets ont été détaillés, dont un a particulièrement frappé les esprits : l’arrivée dans iOS/iPadOS 15 et macOS 12 d’un mécanisme de contrôle d'empreintes de photos pour les comparer à une base de données. En cas de multiples correspondances, un contrôle manuel permet de vérifier leur nature pédopornographique.

Ce processus prend place entre l’enregistrement de la photo sur le téléphone et sa sauvegarde dans iCloud. Dans sa conception, il aurait théoriquement la capacité d’ignorer le chiffrement de bout-en-bout, au grand dam de nombreux experts en sécurité et de l’Electronic Frontier Foundation (EFF), qui a dit depuis toute sa déception devant un mouvement qui ne manquera pas d’attirer de nombreux gouvernements.

Deux points cristallisent les tensions. D’une part, l’aspect intrusif du mécanisme, violant des appareils présentés de longue date comme des sanctuaires. L’affaire San Bernardino avait propulsé Apple au rang de chevalier blanc pour les protecteurs de la vie privée. D’autre part, la gourmandise que pourrait susciter cette détection chez certains régimes, qui détourneraient alors son objectif en lui faisant chercher d’autres types de contenus.

Alors que les avis d’experts et chercheurs s’accumulent et qu’une pétition – signée par des milliers de personnes – demande à Apple de faire machine arrière, la société communique abondamment, ce qui la pousse à un exercice dont elle n’a pas l’habitude : se justifier.

De nombreuses explications

Cette communication s’est faite et continue de se faire au travers de plusieurs interventions de responsables de l’entreprise. Dès le 6 août, lendemain de la parution du livre blanc technique sur les solutions adoptées, Sebastien Marineau-Mes, vice-président aux logiciels, publiait au sein d’Apple un mémo aux employés, obtenu par 9to5mac.

Il y annonçait que de « nombreuses réactions positives » avaient été reçues, notamment de la part des organisations de lutte contre l’exploitation sexuelle des enfants. Pour preuve, il relayait une note envoyée par Marita Rodriguez, directrice des partenariats du NCMEC (National Center for Missing and Exploited Children) : « J’espère que vous serez rassurés de savoir que grâce à vous, des milliers d’enfants victimes d’exploitation sexuelle seront sauvés et auront une chance de guérir et d’avoir l’enfance qu’ils méritent ».

Elle s’est toutefois permise d’ajouter : « Nous savons que les prochains jours seront remplis des voix stridentes de la minorité ». La minorité en question était déjà connue : des chercheurs en sécurité, l’EFF et d’autres organisations de défense de la vie privée, alertant sur le danger d’un glissement avec un système capable de remettre en question l’une des grandes forces d’Apple : le chiffrement de bout-en-bout. Marineau-Mes reconnaissait d’ailleurs dans son mémo que des jours compliqués attendaient l’entreprise pour faire comprendre ses choix.

Le soir même, Apple organisait une conférence de presse avec de nombreux médias américains pour mieux expliquer certains aspects de son mécanisme d’empreintes. Par exemple, que les jetons cryptographiques fournis aux serveurs d’Apple ne contiendront aucune donnée utile, mettant les utilisateurs à l’abri de toute dérive de certains gouvernements, qui seraient tentés de détourner cet outil vers d’autres finalités.

Autre point crucial, le contrôle humain obligatoire avant l'éventuel envoi des données aux forces de l’ordre. L’idée que tout serait transféré en temps réel était rapidement apparue. Apple rappelle donc qu’elle n’accède pas aux données du téléphone, seules des empreintes sont comparées jusqu’à un seuil de plusieurs correspondances.

Une FAQ pour éclaircir la situation

Pour s’assurer d’une source unique d’explications qui ne seraient pas des propos rapportés, l'entreprise a enchainé rapidement avec une FAQ pour lister les principales questions.

Premièrement, Apple rappelle que les technologies utilisées pour la comparaison des empreintes et l’analyse des photos dans Messages ne sont pas les mêmes. Rappelons que pour cette dernière, Apple floute les images à caractère sexuel sur les appareils affiliés à des mineurs de moins de 18 ans. Si l’enfant a moins de 13 ans, une alerte est envoyée aux parents si le téléphone est intégré dans un compte familial.

L’entreprise assure que ce mécanisme est local, Apple ne voyant jamais les images. Suivent plusieurs compléments dans lesquels la société explique le caractère optionnel de cette détection, qui ne peut être activée que par les parents. En outre, les alertes ne peuvent plus être émises quand l’âge est de 13 ans ou plus, même si le contenu détecté est flouté et qu’un avertissement est affiché. Il faut choisir de continuer pour voir la photo.

Deuxièmement, la détection de contenus pédopornographiques ne se fait que sur les appareils qui ont activé la sauvegarde iCloud, et plus particulièrement iCloud Photos. Si des personnes ont coupé la fonction et se servent d’un autre type de sauvegarde ou même n’en font pas, rien ne se passera.

Apple NeuralHash pédopornographie

En outre, la base de correspondance téléchargée sur les appareils ne contient que des empreintes, pas les photos, et elles sont stockées dans une zone sécurisée. Heureusement d’ailleurs, car on imagine assez mal l’incongruité de stocker sur un téléphone des milliers de photos pédopornographiques pour… lutter contre la pédopornographie. Sans parler de la place que requerrait une telle manœuvre.

Vient ensuite l’une des grandes questions : pourquoi maintenant ? La firme s’explique : « L’un des plus gros défis dans ce domaine est de protéger les enfants tout en préservant la vie privée des utilisateurs. Avec cette nouvelle technologie, Apple saura quelles images CSAM (Child Sexuel Abuse Material) connues sont stockées dans iCloud Photos (…). Apple n’apprendra rien au sujet des autres données stockées uniquement sur l’appareil ».

Mais en quoi la solution proposée serait-elle différente ? L’entreprise répond :

« Les techniques existantes, telles qu’implémentées par les autres sociétés, scannent toutes les photos stockées dans le cloud. Ce qui crée un risque pour la vie privée de tous les utilisateurs. La détection CSAM dans iCloud Photos offre des bénéfices significatifs de vie privée [...] en empêchant Apple d’apprendre quoi que ce soit sur les photos, à moins qu’elles ne correspondent à des images CSAM connues et qu’elles soient stockées dans un compte iCloud Photos incluant une collection d’images CSAM connues. »

Le cœur des craintes

Viennent ensuite d’importantes questions sur la thématique de la surveillance et des usages que certains gouvernements pourraient en faire. Le système de détection de contenus CSAM peut-il être utilisé pour d’autres finalités ? Non, assure Apple :

« Notre processus est conçu pour prévenir cela. La détection CSAM pour iCloud Photos est construire de manière à ce que le système ne fonctionne qu’avec des empreintes d’images CSAM fournies par le NCMEC et d’autres organisations de protection des enfants ». La firme ajoute un point important : « Dans la plupart des pays, y compris les États-Unis, la simple possession de ces images est un crime et Apple est obligée de signaler tout cas détecté aux autorités compétentes. »

Vient ensuite une crainte largement exprimée par les chercheurs en sécurité et des organisations comme l’EFF : les gouvernements pourraient-ils forcer la firme à ajouter des images non-CSAM à la base d’empreintes ? « Apple refusera toute demande de ce type », assure-t-elle. « Nous avons déjà fait face à des demandes de construire et déployer des changements imposés par des gouvernements et les avons refusées. Nous continuerons à les refuser ».

Apple NeuralHash pédopornographie

Elle ajoute : « Soyons clairs : cette technologie est limitée aux contenus CSAM stockés dans iCloud et nous ne répondrons favorablement à aucune requête de gouvernement visant à l’étendre. En outre, Apple conduit des vérifications humaines avant d’émettre un rapport au NCMEC. Dans le cas où le système épinglerait des photos ne correspondant pas aux contenus CSAM, le compte ne serait pas désactivé et aucun rapport ne serait envoyé ».

Ne pourrait-on pas quand même injecter des images non-CSAM dans le système ? Apple assure encore que non, l'ensemble étant prévu pour éviter ce cas de figure. L’entreprise ne gérant pas la base des empreintes, elle n’a pas moyen d’y ajouter quoi que ce soit. Et puisque cette base est téléchargée chez tout le monde, elle ne peut pas servir d’attaque contre une personne spécifique. Notez qu'Apple n'aborde pas le cas où le NCMEC lui-même serait piraté et la base corrompue.

De plus, le chercheur en sécurité Matthew Green a pointé que rien n’empêche théoriquement de déployer une autre base que celle du NCMEC. Aucune personne innocente ne sera inquiétée, la société l’affirme : « la probabilité que le système signale à tort un compte est d’une sur 3 000 milliards par an ». Et de rappeler à nouveau qu’une vérification humaine aura lieu dans tous les cas.

Mais même si les explications d’Apple sont claires et les détails techniques abondants dans sa documentation, le seul critère viable reste la confiance que l’on accordera au géant. Tout repose sur cette notion fluctuante et que la société a patiemment bâtie en se positionnant comme défenseur de la vie privée. De fait, les explications n’atténuent pas le sentiment de trahison, étayé par les interventions des chercheurs.

La levée de boucliers s’intensifie

Cette première salve d’explications n’a en effet pas suffi. D’autres voix se sont fait entendre depuis. De manière assez surprenante, un responsable de Facebook a pris par exemple la parole pour critiquer copieusement le mécanisme de Cupertino : Will Cathcart, qui dirige WhatsApp.

Dans une série de tweets, il revient sur l’une des principales craintes depuis l’annonce, évoquant un « système de surveillance construit et opéré par Apple, qui pourrait aisément être utilisé pour examiner du contenu privé en fonction des exigences d’un gouvernement ». Il affirme que WhatsApp n’implémentera jamais de solution similaire.

Si le cas des gouvernements semble être « réglé » pour Apple (si on lui fait confiance), le responsable a le mérite de soulever une question revenant souvent dans les discussions des chercheurs et autres experts en sécurité : que se passera-t-il en cas de faille dans le dispositif ? C’est toute la problématique des portes dérobées – c’est ainsi qu’est qualifié le mécanisme par beaucoup, dont l’EFF – puisque des pirates pourraient la trouver et s’en servir.

« Plutôt que de se concentrer sur une façon simple pour les utilisateurs de signaler du contenu partagé avec eux, Apple a bâti un logiciel scannant toutes les photos privées que vous ne partagez avec personne. Ce n’est pas de la confidentialité », martèle Cathcart. Pourquoi ne pas faire comme WhatsApp, qui a mis en place un processus de signalement qui aurait permis de rapporter plus de 400 000 cas au NCMEC en 2020, et ce sans casser le chiffrement de bout en bout ? Outre ce petit coup de publicité pour la supériorité de sa messagerie, Cathcart ne dit pas cependant combien de ces cas ont été avérés.

Matthew Green ne lâche pas l’affaire de son côté et revient régulièrement sur l’inadéquation complète du système envisagé par rapport aux finalités. Dans un tweet, il aborde un point intéressant : cette décision ne serait pas due à des demandes gouvernementales, le Congrès n’ayant passé aucune loi dans ce domaine et ne prévoyant pas de le faire. Les députés et sénateurs seraient parfaitement au courant que ce type de mécanisme, très impopulaire, n’aurait aucune chance de passer. La société se serait donc tiré une balle dans le pied toute seule.

Il se fait volontiers ironique : « Il est remarquable que des gens aient traversé les dernières années de politique américaine et demeurent pourtant convaincus qu’une alliance des sociétés tech et des agences quasi-gouvernementales tiendra face à la surveillance ». Il redit son incompréhension face à la décision d’introduire ce mécanisme en local sur les téléphones, et pas uniquement dans le cloud. À moins que la firme ait déjà prévu d’étendre le dispositif aux photos stockées seulement sur le téléphone, sauvegarde iCloud ou pas.

Edward Snowden est sur la brèche également depuis plusieurs jours. Entre deux tweets sur Julian Assange, il affirme que ces protestations sont utiles, et qu’à force de les entendre sans qu’elles faiblissent, Apple finira par plier : « Ne la fermez pas sur le scandale Apple #spyPhone. Nous pouvons gagner ».

Son avis était clair dès le départ : « Qu’importe à quel point les intentions sont bonnes, Apple va déployer avec ça une surveillance de masse pour le monde entier. Ne vous y trompez pas : s’ils peuvent scanner de la pédopornographie aujourd’hui, ils pourront scanner ce qu’ils veulent demain ».

Il pointe également une incohérence dans le discours d’Apple, signalée par d’autres, comme Jonathan Mayer. Lors du choc frontal avec le FBI après la tuerie de San Bernardino, l’agence se servait d’une très vieille loi pour forcer l’entreprise à percer dans ses propres défenses et ainsi récupérer les données locales de l’iPhone 5c retrouvé. Apple avait argué que cela entraînerait une chute de son chiffre d’affaires, ce qui était précisément l’exception à cette loi. « La réponse d’Apple sur les demandes des gouvernements est difficilement conciliable avec sa position dans le litige avec le FBI et le DoJ », a pointé Mayer en ciblant la FAQ.

On a également vu une lettre ouverte prendre beaucoup d’ampleur. Elle regroupe de nombreux chercheurs et organisations de défense de la vie privée et des libertés civiles. Les avis y sont clairs et vont tous dans le même sens : c’est une très mauvaise nouvelle pour la vie privée. « Le type de technologie qu’Apple propose pour ses mesures de protection des enfants repose sur une infrastructure extensible qui ne peut être ni surveillée ni techniquement limitée. Les experts ont prévenu de manière répétée que le problème n’est pas uniquement la vie privée, mais également le manque de responsabilité, les barrières techniques à l’extension et l’absence d’analyse ou même de reconnaissance du potentiel d’erreurs et de faux positifs ».

Ce que réclame la lettre ? D’abord qu’Apple cesse immédiatement son projet de déploiement de cette technologie jugée extrêmement invasive. Ensuite que la société réaffirme publiquement ses engagements sur le chiffrement de bout-en-bout. On retrouve dans ses signataires Calypso IT Services, le Chaos Computer Club, Cryptomator, la Freedom of the Press Foundation, Gigahost, la New York Public Library, Peergos, la Privacy Foundation, ThinkPrivacy ou encore WebTorrent. À l’heure où nous publions ces lignes, elle comporte un peu moins de 7 500 signatures.

Apple droite dans ses bottes pour l’instant

Eric NeuenSchwander, à la tête des technologies de confidentialité d'Apple n’en démord pas : son système est bien pensé, limité aux États-Unis et aux contenus pédopornographiques. Il ne peut pas être détourné pour d’autres cibles, ni pour viser une personne spécifique. C’est le sens de ses propos publiés chez TechCrunch.

Comment s’assurer que le mécanisme ne sera utilisé que contre l’exploitation sexuelle des enfants ? Le cadre juridique américain est très clair selon le responsable. La pédopornographie serait le seul cas de figure où une telle détection pourrait se faire. Même le terrorisme ne semble pas une raison suffisante.

Mais la lettre ouverte rappelait justement qu’Apple a aussi un historique d’adaptation à certaines demandes gouvernementales, comme la suppression de FaceTime en Arabie saoudite, la loi du pays interdisant les appels téléphoniques chiffrés, ou les multiples exigences de la Chine, comme le pointe Edward Snowden. Ce rappel, couplé à l’analyse de Matthew Green sur la possibilité de déployer n’importe quelle base d’empreintes, invite à la prudence. NeuenSchwander n’a donné aucun élément de réponse sur ce point.

Interrogé sur la désactivation du mécanisme en cas d’absence d’iCloud Photos, le responsable confirme. TechCrunch veut savoir : pourquoi dès lors ne pas le faire uniquement du côté serveurs ? Parce que la solution serait pire pour la vie privée assure NeuenSchwander, et la solution côté client a l’avantage de ne pas toucher au chiffrement. C’est l’un des points qui crispe le plus les chercheurs en sécurité, car le chiffrement de bout en bout n’a plus guère d’intérêt si un mécanisme intervient avant. Comme le pointait l’EFF, cela relève de la pirouette lexicale.

Pourtant, proposer une fonction ne pouvant fonctionner que si iCloud Photos est activé revient à intervenir sur les données du serveur, même si l’action est réalisée côté client. Quand Apple assure que le choix de réaliser l’opération sur les appareils protège davantage la vie privée des utilisateurs, il faut croire l’entreprise sur parole, car aucun élément technique ne vient étayer le propos.

Apple ne peut pas dire qu’elle ne touche pas aux sauvegardes iCloud, puisque l’on sait depuis des années qu’en cas d’enquête et de mandat délivré par un juge, elle peut extraire des données d’un compte. Or, si le cadre juridique lui permet d’effectuer une action sur l’ensemble des iPhone, iPad et Mac compatibles, rien ne l’empêche de reporter ces calculs sur les serveurs. La firme n’en démord cependant pas : « Ce que l’on peut dire avec ce système, c’est qu’il laisse la vie privée complètement intacte pour tout utilisateur n’étant pas dans un comportement illégal ».

En somme, si vous n’avez rien à cacher, vous n’avez rien à craindre.

Et maintenant ?

La situation est complexe, car Apple semble – pour l’instant en tout cas – sûre de son coup. Pourtant, de très nombreuses voix se sont élevées et continuent de le faire sur les conséquences délétères potentielles d’un tel mécanisme. Quand bien même la solution serait techniquement parfaite, le département marketing de l’entreprise risque fort de suer à grosses gouttes pour préserver l’image de chevalier blanc.

Les médias se sont largement emparés du sujet, les positions de nombreux chercheurs en sécurité sont claires et les associations de défense de la vie privée sont vent debout. Les échos perçus par le grand public ne sont probablement pas glorieux. Même si l’on met de côté l’exécution technique du mécanisme, l’idée qu’Apple puisse installer un « mouchard » dans tous ses appareils – compatibles avec les systèmes à venir – divisera nécessairement. Une partie sera troublée, tandis que l’autre applaudira si le système permet de mettre fin par exemple à des réseaux d’échanges d’images pédopornographiques.

Un trouble et une dichotomie que Wired aborde dans un article publié tout récemment. « En modifiant son logiciel, Apple change non seulement notre comportement, mais aussi inconsciemment notre confiance », indiquent les auteurs, Albert Fox Cahn et Evan Selinger. Ils vont plus loin : « Si Apple veut vendre la vie privée mondiale, ils ne devraient pas paver la voie à l’autoritarisme dans les petits caractères. La vraie vie privée signifie vendre des services protégeant nos données, qui empêchent les données d’être récoltées non seulement par les fournisseurs de publicités, mais également par les gouvernements, étrangers ou non ».

Le principal danger désormais pour Apple est un changement dans la perception de sa marque. Le constructeur fournit par exemple les puces les plus puissantes dans ses téléphones, mais il y a longtemps que ce n’est plus vraiment un argument de vente. La tranquillité d’esprit, les efforts manifestes contre la publicité, l’absence d’exploitation des données sont en revanche des poids lourds dans les choix, si l’on met de côté – évidemment – la forte inertie ensuite dans les renouvellements.

Si la perception change, Apple perdra un de ses leviers de différenciation face au monde Android bouillonnant. Et l’entreprise ne peut rien nier, puisqu’elle est allée jusqu’à détailler son mécanisme, qui crie à chaque personne utilisant un de ses produits qu’elle est un ou une pédophile potentielle. Seule une minorité de personnes peut débattre de la justesse technique de la solution adoptée. L’immense majorité ne verra que l’adoption elle-même.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

De nombreuses explications

Une FAQ pour éclaircir la situation

Le cœur des craintes

La levée de boucliers s’intensifie

Apple droite dans ses bottes pour l’instant

Et maintenant ?

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (58)


Et bien c’est très bien et je suis pour et j’espère qu’Android va faire de même. Car c’est trop terrible l’abus sexuel des enfants


Sachant que si j’abuse des enfants du voisinage et que je partage les photos avec quelqu’un à l’autre bout du pays/monde, comme les photos que j’aurais prises ne seront pas dans la base, le système ne verra rien.
Je serais curieux de connaitre le % de gens qui stockent des photos interdites connues sur leur phone/iCloud par rapport à ceux qui font ça en mode déconnecté et/ou alimentent les réseaux avec du contenu frais.
Et la vitesse à laquelle les ONG incorporent les nouvelles photos à leur base pour les détecter.



Je ne dis pas qu’il ne faut rien faire, juste que le solutionnisme technologique n’est pas la bonne réponse.



Et même si le cadre de la loi empêche l’extension à d’autres contenus, POUR LE MOMENT, un cadre législatif ça évolue, et les parlementaires savent retourner leur veste.



Je vous laisse faire la liste des “non, non on fera jamais” de nos politiques qui ne sont restés que des belles paroles.



Oui, je suis méfiant, non je ne pense pas être complotiste, juste que mon capital confiance s’est lentement érodé face à leurs (in)actions.



behemothe a dit:


Et bien c’est très bien et je suis pour et j’espère qu’Android va faire de même. Car c’est trop terrible l’abus sexuel des enfants




Et puis demain un état x dira de plugger la bdd sur la leurs et Apple ne pourra pas dire que c’est techniquement pas réalisable…


Très bien qu’ils se prennent des volées de bois vert.


don’t feed the easy :troll:


S’il fallait encore une démonstration des risques et dérives de la centralisation des outils et de leur usage.


Maintenant ce que je me demande c’est pourquoi ils n’ont pas poussé la prévention des parents en promettant du E2E puis sur iOS 16 proposer CSAM avec le E2E pour faire taire les politiques US
J’ai beau ne pas être contre leur implémentation même moi je me serais douté qu’une pilule aussi grosse cela passerait pas sans casse



Macqael a dit:


Maintenant ce que je me demande c’est pourquoi ils n’ont pas poussé la prévention des parents en promettant du E2E puis sur iOS 16 proposer CSAM avec le E2E pour faire taire les politiques US J’ai beau ne pas être contre leur implémentation même moi je me serais douté qu’une pilule aussi grosse cela passerait pas sans casse




Pt être parce que la plupart des pédophiles sont les parents eux mêmes ?


En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.



Oups, je viens d’expliquer comment contourner leur nouvelle fonctionnalité, donc Je précise que c’est à but éducatif, n’est-ce pas :D



Blague à part, il est évident que c’est pour traquer tout à chacun dans le futur dans tout domaine que ce soit, vu qu’il est aisé de passer outre cette première ébauche. La tactique de la grenouille dans la marmite… Si Apple n’a pas cela comme objectif, alors les nouvelles générations de développeurs sont encore plus CONS que je ne le pensais, ce qui m’étonnerait beaucoup.



TheKillerOfComputer a dit:


En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.



Oups, je viens d’expliquer comment contourner leur nouvelle fonctionnalité, donc Je précise que c’est à but éducatif, n’est-ce pas :D



Blague à part, il est évident que c’est pour traquer tout à chacun dans le futur dans tout domaine que ce soit, vu qu’il est aisé de passer outre cette première ébauche. La tactique de la grenouille dans la marmite… Si Apple n’a pas cela comme objectif, alors les nouvelles générations de développeurs sont encore plus CONS que je ne le pensais, ce qui m’étonnerait beaucoup.




Mouais perso j’y crois pas, dit moi ils ont quoi a y gagner Apple dans l’histoire ?, car dans ton scénario de film B il manque le mobile du crime…




Drepanocytose a dit:


Pt être parce que la plupart des pédophiles sont les parents eux mêmes ?




Ahah, je sais pas mais venant de la part d’Apple il aurait du s’en douté que ca passerait mal (et pourtant je suis pas contre le système) alors les intégristes de la vie privé c’est évident que ca allais coincé.



TheKillerOfComputer a dit:


En gros les pédophiles utiliseront plutôt un appareil photo classique et uploaderont depuis un PC sous WIndows/Linux vers un logiciel de communication moins curieux genre… Whatsapp.




Il y avais eu un article un jour, je sais plus si c’était ici ou pas, qui expliquait que les pédophiles se connectaient en TSE à des serveurs distant pour voir les images (et les flims) sans que par définition il ne puisse y avoir de trace locale (puisque seule l’image de l’écran est envoyé).
Ces serveurs étant hébergés dans des pays où la législation et les …. coutumes en matière de pédopornographie sont , disons, moins sévère (Yemen par exemple).



J’avoue que ce système de CSAM me parait incohérent : Déjà comme dit plus haut ça ne concerne que des images déjà connues. Ensuite cette base est donc voué à grossir sans cesse, impactant les performance & la mémoire des appareils.
Plus il y aura de photos, plus il y aura le risque d’un faux positif. Or , Apple dit eux même que la loi les obliges à signaler toute “photo pédo”.
Mais quand la base de donnée sera étendue à autre chose (on peux imaginer des photos de blasphème, plus grave dans certains pays que la pédopornographie, mais aussi des caricatures, du terrorisme, …. et , à terme, nos chers ayants-droit qui sont à l’affût avec leur “pourquoi pas nous”)


Je ne suis pas un spécialiste mais les lois actuelles américaines ne permettent pas justement d’ajouter dans cette base de données tous ce que les services à 3 lettres veulent sans que la pomme n’y ai à redire quoi que ce soit et sans qu’elle est le droit d’en parler ?



Ou ils pourraient directement forcer légalement le NCMEC ou une des autres organisations de protection des enfants à coopérer.


Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?



Deuxièmement, la détection de contenus pédopornographiques ne se fait que sur les appareils qui ont activé la sauvegarde iCloud, et plus particulièrement iCloud Photos. Si des personnes ont coupé la fonction et se servent d’un autre type de sauvegarde ou même n’en font pas, rien ne se passera.




Le scan est obligatoire si tu utilise les servers Apple pour stocker le contenu. Vu que le server appartient à Apple ça me semble légal de leur part d’ajouter ça dans leurs conditions d’utilisation.



Macqael a dit:


Mouais perso j’y crois pas, dit moi ils ont quoi a y gagner Apple dans l’histoire ?, car dans ton scénario de film B il manque le mobile du crime…




Ça permet de scanner pour ses propres besoins de profiling publicitaire, si on adapte la chose…



Mais restons à aujourd’hui dans ce cas : Apple vient de concevoir rien de moins qu’un framework. Pour l’instant c’est limité aux USA, mais demain ? Si la Chine exige la même chose sous peine de se voir bloquer le marché national si ce n’est pas réalisé, Apple devient subitement compatible car le travail est fait, il faudra juste quelques ajustements à la marge.



Alors oui selon l’article, Apple prétend qu’il refusera toute demande gouvernementale, sauf que c’est aussi indiqué que ce n’est pas lui qui gère les listes des empreintes… et il faudra nécessairement des listes locales en fonction du pays qui exigera la mise en service.



Il y a aussi potentiellement la volonté d’être compatible avec la législation… européenne à venir, à commencer par Chat Control, dont je ne serai pas étonné si ça devient obligatoire un jour bien que pour l’instant il s’agirait de permettre temporairement… Apple n’aura aucun mal à adapter son framework si c’est requis.



D’un côté, on ne peut pas lui reprocher de vouloir s’adapter aux marchés où il est présent. De l’autre, c’est un dangereux et inexcusable précédent.


Seule une minorité de personnes peut débattre de la justesse technique
de la solution adoptée….



voila, le ton est donné !
“et les autres……” :langue:


La pédophilie ?
Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.



Hugues1337 a dit:


Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?




Ça viendra dans une mise à jour de l’os et elles sont quasi systématiquement conditionnées à l’acceptation de nouvelles conditions d’utilisation. Rien de nouveau sous le soleil.



Surtout que si le mécanisme est attaquable sur le plan moral, il a l’air blindé sur le plan technique de l’exploitation des données personnelles, donc si ce truc arrive en Europe, c’est même pas dit qu’on soit blindé légalement pour parer la manœuvre.



croustx a dit:


La pédophilie ? Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.




Les caricatures d’un prophète ?



Les photos porno ?



croustx a dit:


Les photos ostentatoires.




Hem, là ça va faire large. Voir même toutes les photos.



plopl a dit:


Hem, là ça va faire large. Voir même toutes les photos.




Si on jette aux lions dans le Colisée de Rome les gugusses qui font des photos d’ananas sur des pizzas, c’est pas si mal :fumer:


“Lors du choc frontal avec le FBI après la tuerie de San Bernardino, l’agence se servait d’une très vieille loi”



Erreur grammaticale à mon sens.
Soit l’agence “se servit”, soit éventuellement “avait tenté de se servir” (si finalement Apple a tenu bon me souviens plus).
(Au fait je ne vois plus le “popup” pour signaler une erreur quand on surligne du texte, retiré ? Ou une incompatibilité de mon navigateur ?)



Sinon merci beaucoup pour cet article détaillé que je vais retourner finir de lire.


C’est une option dans les paramètres maintenant. “Signalement d’erreur contextuel”


Apple a donné accès au données sur leur serveurs, mais a refusé de crée un programme pour déverrouillé le téléphone. Ce qui a été inutile vus que le FBI a acheté un hack, une zéro day je crois, et que le téléphone ne contenait rien.


D’ailleurs, je me un très bon thread vulgarisateur de la part de Mathis Hammel https://twitter.com/MathisHammel/status/1425523073806110720?s=20 qui explique comment fonctionne ce fameux processus d’analyse côté client.


Thanks @misocard @Lamatech pour les précisions :smack: :inpactitude:


Le paradoxe de l’approche d’apple est que ça a dû donner une érection à la majorité parlementaire européenne…



https://www.politico.eu/article/european-parliament-platforms-child-sexual-abuse-reporting-law/



Hugues1337 a dit:


Personne en parle mais c’est légal qu’Apple active un scan de mes photos sans mon consentement ?




100% légal car si tu fait l’update tu clique sur accepter (avec le paver de texte à chaque update donc tu a donné ton consentement des que tu clique sur accepter pour montrer sur iOS 15)



Tirnon a dit:


Je ne suis pas un spécialiste mais les lois actuelles américaines ne permettent pas justement d’ajouter dans cette base de données tous ce que les services à 3 lettres veulent sans que la pomme n’y ai à redire quoi que ce soit et sans qu’elle est le droit d’en parler ?



Ou ils pourraie



croustx a dit:


La pédophilie ? Seulement ?



Et pourquoi ne pas aussi scanner les photos de terrorisme.



Les photos antivax.



Les fake news.



Les photos avec droit d’auteur.



Les photos religieuses.



Les photos ostentatoires.



Les photos d’art.



Les photos non conformes au dogme gouvernementale



Je vous laisse continuer la liste.




nt directement forcer légalement le NCMEC ou une des autres organisations de protection des enfants à coopérer.



Non car contraire au 4e amendement de la constitution des US sur les saisies illégales (ils doivent reporter mais ne sont pas obligés de chercher)


Reprise de mon commentaire, sans la réponse au troll:



En matière de “surveillance de masse” que savons-nous exactement ?




  • Que La Pelle a accepté beaucoup de compromis avec le gouvernement Chinois… Entre autres, le fait que les données des clients Chinois soient gérées par une société Chinoise… contrôlée par le gouvernement.



  • Dans l’article, nous apprenons qu’il en est de même avec certains gouvernements du Proche et Moyen-Orient : compromis, quand tu nous tiens !



  • Que, comme dit très pertinemment plus haut, dans le cas de l’affaire de San Bernardino Elle a refusé de déverrouiller des iPhones… mais a fourni volontiers plein de données iCloud aux autorité US. Après que ces données étaient toutes exploitables ou pas, c’est un tout autre problème.




En conclusion, nous ne pouvons pas faire confiance totalement à La Pelle, parce qu’elle est mal placée pour résister aux gouvernements quels qu’ils soient, elle ne peut et ne pourra jamais dire NON à tout, parce que des emplois, des marchés et du chiffre\( d'affaire\) sont en jeu, argument massue s’il en est.



Un gouvernement, même démocratique, a une importante capacité de nuisance, légale ou pas, envers n’importe quel bizness petit ou gros. Que certains gouvernements ne s’en servent pas, pour des raisons de législation internationale, par lâcheté, par ignorance ou par flemme, c’est encore une autre histoire.



Mais le fait est là : dans un combat au KO contre un gouvernement, La Pelle ne fait pas le poids.



Si moi, Président (LOoooL) d’un pays non-démocratique je te dis : tu obéis ou je vais tout faire pour que tu ne puisse plus vendre ni t’installer dans mon pays et vais commencer tout de suite par te rendre la vie proprement infernale, ben t’obéis, bon gré ou mal. Gré.



En conclusion, il faut empêcher cette mesure “anti-truc” d’être appliquée, coute que coute.



(quote:1891142:DantonQ-Robespierre)
Reprise de mon commentaire, sans la réponse au troll:



En matière de “surveillance de masse” que savons-nous exactement ?




  • Que La Pelle a accepté beaucoup de compromis avec le gouvernement Chinois… Entre autres, le fait que les données des clients Chinois soient gérées par une société Chinoise… contrôlée par le gouvernement.




C’est une évidence. Apple aura beau dire, autant à la rigueur ils peuvent se permettre de se fâcher avec le gouvernement d’Arabie Saoudite, autant ils ne seront jamais en mesure de refuser les demandes du gouvernement autocratique d’un pays qui représente non-seulement un marché de plus d’un milliard de personnes, mais en plus le lieu où est fabriqué absolument tout leur matériel.



Or, le gouvernement Chinois est bien moins intéressé par les images du NCMEC, que par les mèmes de Winnie l’Ourson et les photos de tankman.



Je vois mal comment Apple pourrait leur dire non, désormais.



Macqael a dit:


100% légal car si tu fait l’update tu clique sur accepter (avec le paver de texte à chaque update donc tu a donné ton consentement des que tu clique sur accepter pour montrer sur iOS 15)




Oui oui, comme dans l’épisodede South Park. Mais en vrai ? Cela m’a tout l’air abusif.



misocard a dit:


Le scan est obligatoire si tu utilise les servers Apple pour stocker le contenu. Vu que le server appartient à Apple ça me semble légal de leur part d’ajouter ça dans leurs conditions d’utilisation.




C’est pour l’instant nébuleux le mode de fonctionnement. Disons que si ils veulent ils peuvent scanner toutes les photo (et le reste) sur ton téléphone, hey, tu as accepté le CLUF !



Hugues1337 a dit:


Oui oui, comme dans l’épisodede South Park. Mais en vrai ? Cela m’a tout l’air abusif.




Il y a absolument rien d’abusif, tu accepte les conditions tu update sinon tu update pas, ne pas update n’empêche pas le téléphone de fonctionne c’est donc 100% legal.
Maintenant certain dirons que c’est limite niveau moral mais ainsi marche le monde.




Hugues1337 a dit:


C’est pour l’instant nébuleux le mode de fonctionnement. Disons que si ils veulent ils peuvent scanner toutes les photo (et le reste) sur ton téléphone, hey, tu as accepté le CLUF !




Coté serveur c’est plus complexe, mais la plupart du temps il change leur CGU, et tu a un temps variable selon le pays pour t’y oposer et fermé ton compte.
Par contre si (comme Facebook) tu leur cède le droit sur les images durant l’upload (dans les CGU original) ils ont meme pas besoin de ton accord vu que c’est devenu leur photo (raison pour la quel je hais Facebook).



Macqael a dit:


c’est 100% légal, car quand tu clique sur ‘Accepter’
(avec son pavé de texte à chaque ‘Update’) ET que personne ne lit par manque de temps
c’est que tu a donné ton consentement !



Qui a dit dystopie ? :D



Macqael a dit:


Il y a absolument rien d’abusif, tu accepte les conditions tu update sinon tu update pas, ne pas update n’empêche pas le téléphone de fonctionne c’est donc 100% legal. Maintenant certain dirons que c’est limite niveau moral mais ainsi marche le monde.



Coté serveur c’est plus complexe, mais la plupart du temps il change leur CGU, et tu a un temps variable selon le pays pour t’y oposer et fermé ton compte. Par contre si (comme Facebook) tu leur cède le droit sur les images durant l’upload (dans les CGU original) ils ont meme pas besoin de ton accord vu que c’est devenu leur photo (raison pour la quel je hais Facebook).




Je te le dis sans détour : tu dis de la merde.
Si dans le CGU c’est indiqué qu’ils peuvent faire comme dans l’épisode de South Park tu considères que c’est okay ? Allo ?
Côté serveur c’est autant complexe (ou pas) que sur ton device. Les CGU abusives peuvent se faire dégager ou ignorer.


Par contre si c’est comme pour ‘Facebook’ :




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même
    plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos
    (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:



vizir67 a dit:




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:




Marrant même réactions autour de moi


et pourtant….



Dès l’inscription sur le réseau social, vous autorisez Facebook à récolter des
données personnelles sur vous. Si vous demeurez propriétaire des contenus et
disposez de droits de propriété intellectuelle, comme indiqué dans les conditions
générales d’utilisations, vous accordez au réseau social des «Licences», c’est-à-dire
des autorisations légales pour utiliser ce contenu.



https://www.lenouvelliste.ch/articles/lifestyle/techno-et-sciences/facebook-non-partager-les-messages-qui-circulent-ne-protege-pas-vos-donnees-personnelles-1031431



vizir67 a dit:


Dès l’inscription sur le réseau social, vous autorisez Facebook à récolter des données personnelles sur vous. Si vous demeurez propriétaire des contenus et disposez de droits de propriété intellectuelle, comme indiqué dans les conditions générales d’utilisations, vous accordez au réseau social des «Licences», c’est-à-dire des autorisations légales pour utiliser ce contenu.



https://www.lenouvelliste.ch/articles/lifestyle/techno-et-sciences/facebook-non-partager-les-messages-qui-circulent-ne-protege-pas-vos-donnees-personnelles-1031431




Le syndrome du bouton “suivant” sans lecture fait des degats



Hugues1337 a dit:


Je te le dis sans détour : tu dis de la merde. Si dans le CGU c’est indiqué qu’ils peuvent faire comme dans l’épisode de South Park tu considères que c’est okay ? Allo ? Côté serveur c’est autant complexe (ou pas) que sur ton device. Les CGU abusives peuvent se faire dégager ou ignorer.




C’est toi qui dit n’importe quoi lis les conditions d’utilisation avant de dire n’importe quoi.



Mais bon dire n’importe quoi sans même avoir lu les CGU est tellement simples.



Macqael a dit:


C’est toi qui dit n’importe quoi lis les conditions d’utilisation avant de dire n’importe quoi.



Mais bon dire n’importe quoi sans même avoir lu les CGU est tellement simples.




Y’a pas de “tu avais qu’à lire”. Ce serait “trop” facile. Ce serait.. abusif !



Hugues1337 a dit:


Y’a pas de “tu avais qu’à lire”. Ce serait “trop” facile. Ce serait.. abusif !




Encore quelqu’un qui crie à l’Abu car trop feignant de lire les contract qu’il signe numériquement.


Il se trouve que les CGU n’ont pas valeur de lois…
Du coup, tu racontes n’importe quoi. Apple peut mettre ce qu’il veut dans ses CGU, si une association de consommateurs s’y attaque et qu’un juge estime qu’elles sont abusives, Apple devra les retirer et elles seront nulles et non avenues.



vizir67 a dit:




  • tu leur cèdes le droit sur tes images en ‘Uploadant’ les ‘CGU.’, et ils n’ont même plus besoin de ton accord, vu que du coup elles sont devenues LEURS photos (raison pour la quel je hais ‘Facebook’)



quand j’explique ça aux gens..‘ils tombent des nues’=ah ? :eeek2:




Ouais, idem Instagram et la grande majorité des apps avec des calculs dans le cloud (snapshat, l’app qui te fait vieillir, etc). Faudrait s’attaquer à ça et faire tomber ce type de CGU abusif.



Macqael a dit:


Encore quelqu’un qui crie à l’Abu car trop feignant de lire les contract qu’il signe numériquement.




Car tu lis chaque CGU que tu “signes” ? Bahahaha. Allez, je te rajoute dans ma blacklist des trolls. A+



Hugues1337 a dit:


Car tu lis chaque CGU que tu “signes” ? Bahahaha. Allez, je te rajoute dans ma blacklist des trolls. A+




Mdr encore une personne qui n’y connais rien a rien sérieux tu pense que je me sent offensé qu’une personne comme toi me blacklist ?
tous l’inverse ca fera un (mince l’auto censure), de moins a supporté.


Le plus contestable dans l’affaire, c’est qu’une société privée s’arroge des prérogatives de police de sa propre initiative, sous un prétexte fumeux. L’argumentio ad pedoporno, c’est le sophisme qui sert toujours à vendre des intentions pas nettes.



Doc oui, l’opposition à cette initiative est légitime d’un point de vue citoyen. Apple peut développer des outils de détection de contenus illégaux si ça lui chante, mais leur utilisation ne peut être, dans un état de droit, qu’assurée ou demandée par la puissance publique.



Sinon, cela s’appelle une milice, et c’est illégal en France et dans bien des pays.



durthu a dit:


Il se trouve que les CGU n’ont pas valeur de lois… Du coup, tu racontes n’importe quoi. Apple peut mettre ce qu’il veut dans ses CGU, si une association de consommateurs s’y attaque et qu’un juge estime qu’elles sont abusives, Apple devra les retirer et elles seront nulles et non avenues.




Mon dieu mais vous savez pas lire ou vous le faite exprès ?
J’ai dit que c’était pas abusif et que accepter les CGU faisait fois comme consentement de scan alors veuillez stop de déformé mes propos !



Ensuite AUCUNE LOI AU MONDE interdit de scanné des fichiers par L’OS tant que tu accepte les CGU lier avec.


“Ensuite AUCUNE LOI AU MONDE interdit de scanné des fichiers par L’OS tant que tu accepte les CGU lier avec.”



C’est cette affirmation qui me gêne.
J’ai bien compris que tu expliquais que l’acceptation des CGU avait valeur de consentement.
Je suis sur qu’en France ou en Europe, Apple va se faire retoquer au nom de la vie privée.


Tout le monde s’étonne, ce n’est que le début, après avoir stocké masse d’information, il faut bien maintenant trouver à justifier leur analyse :)


Fabrication du consentement (impossible d’être contre):



« J’espère que vous serez rassurés de savoir que grâce à vous, des milliers d’enfants victimes d’exploitation sexuelle seront sauvés et auront une chance de guérir et d’avoir l’enfance qu’ils méritent ».



Assurance sur l’usage:
« Apple refusera toute demande de ce type » (ndt: celles des gvmts), assure-t-elle. « Nous avons déjà fait face à des demandes de construire et déployer des changements imposés par des gouvernements et les avons refusées. Nous continuerons à les refuser ».



C’est à croire que c’est Apple qui fait les Lois et que la démocratie (même dévoyée) n’est pas un argument toujours plus solide pour justifier de la mise en oeuvre d’une Loi dans “ l’intérêt de la sécurité/surêté de l’Etat “.
Que pourrait faire Apple si des Etats “démocratiques”, imposaient à Apple d’ouvrir sa technologie en vue d’une utilisation qui serait “encadrée par la Loi” ?



Nous pouvons le constater, les démocraties occidentales protègent d’abord “le business” et si cela doit passer par une surveillance généralisée et un autoritarisme fort par défaut, alors tous les moyens sont bons.
Porter plainte auprès du tribunal de la Terre des Gens Cool?



Cetera a dit:



« J’espère que vous serez rassurés de savoir que grâce à vous, des milliers d’enfants victimes d’exploitation sexuelle seront sauvés




Le coût pour cela étant l’exploitation d’encore bien plus d’enfants sur les chaînes de montage de nos sous-traitants et dans toutes nos chaînes d’approvisionnement, à commencer par l’extraction minière.



NEXT !