Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !
Pédophilie : Apple « scanne » les photos de ses clients, Microsoft présente son projet ArtemisCrédits : KUxFOFO1/iStock/Thinkstock

La lutte contre la pédophilie n’est pas nouvelle, mais les sociétés du numériques sont régulièrement pressées d’en faire davantage. 

Pour cette édition 2020 du CES de Las Vegas, Jane Horvath (responsable des questions de vie privée chez Apple) était présente à une table ronde. Elle est notamment revenue sur le sujet de la pédophilie, comme le rapporte The Telegraph

Après avoir commencé par rappeler que supprimer ou affaiblir le chiffrement n’était pas sa façon de résoudre les problèmes, elle a explique qu’Apple utilise désormais « certaines technologies pour aider à dépister les contenus pédopornographiques ».

Un peu comme les filtres anti-spam, la société cherche des « signatures électroniques » dans les images, puis les compare à une base de données regroupant les empreintes de contenus pédopornographique.

Jane Horvath ne donne pas plus de détail sur la manière de procéder, mais Apple pourrait utiliser la technologie PhotoDNA, développée par Microsoft et exploitée par de nombreuses sociétés. Les comptes épinglés sont désactivés, mais Apple ne précise pas si ces informations sont transmises aux autorités. 

Dans le même temps, Microsoft présente son projet Artemis, un outil permettant d’analyser des conversations en ligne pour y détecter des prédateurs sexuels. Une « note » est attribuée, qui peut ensuite être utilisée pour déterminer quand une conversation doit être vérifiée par un humain.

42 commentaires
Avatar de malock INpactien
Avatar de malockmalock- 10/01/20 à 10:03:46

On imagine bien qu'il y a un peu plus qu'une simple comparaison d'empreint sinon comment détecter le nouveau contenu pédoporno ?

Avatar de Arkeen Abonné
Avatar de ArkeenArkeen- 10/01/20 à 10:15:01

Euh ? Apple scanne les photos des gens comme ça leur chante, ou ils demandent l'autorisation ?

Avatar de Torlik INpactien
Avatar de TorlikTorlik- 10/01/20 à 10:18:52

Arkeen a écrit :

Euh ? Apple scanne les photos des gens comme ça leur chante, ou ils demandent l'autorisation ?

A ton avis ?

Avatar de Bill2 INpactien
Avatar de Bill2Bill2- 10/01/20 à 10:19:22

Et il se passe quoi sur les faux positifs ?
Le compte est bloqué et aucun moyen de récupérer ses autres photos ?

Super ... vive le cloud ...

Avatar de XXC Abonné
Avatar de XXCXXC- 10/01/20 à 10:31:11

Arkeen a écrit :

Euh ? Apple scanne les photos des gens comme ça leur chante, ou ils demandent l'autorisation ?

Ils font comme Google, Amazon, Facebook, Microsoft ....
Mais c'est pour améliorer ton expérience et te proposer des services adaptés.

Avatar de Bourrique INpactien
Avatar de BourriqueBourrique- 10/01/20 à 10:39:06

Planquez vous messieurs les pedo-nazi-tueurs-de-bébé-phoques :censored:

Mais bon, envoyer sur le cloud des photos "sensibles" c'est tendre le bâton (ou autre chose) pour se faire battre. :baton: :sm:

La différence c'est qu'ils disent officiellement qu'ils scannent vos photos.
Pour le bien public, pour le moment.
Mais n'en profitent-ils pas pour tirer d'autres informations à partir de vos photos ?
Genre la piscine à bébé-phoques (pour votre usage personnel) non déclarée au fisc. :photo:

Avatar de malock INpactien
Avatar de malockmalock- 10/01/20 à 10:46:45

Bill2 et vous-même parlez du cloud et dans l'article de The Telegraph cité ici, il est indiqué à la fin comme mise à jour :
"Update January 9, 2020

This story originally said Apple screens photos when they are uploaded to iCloud, Apple's cloud storage service. Ms Horvath and Apple's disclaimer did not mention iCloud, and the company has not specified how it screens material, saying this information could help criminals."

Il se peut alors que ça aille un peu plus loin que la plateforme iCloud...

Avatar de Krogoth Abonné
Avatar de KrogothKrogoth- 10/01/20 à 10:51:31

On fait une vidéo de ses enfants qui s'amusent dans leur bain et on finit en prison c'est ca?

Avatar de macmc INpactien
Avatar de macmcmacmc- 10/01/20 à 10:52:31

Ce qui me fait rire le plus dans ces histoires, comme pour les commentaires YouTube, c'est que beaucoup oubli que les jeunes sont aussi très présent sur le net.

Du coup, bien souvent, les plus gros producteurs et consommateurs de contenu sont... ben les gamins eux-mêmes.

Comme les commentaires sur YouTube étaient majoritairement le fait de gamins et non d'adultes.

Les US étaient en plein dedans en 2018 avec une histoire médiatique qui mettaient l'accent sur la réalité vraie et le manque de "discernement" de la loi.

Des images sont détecté. La personne est recherchée. Un gamin de 13 ans. La gamine dans les photos ? Sa petite amie de 13 ans.

Suivant les lois US, le gamin était poursuivi pour possession et risquait l'inscription dans le fichier des délinquants sexuel.

De l'autre côté, la fille était poursuivi pour possession, production de contenu et diffusion électronique et risquait d'être aussi fiché. Bref, c'est elle qui risquait le plus.

Et ce n'est pas un cas unique, mais c'est celui qui a mit en avant ce problème.

L'autre problème, ce serait aussi qu'un jour le terme "pédophile" soit correctement expliqué. Parce qu'il est mit à toutes les sauces mais dans la majorités des cas les gens ce plantent...

Avatar de skankhunt42 Abonné
Avatar de skankhunt42 skankhunt42 - 10/01/20 à 10:55:24

malock a écrit :

comment détecter le nouveau contenu pédoporno ?

Les enfants possèdent des yeux plus grand que les adultes et à partir d'une photo il est facile de déterminer une échelle et une pose. Reste ensuite à déterminer sur cette pose à quel endroit il y à de la peau et si c'est sur des zone tendancieuses ou non ( sexes / seins / fesses ).
 

Bourrique a écrit :

La différence c'est qu'ils disent officiellement qu'ils scannent vos photos.

Alors que plus haut : "supprimer ou affaiblir le chiffrement n’était pas sa façon de résoudre les problèmes". Si t'a un chiffrage fort j'ai du mal à comprendre comment tu peu scanner le contenu d'une photo...

Il n'est plus possible de commenter cette actualité.
Page 1 / 5