du 18 avril 2019
Date

Choisir une autre édition

Fichage des gilets jaunes blessés, le Canard Enchaîné enfonce le clou

Selon le Canard Enchaîné, et malgré les dénégations de Martin Hirsch, directeur général de l'Assistance publique - Hôpitaux de Paris (AP-HP), les services hospitaliers ont bien reçu la consigne d’inscrire dans un fichier les nom des gilets jaunes blessés à l’occasion de certaines des manifestations.

Une mesure confirmant plusieurs informations révélées préalablement par des professionnels du secteur ou Mediapart. « Il est indispensable de saisir les identités des victimes en temps réel dans SI-VIC » écrit l’administrateur de garde, dans une capture réalisée par nos confrères.

Le fichier SI-VIC avait été initié à la suite d’une délibération de la CNIL du 7 juillet 2016. Il autorisait à l’origine le ministère de la Santé à mettre en œuvre un traitement automatisé « ayant pour finalité l’établissement d’une liste unique des victimes d’attentats pour l’information de leurs proches par la cellule interministérielle d’aide aux victimes ».

Une solution présentée par le gouvernement comme « provisoire, dans l’attente du développement d’un outil interministériel destiné au suivi des victimes d’attentats dont les modalités restent à définir et qui fera l’objet de formalités propres auprès de la Commission ».

Plus d’un an plus tard, le gouvernement publiait un décret pour ouvrir l’accès à ces données au ministère de l’intérieur, passé sans grande difficulté devant la CNIL. La présidente d’alors, Isabelle Falque-Pierrotin relevait tout de même que désormais, « les catégories de données relatives aux utilisateurs finaux du système d'information ne sont pas mentionnées ». Elle recommandait que le projet soit complété sur ce point.

Si le gouvernement a pu ouvrir les vannes de SI-VIC, c’est tout simplement parce que la loi du 23 décembre 2016 qui encadre ce traitement évoque des cas de situations exceptionnelles, pas seulement des actes de terrorisme.

chargement Chargement des commentaires...

À découvrir dans #LeBrief
Copié dans le presse-papier !

Elle se tiendra au McEnery Convention Center de San Jose (Californie). Il s'agit pour rappel de la keynote d'ouverture de l'événement dédié aux développeurs qui se tiendra du 3 au 7 juin.

Il devrait donc y être question des prochaines grosses versions des systèmes d'exploitation de la marque à la pomme, notamment iOS 13 et macOS 10.15.

Copié dans le presse-papier !

Egor Zakharov, Aliaksandra Shysheya, Egor Burkov, Victor Lempitsky, chercheurs au Samsung AI lab et à l’Institut Skolkovo des sciences et de la technologie, ont exposé leurs travaux visant à recréer des vidéos photoréalistes à l’aide de quelques images, voire d’une seule.

Effectuer une telle synthèse est considéré comme difficile, rappellent-ils. « Les têtes humaines sont d’une grande complexité photométrique, géométrique et cinématique », tenant à la fois à la modélisation, mais aussi à la forme de chaque élément.

De plus, il y a une très faible tolérance de l’œil humain « vis-à-vis des erreurs, même mineures, dans la modélisation de l'apparence des têtes humaines ». C’est le phénomène de « vallée dérangeante » (uncanny valley), « théorie scientifique (…) selon laquelle plus un robot androïde est similaire à un être humain, plus ses imperfections nous paraissent monstrueuses » (Wikipedia).

Les débouchés sont multiples (vidéoconférence, jeux vidéo, industrie des effets spéciaux). Le résultat est à contempler sur cette vidéo, avec une mention spéciale pour la mise en mouvement du visage de Mona Lisa.

Copié dans le presse-papier !

NewsGuard est une entreprise américaine fondée par Steven Brill (fondateur du magazine The American Lawyer et professeur de journalisme à Yale) et Gordon Crovitz (ancien directeur de la publication du Wall Street Journal).

Son objectif est de labelliser les sites d’informations. Via une extension disponible pour Chrome et Firefox, l’utilisateur peut voir un bouclier de couleur à côté d’un lien pour obtenir rapidement un signal visuel de confiance : de vert à rouge, selon que le site inspire confiance ou pas, sur la base de neuf critères. Les sites parodiques sont en jaune.

Les sept personnes employées en France ont déjà labellisé une soixantaine de médias, couvrant selon l’entreprise 70 % du paysage médiatique dans l’Hexagone. L’entreprise vise 90 % d’ici la fin du mois prochain. Alice Antheaume, directrice de l’école de journalisme de Sciences-Po, y fait office de conseillère éditoriale.

L’initiative est louable, mais n’est pas sans critique. Notamment des sites ayant obtenu un bouclier rouge, dont Russia Today France et Sputnik.

RT pointe par exemple que le conseil consultatif de NewsGuard comprend notamment un ancien directeur de la CIA (Michael Hayden), un ex-secrétaire général de l’Otan (Anders Fogh Rasmussen) et plusieurs anciens membres des administrations Bush et Obama.

Le sujet est déjà complexe et l’entreprise risquée (on se souvient des débuts très difficiles du Decodex du Monde). Mais sous un angle plus politique et vu par deux médias russes, NewsGuard ne serait finalement qu’un outil de propagande de plus.

Notez que Publicis est l’un des investisseurs de NewsGuard, en ayant participé à la levée de fonds de 6 millions de dollars en mars 2018. On comprend pourquoi : NewsGuard vend des statistiques aux agences de communication. Objectif, éviter aux marques qui en font la demande de faire apparaître leurs publicités sur des sites « problématiques ».

La chasse aux fake news reste une activité complexe. On peut rapidement tomber dans la lutte d'influences, toute personne physique ou morale pouvant arguer d'un biais dans la grille de lecture. Newsguard a beau se vouloir transparent, le sujet d'une labellisation de l'information reste polémique.

Copié dans le presse-papier !

Dans le viseur de la puissante association de consommateurs : la fonction de changement de voie automatique ajoutée récemment à l'Autopilot. Elle serait « beaucoup moins compétente qu'un conducteur humain ». Pire, elle pourrait « créer des risques potentiels pour la sécurité des conducteurs ».

Parmi les nombreux griefs contre cette fonctionnalité : « elle a coupé [la route] des voitures sans laisser assez d'espace et a même dépassé des véhicules d'une manière qui enfreint les lois [...] En conséquence, le conducteur a souvent dû intervenir pour empêcher le système de prendre de mauvaises décisions ».

Consumer Reports en rajoute une couche : cette fonction est « incroyablement myope. Elle ne semble pas réagir aux feux de freinage ni aux clignotants ». Elle aurait également du mal à estimer correctement la vitesse des voitures arrivant derrière sur une voie de dépassement, très problématique lorsqu'il s'agit justement de changer de voie.

Bref, « surveiller le système est beaucoup plus difficile que de changer de voie soi-même, et revient à surveiller un enfant au volant pour la toute première fois. Comme tous les parents le savent, c'est bien plus pratique et moins stressant de conduire soi-même », explique Jake Fisher, directeur des tests autonomes chez CR.

Pour David Friedman, vice-président de CR, « Tesla montre ce qu'il ne faut pas faire pour arriver à l'autonomie automobile : mettre en service des systèmes de plus en plus automatisés sans approbation adéquate. Avant de vendre ces systèmes, les constructeurs devraient être tenus de prouver leur sécurité aux pouvoirs publics ».

Copié dans le presse-papier !

Réuni en assemblée générale les 17 et 18 mai dernier, le CNB déplore dans une motion « qu’une fois de plus, le législateur entende légiférer dans la précipitation, sans étude d’impact préalable sérieuse au regard des textes existants et notamment de la loi du 29 juillet 1881 sur la liberté de la presse ».

Alors que la loi Avia sera examinée en commission le 5 juin, il tient à rappeler la nécessité de protéger les droits fondamentaux, en particulier la liberté d’expression. Il rejoint ici les remarques du Conseil d’État qui a plusieurs fois fait cette piqûre de rappel.

Le texte porté par l’élue LREM obligera les plateformes à supprimer dans les 24 heures les contenus manifestement haineux. De même, il étend les pouvoirs du CSA sur ces intermédiaires techniques afin de les accompagner dans ces traitements, voire les sanctionner en cas de non-respect de leurs obligations.

Dans cette motion, signalée par Contexte, le CNB « constate que la proposition de loi ne prévoit pas des sanctions graduées, respectueuses du principe de proportionnalité », déplore-t-il. Il dénonce pareillement l’absence de recours effectif à une autorité judiciaire, regrettant lui-aussi « qu’aucune sanction ne soit non plus prévue contre un retrait abusif ».

De manière plus exotique, il « s’oppose à toute mesure qui tendrait à interdire l’anonymat sur les réseaux sociaux », alors que les intermédiaires ont déjà pour obligation de conserver un an durant les données de connexion des inscrits et contributeurs.