Caméras « augmentées » : la CNIL alerte sur la tentation du « solutionnisme technologique »

Caméras « augmentées » : la CNIL alerte sur la tentation du « solutionnisme technologique »

Electroniquer la vie privée

Avatar de l'auteur
Marc Rees

Publié dans

Droit

19/07/2022 12 minutes
24

Caméras « augmentées » : la CNIL alerte sur la tentation du « solutionnisme technologique »

Le document était attendu de longue date. La CNIL met en ligne ce jour sa « position » sur le déploiement des caméras dites « augmentées » ou « intelligentes » installées dans les espaces publics. Celles disposant d’une couche informatique permettant de détecter des « évènements » de toutes natures, voire des émotions.   

Les 18 pages de cette position officielle vont fixer le cap de l’autorité de contrôle des données à caractère personnel dans la régulation de ces estomacs à données à caractère personnel que sont les caméras de vidéo augmentée. 

La CNIL exclut du périmètre de son opinion les caméras biométriques, puisqu’elles ont fait l’objet d’un développement spécifique en novembre 2019, embrassant un champ particulier dans le sacro-saint RGPD. Elle écarte tout autant les dispositifs de détection du son, ou ceux en temps différés ou encore installés « à des fins de recherche scientifique au sens du RGPD ». 

CNIL caméras augmentées

Sa cible se concentre en conséquence sur les caméras filmant en continu et en temps réel l’espace public, avec derrière une couche informatique pour analyser comportements (bagarre, incivilité, etc.), formes ou objets (automobiliste/piéton, motos/voitures). 

Tout comme il n’y a pas qu’un type seul de cookies, l’expression de « caméras augmentées » est par définition plurielle, avec des revendications multiples :

« On peut notamment mentionner le souhait des autorités publiques de s’équiper de dispositifs toujours plus perfectionnés pour l’exercice de leur mission de sauvegarde de l’ordre public, de protection des populations ou encore d’aménagement des territoires, ou celui des commerçants de vouloir optimiser le pilotage de leur activité et la rentabilité de celle-ci, au moyen d’une connaissance encore plus fine des conditions et caractéristiques de fréquentation de leurs espaces de vente ».

Les hypothèses ont donc la couleur de l’arc-en-ciel : détection d’infraction au Code de la route, détection d’évènements considérés par les autorités comme suspects, comme un attroupement, « expressions faciales » et autres « comportements traduisant un état d’angoisse », sécurisation des concerts, régulation des flux de circulation pour améliorer la signalétique routière, détection de bagages abandonnés, les mesures d’affluences, de port du masque, d’audience d’un panneau électronique, ou d’un rayon de supermarché…  

Une certitude : ces instruments ne sont pas les simples prolongements de la « vidéoprotection », novlangue de la vidéosurveillance dans les espaces publics, mais soulève des questions éthiques et juridiques au regard des intérêts en jeu avec en tête la vie privée, la liberté d’aller et venir, la liberté de réunion, la liberté de conscience et des cultes, le respect des données à caractère personnel.

Des données sensibles peuvent ainsi passer dans l’objectif, tout comme des émotions, sans oublier le risque de traçage des populations avec des données parfois identifiantes et des droits d’accès et d’opposition parfois réduits à peau de chagrin. 

Ces yeux électroniques mobilisés ici pour des questions de prévention et de sécurité, là à des fins commerciales, sont autant d'incises dans les droits et libertés des personnes filmées. 

Le rôle de la CNIL n’est évidemment pas celui du législateur. Ce n’est pas sa casquette, mais « dès lors que la légitimité de certains usages de ces technologies serait actée, [l’autorité] estime indispensable d’établir un socle de confiance nécessaire à leur implantation et à leur pérennisation ». 

Tel est donc l’objet de ce document, en quête de « "lignes rouges" à ne pas franchir », avec en haut du panier « des dispositifs de caméras augmentées mettant en œuvre une notation sociale sur la base de l’analyse de comportements dans certains lieux publics ».

Une approche au cas par cas, sous l'angle du RGPD 

Au regard de la pluralité de situation, la CNIL préfère mettre le cap sur une évaluation « au cas par cas », avec une ventilation selon les risques soulevés, non sans relever que les intérêts financiers sont vertigineux.  « Le marché français est détenu essentiellement par des acteurs étrangers » relève-t-elle :

« En 2015, plus d’un tiers des équipements de vidéoprotection installés étaient importés de Chine, mais des acteurs états-uniens, allemands et suédois sont également présents. »

De plus, « le secteur de la vidéoprotection représentait 1,6 milliard d’euros de chiffre d’affaires en France en 2020 selon l’Association nationale de la vidéoprotection (AN2V), à comparer aux 28 milliards d’euros de chiffre d’affaires pour l’ensemble des industries de sécurité privées ».

Sur le volet des données personnelles, périmètre des compétences de la CNIL, le document relève que « ces nouveaux outils vidéo peuvent ainsi conduire à un traitement massif de données à caractère personnel, y compris parfois de données sensibles », où les personnes filmées sont aussi analysées, suivant les situations :

« La CNIL rappelle à cet égard qu’une vigilance particulière doit être accordée à l’égard de la tentation du "solutionnisme technologique" qui consisterait à considérer que les dispositifs de vidéo "augmentée" sont par nature efficaces et permettraient de résoudre de nombreux problèmes. » 

Le risque d'une surveillance bien plus généralisée

Avec ces caméras augmentées placées dans l’espace public, le risque d’une surveillance généralisée est aujourd’hui décuplé par rapport à l’ère des caméras sous contrôle humain :

« Les dispositifs automatisés offrant un champ, une systématisation et une précision d’analyse impossibles jusque-là pour un humain. Au-delà de créer un phénomène d’accoutumance et de banalisation de technologies de plus en plus intrusives, ces dispositifs pourraient offrir à leurs utilisateurs la faculté de connaître des éléments nouveaux sur les personnes filmées pour prendre des décisions et des mesures les concernant ».

Elle cite là encore plusieurs exemples : « analyser le parcours d’achat d’une personne dans un magasin et en déduire ses goûts et ses habitudes, analyser le visage d’une personne pour en déduire son humeur et afficher une publicité ou des promotions en conséquence, etc. »

« La préservation de l’anonymat dans l’espace public est une dimension essentielle pour l’exercice de ces libertés », souligne la Commission qui sait que ces technologies sont insidieuses (« invisible et "sans contact" », pouvant évoluer facilement à l’aide de mises à jour logiciel vers des dispositifs encore plus intrusifs).

Dans son évaluation au cas par cas, la CNIL distingue les solutions qui engendrent des conséquences individuelles (par exemple un panneau publicitaire qui va s’adapter en fonction du genre de la personne ou un système de détection d’infractions) ou ceux qui ne sont calibrés que pour produire des statistiques sur un taux de fréquentation d’un lieu quelconque.

« L’impact de ces dispositifs pourra varier en fonction des lieux dans lesquels ils sont déployés et des catégories de population les fréquentant » note ceci dit la CNIL, qui cite l’exemple d’une caméra dans un magasin de jeux vidéo, plus souvent fréquentés par des mineurs, ou proche d’un lieu de culte, d’un hôpital ou syndicat. 

D’autres variables peuvent peser quand ces dispositifs « ont vocation à entièrement automatiser certaines activités de la vie courante ».

La CNIL évoque cette fois l’exemple des magasins dits « autonomes » qui « fonctionneraient uniquement à partir de dispositifs de caméras "augmentées" qui suivraient les clients afin d’analyser leurs achats pour leur permettre de les régler directement (en caisse ou sur une application mobile) ».

Ces différents critères ont un poids différent dans l’approche RGPD de ces solutions, avec une attention particulière pour le « privacy by design », cher au règlement, qui consiste à penser au respect de la vie privée à tous les niveaux de leur conception. 

Du Code de la sécurité intérieure au RGPD

Sur le terrain purement juridique, ces caméras dans l’espace public relèvent en principe du Code de la sécurité intérieure, seulement, « aucune disposition du CSI n’encadre, à ce jour, les conditions » de leur mise en œuvre, le code en question ne s’occupant que des caméras traditionnelles. Dans la doctrine de la CNIL, partagée par le gouvernement, cette lacune ne permettrait pas de considérer ces appareils comme toujours illicites, ni même autorisés. 

La Commission plaide là encore pour une analyse au cas par cas, avec le RGPD et la loi CNIL sur les genoux, puisque la simple captation d’images d’individus reconnaissables entre dans le périmètre des traitements de données à caractère personnel.

Ceci posé, les conséquences arrivent par déluge : respect des droits, obligations des responsables de traitements et des sous-traitants, etc. Il faut aussi définir des finalités, et s’y tenir, outre justifier de l’existence d’une base légale appropriée.

La solution confortable de l’intérêt légitime, l’une des six bases légales prévues par le RGPD avec notamment le consentement, le contrat ou la mission d’intérêt public, ne peut pas toujours être revendiquée puisqu’elle impose une analyse de proportionnalité entre les intérêts du responsable de traitements et les droits et intérêts des personnes physiques.

Or, la CNIL estime que cet équilibre n’est pas toujours au rendez-vous, par exemple lorsqu’une caméra augmentée « analyse et segmente les personnes sur la base de leurs émotions pour leur proposer des contenus en conséquence ».

Surtout, il faudra respecter le principe de nécessité et de proportionnalité au fil d’une analyse d’impact, en désignant en outre un délégué à la protection des données personnelles. Et ce test échouera lorsqu’existent d’autres moyens moins intrusifs pour poursuivre la finalité du traitement (vigiles, technologies infrarouges pour compter des personnes, etc.).

Sur le volet sécurité, central dans le RGPD, la CNIL suggère plusieurs pistes comme le floutage, une limitation du nombre d’images captées, etc. Et, évidemment, elle n’oublie pas de rappeler la nécessaire information des personnes concernées. Elle suggère plusieurs pistes : « panneaux d’information dédiés, vidéos, codes QR, marquages au sol, annonces sonores, etc. ». 

Au-delà de la tergiversation de la base légale justifiant ces traitements, la CNIL recommande chaudement d’adopter un texte spécifique pour les autoriser et encadrer. Et pour cause, sans un tel véhicule taillé pour l’occasion, le RGPD oblige le responsable de traitement à respecter le droit d’opposition des personnes, sauf s’agissant de certains traitements purement statistiques (voir page 17 de la position de la CNIL).

Quel texte ? Quand les garanties fondamentales sont en jeu, l’article 34 de la Constitution réserve cette compétence au seul législateur :

« Même en étant temporaires et limités à la protection de certains évènements ou à des finalités de prévention de troubles graves à l’ordre public, ces traitements sont susceptibles de modifier la façon dont l’action des services de police influe sur l’exercice par les citoyens de leurs libertés et droits fondamentaux, et ne peuvent trouver un fondement juridique suffisant dans les dispositions générales de la loi Informatique et Libertés ou dans le pouvoir réglementaire du gouvernement ou, a fortiori, des maires ».

Le document de la Commission réclame donc un débat démocratique, une loi, apte à concilier les objectifs poursuivis et la protection des données à caractère personnel. 

Dans les dernières lignes du rapport, la CNIL « appelle avec insistance à une réflexion globale sur le juste emploi des caméras augmentées dans l’espace public afin que soit évitée leur multiplication désordonnée, aboutissant à une densité d’observation automatisée qui modifierait notre rapport à l’espace public – et ce, quelle que soit la légitimité de chaque dispositif pris isolément ».

Elle invite le Parlement et le gouvernement à faire « des choix », non sans lui recommander de réserver ces technologies aux cas où elles « présentent la plus-value la plus forte, si possible en lien avec l’intérêt général, en les assortissant de garanties appropriées ».

La déception de la Quadrature du Net 

Du côté de la Quadrature, c’est malgré tout la soupe à la grimace, celle-ci considérant que l'autorité « a échoué à prendre la mesure du danger de ces technologies qui se déploient massivement dans nos villes. »

« Plutôt que d’utiliser le droit existant pour exiger l’arrêt du déploiement de la vidéosurveillance algorithmique, la CNIL appelle au contraire à discuter un nouveau texte, laissant la porte ouverte à un changement de paradigme dans la protection de notre vie privée » écrit-elle dans un « thread » sur Twitter

L’association aurait ainsi préféré que cette « vidéosurveillance algorithmique » (ou VSA) relève plus amplement du champ des traitements de données biométriques, impliquant alors « une protection particulièrement forte » voire « l'interdiction de la VSA ».

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une approche au cas par cas, sous l'angle du RGPD 

Le risque d'une surveillance bien plus généralisée

Du Code de la sécurité intérieure au RGPD

La déception de la Quadrature du Net 

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (24)


J’ai connu l’informatique des connaisseurs dans les années 90, l’explosion d’Internet en 2000 et le vent de liberté qui s’en ai suivie, maintenant que les cons ont compris que l’on pouvait tirer parti du numérique c’est la fin.
À moyen terme on sera totalement fliqué et il ne faut pas compter sur la CNIL pour nous venir en aide.
Internet et les techno partent d’un bon sentiment, toujours dévoyé malheureusement.


D’ailleurs, on n’a pas eu trop de retour sur le “crédit social” en chine..
Les lockdown ont peut-être limité l’étude et son extrapolation pour valider le concept de flicage temps réel à haut débit.
Car modulo l’infrastructure, on fait doucement rigoler à surveiller 60M de personnes, c’est jamais qu’une tiers de l’étude pilote menée actuellement chez eux.


Quel est le rapport ?
Le crédit social chinois n’est pas relié à de la vidéosurveillance ou à des caméras biométriques. Vous savez de quoi vous parlez au moins.



Et désolé Beijing c’est 22 Millions d’habitants sachant que le crédit social est testé dans les 3 régions principales tes 66 millions c’est même pas 1/5ieme.



Sinon les retours principaux sont positifs, par contre comme il a été soulevé dans une vidéo que j’avais posté comment vont-ils pouvoir harmoniser le tout ça va être dur vu qu’ils ont 3 systèmes différents.



Caméras « augmentées » : la CNIL alerte sur la tentation du « solutionnisme technologique »




Sans le pléonasme, c’est mieux :chinois:
Maintenant je vais lire l’actu.


Ce qui est fascinant avec NXi c’est leur couverture des caméras extérieures




  • d’un côté, la vidéoprotection c’est de la novlangue car les caméras ne protègent pas

  • de l’autre côté, les caméras augmentées c’est carrément une atteinte à la liberté de se déplacer. rien de moins.



Pour finir quel est la plus value de la réaction de la quadrature à la fin de l’article ?



Cet article confirme qu’on peut être indépendant mais pas forcément impartial.
Ce sujet a été traité sur d’autres médias qui présentent le pour et le contre avec des extraits du même rapport. Ici on n’a le traitement que des aspects négatifs. Bref.


Faudrait peut-être que tu te décides à être un peu moins «fasciné» un jour, histoire de comprendre le monde dans lequel tu vis.



Les aspects positifs c’est que des gens se font plein d’argent en faisant peur aux autres et en proposant des solutions miracle aussi inutiles que coûteuses.
Tout le monde n’est pas aussi positif que toi. :fumer:


Y’a rien de positif. Rien ne compense le fait d’avoir une donnée biométrique dans une base, et donc avec l’infinité des emmerdes possibles pour toi dans les décennies qui te restent à vivre et où tu ne pourras pas changer de corps.


TroudhuK

Y’a rien de positif. Rien ne compense le fait d’avoir une donnée biométrique dans une base, et donc avec l’infinité des emmerdes possibles pour toi dans les décennies qui te restent à vivre et où tu ne pourras pas changer de corps.


Tu es très sombre là, tu pourrais t’ouvrir un peu, élargir ton esprit; si tu veux je peux t’aider à changer de forme.



.



.



.



Quoi, ton pseudo n’a rien à voir avec une partie du corps ?



BENETNATH a dit:


D’ailleurs, on n’a pas eu trop de retour sur le “crédit social” en chine..




C’est pas simple d’avoir des nouvelles fiables de la Chine, surtout sur un projet aussi internalisé par les autorités.



dispositifs de caméras “augmentées” qui suivraient les clients afin d’analyser leurs achats pour leur permettre de les régler directement*




On est très proche des caméras biométriques là, puisqu’on identifie une personne de manière unique puis on la suit :non: la simplicité a quand même des limites :censored:


C’est différent car la biométrie identifie et authentifie un individu ce qui implique que son moyen d’identification utilise une base d’identité. La biométrie est plutôt employée pour contrôler un accès (ie: Aéroport CDG confirme l’identité d’un titulaire d’un passeport avec son image)



Le vocable “augmenté”, c’est la capacité pour la caméra de taguer chaque individu ( discrimination) séparément afin par exemple de pouvoir les suivre dans leur déplacement sur un site.
Le parcours étant agrégé par le logiciel de gestion vidéo incluant des capacité de cartographie.
L’individu est donc associé à identifiant unique propre au système mais qui ne peut être utilisé pour authentifier son identité.
C’est comme si chaque personne possédait un tag id Rfid sauf que c’est la caméra qui fournit le tag basé sur son algorithme de discrimination.



Juste un point: à date aucun système de vidéosurveillance n’est capable de faire de l’authentification temps réel et cela inclus les chinois qui jouent au grand méchant loup pour des besoins de sécurité intérieure. L’identification temps réel nécessite des moyens considérables et un contexte précis pour identifier puis authentifier un visage : résolution, taille de l’objet, luminosité et contraste et impossible à faire avec des lunettes, un masque, une écharpe, un chapeau.
Il est bien plus simple et bien plus fiable d’utiliser un autre moyen pour identifier un individu qu’une caméra de vidéo surveillance même si c’est le rêve de quelques ayatollahs de la sécurité.



TroudhuK a dit:


Y’a rien de positif. Rien ne compense le fait d’avoir une donnée biométrique dans une base, et donc avec l’infinité des emmerdes possibles pour toi dans les décennies qui te restent à vivre et où tu ne pourras pas changer de corps.




Données biométriques ? Rien que ça ? Et pour toutes les caméras ?



Cela montre que NXi a bien fait son boulot, en alimentant la paranoia de certains.



Plutôt que boire les articles partiaux, je te conseille de lire le rapport qui est la pour dire qu’effectivement il faut encadrer les pratiques et que certaines d’entre elles sont légitimes.



Pour finir, je te suggère de ne sortir dans la rue qu’avec un bonnet d’alu et des lunettes à leds car tu risques d’être filmé en permanence par les smartphones qui t’entourent.


Disons quand même qu’il y a de vrais problèmes possibles avec ces caméras.




  • Elles viennent principalement de Chine ou des US

  • On est, j’imagine, sur des codes fermés et des mises à jour qui peuvent tout changer

  • Comment puis-je vérifier que la caméra n’analyse pas plus que le nombre de personnes (exemple). Si je ne peux pas le faire, comment puis-je faire valoir mes droits en cas d’abus (ou juste de droit à l’oubli, de refuser ce Tracking, etc)

  • L’interprétation du RGPD est parfois très subjective. Elle ne devrait pas mais le reste pourtant. Cf. les cookie Walls par exemple.

  • On voit déjà les nombreuses sanctions des CNIL européennes ces dernières années qui soulèvent des manques techniques, humains, défaillances techniques et humaines, et bien sûr mauvaises volontés, etc. Le tout a mené à des fuites, des abus, etc.

  • Sans parler de fuite de données, je trouve la publicité déjà intrusive sur la base des cookies et j’apprécirais fortement que cela ne se transpose pas dans la vie réelle. Exemple te montrer un produit devant lequel tu as hésité dans le magasin à ta prochaine visite (biométrique), ou arrivé en caisse (VAS).

  • Bien que présentés comme plus neutres qu’un individu (e.g., contrôle au faciès), les logiciels montrent tous des biais possibles ou confirmés de façon variable.

  • Sur l’aspect sécurisation, il est de mon sens particulier de penser qu’on peut si facilement remplacer un individu avec des années d’expérience par un algo. A mon travail (ingénierie), on voit très vite que le grand remplacement par des logiciels, voulu pour des raisons économiques, et est non-sens dans une proportion non-négligeable des cas. Principalement car si la théorie marche bien, la réalité d’usage est différente et changeante.



En résumé, personnellement, je vois bien les avantages possibles en sécurité (mais les caméras ne sont rien sans sel personnel d’intervention) MAIS je vois encore une occasion de pistage et publicité pro-capitalisme où tout ce qui augmente les profits est bien, même au coût de la vie privée.
Intéressant j’imagine de savoir si les développeurs de ses caméras aimeraient qu’elles soient installées dans tous les lieux qu’ils fréquentent…


Et tu dis ça avec un point final comme si c’était un argument. Alors qu’en réalité, effectivement, c’est un vrai problème d’autoriser de filmer en smartphones, non pas parce qu’il faut empêcher les privés de filmer dans un espace public, mais parce que le smartphone est connecté et que ce qu’il faut empêcher, c’est la fuite de la vidéo privée sur le réseau, exploitable par des entreprises, des IA, des renseignements, d’autres types de criminels…



Donc il y a un vrai sujet à légiférer effectivement, aucun problème pour que quelqu’un garde éventuellement un souvenir vidéo de ce qu’il voit dans l’espace public à l’instant T, gros problème si ça peut sortir de l’appareil et être exploité par d’autres, auquel cas le consentement doit être requis.



carbier a dit:


Ce qui est fascinant avec NXi c’est leur couverture des caméras extérieures




  • d’un côté, la vidéoprotection c’est de la novlangue car les caméras ne protègent pas

  • de l’autre côté, les caméras augmentées c’est carrément une atteinte à la liberté de se déplacer. rien de moins.



Pour finir quel est la plus value de la réaction de la quadrature à la fin de l’article ?



Cet article confirme qu’on peut être indépendant mais pas forcément impartial. Ce sujet a été traité sur d’autres médias qui présentent le pour et le contre avec des extraits du même rapport. Ici on n’a le traitement que des aspects négatifs. Bref.





  • La videoprotection protège en surveillant, Georges.

  • Le risque sur ces libertés est pointé par la CNIL, notamment.

  • La Quadrature a a fait plusieurs recours sur le terrain.



Hydratez-vous et bonne journée.


Je confirmes la novlangue. J’ai participé au projet PVPP, Plan de Vidéosurveillance de la Ville de Paris en 2009 qui est devenu 2 3 ans apres Plan de Vidéoprotection de la Ville de Paris.
Environ 1000 caméras ont été installées


lolo.sibille

Je confirmes la novlangue. J’ai participé au projet PVPP, Plan de Vidéosurveillance de la Ville de Paris en 2009 qui est devenu 2 3 ans apres Plan de Vidéoprotection de la Ville de Paris.
Environ 1000 caméras ont été installées


ça m’intéresse, possible d’en parler en privé ?
https://jean-marc.manach.net/securedrop.htm



Nicky5 a dit:


On est très proche des caméras biométriques là, puisqu’on identifie une personne de manière unique puis on la suit :non: la simplicité a quand même des limites :censored:




Attention: Identifier et suivre une personne sont deux choses totalement différentes (y compris d’un point de vue informatique). Pour suivre, l’algo détecte la forme puis la suit image par image dans la vidéo (il y’a une légère intelligence quand la forme passe dans un angle mort ou derrière quelque chose pour anticiper ou elle doit réapparaitre).
Une identification est une IA qui détermine les éléments clés notamment du visage et les compare à une base de données “d’empreinte”. Vu de l’extérieur c’est la même chose: Une caméra, mais autant d’un point de vue logiciel que légale, les deux sont aux antipodes.


Bah disons plutôt l’IA va identifier que tu es en jeans bleu, pull rouge avec un cuir marron et va te suivre. Elle ne s’amuse pas à suivre image par image.


“solutionnisme technologique” - le terme m’agace par ce qu’il transpire de conservatisme réac technophobe.



Il suffit de regarder autour de soi - tout ce qui nous entoure est une “solution technologique”. J’imagine le premier à essayer de construire sa maison se faire moquer (ou agresser) par ceux restés dans leur grotte : “attention à la tentation du « solutionnisme technologique »” :mdr: .



Même si je suis d’accord sur l’existence de risques énormes liés au développement de l’“IA”, il semble plutôt clair que, bien sûr, de nombreux problèmes nécessitant aujourd’hui une attention humaine pourront être traités par des IA.



À mon avis, l’État est légitime pour mettre en ouvre ce type de solution dans l’espace public, et les acteurs privés sont légitimes pour mettre en ouvre ce type de solution dans leurs espaces privés.



En gros, s’il est légal de payer une personne pour compter les client dans telle section du magasin ou qui manifestent de l’intérêt dans un produit spécifique, il devrait être légal d’avoir une IA qui le fait (sans identification bien sûr).



wagaf a dit:


“solutionnisme technologique” - le terme m’agace par ce qu’il transpire de conservatisme réac technophobe.




LE drame de la communication humaine, qui s’amplifie avec les années ce sont les interprétations dû aux émotions.



Pour moi «solutionnisme technologique» c’est plutôt le bon sens de savoir qu’un outil si puissant, entraînera des dérives. C’est le cas à chaque fois : Benalla qui se sert de vidéos qui étaient censées être effacés, le préfet qui a (fait) effacer des vidéos qui mettaitent à mal sa version mensongère des faits.
Comment ne pas penser à cela et écrire «sans identification bien sûr» alors que la technologie le permet déjà ?



wagaf a dit:


“solutionnisme technologique” - le terme m’agace par ce qu’il transpire de conservatisme réac technophobe.




Il faut éviter de l’utiliser à tort et à travers en fait, sinon ça devient juste une stupide caricature.



Pour moi ce terme est intéressant quand il est utilisé de manière appropriée pour désigner une réponse technologique à un problème dont le fondement est plutôt organisationnel. Et donc que cette “solution technologique” ne va au final pas améliorer quelque chose qui est pourri de base.



Je vois ça beaucoup en entreprise où on cherche des outils plutôt que des méthodologies pour améliorer des organisations défaillantes. On constate très rapidement que ces choix d’outils ont été des choix techniques ou idéologiques et non de méthodo quand on demande simplement pourquoi ils s’en servent. Les 34 du temps, c’est pour compenser un geste opérationnel fondamentalement inefficace, voire inutile.



Jeanprofite a dit:


Comment ne pas penser à cela et écrire «sans identification bien sûr» alors que la technologie le permet déjà ?




C’est un outil, on ne devrait pas interdire un nouvel outil (come le souhaiterait la Quadrature du Net par ex) par principe, juste parce qu’un potentiel d’abus existe. Avec cette logique l’automobile, l’imprimerie et Internet n’auraient jamais été autorisés.


Pas d’accord du tout. La technologie est un moyen pas une fin. Son usage devrait être justifié et approuvé explicitement et non implicitement comme aujourd’hui.