L'affaire PRISM fait couler beaucoup d'encre non sans raison. Si la surveillance massive n'a rien de nouveau (confer le réseau Echelon) et n'est certainement pas limitée aux États-Unis, le changement aujourd'hui par rapport au passé se situe sur le plan technique. La quantité d'informations à collecter est astronomique et en constante augmentation. Ce qui implique une gestion tout aussi gigantesque, mais aussi une guerre incessante entre les Hommes et les machines.
Des quantités astronomiques
Face à PRISM et à toutes les révélations suivantes, nombreux se sont indignés. Si la surveillance, pour des raisons économiques, de terrorisme ou politique n'est pas du tout nouvelle, les rapports entre la NSA, internet, et des sociétés comme Microsoft, Google, Yahoo!, Facebook et Apple sont évidemment plus récents. Mais si l'on peut discuter pendant longtemps des méthodes, des objectifs, du traitement d'Edward Snowden, des relations politiques et économiques entre les pays, les agences de renseignement et les entreprises, du caractère légal et illégal de la collecte des données, et bien d'autres sujets encore, finalement, nous ne ferions que répéter ce qui a déjà été dit lors des précédentes révélations du même genre. En particulier sur Echelon, déployé durant les années 1970, mais révélé au grand public uniquement dans les années 1980 et surtout pendant la décénie suivante.
Si toute cette affaire nous prouve une fois de plus que l'information est le nerf de la guerre, que ce soit au niveau économique ou pour n'importe quelle vraie-fausse raison (terrorisme pour les uns, pédopornographie pour d'autres), elle nous pousse surtout à nous poser certaines questions propres aux données. Bien sûr, il est intéressant de savoir comment les données sont collectées, et où elles sont stockées. Mais nous savons pertinemment que n'importe quel État ou même entreprise ayant les moyens peut aisément collecter des quantités de données astronomiques. Google et Facebook le font bien, il n'y a pas de raisons que les États-Unis, la France, le Royaume-Uni, l'Allemagne ou encore la Chine ne puissent en faire de même. Non, le plus intéressant en réalité, c'est bien de savoir comment sont traitées toutes ces données, et par conséquent, comment déjouer les méthodes appliquées par les agences de renseignement.
En 2012, uniquement en France, 183,1 milliards de SMS ont été envoyés. Imaginez dans le monde. Chaque minute, l'équivalent de milliers d'heures d'appels téléphoniques est passé. Quant aux données qui transitent sur internet, que ce soit par email ou ailleurs, la quantité est gigantesque. En 2008, soit il y a un siècle à l'ère d'internet, Cisco estimait à environ 160 To par seconde la quantité de données qui passaient sur internet. Aujourd'hui, vous pouvez aisément multiplier ce nombre. Mais si la collecte de toutes ces informations fait peur et rappelle certaines œuvres littéraires qu'il est inutile de nommer, la question du traitement même de cette quantité effroyable de données est bien centrale.
L'amélioration des outils de reconnaissances automatiques
Il est bien beau de collecter toutes ces données si l'on ne peut rien en faire. Pour les trier, il faut nécessairement des outils informatiques et automatiques puissants et précis. Quand bien même les programmes (Prism) et réseaux (Echelon) ciblent des personnes et des entreprises en particulier, cela représente malgré tout trop de données pour être traitées manuellement par de simples êtres humains.
Nous en venons alors aux systèmes automatiques. Concernant les appels sur les lignes téléphoniques ou via des logiciels de VoIP, nous savons tous que la reconnaissance vocale a fait de sérieux progrès ces dernières années. La reconnaissance automatique de la parole (RAP) ou encore la reconnaissance vocale assistée par opérateurs (RVAO) connaissent un succès grandissant du fait de leur précision incontestablement meilleure aujourd'hui qu'il y a une poignée d'années. Le grand public connait déjà ces systèmes, que ce soit directement sur smartphone (via Siri, Google Now, etc.) ou via des entreprises installant des accueils téléphoniques automatiques. Pour les agences de renseignement, la reconnaissance vocale est loin d'être un élément nouveau. Le réseau Echelon base déjà son existence en grande partie sur cette reconnaissance. Comme nous le rappelait déjà Le Monde Diplomatique en 1999, Duncan Campbell, l'un des premiers journalistes à avoir révélé ce réseau au grand public, expliquait que « si les ordinateurs de la NSA sont en mesure de reconnaître automatiquement les locuteurs lors d’une conversation téléphonique, ils ne sont pas encore capables d’en retranscrire le contenu ». Mais cette affirmation date de 14 ans. Si à l'époque, les taux d'erreurs des logiciels étaient probablement trop importants, aujourd'hui, la logique est certainement bien différente.
En matière de reconnaissance, bien d'autres domaines ont aussi fait des progrès remarquables. La reconnaissance des visages par exemple, peut aussi se faire automatiquement et n'a plus besoin, là encore, d'un être humain pour être réalisée. Même la RATP a imaginé mettre en place un tel système, c'est pour dire comme ce dernier est aujourd'hui d'une efficacité extraordinaire.
Bien entendu, outre la reconnaissance vocale et faciale, la plus aisée pour les agences de renseignement et sans contestation possible celle du texte, donc des emails, des forums, des réseaux sociaux, des SMS, des fax, etc. C'est peut-être finalement le plus effroyable dans toute cette histoire. Si la quantité de données ces dernières années a explosé, que ce soit sur mobile ou ordinateur, elle est essentiellement réalisée sous forme de texte, soit le plus facile à analyser et donc à trier par mot-clé. Si bien sûr les spécificités de chaque langue, de l'invention constante de nouvelles expressions et de nouveaux mots, des contractions, ou tout bêtement des fautes d'orthographe, compliquent la tâche des agences de renseignement, l'écrit n'en demeure pas moins un système facilement analysable.
Des moyens de contournement ?
Sachant les relations étroites présumées (ou non) entre les pays et les multinationales, peut-on échapper à leur toute-puissance sans devenir des ermites ? En 1999, afin de contrer Echelon et son système de mots-clés, certains ont imaginé la journée de brouillage d'Echelon (Jam Echelon Day), concept qui poussait les internautes à intégrer de nombreux mots-clés a priori analysés par le réseau dans tous leurs emails, ceci afin de saturer le système de reconnaissance. Plus concrètement, la logique (si logique il reste encore) est d'utiliser des services et logiciels peu utilisés. Le site Prism-Break.org a même été créé en ce sens afin d'indiquer aux internautes quels logiciels et services à éviter et à utiliser. Le libre a bien entendu une grande place sur ce site.
Il faut par contre faire attention aux conseils anti-PRISM vantant des services nationaux, et donc non Américains. En effet, non seulement ces services nationaux sont parfois liés directement ou indirectement à des services situés aux États-Unis, mais surtout, c'est croire bêtement que la collecte des données ne concerne que ce pays. À moins d'être foncièrement candide, qui peut croire une chose pareille ?