En 2019, Internet fêtait ses 50 ans « techniques ». Quelques mois auparavant, on célébrait les 30 ans de l’un de ses usages : le World Wide Web. Et l’on est désormais bien éloigné de ce qu’étaient ces technologies à leurs débuts. Un peu trop même, selon certains.
Internet a été pensé, dès son origine, comme un réseau non seulement décentralisé, mais également distribué, résilient. Comprendre qu’en plus de ne pas reposer sur un nœud central pour son bon fonctionnement, chaque machine peut communiquer directement avec une autre, partager ses ressources, agir comme un client et/ou un serveur. Tout l’opposé de notre bon vieux Minitel.
Lorsque l’on cherche à représenter cet aspect, on utilise en général une image issue de l’introduction aux réseaux de communications distribués de Paul Baran (voir ci-dessous), l’un des pionniers d’Internet. La nuance y est claire : chaque maillon est relié à plusieurs autres.
L’information trouvera toujours son chemin pour aller d’un point A à un point B. Le réseau des réseaux portait ainsi en lui une véritable petite révolution pour nos moyens de communication. Outre l’aspect numérique et instantané des échanges, cette distribution des ressources devait, espéraient alors certains, permettre à chacun d’être à la fois un producteur et un consommateur de contenu. C’est d’ailleurs ce qui est arrivé… la distribution en moins.
Distribué… ou presque
Car l’idée à l’époque était que l’auto-hébergement serait la règle, d’où le fameux « @ » de l’adresse email, signifiant « at » et désignant un lieu (« à » en français). C’est pour cela qu’elle se compose d’un nom d’utilisateur et de l’endroit où joindre le serveur : son nom de domaine. On imaginait alors un Internet où chacun pourrait stocker ses fichiers, ses messages, les partager avec le reste du réseau. Mais l’évolution technologique et le comportement humain en ont décidé autrement.
Car mettre en place ses propres serveurs, assurer leur sécurité, les maintenir à jour, toujours en ligne sur une connexion internet grand public, ce n’est pas forcément très simple. Certes, les spécialistes et autres passionnés peuvent s’y retrouver, mais cela demande des connaissances et du temps. Et lorsque chacun rentre du travail ou se retrouve en week-end, il a le plus souvent mieux à faire que de se demander comment assurer le bon fonctionnement de son adresse email ou de son serveur de partage de fichiers.
C’est ainsi que sont nés les hébergeurs, ces acteurs se proposant de vous fournir des adresses email clé en main, toujours fonctionnelles. Et parfois de quoi héberger aussi un site personnel. Une bonne idée sur le papier. Mais pour ce qui nous occupe, c’était d’une certaine manière le début de la fin. Car on recommençait à différencier ces serveurs des clients, les utilisateurs.

La (re)centralisation par les usages
Les technologies de l’Internet sont ouvertes, poussent à la décentralisation et permettent à chacun de fournir des services. Mais les nombreux acteurs qui étaient présents il y a une vingtaine d’années, se sont peu à peu concentrés. Que ce soit les fournisseurs d’accès, les hébergeurs ou les services en ligne.
Certains étaient plus pratiques que d’autres, gratuits et financés par la publicité plutôt que payants, regroupant plus d’utilisateurs que le concurrent, favorisant les échanges « innovants » hors des standards et des protocoles ouverts. C’est ce qui a fait le succès de services comme Caramail en France à une époque, puis d’acteurs internationaux tels que Google et son Gmail ou encore Facebook ces dernières années.
Actuellement, chacun peut donc devenir une star de la vidéo en streaming… à travers YouTube (Google) ou Twitch (Amazon). Vivre du partage de ses activités en ligne avec ses fans en devenant influenceur… sur Instagram (Facebook). Diffuser de l’information au plus grand nombre en direct via Twitter. Mais surtout, la majorité des utilisateurs d’Internet y agissent en consommateurs de produits, contenus et services.
On remplace la TV par le streaming, l’attitude est la même, les commentaires en direct en plus. Mais est-ce réellement cela, produire du contenu en ligne ? Lorsqu’ils partagent leurs pensées, photos ou vidéos, la plupart des internautes ne font finalement qu’alimenter « la bête ». Car les plateformes, avec leurs outils d’analyses de données et leurs modèles économiques, s’en nourrissent grassement.
Repenser un Internet sans plateformes
On est alors passé de l’Internet ouvert à celui des plateformes, qui sont comme autant de continents, avec leurs règles. Elles sont surtout dirigées par des acteurs qui font tout pour que vous utilisiez au maximum leurs services, sans sortir de leurs sites et autres applications.
Et comme s’y attendait Benjamin Bayart, il y a une quinzaine d’années, le Minitel a finalement gagné. S’il prédisait à l’époque que l’on ne ferait alors que retarder l’inévitable, soit un retour en force d’un Internet distribué dans ses usages autant que dans sa forme, cela n’est pas encore arrivé.
Mais peut-être que nous assistons actuellement aux prémices de cette nouvelle révolution avec l’émergence de nouveaux réseaux qui veulent placer la distribution au cœur de leur fonctionnement. C’est le sens du travail de Tim Berners Lee avec Solid, mais aussi d’initiatives autour de nouveaux protocoles comme IPFS et Dat.
On peut illustrer le « drame » de l’évolution du web avec un exemple simple, emblématique : la façon dont on télécharge des fichiers en ligne. Malgré toute la débauche de technologies à laquelle on a droit de nos jours, on n’a sans doute pas vu plus archaïque que la façon de faire actuelle. Et surtout plus éloignée de ce qui était au départ l’esprit d’un Internet distribué.
Pourquoi faire distribué, quand on peut faire multi-centralisé ?
Imaginons que vous vouliez partager un fichier avec un tiers. Vous le placez sur un serveur et vous envoyez une adresse que l’on nomme URL (Uniform Resource Locator) à votre contact pour qu’il puisse le télécharger. En cliquant dessus, il le récupérera et pourra l’ouvrir sur sa machine. En théorie, c’est simple, pratique, fonctionnel.
Mais à y regarder de plus près… rien ne va. En effet, dans cette façon de faire, rien ne permet au destinataire de s’assurer que le fichier récupéré est bien celui que vous avez mis en ligne, qu’il n’a pas été modifié ou altéré pendant le transport. Surtout, le fichier en question n’est présent que sur votre serveur. Si celui-ci est inaccessible, le fichier l’est aussi. Ni très sécurisé, ni très distribué, donc.
Plutôt que de corriger le problème à la racine, les grands acteurs d’Internet ont appliqué différents pansements avec le temps. Pour améliorer la disponibilité des fichiers, ils ont imaginé les CDN (Content Delivery Network). Un même fichier est placé dans de nombreux serveurs disséminés un peu partout dans le monde. En cas de téléchargement, un service se chargera de rediriger l’utilisateur en fonction de sa position géographique, la charge des serveurs, etc.
C’est par exemple ce qui est utilisé par Netflix, qui place certains de ses films directement dans le réseau des fournisseurs d’accès à Internet (FAI). Ainsi, ils sont au plus près des clients et se chargent vite, à bon débit. Tout du moins quand un accord financier a été trouvé pour se partager les frais d’une telle initiative. On est donc en présence de solutions qui ne sont ni totalement centralisées, ni pleinement distribuées. Surtout, elles ne concernent qu’un nombre restreint d’acteurs qui peuvent se permettre la mise en place de telles infrastructures.
La sécurité, c’est compliqué
Autre problème qu’il a fallu résoudre : la sécurité. Là aussi, une solution partielle a été trouvée : la mise en place de canaux de communication chiffrés via des protocoles comme TLS (le petit cadenas vert quand vous accédez à un site sécurisé via HTTPS). Il permet de s’assurer de l’identité du serveur, de l’intégrité des données échangées, qui ne peuvent pas être « lues » pendant leur transport.
Pendant longtemps, il a aussi été la chasse gardée de ceux qui pouvaient se payer un certificat auprès d’une autorité reconnue, protégeant surtout le commerce en ligne, l’accès aux comptes bancaires et à des services dont le niveau de sécurité l’exigeait. Heureusement, Let’s Encrypt est venu changer tout cela, permettant à chacun d’obtenir gratuitement des certificats, sans contrepartie.
Mais protéger ses services en ligne n’est pas simple pour autant, et cela a aussi favorisé l’émergence d’acteurs centraux, comme CloudFlare. Un service américain que vous ne connaissez peut-être pas, mais par lequel vous passez sans doute plusieurs fois chaque jour sans le savoir : c’est lui qui assure la protection de nombreux sites, fait office de CDN pour leurs contenus, assure leur accès sécurisé, etc.
Réseaux P2P : un faux départ…
Résultat des courses : la distribution de logiciels en ligne passe par des procédures qui ne permettent pas à l’utilisateur d’avoir toutes les garanties et le confort d’usage nécessaire. De quoi l’inciter à se tourner vers les boutiques applicatives, sécurisées car ultra-verrouillées : l’App Store d’Apple, le Play Store de Google ou le Microsoft Store pour ne citer que ces quelques exemples.
Seule exception : les gestionnaires de paquets des distributions Linux qui fonctionnent avec de multiples sources, une vérification des données téléchargées, etc. Sous Windows, Chocolatey se repose sur un tel système, au point que Microsoft s’en est inspiré pour mettre en place sa propre solution : winget. Annoncé l’année dernière, il se renforce peu à peu, mais reste pour le moment très centré sur ce qu’autorise Microsoft qui demeure (pour le moment) le seul fournisseur de dépôt. Mais cela devrait changer, l’initiative est donc à surveiller.
Dans ces deux cas cependant, on reste sur des procédures de téléchargement très classiques, passant par de bons
vieux protocoles tels que FTP ou HTTP. Pourtant, la nature distribuée d’Internet aurait dû favoriser un autre type d’échanges : le pair-à-pair (P2P). L’idée est ici de partager ou télécharger n’importe quel fichier depuis sa machine, faisant à la fois office de client et de serveur. Les données sont découpées en de multiples petits morceaux, que l’on récupère directement depuis les ordinateurs d’autres utilisateurs connectés au réseau.
Ceux que l’on a déjà récupérés sont partagés à leur tour avec la communauté. Un fichier existe donc tant qu’il y a au moins un appareil qui le met à disposition. Mais ces solutions ont été freinées dans leur ascension il y a une vingtaine d’années. Tout d’abord par l’accès à Internet qui s’est beaucoup développé à travers l’ADSL, dont le A signifie « asymétrique ». Ainsi, la vitesse de téléchargement est bien plus rapide que celle d’envoi des données. Les utilisateurs ont donc tout intérêt à télécharger vite, mais peu à partager, de quoi déséquilibrer tout l’écosystème.
Ensuite, le P2P a rapidement été associé au piratage. Que ce soit à travers des outils comme Napster et eMule, entre 2000 et 2010, le fait de pouvoir partager librement des fichiers protégés par le droit d’auteur, via de tels outils, a complètement occulté la possibilité qu’ils pouvaient également être utilisés de manière bien plus respectueuse de la loi.
D’ailleurs de nombreuses entreprises ont recours au pair-à-pair désormais. Nous l’avons déjà évoqué dans nos colonnes pour la diffusion des flux numériques de certains programmes de TF1, on pense également à PeerTube développé par Framasoft, au client Battle.net de Blizzard, ou aux nombreuses distributions Linux et autres applications qui utilisent le protocole BitTorrent pour assurer un accès rapide partout dans le monde.
Metalink : la bonne idée oubliée
Avec le standard Metalink, né il y a une quinzaine d’années, une bonne idée avait été trouvée. Elle consistait en un fichier dans lequel on déclarait des métadonnées pour chaque chose que l’on mettait à disposition en ligne : nom, taille, date de publication, identité du diffuseur, empreintes pour vérifier son intégrité, signature numérique pour s’assurer de son origine, liste de miroirs.
On pouvait ainsi déclarer différentes URL pour un même fichier, les pays d’hébergement, le niveau de priorité à assurer à tel ou tel. Bref, de quoi garantir la sécurité et le téléchargement depuis plusieurs sources sans avoir à dépendre d’acteurs spécifiques. Mais ce standard n’a jamais décollé.
Il est utilisé par quelques distributions et logiciels, comme Ubuntu ou LibreOffice, mais rares sont les clients de téléchargement à le gérer, aria2 est l’un d’entre eux. Même les développeurs de Firefox ne l’ont jamais implémenté au sein du navigateur, ce qui aurait pourtant donné un avantage certain à ce dernier tout en favorisant l’usage d’un standard aux attraits multiples.
- Comment télécharger un fichier en vérifiant son empreinte via aria2
- Créer une seedbox facilement avec aria2 et BitTorrent
… Avant la renaissance
Ainsi, bien qu’ils n’aient changé nos comportements en ligne aussi profondément que l’on aurait pu s’y attendre, ces protocoles ont avancé petit à petit, brique par brique. Mettant progressivement en place des solutions technologiques qui portent peut-être en elle les ferments de l’Internet de demain.
La première est la table de hachage distribuée, aussi connue sous l’acronyme DHT (Distributed Hash Table). Elle a
complètement bouleversé le fonctionnement de BitTorrent il y a quelques années, permettant de former une grande liste de l’ensemble des données partagées sur le réseau, pouvant être recherchées et retrouvées en très peu de temps. Chaque élément est identifié par une empreinte numérique (hash).
Nous ne reviendrons pas ici sur son fonctionnement précis ou les différents protocoles pouvant être exploités. Mais cela permet par exemple de ne plus avoir à passer par le site de Canonical pour télécharger la dernière version en date d’Ubuntu. On peut simplement la trouver au sein du réseau BitTorrent, puis la télécharger. Reste un problème : comment s’assurer que le fichier récupéré est bien l’ISO voulue et non une version contenant un malware par exemple ? C’est là que les liens magnets entrent en jeu, et avec eux le concept d’URN (Universal Ressource Name).
Passer des URL aux URN : la révolution
Rappelez-vous, l’URL nous permettait précédemment de télécharger un fichier en désignant le serveur où il était stocké et son emplacement sur ce serveur (d’où le L, pour Locator). L’URN vise à identifier directement la ressource par une de ses propriétés intrinsèques plutôt que sa localisation. C’est au réseau, ensuite, d’indiquer au client où et comment la télécharger.
Dans le cas des réseaux pair à pair, cet identifiant est en général son empreinte numérique, dans un format qui varie selon les protocoles. Ainsi, vous ne cherchez pas tel fichier ISO sur tel serveur, mais le fichier correspondant à une empreinte numérique précise. Cela ajoute au passage une couche de sécurité « by design ». Une fois téléchargé, le fichier peut en effet être vérifié par rapport à cette empreinte, on s’assure alors de sa conformité.
C’est ce qu’utilisent les liens Magnet de BitTorrent, sous le nom d’InfoHash (btih
). Par exemple pour la dernière version d’Ubuntu Mate en date : magnet:?xt=urn:btih:897ba1967a2cebd37cf98b6d8071c12230362a28&dn=ubuntu-mate-20.10-desktop-amd64.iso
. Le nom du fichier est ici optionnel, seul l’URN étant nécessaire à le télécharger via BitTorrent. L’InfoHash a néanmoins un défaut : son calcul dépend de la façon dont le fichier a été découpé. Un même fichier peut donc avoir différents identifiants sur le réseau, favorisant ainsi les doublons.
L’URN a un autre problème potentiel : chaque ressource étant identifiée de manière plus ou moins unique, elle pourrait être bloquée à travers cet identifiant. C’est d’ailleurs comme cela en cherchant quelle IP (et donc quel internaute) partage tel ou tel InfoHash que les services de protection des ayants droit identifient les « pirates », qui reçoivent alors leur « Lettre Hadopi ».
Certes, l’aspect distribué de ces réseaux rend le blocage plus difficile, mais cela pourrait venir nourrir la réflexion de certains acteurs intéressés et autres parlementaires adeptes de la censure en ligne.
Vers un Internet réellement distribué ?
Suite à ces évolutions des réseaux pair à pair, les idées ont également fusé du côté des promoteurs d’un Internet décentralisé, où les plateformes n’ont plus de rôle central à jouer. Ainsi, plutôt que de simplement permettre le partage de fichiers, pourquoi ne pas utiliser de tels protocoles et dispositifs pour héberger des sites et services distribués. On réduit ainsi les freins à la démocratisation de l’auto-hébergement et le besoin d’acteurs centraux.
C’est ainsi que sont nés des projets de réinvention du web distribué, non pas en utilisant les protocoles actuels comme tente de le faire Tim Berners Lee avec son nébuleux Solid (qui vient de s’ouvrir aux entreprises), mais sur l’URN et la DHT, et parfois le gestionnaire de versions Git. Au point même d’inspirer les scénaristes de la série « Silicon Valley » (diffusée en France sur OCS) qui ont construit leurs dernières saisons sur ce concept et de « L’Internet que l’on mérite ».
Ces alternatives se sont multipliées ces dernières années, du protocole Dat avec le navigateur Beaker à IPFS, intégré à Brave et qui a déjà droit à sa passerelle Cloudflare pour accéder à des sites qui y sont stockés via un navigateur classique. L’objectif est le même : permettre l’hébergement de sites et services depuis votre machine, répliqués au sein d’un réseau distribué.
IPFS voit par exemple toutes ses données comme des objets reliés entre eux, pouvant être regroupés pour former des fichiers ou des dossiers. Ils disposent tous d’une empreinte unique, ce qui évite les doublons au sein du réseau. Pour le moment, l’algorithme SHA-256 est utilisé, mais cela pourra évoluer dans le futur, notamment à travers le projet Multihash visant à préciser le type d’empreinte et sa longueur dans l’identifiant.
Le réseau se repose ainsi sur ses propres Content Identifiers (CID) et propose un outil permettant de naviguer dans les fichiers hébergés : https://cid.ipfs.io
. L’évolution des données est suivie à travers une gestion de versions, à la manière de Git. Chacun peut installer IPFS sur sa machine, y diffuser des données ou des sites en quelques clics. D’autres protocoles visent spécifiquement les besoins en stockage, comme BitTorrent qui propose depuis peu son propre File System (BTFS) ou Sia.
Les cryptomonnaies pour assurer l’équilibre
Tous doivent néanmoins faire face au même problème : comment s’assurer que les membres du réseau jouent le jeu ? Car pour qu’un système distribué soit équilibré, il faut que les utilisateurs ne soient pas de simples consommateurs de ressources, ils doivent aussi en fournir.
Si la montée en puissance de connexions internet à très haut débit et symétrique comme la fibre (FTTH) y participe, ce n’est pas suffisant. C’est là que les cryptomonnaies entrent en jeu et pourraient bien trouver une première grande application, utile au plus grand nombre.
L’idée générale est que lorsque vous mettez des ressources à disposition du réseau, vous êtes rétribué en jetons (tokens). À l’inverse, lorsque vous utilisez les ressources du réseau, vous devez le payer avec ces mêmes jetons. Si vous n’en avez pas assez obtenu via votre partage de ressources, vous pouvez en acheter. C’est un peu comme si votre hébergeur ne vous faisait pas payer de facture mensuelle pour peu que vous mettiez un bout de votre HDD/SSD et de votre connexion internet à sa disposition.
BitTorrent a déjà introduit cette notion avec « Speed », intégré au sein de ses propres clients. Ils vous permettent de gagner des BTT (BitTorrent Token) lorsque vous partagez des fichiers, et vous donnent accès à un téléchargement prioritaire sur le réseau. De quoi permettre à chacun d’être, demain, un hébergeur à part entière sans que l’on ait besoin d’infrastructures géantes comme c’est actuellement le cas ?
Les solutions et les espoirs sont là, les paris sont ouverts. Nous espérons être encore là dans une dizaine d’années pour vous conter comment cette nouvelle révolution en ligne a tout changé… ou misérablement raté.
Cet article a initialement été publié dans le magazine #2 de Next INpact distribué en janvier 2021. Il est pour le moment réservé à nos abonnés et sera ensuite accessible à tous, comme l'ensemble de nos contenus. Nos magazines sont disponibles à la vente au sein de notre boutique en ligne.