PeerTube 2.0 : protocole vidéo HLS, plugins, listes d'extraits et des idées pour la suite

PeerTube 2.0 : protocole vidéo HLS, plugins, listes d’extraits et des idées pour la suite

Et demain, le streaming en direct

Avatar de l'auteur
Vincent Hermann

Publié dans

Internet

14/11/2019 8 minutes
57

PeerTube 2.0 : protocole vidéo HLS, plugins, listes d'extraits et des idées pour la suite

En un an, le projet décentralisé PeerTube a largement évolué. Framasoft a publié hier la version 2.0 du logiciel, apportant des améliorations majeures, comme un nouveau lecteur vidéo et le système de plugins.

L’association française de sensibilisation aux logiciels libres a publié hier la nouvelle version majeure de PeerTube. L’occasion de revenir sur le parcours intensif du logiciel sur l’année écoulée. Hors campagnes de type « Degooglisons Internet », le projet a concentré les plus gros investissements de Framasoft, notamment parce qu’il a fallu embaucher à temps plein Chocobozzz, principal développeur de PeerTube.

La campagne de dons de l’année dernière a permis de financer l’arrivée de cette version 2.0. Mais les plans de l’association ne s’arrêtent pas là : les idées ne manquent pas pour la suite, comme nous l’a confirmé Pierre-Yves Gosset, secrétaire général de Framasoft.

Qu’est-ce que PeerTube ?

Il faut déjà commencer par rappeler ce qu’est ce logiciel. Sur le même concept de base que Mastodon, PeerTube se veut une alternative libre et surtout décentralisée à YouTube. Les utilisateurs peuvent installer le logiciel sur une machine et la déclarer comme instance. Les vidéos présentes sont alors accessibles à ceux qui s’y abonnent.

Côté technique, on retrouve le protocole WebTorrent pour la diffusion des vidéos en P2P. ainsi, quand vous commencez la lecture d’une vidéo, vous en émettez des morceaux pour les autres internautes en train de la lire. Aussi, plus une vidéo a du succès (nombre de lectures), plus elle est partagée et plus la bande passante est donc divisée entre les utilisateurs.

L’inverse est également vrai : si vous êtes le seul utilisateur à visionner un contenu, tout repose sur le serveur à partir duquel vous piochez les données. Une vidéo peut donc mettre un peu de temps à démarrer. Mais en dépit de nos multiples essais, nous n’avons jamais rencontré le cas. En d’autres termes, les avantages et limitations potentielles classiques et inhérentes au pair-à-pair.

PeerTube 2.0

Pour l’utilisateur cependant, à moins d’une forte limitation de la bande passante, l’ensemble est transparent : il se rend sur l’instance qui l’intéresse et lance simplement une vidéo. L’interface rappelle largement les services de streaming vidéo connus et ne réserve pas de réelle surprise.

Côté administration, les serveurs peuvent se fédérer via le protocole ActivityPub, le même utilisé que pour Mastodon. Une instance A peut ainsi déclarer un lien avec une instance B. Si cette dernière accepte la proposition, les contenus de l’un seront référencés chez l’autre. Plus les instances se fédèrent, plus le moteur de recherche pourra renvoyer de résultats. Mais il n’y a dans ce domaine aucune obligation, tout dépend du choix de la personne créant une instance et de ses rapports avec les autres.

Nouvelle technologie de streaming et extraits vidéo

Avant la version 2.0, le logiciel a connu un grand nombre d’évolutions, résumées dans le billet de blog publié par Framasoft : outils de modération (prévus dès l’origine, comme nous l’avait précisé alors Pierre-Yves Gosset), le crucial historique de visionnage, la reprise automatique d’une vidéo quand on y revient, les notifications (commentaires, abonnements, mentions, etc.), listes de lecture, mise en quarantaine pour validation des nouvelles vidéos, gestion simplifiée des fédérations, importation des fichiers audios, traductions, etc.

La version 2.0 propose quant à elle d’importants apports, à commencer par un tout nouveau lecteur vidéo... totalement invisible aux yeux de l’utilisateur. Il s’agit en effet d’un changement technique, PeerTube pouvant basculer vers HLS (HTTP Live Streaming), un protocole initialement créé par Apple et depuis standardisé par l’IETF. Le lecteur est optionnel côté serveur. Si le créateur de l’instance décide de l’utiliser, il devra s’assurer que ses vidéos ont au moins été codées avec ffmpeg 4.1. De la même manière, il faudra recoder les anciennes s’il souhaite profiter de HLS pour l’ensemble des contenus stockés.

PeerTube 2.0PeerTube 2.0

Aucun changement d’interface donc pour l’utilisateur, ce que Pierre-Yves Gosset nous a confirmé. En revanche, les instances utilisant HLS pourront potentiellement se remarquer car ses avantages sont réels : lancement des vidéos plus rapide, moins de bugs, adaptation plus rapide en fonction de la définition et ainsi de suite. Framasoft ajoute que les retours autour de HLS, introduit d’abord il y a plusieurs mois sous forme expérimentale, sont « excellents ».

À terme, l’objectif est bien d’en faire le lecteur vidéo par défaut, mais l’association estime que la transition prendra un peu de temps, car elle souhaite faire de l’accompagnement des utilisateurs pour que tout se passe bien.

PeerTube 2.0 introduit également les extraits de vidéos. La fonction reprend celle que tout le monde connait, à savoir démarrer un contenu à partir d’un temps défini. Mais elle ajoute un temps de fin. Autrement dit, on peut caler un extrait entre 1min23 et 3min34 si c’est la seule partie que l’on souhaite partager pour se concentrer sur un propos intéressant. De plus, ces extraits peuvent être mis bout à bout pour former une liste de lecture, elle aussi partageable.

Arrivée des plugins et améliorations sur la fédération

Autre apport majeur et promis depuis presque les débuts du projet : les plugins. Framasoft le reconnait sans honte : il est impossible de répondre à l’ensemble des demandes, dont certaines peuvent d’ailleurs être contradictoires. La solution ? Les plugins.

Chaque développeur intéressé peut se servir de la documentation proposée pour modifier PeerTube selon son bon vouloir (ou presque). Les exemples donnés sont simples : ajouter des boutons pour partager des vidéos vers les réseaux de son choix ou différentes plateformes de financement participatif, des fonctions de tri et classement, voire des thèmes plus ou moins complets.

On trouve plusieurs exemples sur le FramaGit de Chocobozzz. À terme, Framasoft pourrait mettre en place un vrai site consacré à ces modules, afin de les exposer davantage. « Question de moyens » nous confie Pierre-Yves Gosset. Dans tous les cas, ces plugins sont cependant réservés aux utilisateurs créant des instances et ne sont pas destinés à modifier PeerTube côté client.

PeerTube 2.0 apporte enfin plusieurs améliorations pour la fédération, afin de simplifier ce processus pouvant être rébarbatif. Les administrateurs reçoivent par exemple des options permettant d’accepter automatiquement les demandes, de suivre automatiquement une autre instance qui les suit ou encore de s’inscrire à l’annuaire public JoinPeerTube, là encore sans étape supplémentaire.

Surtout, la mise à jour de l’instance vers PeerTube 2.0 ou une création avec ce dernier entrainera l’apparition d’une petite boite de dialogue invitant l’administrateur à présenter son instance avec quelques informations de base : catégories, langues parlées, code de conduite, contacts, informations de modération, motivations particulières, temps estimé de maintien de l’instance, éventuellement le type de financement ou encore le matériel utilisé.

Ces renseignements ne sont pas obligatoires : on reste dans le cas d’un logiciel libre que chacun peut utiliser à sa manière. Mais dans un contexte de multiplication des instances, cette fiche d’informations est importante pour aider les utilisateurs à trouver plus rapidement ce qu’ils souhaitent.

Et la suite ?

Nous avons posé la question de l’avenir du projet au secrétaire général de l’association. Pierre-Yves Gosset nous a confirmé que Chocobozzz allait bien rester employé à temps plein par Framasoft, toujours avec le même découpage de son temps : 80 % sur PeerTube et 20 % sur l’infrastructure de l’association.

Cela signifie-t-il que d’autres versions majeures sont envisagées ? « Bien sûr ! L’arrivée de HLS pour la lecture des vidéos nous laisse entrevoir la possibilité de faire du streaming en direct. On aime beaucoup l’idée, mais pour l’instant, on ne sait si c’est réalisable, en combien de temps et surtout avec quel argent ». Framasoft prévoit à ce sujet une nouvelle campagne d’appel aux dons en avril prochain.

Le streaming en « live » permettrait aux utilisateurs de se servir d’une application mobile pour diffuser sur PeerTube les images d’une manifestation par exemple, sans craindre la censure. Avec le passage à HLS, les fondations techniques sont en tout cas présentes.

L’association prévoit donc au moins une version 3.0. Si la liste des fonctions envisagées n’est pas arrêtée, la route sera émaillée d’une série de nouvelles améliorations, comme entre les moutures 1.0 et 2.0. Par exemple, un répertoire pour les plugins, potentiellement sur JoinPeerTube. Entre temps, l’association compte travailler à simplifier le choix des instances pour les visiteurs. La petite fiche d’identification facultative n’est ainsi qu’une première étape.

Fenêtre de tir envisagée ? L'automne 2020, pour garder le rythme actuel.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Qu’est-ce que PeerTube ?

Nouvelle technologie de streaming et extraits vidéo

Arrivée des plugins et améliorations sur la fédération

Et la suite ?

Fermer

Commentaires (57)


Et bien… Sacré projet. Je ne connaissais pas. A tester et aider financièrement si la 2.0 est propre.


A titre personnel il m’est arrivé de ne pas pouvoir visionner des videos sur Peertube à un moment donné. J’ai du re-essayer à un autre moment pour les visionner. C’est vraiment dépendant du succès de la video.



Et je ne parle même pas l’indexation sur Google ni de la recherche d’une vidéo précise qui relève du parcours du combattant.

 

A+


Pour le coup je vais régulièrement sur l’instance FramaTube, et ça fonctionne nickel. La charge utilisateur est très légère, mais ça marche aussi très bien sur d’autres instances. J’ai pas encore créé de compte, parce que je ne sais pas vraiment si c’est géré entre les instances, et si oui comment … (faut dire aussi que je ne me suis pas beaucoup renseigné sur le sujet)

Mais je vois un potentiel énorme dans le projet. Je ne pensais pas que ça serait si vite fonctionnel et si vite adopté par autant de monde.


Est-ce que cela permet de construire moins d’infrastructure derrière? Le gros soucis de la vidéo en ligne, c’est la pression exercée sur la construction des infrastructures pour supporter autant de débit. Mais en P2P, pourrait-on réduire cet impact sur le climat?


Toutes les instances ne mettent pas à disposition les mêmes vidéos, c’est bien ça ? Un utilisateur va sur PeerTube parce qu’il a déjà une petite idée de ce qu’il a envie de voir du coup, non ?



J’essaie de faire le parallèle avec Youtube où typiquement tous les types de vidéos sont disponibles depuis la même page d’accueil (des vidéos de chatons rigolotes en passant par les vlog beauté pour finir sur les vidéos de vulgarisation sci et j’en passe). Dans le cas de PeerTube, l’utilisateur devra se rendre sur des instances différentes pour avoir accès à des contenus différents ?



Je découvre un peu la plateforme via cette news, j’ai peut-être pas bien compris le principe, d’où mes questions qui peuvent paraitre bêtes…


Vais re-tenter une install, mes premiers essais n’étaient pas très concluants car j’avais des comportements un peu différents de ce qui est dans la doc donc je me suis dit qu’il lui fallait gagner encore en maturité.



A tester, ça sera une occasion de leur faire des retours.



D’autant que je suis assez intéressé par la possibilité d’auto héberger une plateforme de ce type à titre personnel.


En fait si les instances sont membres de la Fédération, un utilisateur de MachinTube pourra voir les vidéos de BIduleTube.

Par contre si ChoseTube est en autarcie dans son coin, il faut spécifiquement aller dessus pour voir le contenu.



Exemple avec FramaTube ou tu peux voir le contenu originaire d’instances externes qui est indiqué comme venant de [email protected]

Le menu permet de parcourir les vidéos “locales” de l’instance.



Vidéo explicative très bien faite et simple à comprendre :https://framatube.org/videos/watch/9c9de5e8-0a1e-484a-b099-e80766180a6d


Honnêtement je pensais que Peertube allait être un projet de l’ampleur de Diaspora ou Mastodon, des plateformes qui font un petit buzz dans le milieu des initiés pour ensuite mourir le mois suivant (ou devenir un repaire de complotistes révolutionnaires). Je suis agréablement surpris de m’être trompé… la plateforme semble avoir séduit un certain public, je pense notamment à l’instance Skepticon avec ses contenus sceptiques.



Par contre je pense qu’au delà des considérations techniques, il y a les considérations juridiques. Une plateforme qui grossi trop va attirer les contenus violents/haineux/choquants et va surtout attirer l’attention des ayant droits, qui vont exiger la censure de très nombreuses vidéo. Bonne chance aux hébergeurs d’instances Peertube pour gérer cet aspect…




Une plateforme qui grossi trop va attirer les contenus

violents/haineux/choquants et va surtout attirer l’attention des ayant

droits, qui vont exiger la censure de très nombreuses vidéo. Bonne

chance aux hébergeurs d’instances Peertube pour gérer cet aspect…





Oui, mais cette fois ci ça se fera en droit français, avec les exceptions qui vont bien (parodique, critique, polémique, pédagogique, scientifique…)


Bonne chance aux ayants droits pour trouver à qui envoyer la requête pour censurer les vidéos.



Si une vidéo est visible depuis un seul site comme Youtube, un seul interlocuteur. Si une vidéo est visible sur 20 instances, et hébergée sur plusieurs, c’est autrement plus compliqué.


Rien n’oblige une instance de permettre la création de nouveaux comptes, et donc l’import de vidéos par d’autres personnes. Et tu peux également configurer ton instance pour que les nouvelles vidéos soient d’abord en quarantaine, histoire qu’elles puissent être validées manuellement avant publication.



Et vu à quel point la vidéo bouffe rapidement énormément d’espace disque, je ne suis pas certain qu’il y ait beaucoup de grosses instances ouvertes à tout le monde. Ou alors, avec des quotas ridicules qui ne permettent pas de partager grand chose.


S’ils arrivent à implémenter le streaming en direct, ce sont mes héros ! <img data-src=" />





Par contre, quelqu’un sait si un bon GPU est utile pour faire tourner une instance ?








alphavo50 a écrit :



Par contre, quelqu’un sait si un bon GPU est utile pour faire tourner une instance ?







Quand tu vas sur une instance, dans la colonne de gauche, À propos, les infos matérielles sont régulièrement indiquées par les admins. Et j’ai vu un peu de tout. Kimsufi (l’offre low cost d’OVH), Raspberry Pi…



Après, c’est comme tout. Plus t’auras de vidéos (en haute, voir très haute résolution) à transcoder (dans toute la gamme de résolutions, pour pouvoir s’adapter à tous les écrans) et plus t’auras de visiteurs, plus il faudra tout de même une certaine configuration pour assurer le service dans de bonnes conditions.



Effectivement, c’est sûr qu’une instance conséquente commencera à avoir des réflexions d’architecture proches d’un Youtube.



Après, c’est aussi le côté un peu schyzo du Fédéré et de l’archi P2P où l’utilisateur aura tendance (parce que conditionné par le centralisé) à aller sur une instance avec “du monde” alors que le modèle est plutôt prévu pour une multitude de petites.



En terme de volumétrie, je suis quand même assez surpris de voir que Framatube indique 144Go de stockage utilisé alors que l’instance héberge quand même pas mal de vidéo.








alphavo50 a écrit :



Par contre, quelqu’un sait si un bon GPU est utile pour faire tourner une instance ?





On n’a aucun GPU sur les instances qu’on gère (ce sont des VMs avec 2CPU et 6Gio de ram (mais on aurait pu mettre moins de ram, y a qu’un Gio de rééllement utilisé pour Framatube — note qu’on n’est pas en train d’encoder des vidéos donc je sais pas ce que ça bouffe quand ça encode)) et ça tourne nickel.



Si tu connais Mastodon et son fonctionnement, c’est pareil.



Sinon, pour faire simple c’est comme les e-mails, tu t’inscrits sur une instance et tu as une adresse de type [email protected] qui s’affichera quand tu commentes sur une autre instance.


C’est déjà le cas. Non seulement chaque utilisateur fait office de seed pour les autres, mais les instances font aussi de la redondance entre elles (tu choisis quelle instance tu prends en redondance que tu es admin).



Plus une vidéo est populaire, moins le serveur utilise de bande passante.



En fait le vrai problème d’infra que tu auras, c’est le stockage.


Après faut VRAIMENT suivre la doc, bien prendre en compte les pré-requis et compagnie AVANT même d’installer PeerTube (j’en ai aussi galéré). Mais si tu veux pas installer en “dur”, tu as du docker, du Yunohost.



Une fois installé, ça roule et les MAJs se font (relativement) sans accro (du moment que tu lis le changelog s’il y a un truc spécifique).


Ils ont pas besoin de chance, PeerTube fournit maintenant les outils nécessaires pour de la modération et tu peux donc bloquer en validation chaque vidéo qui sont uploads sur ton instance, par exemple.



Ou même être une grosse instance, mais verrouillé, comme le PeerTube de la fondation Blender.









wgg71 a écrit :



Oui, mais cette fois ci ça se fera en droit français, avec les exceptions qui vont bien (parodique, critique, polémique, pédagogique, scientifique…)







Ce n’est pas forcément vrai si tu héberges ton instances au US. L’instance d’origine PEUT agir sur une vidéo. La redondance entre instance fait que si l’instance principale tombe, la vidéo reste disponible sur le fediverse. Mais si l’instance d’origine supprime la vidéo, ça envoi une demande de suppression aux autres instances.



C’est prévu, mais plus tard (c’est l’une des raisons pour le changement de lecteur).



Après je sais pas si PeerTube sait utiliser le GPU pour encoder, mais dans tout les cas tu as un système de file d’attente donc même avec plusieurs uploads en même temps, ça couche pas le serveur.



Faudrait demander à Chocobozzz.


Pas vraiment pour l’infra en fait, à part le stockage.



Depuis que la redondance entre instance est en place, la plupart des grosses instances sont pris en redondance par d’autre (genre celle de Framatube, tu as généralement dans le 5 seeds sur les vidéos).



Le seul point est le stockage. Le stockage n’est pas partagé sur un modèle de type P2P, donc faut du stockage, et beaucoup si tu comptes non seulement les backups, mais aussi la chier de thumbnail qui prennent énormément de place car beaucoup de petit fichier (la fameuse différence sous Windows entre “Taille” et “Sur disque”).








Qruby a écrit :



Mais en P2P, pourrait-on réduire cet impact sur le climat ?





En théorie oui mais en pratique je pense pas car passé une certaine audience ça va coincer et il faudra laisser tourner sa machine non stop et il vaut mieux des datacenter bien placés et optimisés. Par contre le P2P local peut être une option mais je pense que la meilleure solution c’est de proposer le téléchargement différé.



C’est le même problème avec les truc plus “pro” comme netflix, t’a quasiment 0 utilisation la journée et la nuit et un pic énorme pendant 3 / 4 h le soir. Je suppose que la plupart des gens savent ce qu’ils vont regarder à l’avance et ça serait plus intelligent d’avoir un téléchargement automatique la journée.



Après je suis pas un pro du réseau mais je suppose que plus tu surcharge les lignes en upload et plus ça va foutre le bordel sur le download et le ping.



C’est comme pour tout.

Si c’est pour des vidéos expliquant comment se bouger pour (faire) évoluer (la société) alors “ça va”. Si c’est des vidéos de #memyselfandi, l’impact est différent.



Dans tous les cas, c’est “en plus de l’existant” donc ça ne peut qu’être négatif écologiquement parlant.

Comme mon commentaire en fait.



Super projet en tout cas !


Sur le plan juridique, il y a aussi la question de la responsabilité du spectateur. Si l’on se trouve à regarder un contenu partagé illégalement et donc à en partager une partie, pourrait-on être poursuivi ?

Sur la capacité à identifier la page sur la vie privée dit que ce serait difficile. Ca semble supposer, entre-autre, qu’il y ait beaucoup de monde qui regarde et que peu d’adresses seraient partagées. Il y aurait donc quand même un minimum d’adresse qui passent, ce qui pourrait déjà plaire à la Hadopi…


Ca me brancherait bien de profiter de mon NAS et de ma bande passante pour monter une instance ou plutôt mettre à dispo ces ressources pour renforcer une instance existante. Il va falloir que je me penche là dessus. L’idéal serait d’avoir un plugin openmediavault&nbsp; pour cela.



Superbe projet en tout cas que je suis de près car très gros consommateur de vidéos youtube mais trop souvent des abus de ce dernier.&nbsp;


C’est dans l’autre sens, si ChoseTube est en autarcie, tu ne verras que les vidéos de ChoseTube. Par contre si BiduleTube fédère ChoseTube, tu verras les vidéos de BiduleTube ET ChoseTube sur BiduleTube.



Pour prendre un exemple plus parlant, le PeerTube de Blender ne fédère aucune instance et tu ne vois que les vidéos de Blender sur leur instance. Mais si une autre instance suis l’instance de Blender, cette autre instance listera ses vidéos ET celles de Blender.


Tu as du Yunohost ou du Docker si tu veux pas te prendre la tête pour l’installation, c’est déjà un début si tu veux pas te prendre trop la tête.


Oui docker je m’en sers déjà :)



&nbsp;En plus j’ai un CPU qui supporte le transcodage x264/ x265. Je m’en sers déjà avec Jellyfin et ça marche au poil :)


J’ai testé , j’aime bien mais peu de contenu par contre. J’espere que peertube va grandir.








skankhunt42 a écrit :



En théorie oui mais en pratique je pense pas car passé une certaine audience ça va coincer et il faudra laisser tourner sa machine non stop et il vaut mieux des datacenter bien placés et optimisés.





Ya de vrais études la-dessus ?



Je dis ça car la question de l’auto-hébergement chez soi vs en datacenter reviens souvent.

Autant en ADSL , bon, la question sur la vidéo se posait pas, autant en FTTH …



Je dis ça aussi car , de mon exp, chaque machine en DC, malgré le fait qu’elles soient host de VM, consomme quand même beaucoup - et leur concentration au même endroit implique une climatisation active , ainsi qu’une grosse concentration de courant donc d’équipements pour sécuriser ce courant.



Or dans le cadre de services personnels non critiques (cad petit site web local, instance mastodon, peertube, ….) ça me parait presque plus logique de faire tourner ça chez les particuliers derrière une ligne FTTH, sur un NUC ou un raspi (dans les cas les plus simples , encore qu’avec la version 4…).



Les DC sont souvent pointés du doigt pour leur impact foncier & contraintes électriques - et tu peux pas dire que les machines qui s’y trouvent sont à un load de 1.0 tout le temps.&nbsp;



Donc en terme de résilience et de distribution de la charge électrique & environnementale, j’ai quand même un gros doute.



Après bien sur si tu fais tourner un cluster de calcul de 10KW, la question est plus la même évidemment. Je ne parle ici que pour l’auto-hébergerment et les services perso (mails, …)



&nbsp;

&nbsp;









gwado a écrit :



C’est comme pour tout.

Si c’est pour des vidéos expliquant comment se bouger pour (faire) évoluer (la société) alors “ça va”. Si c’est des vidéos de #memyselfandi, l’impact est différent.



Dans tous les cas, c’est “en plus de l’existant” donc ça ne peut qu’être négatif écologiquement parlant.

Comme mon commentaire en fait.



Super projet en tout cas !





Et si ça peut limiter la croissance de l’existant?









framasky a écrit :



On n’a aucun GPU sur les instances qu’on gère (ce sont des VMs avec 2CPU et 6Gio de ram (mais on aurait pu mettre moins de ram, y a qu’un Gio de rééllement utilisé pour Framatube — note qu’on n’est pas en train d’encoder des vidéos donc je sais pas ce que ça bouffe quand ça encode)) et ça tourne nickel.









Kazer2.0 a écrit :



C’est prévu, mais plus tard (c’est l’une des raisons pour le changement de lecteur).



Après je sais pas si PeerTube sait utiliser le GPU pour encoder, mais dans tout les cas tu as un système de file d’attente donc même avec plusieurs uploads en même temps, ça couche pas le serveur.





Merci pour les infos. <img data-src=" />

En fait, je pensais me faire un NAS maison avec un APU Ryzen (genre 2400G/3400G).

Donc je me disais que je pourrais en profiter pour installer une instance Peertube.



Et l’idée du GPU, ce serait pour pouvoir transcoder pendant un streaming en direct (comment ça, j’anticipe à mort sur les futures améliorations ? <img data-src=" />).

Bref, j’ai le temps de voir venir.



En tout cas, c’est une chouette solution.



Pour le streaming, pour l’instant ils ne savent pas déjà si c’est techniquement possible au sein de PeerTube, mais ils l’envisagent car c’est une fonctionnalité très intéressante (et si tu arrives à envoyer du streaming en direct en P2P entre les utilisateurs sans un trop gros décalage de temps, ça risque d’être un gros avantage de PeerTube).



Toujours des bonnes choses à l’étude, mais après faut aussi faire le don récurrent à Framasoft pour garantir l’emploi de Chocobozzz (bien qu’il y ai énormément de contributeur, ça reste pour l’instant le dev principale).


Effectivement.

Il faudra surveiller les statistiques du leader, Youtube, qui est actuellement de 400 heures de vidéos ajoutées chaque minute.

Bon, pour autant, une croissance limitée croît quand même. :)


Je sais pas si il y à des études la dessus mais il y à beaucoup de paramètre.



Le plus important je pense c’est le principe de la mutualisation. Un serveur avec un seul site qui sert pas souvent c’est overkill en terme de puissance et dans ce cas la il vaut mieux avoir un pi à la maison. Par contre si ton site est sur un serveur mutualisé qui regroupe les sites en rapport à la charge ça sera top moumoute. Si à ça tu ajoute un refroidissement actif à l’énergie verte qui renvois la chaleur dans l’eau de la ville c’est encore plus top moumoute. Après t’a aussi le matériel, les dc ça finis à la poubelle ? Chez les particulier c’est souvent le cas. Et il vaut mieux pas livrer 10.000 pi dans un dc que 1 pi dans 10.000 foyer ?



Au final c’est une question de praticité ,limite définie par les retour / expérience partagé et de prix. C’est super simple de monter un site sur un serveur OVH mutualisé pour 5€ par mois mais si t’a beaucoup de visite il vont supprimer ton site. Si tu veut en gérer plusieurs ça sera le bordel. Tu prend un online ça te coutera le double de prix et tu pourra même y monter un serveur de jeux sans beaucoup de maintenance. Par contre si tu abuse vraiment eux aussi ils te déconnecteront.&nbsp; Un pi c’est cool mais avec de la fibre tu va très vite le saturer. La bande passante n’est pas illimité non plus c’est comme les forfait sans limite et l’upload consomme aussi du download. T’aura aussi les serveurs tiers qui devront être changés pour tenir la charge.



ps : Chez les particulier t’a intéret à fournir un truc plug and play sans aucun réglage, pratiquement impossible en pratique. Personne n’a envie de geek sur tel ou tel truc et c’est pourquoi les plateforme comme peertube font toujours un four sur le long terme. Et quand ça à un peu de succès ça coince vite au niveau technique / légal.








OB a écrit :



Ya de vrais études la-dessus ?







J’imagine sans mal que les FAI ont déjà fait l’étude, ne serait-ce que pour estimer leur propre consommation électrique si tout était en P2P sur ADSL et P2P sur FOptique et les besoins nouveaux susceptibles d’être crées.

L’ADSL était un bon exemple… dès 5mo/s la vidéo est apparue une évidence mais coûtait cher à certains (genre Free). etc.









skankhunt42 a écrit :



Le plus important je pense c’est le principe de la mutualisation. Un serveur avec un seul site qui sert pas souvent c’est overkill en terme de puissance et dans ce cas la il vaut mieux avoir un pi à la maison. Par contre si ton site est sur un serveur mutualisé qui regroupe les sites en rapport à la charge ça sera top moumoute. Si à ça tu ajoute un refroidissement actif à l’énergie verte qui renvois la chaleur dans l’eau de la ville c’est encore plus top moumoute. Après t’a aussi le matériel, les dc ça finis à la poubelle ? Chez les particulier c’est souvent le cas. Et il vaut mieux pas livrer 10.000 pi dans un dc que 1 pi dans 10.000 foyer ?







Oui.









Idiogène a écrit :



J’imagine sans mal que les FAI ont déjà fait l’étude, ne serait-ce que pour estimer leur propre consommation électrique si tout était en P2P sur ADSL et P2P sur FOptique et les besoins nouveaux susceptibles d’être crées.

L’ADSL était un bon exemple… dès 5mo/s la vidéo est apparue une évidence mais coûtait cher à certains (genre Free). etc.





Pas aussi sur que toi…. dans l’esprit des chefs de France Télécom , Internet n’était que du minitel amélioré et les box un minitel sans écran (mais avec une prise TV) destinée à pousser du contenu.

En plus le choix de l’ADSL permettait d’éviter trop de trafic remontant (service) - c’était un choix autant technique que commercial à l’époque . encore maintenant le VDSL2 permet du 100:20Mbps - seul les lignes SDSL permettent, sur les très bonnes lignes, de faire du 16:16Mbps (et le plus souvent 4) pour genre 300€/mois.



C’est ça que la fibre a changé, encore qu’on a pas encore de pure symétrie (le GPON le permet, c’est juste pas implémenté chez les FAI).



Par contre l’augmentation du débit permet de la vidéo , qui n’était pas possible avant.



&nbsp;





skankhunt42 a écrit :



Je sais pas si il y à des études la dessus mais il y à beaucoup de paramètre.



Le plus important je pense c’est le principe de la mutualisation. Un serveur avec un seul site qui sert pas souvent c’est overkill en terme de puissance et dans ce cas la il vaut mieux avoir un pi à la maison. Par contre si ton site est sur un serveur mutualisé qui regroupe les sites en rapport à la charge ça sera top moumoute. Si à ça tu ajoute un refroidissement actif à l’énergie verte qui renvois la chaleur dans l’eau de la ville c’est encore plus top moumoute. Après t’a aussi le matériel, les dc ça finis à la poubelle ? Chez les particulier c’est souvent le cas. Et il vaut mieux pas livrer 10.000 pi dans un dc que 1 pi dans 10.000 foyer ? &nbsp;



&nbsp;

Pour moi il y a aussi le principe de résilience géographique et d’indépendance qui me tient à coeur - c’est sans doute pas partagé , je te l’accorde. Comme tu le dis, chez un tiers il y a des limites +/- arbitraire et changeantes.



&nbsp;J’avais pris le PI pour des services simples, c’est vrai que pour peertube un NUC est plus adapté et plus durable, et là tu peux déjà plus facilement saturer ta fibre (même si c’est pas le but).

&nbsp;

&nbsp;

&nbsp;



skankhunt42 a écrit :



ps : Chez les particulier t’a intéret à fournir un truc plug and play sans aucun réglage, pratiquement impossible en pratique. Personne n’a envie de geek sur tel ou tel truc et c’est pourquoi les plateforme comme peertube font toujours un four sur le long terme. Et quand ça à un peu de succès ça coince vite au niveau technique / légal.



De toute façon si t’aime PAS l’informatique, que ça t’intéresse pas et que tu veux pas chercher, ben…. t’est juste pas le public visé.

&nbsp;J’ai jamais dit que le but était de réduire en cendre les DC et que tlm héberge chez lui.



Mais aujourd’hui ya quand même des distrib ou des solutions d’auto-hébergement assez simple , avec un travail de simplification qui se poursuit. C’est lent, OK.



Niveau légal… oui ça c’est toujours problématique, merci nos chers AD à dents de requins. A coté de ça, ca reste plus facile de raider un DC OVH que 10k personnes qui partagent des trucs dans tous les pays sur peertube. Pas plus légal, plus facile.



J’entendais le coût électrique comme justification plausible et partielle de l’internet asymétrique.

Maintenant tous les FAI ont-il fait ce calcul en effet ce n’est pas forcément clair. Free (pour reprendre mon exemple) étant arrivé sur un réseau déjà existant la question s’est à minima posée pour payer le loyer à Orange qui n’avait de l’époque de FT certainement pas prévu l’arrivée de la vidéo à la demande ou la télé.



Au final la question reste qu’un FAI à visée commercial aura toujours tendance à justifier son existence par une obscure question de qualité de service… mis à part assurer une couverture correcte sur un territoire donné, le travail des FAI s’arrête là où commence celui des fabricants de routeurs. Ce qui effectivement n’était pas le cas chez FT qui gérait aussi leProfit lié au X25.



Après en ordre de grandeur, une connexion fibre même asymétrique équivaut à de l’A/VDSL en download donc il n’y a aucune raison autre que légalo-casseburne que le P2P pour les clients ne décolle pas dans les années à venir.



Peetube et le streaming P2P sur navigateur c’est l’avenir. Même Alphabet finira par y toucher si les connexions le permettent, question d’économie.


Mastodon et diaspora* ne sont pas des repères de complotistes. Un repère de révolutionnaires ? C’est envisageable. La droite radicale n’aime pas ces réseaux et n’arrive pas à les comprendre. C’est triste, comme eux.



Skepticon est clairement l’instance qui fait le plus parler d’elle pour son contenu de qualité et l’engagement des vidéastes qui y versent leurs créations. C’est un sacré succès. Elle n’est pourtant pas seule : il y l’instance de Datagueule et celle de Thinkerview qui carburent pas mal. Pour le moment, Youtube reste la priorité des créateurs et des créatrices mais ils n’oublient pas Peertube, parfait repère en cas de strike étasunien.



Tout comme sur Mastodon, la modération de Peertube est prise très au sérieux. N’importe qui peut s’amuser à créer son bout du réseau et y balancer son contenu déplorable. Contrairement aux cochonneries comme Twitter ou Youtube, les modérateurs sont actifs, réactifs et directement joignables.

Tout est fait pour laisser le pouvoir aux mains des utilisateurs et des utilisatrices et la migration de comptes permet de fuir si on s’est perdue sur une instance infréquentable.

Si on s’amuse à prendre l’exemple de Gab, leur instance a été accueillie sèchement : ils sont tout seul et, éventuellement, facilement condamnable si la justice s’y met.



Bref, c’est tout bon.

&nbsp;








skankhunt42 a écrit :



Et il vaut mieux pas livrer 10.000 pi dans un dc que 1 pi dans 10.000 foyer?







Ca va trancher! <img data-src=" />



Je lis la totalité des docs et applique bien les procédures.

Mais j’ai le super-pouvoir de tomber systématiquement sur des cas non documentés <img data-src=" />



C’est très pratique à titre professionnel par ailleurs.


La blague sans budget… <img data-src=" />


Il me semble que l’instance de Pas Sage En Seine tourne sur un Kimsufi avec un Atom N2800 (soit la loose niveau CPU - et pratiquant, je connais) et pas plus de 4 Gio de RAM. À part l’encodage des vidéos qui prend des jours, pour le reste ça semble passer nickel


On bruitera à la bouche <img data-src=" />


(désolé pour le spam :p)



J’ai réussi l’install cette fois :)



Plutôt simple et efficace pour le moment comme application, assez rapide à comprendre. Il me reste à voir pour activer la transco histoire de voir comment ça se comporte (mais la VM risque de faire la tronche <img data-src=" /> ).


Merci de mentionner un gros événement (discret) avec aussi des grosses têtes.


Après que des développeurs se soient cassé les dents sur les vidéos en pair à pair il y a une disaine d’années, je n’y croyais plus…

Et puis il y a eu Popcorn Time qui m’avait bluffé, Flixxo, et maintenant PeerTube qui est encore plus impressionnant ! (Mais comment ils font pour que le début de visionnage de la vidéo soit presque instantané ?!?)


Tel que j’ai compris (je peux me tromper), la diffusion est initiée par le serveur qui met ensuite en relation les différents clients comme un tracker Bittorrent. A partir de là, les clients peuvent s’échanger les paquets pour décharger le serveur.



https://docs.joinpeertube.org/#/contribute-architecture


Si tu part du principe qu’un Pi pèse environ 50 grammes et qu’un radiateur numérique pèse environ 1kg t’aura environ 11 tonnes de matériel à produire et dispatcher sur 10.000 foyers. Tout ça pour fonctionner entre 2 et 6 mois de l’année ? Il ne vaut pas mieux centraliser au maximum selon les villes si c’est possible ?


Non mais je donnais un exemple… leur truc est clairement pas intégré à l’usage d’habitation car il ne s’intègre pas avec l’ECS* ou la VMC.



Je vois surtout l’intérêt d’introduire la notion de mix énergétique dans les foyers et de poser le problème franchement peu abordé des systèmes cohérents entre eux.



Se chauffer 6 mois de l’année avec un gros NAS c’est pas rentable, il faut le lier à un ballon d’eau chaude ou un gaz pour extraire de la chaleur en été.



Après faire un réseau de chaleur dans un quartier avec un centre de données je suis certain qu’en creusant la question cela existe déjà en Amérique du nord (quand il n’y a pas de géothermie), c’est le seul côté sympathique de la smart city 2084.



*eau chaude sanitaire








Idiogène a écrit :



Après faire un réseau de chaleur dans un quartier avec un centre de données je suis certain qu’en creusant la question cela existe déjà en Amérique du nord (quand il n’y a pas de géothermie), c’est le seul côté sympathique de la smart city 2084.







Ca existe aussi dans la région parisienne, il y a plusieurs expérimentations à ce sujet.



Je deviens sénile. <img data-src=" />








skankhunt42 a écrit :



Si tu part du principe qu’un Pi pèse environ 50 grammes et qu’un radiateur numérique pèse environ 1kg t’aura environ 11 tonnes de matériel à produire et dispatcher sur 10.000 foyers. Tout ça pour fonctionner entre 2 et 6 mois de l’année ? Il ne vaut pas mieux centraliser au maximum selon les villes si c’est possible ?





Ca m’intéresserais de voir une évaluation d’un chauffage purement électrique “de qualité” (cad mieux qu’un convecteur 1er prix de casto) et un chauffage via des éléments informatique, à l’échelle particulier ou petit quartier.



L’un des souci il me semble , c’est que à moins de pouvoir couper les serveurs en été, ben en été va falloir arrêter les machines sinon c stupide. Alors si les machines vendent simplement leur puissance de calcul ou minent du bitcoin , pkoi pas (après tout, si c’est l’été ici c’est l’hiver ailleurs) . Sans ça…



Après je trouve le chauffage élec idiot dans l’absolu, mais c’est vrai qu’avec une excellente isolation et dans un environnement contraint (immeuble, …) ca reste le plus facile a poser et entretenir.



La clef c’est en effet l’isolation mais ça coute cher et le résultat n’est pas aussi efficace et instantané qu’investir la même somme sur le long terme pour du chauffage / clim. L’avantage d’un chauffage électrique c’est de pouvoir chauffer très vite car grosse surface et haute température puis de maintenant la dite température. Au final c’est plus ou moins le même délire qu’une bonne isolation.


Le confort est quand même moins bon (écarts de températures locaux).








OB a écrit :



Ca m’intéresserais de voir une évaluation d’un chauffage purement électrique “de qualité” (cad mieux qu’un convecteur 1er prix de casto) et un chauffage via des éléments informatique, à l’échelle particulier ou petit quartier.







Le problème c’est qu’il n’existe pas de données pour l’informatique. Ou alors il faut demander à un responsable d’un centre de données de te donner le récapitulatif de l’étude thermique (obligatoire depuis 2012) et si bien-sûr ils ont installé un système spécifique de récupération de la chaleur produite par les serveurs.

Là dessus je doute que tu trouves de la doc en comparaison des radiateurs électriques où tu as toutes les données pour ce qui est grandes marques (donc pas casto mais de dietrich ou Thermor)







OB a écrit :



L’un des souci il me semble , c’est que à moins de pouvoir couper les serveurs en été, ben en été va falloir arrêter les machines sinon c stupide. Alors si les machines vendent simplement leur puissance de calcul ou minent du bitcoin , pkoi pas (après tout, si c’est l’été ici c’est l’hiver ailleurs) . Sans ça…







En été tu produits de l’eau chaude, et le surplus sert à extraire de la chaleur par un gaz du même type que celui de ton frigo (principe de la pompe à chaleur réversible). Problème il n’y a ces applications que dans l’industrie lourde… et dire à monsieur ou madame tout le monde qu’il va se chauffer avec son portable c’est anecdotique aujourd’hui.







OB a écrit :



Après je trouve le chauffage élec idiot dans l’absolu, mais c’est vrai qu’avec une excellente isolation et dans un environnement contraint (immeuble, …) ca reste le plus facile a poser et entretenir.







Ou dans une maison très bien isolée avec un peu d’inertie thermique. Il y en a qui ont essayé l’isolant n’a pas pris feu.







Mihashi a écrit :



Le confort est quand même moins bon (écarts de températures locaux).







Voilà, sans inertie c’est pas la peine.