#LeBrief : le MP3 libéré, lancement de BlaBlaLines, la 5G fait rage aux USA, Marvel chez comiXology

#LeBrief : le MP3 libéré, lancement de BlaBlaLines, la 5G fait rage aux USA, Marvel chez comiXology

L'Équipe chez SFR Presse

Avatar de l'auteur
David Legrand

Publié dans

Logiciel

03/05/2017 9 minutes
63

#LeBrief : le MP3 libéré, lancement de BlaBlaLines, la 5G fait rage aux USA, Marvel chez comiXology

C'est l'heure de #LeBrief, notre bilan de l'actualité dans le domaine des nouvelles technologies. Il contient toutes les informations qu'il ne faut pas manquer pour bien commencer la journée. Il est diffusé en accès libre.

Chaque jour, le domaine du numérique est percuté par de nombreuses informations. Et même si nous nous concentrons désormais sur l'essentiel, il n'en reste pas moins de nombreux éléments qui peuvent avoir de l'importance. 

Nous les compilons au sein d'une lettre quotidienne, diffusée sur le site en accès libre, mais aussi par email. Pour la suivre il vous suffit de suivre nos flux RSS et nos comptes sociaux ou de vous inscrire :

Recevoir #LeBrief par email

Envie de partager une information avec la rédaction ? Contactez-nous à travers notre formulaire, dans les commentaires ou via Twitter, avec le hashtag #LeBrief.


Le MP3 n’est plus protégé par aucun brevet – L’institut Fraunhofer a indiqué via un communiqué que le dernier venait d’expirer. La partie lecture n’était plus protégée depuis un moment, mais c’est désormais la compression qui peut être librement utilisée. Nul doute qu’on devrait donc le trouver plus souvent dans les distributions Linux.


L'Équipe rejoint l'offre de SFR Presse – Le quotidien sportif sera désormais intégré à l'offre de SFR à travers son kiosque maison en complément de ses « Extras ». Il est accompagné de deux autres titres du groupe : Vélo Magazine et France Football. Pour SFR, il s'agit d'une grosse prise, dont il sera intéressant de savoir combien elle est rémunérée par téléchargement. Il faudra aussi voir dans quelle mesure cela impactera la diffusion et les abonnements du groupe.


La Fnac propose sa propre carte bancaire – Le revendeur français vient d'annoncer « sa première carte universelle de paiement en partenariat avec Crédit Agricole Consumer Finance ». Une pratique qui n'est pas vraiment nouvelle, puisque de nombreuses enseignes proposent déjà ce type de carte de crédit. La Fnac disposait d'ailleurs déjà d'une solution de paiement (sans puce) avec le groupe Crédit Agricole (via sa filiale Finaref, récemment regroupée sous la marque Sofinco).

Ici, le but est surtout de permettre une utilisation hors des enseignes du groupe, tout en misant sur deux arguments : la gratuité pour les adhérents et 1 % de cashback sur les dépenses et les retraits, crédités sur le compte fidélité. Pour rappel, l'adhésion Fnac est proposée à 30 euros pour trois ans, ou 49 euros par an pour l'offre Fnac+ (voir notre analyse).


Face à TF1, SFR fait appel au CSA – Alors que le groupe audiovisuel a dénoncé ses contrats avec les opérateurs, ses chaines continuent pour le moment d’être diffusées par leur biais. SFR aurait donc saisi le CSA pour régler le litige qui l’oppose à la filiale du groupe Bouygues, qui menace toujours de couper le signal pour les box à l’été.


Des comics Marvel en illimité sur comiXologyio9 rapporte que plusieurs séries Marvel (dont Amazing Spider-Man, Iron Fist, Ms Marvel et Star Wars) feront bientôt leur entrée dans comiXology Unlimited, disponible outre-Atlantique pour 5,99 dollars par mois. Certains titres sont censés transiter sur Kindle Unlimited et Prime Reading, de la maison-mère Amazon.


BlaBlaCar lance BlaBlaLines pour les trajets quotidiens – Cette nouvelle application, en test pour le moment, est dédiée aux voyages courts pour se rendre sur son lieu de travail. Pour cela, le service utilise un système de lignes : « elles sont automatiquement activées et proposées par la plateforme dès qu’un volume suffisant de conducteurs effectuant le même trajet, dans les deux sens, est atteint ». Pour le moment, elles sont au nombre de deux, mais cela devrait augmenter progressivement : Reims <> Châlons-en-Champagne et Toulouse <> Montauban. Tous les détails se trouvent par ici.


Guerre sur le terme 5G chez les opérateursIl y a quelques semaines, AT&T annonçait à grand coup de communiqués de presse l’arrivée de la « 5G Evolution » cette année… alors que cette technologie n’est même pas finalisée. Il s'agit en fait d'une évolution de la 4G actuelle.

T-Mobile vient de lui répondre avec son plan pour proposer de la « vraie 5G ». Le déploiement devrait commencer en 2019, avec une couverture nationale pour 2020, ce qui est dans la lignée des annonces des opérateurs français. Les opérateurs américains sont donc en train de refaire l'erreur de la 4G. Comme le rappelait récemment l’Arcep, « aux États-Unis, AT&T avait labélisé 4G son réseau HSPA (en France c’est un réseau 3G+) ». Le régulateur appelle d’ailleurs à la prudence dans cette course qui peut conduire à « donner une appellation “commerciale” à une génération de téléphonie mobile ».


FurMark passe en version 1.19 – JeGX vient de mettre à jour son outil pour tester les performances et la stabilité de sa carte graphique. Cette mouture ajoute la prise en charge des GeForce GTX 1080 Ti et Titan Xp côté NVIDIA. Chez AMD, il est question des Radeon RX 580 et RX 570.


Vous reprendrez bien un peu de Nougat ? – Selon les derniers chiffres de Google, Nougat (Android 7.0 et 7.1) est présent sur 7,1 % des terminaux qui se sont connectés au Play Store au cours des sept derniers jours. Marshmallow reste encore une fois majoritaire avec 31,2 % de parts de marché (stable), suivi par Android 5.1 à 23,3 % (-0,3 point).


Deux nouveaux SSD pour datacenter chez Intel – La société de Santa Clara lance en effet les DC P4500 et P4600 Series (NVMe), avec de la 3D NAND TLC (trois bits par cellule) dans les deux cas. Ils sont disponibles en version de 1,2 à 4 To, au format PCI Express ou U.2.


Kobo renouvelle sa liseuse étanche H2O – Cette nouvelle version est un peu moins encombrante, propose un écran anti-éblouissement pour lire en plein soleil, et 8 Go de stockage au lieu de 4 Go sur la mouture précédente. Tous les détails techniques sont disponibles par ici. Elle sera disponible à partir du 22 mai en France, pour un prix qui n’a pas été précisé.


Docker change de PDG – L’actuel patron de l’éditeur, Ben Golub, a annoncé sa démission. Il est remplacé par Steve Singh, transfuge de chez SAP. Un changement qui intervient à une période stratégique, car la société qui a tant propulsé les conteneurs logiciels sur le devant de la scène est aujourd’hui largement concurrencée. Après avoir réuni ses projets open source sous le parapluie du Moby Project, Docker doit maintenant remporter plus de victoires auprès des entreprises.


Chrome 58 bascule en 64 bits sur Windows – Si les conditions sont réunies, à savoir un Windows 64 bits et au moins 4 Go de mémoire vive, le navigateur se met à jour automatiquement en 64 bits. Une étape importante, car même si Google proposait une telle variante, elle n’avait pas été proposée par défaut pendant longtemps. Un grand nombre d’installations était donc en 32 bits. Notez que la mise à jour intègre également un correctif pour une faille critique dans WebRTC.


OpenShift.io, l’IDE de Red Hat spécialisé dans les conteneurs – L’éditeur fait de sa plateforme OpenShift de gestion des conteneurs (basée sur Kubernetes) un environnement intégré. Objectif, fournir aux développeurs les outils nécessaires à la création des applications en conteneurs. Tests, gestion des plannings, services de collaboration, surveillance des projets ou encore gestion de l’espace de travail sont disponibles, le produit rassemblant des projets tels qu’Eclipse, Jenkins et fabric8. Pour l’instant, OpenShift.io n’est disponible qu’en préversion.


De nouvelles fonctions pour les jeux sur Facebook MessengerComme annoncé lors de la conférence F8, ils s'enrichissent et permettent de proposer des titres en tour par tour. Fer de lance de cette initiative, on retrouve le jeu Words With Friends de Zynga. Le lancement démarre aujourd’hui, avec une mise en place progressive dans le monde entier sur les prochaines semaines.


Star Wars : The Old Republic s’invite sur Twitch Prime – Si vous êtes abonné, la plateforme de streaming d'Amazon a un cadeau pour vous : elle propose de récupérer jusqu’au 15 mai un pack bonus pour le MMORPG Star Wars : The Old Republic. Il comprend un personnage de niveau 65 et une monture exclusive. Une manière pour EA de tenter de redonner un peu d’élan à son jeu pour peu de frais.


Oculus se sépare de Dov Katz, son Head of computer vision – L’entreprise a confirmé à nos confrères de TechCrunch le départ de son responsable. Pour rappel, Dov Katz est accusé d’avoir sollicité des rapports sexuels tarifés auprès d’un officier de police qui s’était fait passer pour une mineure de 15 ans.  


Des cartes gratuites pour Hearthstone – Peu après le lancement de la nouvelle extension Voyage à Un’Goro d’Hearthstone, Blizzard propose aux joueurs de récupérer gratuitement trois paquets de cartes pour fêter le franchissement de la barre des 70 millions de joueurs. Pour cela, il leur suffit de se connecter au jeu aujourd’hui.


Une première bêta pour NextCloud 12 – Il s’agit pour rappel d’un fork d’ownCloud (lancé par le cofondateur de ce dernier). Cette nouvelle mouture améliore notamment le partage et la collaboration entre les utilisateurs. Pour consulter les notes de versions et télécharger NextCloud 12 bêta, c’est par ici que ça se passe. Selon l’équipe en charge du projet, la version finale devrait arriver dans trois semaines.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (63)


bonne nouvelle pour le mp3 (en Europe on s’en foutait un peu, mais pour le monde, quoi).<img data-src=" />



OpenShift .io m’a l’air sacrément intéressant, je me demande si je ne vais pas y jeter un œil…


Je me demande si en plus des distributions Linux, les navigateurs libres comme Firefox vont intégrer le codec mp3 ou pas (actuellement Firefox s’appuie sur les codecs de l’OS pour les codecs proprio, l’exception est H264).


tu parles des versions “US” ou des versions “non-US” des packages ?



C’est principalement en raison des brevets logiciels qu’ils font la différence. L’implémentation des logiciels est généralement libre, leur utilisation restreinte en raison des brevets dessus.&nbsp;


Les brevets industriels, c’est 20 ans, donc le MP3 est arrivé en fin de course … 8-)



Ah, si les “oeuvres” pouvaient être couvertes de la sorte et non un temps quasi-infini à l’échelle humaine….ça éviterait de se prendre la tête avec le piratage. Mais bon il y a tout un “écosystème” à faire vivre autour de l’auteur/artiste. Ou plutôt tout un aréopage parasitaire et festif sans aucune valeur ajoutée pour l’humanité qui dépend entièrement &nbsp;de la rente “culturelle” telle que définie aujourd’hui….



On en vient à Marvel et Comixology … très bien mais pas un peut tard , non ?

La BD Française devrait d’ailleurs les imiter sans attendre plus longtemps, au risque de passer à la trappe du digital dématérialisé….



A force de vouloir maîtriser et manipuler “son” marché, les acteurs finissent par le perdre … à jamais.

Ca prend du temps, mais c’est inéluctable.


Euh il y a beaucoup de concurrence dans le domaine des container ? J’entend surtout parler de Docker et rarement des autres… D’ailleurs qu’est ce qui existe en container comparable a Docker ? J’aimerais bien avoir plus d’informations sur ça pour que l’auteur de l’article le mentionne ici.


“Nul doute qu’on devrait donc le trouver plus souvent dans les distributions Linux.”

On a probablement déjà des codecs d’aussi bonne qualité voir meilleure et libres. <img data-src=" />


À propos de l’annonce de la nouvelle Kobo :



Elle sera disponible à partir du 22 mai en France, pour un prix qui n’a pas été précisé.



Le prix conseillé par le constructeur est écrit sur le PDF en lien : 179.99€ pour l’EU.


tu as rocket et lxc.





J’ai l’impression à titre personnel que ce sont des querelles de clocher



EDIT: docker est le plus médiatisé/connu/le premier, donc forcément niveau aura et vision de l’avenir ça joue


20 ans pour le MP3… purée… ça me vieillit.

Je me rappel ma première expérience avec un encodeur MP3 sous Mac OS 9. C’était un shareware, et tant que tu payais pas, au début de chaque MP3 y avait une introduction du style “Welcome into bla bla mp3 encoder…”. Horrible ^^





Sympa la nouvelle Kobo. Je suis vraiment enchanté de la mienne (mais c’est pas une version étanche), je l’utilise tous les jours. Mais l’idée d’une étanche, ça me séduit bien pour lire dans le bain ^^


La plupart des distributions sont orienté international, donc le mp3 est dans non-free ou assimilé.


Bien content d’être passé sur messenger lite. Messenger devient une vraie usine à gaz avec des fonctions qui me sont complètement inutile. Dommage que son homologue Facebook lite ne soit pas aussi bon.



Cela fait une bonne économie de place, données et de batterie.



Je rêve d’une application universelle comme à l’époque des pc qui pourrait se connecter sur l’ensemble des messageries. Quand on a des amis de différent pays, chacun à son appli nationale : messenger, WhatsApp, WeChat, Line,… sans parler celle avec chiffrement (Telegram, Signal,…)








tpeg5stan a écrit :



bonne nouvelle pour le mp3 (en Europe on s’en foutait un peu, mais pour le monde, quoi).<img data-src=" />





Oui et puis de toutes façons on avait LAME depuis presque toujours, ça n’a eu aucun effet pratique.







Soriatane a écrit :



Je me demande si en plus des distributions Linux, les navigateurs libres comme Firefox vont intégrer le codec mp3 ou pas (actuellement Firefox s’appuie sur les codecs de l’OS pour les codecs proprio, l’exception est H264).





Ça fait depuis toujours qu’on lit ou écrit du MP3 sous Linux. C’est du brevet logiciel.







tpeg5stan a écrit :



tu parles des versions “US” ou des versions “non-US” des packages ?

C’est principalement en raison des brevets logiciels qu’ils font la différence. L’implémentation des logiciels est généralement libre, leur utilisation restreinte en raison des brevets dessus.





Et encore, uniquement aux US.







chr_yokohama a écrit :



Les brevets industriels, c’est 20 ans, donc le MP3 est arrivé en fin de course … 8-)





C’est un brevet logiciel si on est vraiment précis, mais ça obéit à la même durée effectivement.







Winderly a écrit :



“Nul doute qu’on devrait donc le trouver plus souvent dans les distributions Linux.”

On a probablement déjà des codecs d’aussi bonne qualité voir meilleure et libres. <img data-src=" />





Oui le Vorbis est meilleur que le MP3 mais il a peu pris.







Nioniotte a écrit :



Je me rappelle ma première expérience avec un encodeur convertisseur/compresseur MP3 sous Mac OS 9.





Il n’y avait pas LAME de porté ?



le MP3 ! libéré, délivré, il n’aura plus de brevets <img data-src=" />





:pataper:








OlivierJ a écrit :



Oui et puis de toutes façons on avait LAME depuis presque toujours, ça n’a eu aucun effet pratique. Ça fait depuis toujours qu’on lit ou écrit du MP3 sous Linux. C’est du brevet logiciel.







Tout dépend de la distribution utilisée. Par exemple, en ce qui concerne Fedora, qui est pro-libre et dont les serveurs sont basés aux États-Unis (et qui se trouve être sponsorisée par Red Hat, entreprise américaine), tout ce qui propriétaire ou soumis aux brevets logiciels n’est pas proposé dans les dépôts officiels et il faut donc activer des dépôts tiers. Plus ennuyeux, certains logiciels qui en font usage sont bien présents, mais sans la prise en charge (désactivée à la compilation) de tout ce qui pourrait poser légalement problème.



Chez Debian / Ubuntu, c’est dans des dépôts officiels, mais séparés.



Pour celui qui est à l’aise avec son système, effectivement, ça ne changera rien. Pour les autres, c’est toujours plus sympa que ce soit parfaitement fonctionnel par défaut, sans avoir besoin de bidouiller quoi que ce soit.



C’est juste que ça cassera pas les burnes de devoir activer des backports non-free ou je ne sais nin à cause d’un pays sous-développé qui compte encore en impérial et a des brevets logiciels. Pas de bol, c’est là où toutes les fondations logiciel sont.



edit:grillé par okki


C’est vrai que chez Fedora un débutant aura peut-être le souci, je n’ai pas essayé.

Dans le temps chez SuSE et Mandriva aucun souci il me semble.

Je suis sous Ubuntu et je n’ai pas fait attention si le lecteur audio par défaut lit de base le MP3 ou pas, ou si Amarok ou genre le fait, car en pratique quand je lis un MP3 (pas souvent) j’utilise carrément VLC :-) .



(tpeg5stan : Oui)


à l’install d’ubuntu, tu as une case à cocher “conseillé d’activer” avec notamment support mp3, et peut-être aussi 23 autres trucs soumis à brevets. (restricted extras ? c’est possible ?).





Sinon tu as droit à un beau “il manque un plugin dans votre installation de gstreamer”


Je suis passé en Chrome 64 bits il y a quelques semaines =&gt; sur mon PC portable qui a un CPU un peu faible, il y a un vrai gain ! Ca chauffe beaucoup moins aussi








jb18v a écrit :



le MP3 ! libéré, délivré, il n’aura plus de brevets <img data-src=" />





:pataper:





<img data-src=" /> <img data-src=" />





Désolé !&nbsp;<img data-src=" />



Vous pensez à qui pour les concurrents de Docker ?


<img data-src=" />








Nioniotte a écrit :



20 ans pour le MP3… purée… ça me vieillit.





Compression MP3 d’un morceau sur pentium 100: 15 minutes pour 5 minutes de musique, et mangeait la totalité des 16Mo de RAM pendant la compression. Pendant la lecture, difficile aussi de faire autre chose.

Et à l’époque je le trouvais bien mon P100. Je ne sais pas trop ce qu’on fait de nos 4x3.4GHz et 8Go de RAM…



En ce qui concerne la compression j’ai une idée d’algorithme qui me trotte dans la tête depuis quelques temps… Est t’il possible de créer un “codec” avec un dico qui fasse plusieurs GO / stocké dans le cloud ? Je ne sais pas si vous connaissez la bibliothèque&nbsp; de Babel, ou il est possible d’avoir un texte complet avec seulement quelques chiffres et lettre à la con.



Exemple avec mon commentaire : https://libraryofbabel.info/bookmark.cgi?82:2


Le meilleur lecteur/encodeur sur Mac OS 9, c’était soundjam MP !


Je pense qu’en entreprise, c’est plus les VM “lourdes” (type 2, avec un OS complet installé dans chacune d’entre elles, typiquement VMWare) qui a pris. Sinon, il reste des solutions comme Xen, voire les jails BSD qui existent depuis un bail.



Sinon, en commercial, Solaris 10 est sorti il y a 12 ans et supporte les zones, qui sont des containers un peu dans le même principe. Sun proposait (et je suppose qu’Oracle le fait toujours) des “branded zones” pour pouvoir virtualiser des systèmes Solaris 8 ou 9 sur des hôtes Solaris 10 avec un accès hardware direct, ce qui simplifiait énormément les migrations.



Pas mal de distros basées sur Illumos (fork d’OpenSolaris, qui était le point de départ de Solaris 11 sous Sun, avant le rachat par Oracle) permettent l’utilisation de zones. Perso, je suis très fan de SmartOS, qui est un système en RAM qui démarre des zones (SmartOS ou Linux !) stockées sur des pools ZFS : redoutable, mais pas très connu…


De mémoire, c’était un peu le principe du VQF (bonne qualité pour une compression importante).


+1 avec Jonath.



Le combo “Kubernetes + VM type 2” se trouve assez souvent sur les profils LinkedIn.



Les entreprises ont un faible pour des VM type 2. Ca permet aux admins/dev de “tuner” le système d’exploitation Guest. Ca donne aussi l’illusion que c’est plus pérenne d’avoir une image complète de l’OS Guest (même si j’ai un doute).


Sous Mac OS 9.1 ? Ça me dit rien… et c’était il y si longtemps.








brice.wernet a écrit :



Compression MP3 d’un morceau sur pentium 100: 15 minutes pour 5 minutes de musique, et mangeait la totalité des 16Mo de RAM pendant la compression. Pendant la lecture, difficile aussi de faire autre chose.

Et à l’époque je le trouvais bien mon P100. Je ne sais pas trop ce qu’on fait de nos 4x3.4GHz et 8Go de RAM…





On en bouffe une partie pour remplacer ce qui à une époque pas si lointaine était le travail de la “carte son”.

Sur certaines configs on fait pareil pour la partie graphique.

Puis on le voit bien sur certains jeux, les machines actuelles sont tellement OP qu’il n’y a plus besoin d’optimiser (quoi que ce soit) alors aux chiottes l’optimisation.

Actuellement je joue à Civilization V, ça correspond parfaitement.

J’ai une machine qui peut faire tourner la plupart des “doom-like” à fond, mais ce jeu des années 2010 met ma machine à genoux (et c’est un wargame au tour par tour <img data-src=" />).



Je pense que c’était mieux avant.









brice.wernet a écrit :



Compression MP3 d’un morceau sur pentium 100: 15 minutes pour 5 minutes de musique, et mangeait la totalité des 16Mo de RAM pendant la compression.





Autant c’était effectivement lent, autant la RAM, je ne pige pas. Il n’y avait besoin d’aucune RAM particulière pour compresser, le contexte étant assez local.







brice.wernet a écrit :



Pendant la lecture, difficile aussi de faire autre chose.





En revanche la lecture même sur Amiga (moins puissant qu’un Pentium 100) ça passait.







brice.wernet a écrit :



Et à l’époque je le trouvais bien mon P100. Je ne sais pas trop ce qu’on fait de nos 4x3.4GHz et 8Go de RAM…





C’est clair… Bon pour la compression les performances sont quand même sans commune mesure, ça se mesure en secondes à présent.







Winderly a écrit :



On en bouffe une partie pour remplacer ce qui à une époque pas si lointaine était le travail de la “carte son”.





Comment ça ?







Ghimo a écrit :



Le meilleur lecteur/encodeur convertisseur (ou compresseur) sur Mac OS 9, c’était soundjam MP !





<img data-src=" />



Ya pas que le mp3 qui tombe dans le domaine public, le codec Dolby AC3 aussi, depuis mars.



Sinon en bien plus performant, il y a l’Opus qui est completement libre et gratuit.


Un peu comme le infohash dans un lien magnet ? —&gt;[]








OlivierJ a écrit :



…Comment ça ? …





Depuis un certain temps déjà, un chipset est intégré à la carte mère. Sauf que factuellement, c’est le cpu qui taffe. Mais comme ça représente un pourcentage négligeable de la puissance qu’il fournit, ça se voit pas. Parfois ça s’entend. <img data-src=" />



Euh… Quel serait l’intérêt concrètement ?


rocket, lxc.



blablacar est en full rocket par exemple.








divide a écrit :



Euh… Quel serait l’intérêt concrètement ?





Imagine une bibliothèque de nombre / mot aléatoire optimisés de 20 Go et quand tu téléchargera un film il sera encodé via cette bibliothèque en contenant des coordonnés de séquence de nombre / mot. Car en 20 ans le stockage à explosé même sur smartphone une puce de 20 go ne vaut pas grand chose. Et il est tout à fait possible d’avoir une compression qui dure 10 plombe comme au début des mp3, le décodage est lui souvent bien plus rapide.



Je peut aussi donner un autre exemple un peu plus concret, le Qr code. Imagine un code qui fait la taille de ton écran, avec chaque case d’un seul pixel. Tu pourra stocker énormément d’information visuelle, essaye d’écrire les informations stockées dans le code sur un éditeur de texte tu ne pourra jamais tout faire tenir sur un écran et tu sera limité par la taille de la police.



Pour du stockage informatique c’est “débile” ont est d’accord car un png / jpg prendra beaucoup plus de place que du texte brut, mais imprimé sur une feuille de papier tu pourra stocker énormément d’informations.









Winderly a écrit :



Depuis un certain temps déjà, un chipset est intégré à la carte mère. Sauf que factuellement, c’est le cpu qui taffe. Mais comme ça représente un pourcentage négligeable de la puissance qu’il fournit, ça se voit pas. Parfois ça s’entend. <img data-src=" />





Je n’ai toujours pas compris de quoi il s’agit (y compris le précédent commentaire).



Pour jouer un MP3 en 1998 et maintenant c’est pareil, le CPU doit décoder/décompresser le flux en échantillons normaux (en flux dit “PCM” 16 bits 44 kHz) et les envoyer au convertisseur numérique-analogique (la carte son, de nos jours intégrée à la carte mère par défaut).







skankhunt42 a écrit :



Imagine une bibliothèque de nombre / mot aléatoire optimisés de 20 Go et quand tu téléchargera un film il sera encodé compressé via cette bibliothèque en contenant des coordonnés de séquence de nombre / mot.





<img data-src=" />



Sinon, s’il s’agit de remplacer le contenu de quelques octets par un couple offset/taille pointant sur un fichier de 20 Go, je ne suis pas sûr que tu puisses y gagner.

(si j’ai bien compris ton idée)







skankhunt42 a écrit :



Je peut aussi donner un autre exemple un peu plus concret, le Qr code. Imagine un code qui fait la taille de ton écran, avec chaque case d’un seul pixel. Tu pourra stocker énormément d’information visuelle, essaye d’écrire les informations stockées dans le code sur un éditeur de texte tu ne pourra jamais tout faire tenir sur un écran et tu sera limité par la taille de la police.





Sauf que le QR Code est moins dense que l’information stockée sur l’écran directement en binaire (pixel blanc = 1 , noir = 0), il y a une redondance importante.

Et l’exemple ne me parle pas :-) .









OlivierJ a écrit :



Je n’ai toujours pas compris de quoi il s’agit (y compris le précédent commentaire).





brice.wernet demandait (je crois, il n’y a pas de point d’interrogation) ce qu’on fait de nos machines actuelles, j’ai tenté d’y répondre.



Un meilleur exemple serait le png indexé, je pense.

Chaque couleur utilisée dans le fichier est indexée, ensuite les pixels du fichier sont encodés (et compressés) en utilisant ces index.

Par contre, ça limite fortement le nombre de couleurs que tu peux indexer (256 max), sinon l’index devient plus gros que la taille pour stocker les données de la couleur et donc ça perd tout son intérêt.


C’est marrant sur le papier, mais en réalité cette idée va te coûter bien plus avec cette méthode de stockage que de simplement stocker en h264 ou en mp3. Non seulement le coût de la bdd de base, mais le coût de chaque jeu de coordonnées va être bien plus qu’un mp3/h264 simple. C’est parfaitement illustré avec babel library, ta coordonnée c’est pas l’url bookmark, c’est la chaîne de caractère encodé derrière (qui apparaît en bas de page) qui est en réalité hyper longue, plus que le texte final.








OlivierJ a écrit :



Je n’ai toujours pas compris de quoi il s’agit (y compris le précédent commentaire).







Le monsieur dit, qu’a l’époque, les cartes son embarquaient des fonctions pour délester le CPU (par exemple la synthèse FM / wavetable). Mais avec la démocratisation des chipsets, c’est le CPU qui fait le boulot de créer le signal PCM et le chipset s’occupe uniquement du mixage des canaux (et parfois de l’encodage Dolby).



Opus est fait pour le streaming, le mp3/, vorbis, aac sont fait pour l’usage local.



Ils ont pas le même cahier des charges.


Non, l’Opus est conçu comme un codec hyper polyvalent capable de remplacer la majorité des codecs audio existants, que ce soit en streaming ou offline, pour des bas débits ou haut débit. Et il explose haut la main le mp3 et l’ac3 dans l’usage musique/piste son film offline. Par exemple un opus à 128kbps est équivalent à un mp3 à 256kbps en terme de qualité sonore, d’après plusieurs tests à l’aveugle.



http://opus-codec.org


Mais “VM lourdes” ce n’est pas vraiment un concurrent de Docker, si ? J’avais compris que Docker n’embarquait pas d’OS, ce qui en faisait un système plus léger.


Non, le MP3 a été conçu dès le départ pour le streaming, même si son succès s’est fait sur l’usage local.


Hmm une petite distinction s’impose je crois,

Docker est un moteur de conteneurs,&nbsp;ce que certain appellent de la virtualisation légère.

On peux résumer ça comme un “jail root industrialisé et boosté aux hormones”.

A la différence d’une virtualisation plus classique qui “simule” le matériel pour un système d’exploitation avec son propre noyau, le conteneur exploite directement le noyau de l’hôte, mais dans un espace qui lui est réservé et duquel il ne peux sortir. Pas de virtualisation de matériel , pas de noyaux supplémentaire à alimenter. En revanche on limite le type de système qui peux fonctionner (exclusivement Linux).

Ensuite , et bien un conteneur peux:

soit contenir le minimum de binaires pour faire fonctionner une application. (donc ‘sans OS’)

soit contenir l’ensemble des binaires d’une distribution classique pour être utilisé ‘comme une VM classique’, ce à quoi Jonath faisait allusion je crois.

Avec toute les nuances entre les deux…



&nbsp; Dans la mesure où un conteneur est fonctionnellement isolé des autres, rien n’empêche d’avoir des conteneurs de type très différent fonctionnant sur le même hôte.





en alternative à Docker, comme moteurs de conteneurs, il y a entre autre :




  • Rocket (ou rkt) de CoreOS

  • LinuxContainer (ou LXC) par Canonical

  • OpenVZ fait aussi techniquement des conteneurs mais avec une approche VM classique (c à d OS entier)

    &nbsp;








Mihashi a écrit :



Chaque couleur utilisée dans le fichier est indexée, ensuite les pixels du fichier sont encodés (et compressés) en utilisant ces index.











divide a écrit :



ta coordonnée c’est pas l’url bookmark, c’est la chaîne de caractère encodée derrière (qui apparaît en bas de page) qui est en réalité hyper longue, plus que le texte final.





<img data-src=" />

Merci.









127.0.0.1 a écrit :



Le monsieur dit, qu’a l’époque, les cartes son embarquaient des fonctions pour délester le CPU (par exemple la synthèse FM / wavetable). Mais avec la démocratisation des chipsets, c’est le CPU qui fait le boulot de créer le signal PCM et le chipset s’occupe uniquement du mixage des canaux.





Ben s’il s’agit de reproduire des échantillons sonores, rien n’a changé, le CPU les prend dans un fichier et les donne au convertisseur, mon Amiga 500 le faisait déjà en 1989, et ça marche encore comme ça de nos jours sur plateforme Intel. Si les échantillons sont au format brut PCM ou quasi-brut comme du WAV non compressé, le CPU n’a quasiment rien à faire, et en général le chip sonore utilise la DMA donc la charge est super faible.



Après, si on fait de la synthèse, effectivement ça fait longtemps que les CPU sont ultra-puissants pour faire ça tout seul (du temps du 68000 sur Amiga effectivement le circuit sonore dédié était fort utile).







127.0.0.1 a écrit :



(et parfois de l’encodage la compression Dolby)





Je n’ai jamais compris l’intérêt de Dolby, déjà en analogique (au cinéma), alors en numérique…









OlivierJ a écrit :



Ben s’il s’agit de reproduire des échantillons sonores, rien n’a changé, le CPU les prend dans un fichier et les donne au convertisseur, mon Amiga 500 le faisait déjà en 1989, et ça marche encore comme ça de nos jours sur plateforme Intel.







Bah heu… justement sur tous les ordinateurs vintage le CPU était délesté du calcul du flux audio, car c’était beaucoup trop couteux ! Sur Amiga 500 c’est le chipset audio PAULA qui était chargé de lire les 4 sample PCM depuis la mémoire (chaque sample étant rejoué avec une fréquence différente pour simuler les tonalités).





Je n’ai jamais compris l’intérêt de Dolby, déjà en analogique (au cinéma), alors en numérique…





Le Dolby ce n’est pas que de la compression (AC3/4), voire même ce n’est pas du tout compressé (TrueHD).

L’intérêt historique c’était (et ca reste) la transmission multicanaux sur une relativement petite bande-passante, genre un simple câble coax cuivre (= spdif/RCA).



Bon, avec le HDMI et sa bande passante démesurée (8 x 192kHz/24bit non-compressé) c’est vrai que ce n’est plus trop utile. <img data-src=" />









127.0.0.1 a écrit :



Bah heu… justement sur tous les ordinateurs vintage le CPU était délesté du calcul du flux audio, car c’était beaucoup trop couteux ! Sur Amiga 500 c’est le chipset audio PAULA qui était chargé de lire les 4 sample PCM depuis la mémoire (chaque sample étant rejoué avec une fréquence différente pour simuler les tonalités).





Décidément la comprenette est difficile… Il n’y avait pas plus de calcul qu’aujourd’hui concernant la reproduction d’échantillons sonores, relis mon commentaire. La synthèse FM j’en ai parlé aussi.

NB : J’ai eu un Amiga 500 puis 1200 et je maîtrisais à fond tout le matos et l’OS :-) .







127.0.0.1 a écrit :



Le Dolby ce n’est pas que de la compression (AC3/4), voire même ce n’est pas du tout compressé (TrueHD).





C’est quoi ce “TrueHD” ? (oui je sais, Google toussa, réponse optionnelle :-) ).







127.0.0.1 a écrit :



L’intérêt historique c’était (et ca reste) la transmission multicanaux sur une relativement petite bande-passante, genre un simple câble coax cuivre (= spdif/RCA).





OK.

Mais ce qui était mis en avant au cinéma c’était le “Dolby Stéréo” donc il n’était pas question de multi-canal.



Pour moi (et pour mon père ingénieur quand j’étais petit), le Dolby ça a toujours été du marketing.









OlivierJ a écrit :



Décidément la comprenette est difficile… Il n’y avait pas plus de calcul qu’aujourd’hui concernant la reproduction d’échantillons sonores, relis mon commentaire.







Ton chipset realtek de PC est capable de lire simultanément 4 sample différents depuis la RAM, chacun à une fréquence différente, sans que le CPU ne doive d’abord refabriquer un signal ? <img data-src=" />









127.0.0.1 a écrit :



Ton chipset realtek de PC est capable de lire simultanément 4 sample différents depuis la RAM, chacun à une fréquence différente, sans que le CPU ne doive d’abord refabriquer un signal ? <img data-src=" />





C’est pas franchement utile vu que de nos jours le chipset sert essentiellement à reproduire du son enregistré (des échantillons “PCM”).

Sinon je n’ai pas vérifié les capacités exactes du chipset embarqué sur ma carte mère actuelle, mais sur mon premier PC de 1999 les échantillons étaient lus en DMA en tous cas, selon une fréquence réglable.

Et comme on disait, un CPU même d’il y a 10 ans était déjà largement surpuissant pour ré-échantillonner un son si nécessaire avant fourniture au chipset sonore.



Pas compris la fixette sur le mot “codage” vs “encodage”

https://fr.m.wiktionary.org/wiki/encodage



Sinon oui Dolby (pour avoir travaillé avec l’équipe Dolby sur l’implémentation de leur codec dans mon soft) c’est beaucoup de bullshit pour pas grand chose…


Vous nous refaites un sketch des Inconnus, là ? Vous allez vous séparer avant la fermeture des commentaires ? <img data-src=" />








divide a écrit :



Pas compris la fixette sur le mot “codage” vs “encodage”

https://fr.m.wiktionary.org/wiki/encodage





Parce que c’est un anglicisme inutile. En mathématiques en bon français on parle de codage et décodage (tout comme chiffrement et déchiffrement, et pas “encryptage”/“encryption” berk) (et codec vient de codeur/décodeur), et de plus le terme de codage est très souvent impropre en informatique dès qu’il s’agit d’une compression avec perte, puisque le terme de codage indique que c’est bijectif. Une compression sans perte est un codage, comme celui de Huffmann.

Autre remarque liée, quand le JPEG est arrivé, on a toujours parlé de compression JPEG ou de conversion, mais bizarrement avec la vidéo (MPEG) on s’est mis à parler de codage (encoding) au lieu de compression ou conversion ; personne ne dit qu’il a “codé” son image en JPEG, on dit plutôt qu’on l’a convertit ou tout simplement sauvé en JPEG.







divide a écrit :



Sinon oui Dolby (pour avoir travaillé avec l’équipe Dolby sur l’implémentation de leur codec dans mon soft) c’est beaucoup de bullshit pour pas grand chose…





Ah merci :-) .







le podoclaste a écrit :



Vous nous refaites un sketch des Inconnus, là ? Vous allez vous séparer avant la fermeture des commentaires ? <img data-src=" />





Quel sketch précisément ?

(suis pourtant fan, je dois être fatigué)









OlivierJ a écrit :



Quel sketch précisément ?

(suis pourtant fan, je dois être fatigué)







CA doit être l’interview des Tranxen 200, où ils font une “scission” sur un désaccord technique. <img data-src=" />



c’est glucose…



<img data-src=" />








OlivierJ a écrit :



Mais ce qui était mis en avant au cinéma c’était le “Dolby Stéréo” donc il n’était pas question de multi-canal.





Dolby Stéréo est une appellation marketing, qui vient du fait que ça remplaçait du mono, mais en fait c’est bien multicanal. Il apporte la possibilité d’ajouter un canal central et un canal surround, avec la particularité d’une compatibilité mono et stéréo. Le matériel grand public capable de restituer les quatre canaux était vendu sous l’appellation Dolby Surround, puis Dolby Pro Logic.









127.0.0.1 a écrit :



CA doit être l’interview des Tranxen 200, où ils font une “scission” sur un désaccord technique. <img data-src=" />



c’est glucose…





<img data-src=" /> <img data-src=" />







Quiproquo a écrit :



Dolby Stéréo est une appellation marketing, qui vient du fait que ça remplaçait du mono, mais en fait c’est bien multicanal. Il apporte la possibilité d’ajouter un canal central et un canal surround, avec la particularité d’une compatibilité mono et stéréo. Le matériel grand public capable de restituer les quatre canaux était vendu sous l’appellation Dolby Surround, puis Dolby Pro Logic.





<img data-src=" />









Aalaesar a écrit :



Dans la mesure où un conteneur est fonctionnellement isolé des autres, rien n’empêche d’avoir des conteneurs de type très différent fonctionnant sur le même hôte.







Tout à fait. Dans le cas de mon serveur maison, il tourne sur SmartOS et a une variété de zones et VM :





  • 1 zone (type1) Ubuntu (oui oui, SmartOS arrive à faire tourner des applis Linux en natif dans des zones, le truc de ouf), pour Samba et Torrent (et Plex à la base, mais je l’ai dégagé)

  • Quelques zones SmartOS pour divers services (VPN, serveur Web, Time Machine)

  • Une VM QEmu (type 2) avec Windows 7pour faire tourner des applis qui marchent qu’avec Windows, avec accès à distance (via le VPN <img data-src=" />) pour que j’aie pas besoin de gâcher de la place avec un Bootcamp sur mon Mac

  • Une autre VM pour une appliance Oracle Linux (OBIEE Sample Apps, pour ceux qui connaissent)







    Oui, je m’amuse bien <img data-src=" />









Aalaesar a écrit :



Hmm une petite distinction s’impose je crois,

Docker est un moteur de conteneurs, ce que certain appellent de la virtualisation légère.

On peux résumer ça comme un “jail root industrialisé et boosté aux hormones”.

A la différence d’une virtualisation plus classique qui “simule” le matériel pour un système d’exploitation avec son propre noyau, le conteneur exploite directement le noyau de l’hôte, mais dans un espace qui lui est réservé et duquel il ne peux sortir. Pas de virtualisation de matériel , pas de noyaux supplémentaire à alimenter. En revanche on limite le type de système qui peux fonctionner (exclusivement Linux).

Ensuite , et bien un conteneur peux:

soit contenir le minimum de binaires pour faire fonctionner une application. (donc ‘sans OS’)

soit contenir l’ensemble des binaires d’une distribution classique pour être utilisé ‘comme une VM classique’, ce à quoi Jonath faisait allusion je crois.

Avec toute les nuances entre les deux…



  Dans la mesure où un conteneur est fonctionnellement isolé des autres, rien n’empêche d’avoir des conteneurs de type très différent fonctionnant sur le même hôte.



en alternative à Docker, comme moteurs de conteneurs, il y a entre autre :




  • Rocket (ou rkt) de CoreOS

  • LinuxContainer (ou LXC) par Canonical

  • OpenVZ fait aussi techniquement des conteneurs mais avec une approche VM classique (c à d OS entier)







    Il y a du conteneur Windows maintenant (il y en a 2-3 là :https://hub.docker.com/u/microsoft/) <img data-src=" />



    Les VM type 2, c’était la grosse nouveauté d’il y a dix ans, aujourd’hui les conteneurs vont clairement remplacer toutes ces VMs qui font tourner un seul service.



    Quant aux concurrents de Docker, ils sont anecdotiques et aucun n’a un écosystème comparable ni la même facilité d’utilisation/déploiement.









Jonath a écrit :



Tout à fait. Dans le cas de mon serveur maison, il tourne sur SmartOS et a une variété de zones et VM :





  • 1 zone (type1) Ubuntu (oui oui, SmartOS arrive à faire tourner des applis Linux en natif dans des zones, le truc de ouf), pour Samba et Torrent (et Plex à la base, mais je l’ai dégagé)

  • Quelques zones SmartOS pour divers services (VPN, serveur Web, Time Machine)

  • Une VM QEmu (type 2) avec Windows 7pour faire tourner des applis qui marchent qu’avec Windows, avec accès à distance (via le VPN <img data-src=" />) pour que j’aie pas besoin de gâcher de la place avec un Bootcamp sur mon Mac

  • Une autre VM pour une appliance Oracle Linux (OBIEE Sample Apps, pour ceux qui connaissent)







    Oui, je m’amuse bien <img data-src=" />







    Je savais que Joyent trempait dans les conteneurs mais je ne savais pas qu’ils avaient lancé une offre complète. Faudrait que je me fasse un lab Triton Datecenter, dans ma boite, on se cherche LA solution qui permettrait de gérer de la VM et du conteneur au quotidien sans prises de tête, quitte à regrouper plusieurs outils.



En 2000, j’ai pas souvenir que le streaming était si répandu que cela. On lisait des fichiers MIDI sur la toile et on télécharger les mp3 sur Napster. Bref, je me souviens pas de sites web de streaming.