Facebook intéressé par la nouvelle compression d'images JPG de Mozilla

Facebook intéressé par la nouvelle compression d’images JPG de Mozilla

Plus c'est petit, plus c'est mignon

Avatar de l'auteur
Vincent Hermann

Publié dans

Internet

16/07/2014 3 minutes
77

Facebook intéressé par la nouvelle compression d'images JPG de Mozilla

Mozilla a publié la version 2.0 de son composant mozjpeg, destiné à une meilleure compression des images JPEG. L’éditeur n’a visiblement pas travaillé pour rien puisque Facebook a déjà annoncé que le projet l’intéressait, avec une participation financière pour appuyer son enthousiasme.

firefox

Tous les navigateurs peuvent déjà lire les images créées depuis mozjpeg

Au moins 5 % de gain, beaucoup plus selon les cas 

Mozjpeg est un composant créé par Mozilla pour réduire le poids des images au format JPEG. Même quelques pourcents auraient un impact visible car ce format est utilisé pour une écrasante majorité des images présentes sur le web, sans parler des interfaces elles-mêmes en soutien des CSS. Lorsque la première version était apparue, elle n’était pas finalisée mais l’éditeur avait constaté une réduction d’environ 10 % sur un échantillon de 1 500 images provenant de Wikimedia.

 

La version 2.0 vient de paraître et elle a fait l’objet de tests nettement plus poussés. Andreas Gal, directeur technique de Mozilla, explique cette fois que le gain moyen est de 5 % mais qu’il ne s’agit que d'un point de départ moyen. Dans de nombreux cas, le taux de compression est largement supérieur, même si le responsable ne dit pas lesquels. Cette amélioration est valable pour le JPEG classique ainsi que le progressif.

 

Andres Gal explique par ailleurs que les travaux sur mozjpeg ont semblé nécessaires à cause du manque de véritables solutions pour prendre la relève. L’éditeur a ainsi testé de nombreux formats d’images, notamment le WebP de Google, sans trouver que les gains justifiaient la difficulté d’introduire un nouveau format dans les pages web et les navigateurs. La clé semblait donc résider dans la compatibilité et l’amélioration de certains algorithmes vieillissants de compression, avec pour objectif de ne pas tomber dans des cas extrêmes tels que le JPEG-2000.

Facebook investit 60 000 dollars dans mozjpeg 

Et la solution plait. Facebook a déjà annoncé qu’ils testaient la version 2.0 de mozjpeg pour la compression du stock faramineux d’images hébergées sur Facebook. Et non seulement le réseau social pourrait l’utiliser activement, mais il a réalisé un don de 60 000 dollars pour le développement ultérieur de cette technologie, notamment la future version 3.0. Stacy Kerkela, responsable de l’ingénierie logicielle chez Facebook, indique ainsi : « Facebook soutient le travail que Mozilla a réalisé pour bâtir un encodeur JPEG pouvant créer des JPG sans compromettre la qualité visuelle. Nous avons hâte de voir les bénéfices potentiels que mozjpeg 2.0 pourrait amener dans l’optimisation des pages ».

 

Techniquement, n’importe qui peut utiliser mozjpeg pour la compression des images, avec le bénéfice d’une reconnaissance immédiate par l’ensemble des logiciels et services sachant déjà lire ce format, dont les navigateurs. C’est d’ailleurs tout l’intérêt de la solution : si toutes les images étaient passées à la moulinette de mozjpeg dans la seconde, tous les navigateur continueraient d’afficher correctement les pages web.

 

Les intéressés pourront lire le billet technique posté par l’éditeur pour expliquer les nouveautés spécifiques à la version 2.0. Mozilla oblige, il s’agit évidemment d’un projet libre dont les sources sont disponibles dans un dépôt Github.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Au moins 5 % de gain, beaucoup plus selon les cas 

Facebook investit 60 000 dollars dans mozjpeg 

Fermer

Commentaires (77)


Si je comprend bien ça reste un .jpeg lisible depuis tout lecteur jpeg mais la compression est meilleur. Impressionnant si c’est le cas.


Rien que 5% en terme de coût de stockage c’est énorme.

Good job Mozjpeg.




Plus c’est petit, plus c’est mignon



<img data-src=" />



Même si c’est sans doute pas grand chose pour FB, et que ça sert leurs intérêts, toujours agréable de voir une telle boite soutenir un projet libre.


L’algorithme de compression de FB étant vraiment pourri, ça ne leur ferait vraiment pas de mal de revoir leur copie, anéfé.

Ils devraient s’inspirer de 500px…


60 k€ c’est une “fausse générosité” si on regarde le coût de stockage (très répliqué) de 5% (voir plus) sur plusieurs Peta octets d’images.

Mais au moins, voilà une société qui a le mérite de soutenir ce qu’elle utilise provenant du free open source… c’est encore trop rare… même si tout le monde n’a pas les moyens de FB.








coucou_lo_coucou_paloma a écrit :



<img data-src=" />



Même si c’est sans doute pas grand chose pour FB, et que ça sert leurs intérêts, toujours agréable de voir une telle boite soutenir un projet libre.







Tu as vu le nombre d’image qu’ils ont a stocker ? 5% d’economie en moyenne pour eux, c’estjuste enorme, je parle meme pas des economies sur les temps de traitements de logiciel qui redimensionne et/ou convertissent les images plus grande en miniature etc…



Sinon il y a JPEG-MINI








eres a écrit :



60 k€ c’est une “fausse générosité” si on regarde le coût de stockage (très répliqué) de 5% (voir plus) sur plusieurs Peta octets d’images.

Mais au moins, voilà une société qui a le mérite de soutenir ce qu’elle utilise provenant du free open source… c’est encore trop rare… même si tout le monde n’a pas les moyens de FB.





Exactement le genre de commentaire que facebook souhaite entendre.



Si il avait donné 0, il serait passé pour des personnes horrible, mais pour 60K, ils s’achetent a pas cher une bonne réputation.



Merci de ne pas oublier ce qu’est facebook et de ne pas leur donner bonne réputation contre une toute petite pub.









Lafisk a écrit :



5% d’economie en moyenne pour eux,









ce n’est pas vraiment une moyenne d’après ce que j’ai compris (même s’il parle de gain moyen, il dit ensuite “Dans de nombreux cas, le taux de compression est largement supérieur” )









Kenshin83 a écrit :



ce n’est pas vraiment une moyenne d’après ce que j’ai compris (même s’il parle de gain moyen, il dit ensuite “Dans de nombreux cas, le taux de compression est largement supérieur” )







Je prends ce qu’il y a d’ecrit dans la news, ceux qui ont lus comprennent, les autres non. Pour l’instant ca parle de toute facon que des stats de base qui vont etre amenees a etre ameliorees. Le mot moyenne aussi veut dire ce qu’il veut dire … des fois c’est moins des fois c’est plus









Lafisk a écrit :



Tu as vu le nombre d’image qu’ils ont a stocker ? 5% d’economie en moyenne pour eux, c’estjuste enorme, je parle meme pas des economies sur les temps de traitements de logiciel qui redimensionne et/ou convertissent les images plus grande en miniature etc…





Je dis bien que c’est dans leur intérêt… et en plus c’est pas l’objet principal de mon commentaire.

Ils n’ont pas à acheter quoi que ce soit, ni à le soutenir, mais ils le font.



Mozilla <img data-src=" />


@Vincent : je pense que tu aurais pu - un peu au moins - étoffer la partie ci-dessous avaec ses défauts et avantages, qui rappelle tout de même qu’une initiative existe déjà <img data-src=" />

(et qui entre nous est utilisée dans les cinéma numériques)



…avec pour objectif de ne pas tomber dans des cas extrêmes tels que le JPEG-2000








Horrigan a écrit :



Exactement le genre de commentaire que facebook souhaite entendre.



Si il avait donné 0, il serait passé pour des personnes horrible, mais pour 60K, ils s’achetent a pas cher une bonne réputation.



Merci de ne pas oublier ce qu’est facebook et de ne pas leur donner bonne réputation contre une toute petite pub.







J’avais plutôt compris, sur le commentaire en question que facebook, c’est une vieille bande de radins qui file des miettes pour un truc qui les intéresse vraiment.

Par contre, la seconde partie du message est foireuse, et là je rejoins ta réponse ^^



A titre de comparaison, Google file un paquet de pognon a Mozilla…

“La fondation est financée à près de 85 % par la société Google.”





un don de 60 000 dollars





LOL !



Quand Google paie 300 Millions de \(US par an pour être en page d'accueil par défaut de Mozilla, sans compter les ~100 Millions de \)US de don annuel à la fondation…








eres a écrit :



60 k€ c’est une “fausse générosité” si on regarde le coût de stockage (très répliqué) de 5% (voir plus) sur plusieurs Peta octets d’images.

Mais au moins, voilà une société qui a le mérite de soutenir ce qu’elle utilise provenant du free open source… c’est encore trop rare… même si tout le monde n’a pas les moyens de FB.







Je me suis dit la même chose. C’est mieux que rien au final.









john san a écrit :



Je me suis dit la même chose. C’est mieux que rien au final.







Et puis c’est pas comme si facebook ne participait pas à plein de projets opensource…



De toutes façons, c’est clairement de la com, le projet est déjà abouti.









eres a écrit :



60 k€ c’est une “fausse générosité”.







Haters gonna hate.



FB n’est en aucun cas obligé de donner quoique se soit.

Flickr, Google Images, NASA (avec leur Pétaoctet d’images en jpg), les milliers de sites internet avec des To d’images, ni personne d’autre n’a rien donné.

Mais tu trouves quand même le moyen de dire “Bouuh Facebook est faussement généreux”.

Félicitation !





Facebook soutient le travail que Mozilla a réalisé pour bâtir un encodeur compresseur JPEG pouvant créer des JPG sans compromettre la qualité visuelle.



<img data-src=" />

Déjà que le monde de la vidéo est pourri par l’anglicisme “encod*” et l’impropriété (il ne s’agit pas d’un codage car il y a perte), si maintenant ça touche le bon vieux JPEG…








OlivierJ a écrit :



<img data-src=" />

Déjà que le monde de la vidéo est pourri par l’anglicisme “encod*” et l’impropriété (il ne s’agit pas d’un codage car il y a perte), si maintenant ça touche le bon vieux JPEG…





C’est l’évolution normale d’une langue que de se mélanger avec d’autres et de modifier les usages ou le sens de certains mots. Le français est une langue vivante, voilà tout.









OlivierJ a écrit :



<img data-src=" />

Déjà que le monde de la vidéo est pourri par l’anglicisme “encod*” et l’impropriété (il ne s’agit pas d’un codage car il y a perte), si maintenant ça touche le bon vieux JPEG…







Dans l’absolu, dans le pur sens mathématique du terme oui tu as raison.

Mais à l’usage ces deux termes ont toujours été interchangeables, et ce même par les experts du domaine, ex :



http://www.amazon.fr/Text-Compression-Timothy-C-Bell/dp/0139119914



Ce bouquin devrait s’appeler “Text Encoding” puisque un algorithme de “compression” implique forcément une perte de donnée, ce qui n’est jamais acceptable pour du texte.

Il n’existe que des encodages de texte, pas de compression au sens mathématique du terme.



C’est l’avantage du standard jpeg. Seul le décodage est spécifié dans la norme. Donc au final on peut avoir pleins de façon différentes de créer l’image sans que son décodage répond à la norme jpeg c’est valide…

(à noter que ce n’est pas le seul standard à être défini de la sorte)


Je suis vraiment fan de Mozilla <img data-src=" />


du moment que la parte soit pas trop importante.


mouai… donc ils ont pompé Jpegmini quoi…








Kenshin83 a écrit :



ce n’est pas vraiment une moyenne d’après ce que j’ai compris (même s’il parle de gain moyen, il dit ensuite “Dans de nombreux cas, le taux de compression est largement supérieur” )





La médiane doit être à 5%, ce qui en soit un sacré progrès !









endiendo a écrit :



mouai… donc ils ont pompé Jpegmini quoi…







Me semblait avoir compris que c’était plutôt inspiré de jpegtran, avec des choses en plus



y veulent peut etre racheter Mozilla <img data-src=" /><img data-src=" />


Deja que la compression est juste parfois horriblement degeulasse… Surtout dans les conversations privés et les envois par smartphone (ce que je trouve aberrant pour ce dernier)… Tu envoi une photo en 13mp tu te tape une arrivée a 3-4mp…








Yangzebul a écrit :



Ce bouquin devrait s’appeler “Text Encoding” puisque un algorithme de “compression” implique forcément une perte de donnée, ce qui n’est jamais acceptable pour du texte.

Il n’existe que des encodages de texte, pas de compression au sens mathématique du terme.







Et il faut encore différencier “compression avec perte” et “compression sans perte”, hein.









Tatsu-Kan a écrit :



A titre de comparaison, Google file un paquet de pognon a Mozilla…

“La fondation est financée à près de 85 % par la société Google.”





Il leur donne pas de l’argent, il loue juste un espace publicitaire pour leur moteur de recherche.









balifred_alias fred a écrit :



y veulent peut etre racheter Mozilla <img data-src=" /><img data-src=" />





Un navigateur Facebook <img data-src=" />









Pazns a écrit :



Et il faut encore différencier “compression avec perte” et “compression sans perte”, hein.







Tu n’as pas compris la discussion.

Au sens strict (mathématique) du terme “compression sans perte” est un oxymore.



Une compression implique forcément une perte :





  • Si tu transformes un ensemble de données en un autre ensemble sans perte cela veut dire que tu utilise une bijection.

  • Hors une bijection entre deux ensemble implique forcément que ces deux ensembles aient la même taille.

  • Donc il existe pour chaque point de cette ensemble une image dans l’autre ensemble.

  • Comme les deux ensembles ont la même taille il existe forcément des points dont la taille augmentera après transformation.

  • Donc ta transformation n’est pas une compression car elle augmente la taille de certains points de ton ensemble : c’est un encodage



    Cela s’appelle la preuve par comptage.







    Enfin bref, ce que je disais c’est que personne ne fait cette distinction dans la langage courant.









nolimits59 a écrit :



Deja que la compression est juste parfois horriblement degeulasse… Surtout dans les conversations privés et les envois par smartphone (ce que je trouve aberrant pour ce dernier)… Tu envoi une photo en 13mp tu te tape une arrivée a 3-4mp…







Sur WP, je parle pas pour les autres, tu as le choix entre partager tel quel ou dans un format optimise (pour economiser ta data, se qui n’est pas aberrant)



Et sinon, ils en font quoi de l’APNG? Ce serai sympa que ça perce un peu…

https://people.mozilla.org/~dolske/apng/demo.html








nolimits59 a écrit :



Deja que la compression est juste parfois horriblement degeulasse… Surtout dans les conversations privés et les envois par smartphone (ce que je trouve aberrant pour ce dernier)… Tu envoi une photo en 13mp tu te tape une arrivée a 3-4mp…







3-4 MP c’est vrai que c’est vraiment dégueu comme image hein ? La plupart des écrans actuels ne sont pas capable de l’afficher en 100% et en théorie ça suffit pour imprimer des photos de bonne qualité à l’ancienne (12x7cm il me semble). Pour peu que le curseur de compression JPEG soit plutot du coté de 90 que du coté de 50 bien évidemment…



Quel est le taux de compression moyen sur les selfies duckface?


Quels sont les travers de JPEG-2000 dont parle l’article?








Albirew a écrit :



Et sinon, ils en font quoi de l’APNG? Ce serai sympa que ça perce un peu…

https://people.mozilla.org/~dolske/apng/demo.html





Il faudrait pour cela que Chrome et IE l’implémentent…









Yangzebul a écrit :



Tu n’as pas compris la discussion.

Au sens strict (mathématique) du terme “compression sans perte” est un oxymore.





C’est magnifique tout ça, mais on est en informatique, dans le sujet.



Dans ton explication, tu dis que ce qui n’est pas une compression est un encodage.

Euh, hein ?



Dans tous les cas on fait de l’encodage, puisqu’on ré-interprète les données d’origine avec un autre ensemble de symboles que celui d’origine, peu importe que la taille des données finales soit supérieure, inférieure ou égale à celle des données originales.

La différence de taille indiquera si on travaille “sans perte” ou non.

Enfin, si l’ensemble final est plus léger que celui de départ, on a compression.



C’est tout. Le sens “strict” dont tu parles n’a pas vraiment de réalité à l’usage informatique. Pas la peine de se gargariser avec.



“La différence de taille indiquera”

il fallait lire “différence de taille entre les données données finales décompressées et les données d’origine”, évidemment. <img data-src=" />








Pazns a écrit :



C’est magnifique tout ça, mais on est en informatique, dans le sujet.



Dans ton explication, tu dis que ce qui n’est pas une compression est un encodage.

Euh, hein ?



Dans tous les cas on fait de l’encodage, puisqu’on ré-interprète les données d’origine avec un autre ensemble de symboles que celui d’origine, peu importe que la taille des données finales soit supérieure, inférieure ou égale à celle des données originales.

La différence de taille indiquera si on travaille “sans perte” ou non.

Enfin, si l’ensemble final est plus léger que celui de départ, on a compression.



C’est tout. Le sens “strict” dont tu parles n’a pas vraiment de réalité à l’usage informatique. Pas la peine de se gargariser avec.







Vous savez que vous dites la meme chose ??? <img data-src=" />









Lafisk a écrit :



Vous savez que vous dites la meme chose ??? <img data-src=" />







Oui, je viens de m’en rendre compte <img data-src=" />

Déformation trollessionnelle.









Pazns a écrit :



C’est tout. Le sens “strict” dont tu parles n’a pas vraiment de réalité à l’usage informatique. Pas la peine de se gargariser avec.







C’est donc exactement ce que je disais à OlivierJ avant que tu débarques sur tes grands chevaux au milieu de la conversation.



Dis moi il y a une raison pour justifier que tu sois agressif comme ça ? ma tête te reviens pas ?









Pazns a écrit :



Dans ton explication, tu dis que ce qui n’est pas une compression est un encodage.

Euh, hein ?



Dans tous les cas on fait de l’encodage, puisqu’on ré-interprète les données d’origine avec un autre ensemble de symboles que celui d’origine, peu importe que la taille des données finales soit supérieure, inférieure ou égale à celle des données originales.







Oui, mais la réciproque n’est pas vrai, un encodage n’est pas forcément une compression.







Pazns a écrit :



Enfin, si l’ensemble final est plus léger que celui de départ, on a compression.







C’est exactement ce que je dis dans le dernier point de la preuve par comptage “Donc ta transformation n’est pas une compression car elle augmente la taille de certains points de ton ensemble : c’est un encodage”.



Globalement tu es d’accord avec tout ce que je dis mais tu prends tout mes messages à contresens. Détends toi un peu.



Edit :







Pazns a écrit :



Oui, je viens de m’en rendre compte <img data-src=" />

Déformation trollessionnelle.







OK









Yangzebul a écrit :



C’est donc exactement ce que je disais à OlivierJ avant que tu débarques sur tes grands chevaux au milieu de la conversation.



Dis moi il y a une raison pour justifier que tu sois agressif comme ça ? ma tête te reviens pas ?







Et c’est moi l’agressif <img data-src=" /> ? Faudrait voir à pas trop sur-interpréter, hein !



Tes messages me paraissaient simplement peu clair à première vue.

Ça arrive, on va pas en faire un drame.









pako31 a écrit :



C’est l’évolution normale d’une langue que de se mélanger avec d’autres et de modifier les usages ou le sens de certains mots. Le français est une langue vivante, voilà tout.





Là il ne s’agit pas de la question de langue vivante, le terme français est codage et n’a pas été inventé hier, et on s’est mis étrangement à parler “d’encodage” pour la vidéo, dans les années 2000, là où on parlait en français de compression, car c’est de cela qu’il s’agit.

Il existe de “vrais” codages, comme le codage de Huffman (qui est une compression sans perte d’ailleurs), les codages MFM et RLL, etc.







Yangzebul a écrit :



Dans l’absolu, dans le pur sens mathématique du terme oui tu as raison.

Mais à l’usage ces deux termes ont toujours été interchangeables, et ce même par les experts du domaine, ex :



http://www.amazon.fr/Text-Compression-Timothy-C-Bell/dp/0139119914



Ce bouquin devrait s’appeler “Text Encoding” puisque un algorithme de “compression” implique forcément une perte de donnée, ce qui n’est jamais acceptable pour du texte.

Il n’existe que des encodages de texte, pas de compression au sens mathématique du terme.





Houla…

Une compression n’implique aucunement de perdre des données (ça serait embêtant pour les archives des sources, entre autres).

Un codage peut aussi être une compression (cas du codage de Huffman sur des données compressibles), mais pas forcément (UTF-8 pour du français est un codage qui prend moins de place que si on stockait les caractères en 16 bits, du fait que la plupart des caractères tiennent sur 7 bits, mais plus de place que si on garde le codage Latin-1).

Compresser du texte est aussi un codage, car on peut décoder le texte compressé et retrouver l’original.



Une compression avec pertes (cas du JPEG) n’est pas un codage. On peut se permettre des pertes sur une image (en particulier sur la chrominance) car ces pertes sont quasi invisibles à l’oeil qui est plus sensible aux contours qu’aux couleurs (tout comme celles du MP3 qui sont calculées pour être adaptées à l’oreille humaine).









nolimits59 a écrit :



Deja que la compression est juste parfois horriblement degeulasse… Surtout dans les conversations privés et les envois par smartphone (ce que je trouve aberrant pour ce dernier)… Tu envoi une photo en 13mp tu te tape une arrivée a 3-4mp…





Le problème n’est pas la résolution de 3-4 MP qui est déjà plus que suffisante, surtout sur un smartphone. C’est le choix du facteur de qualité JPEG qui est utilisé lors de la sauvegarde/compression. Si le logiciel du mobile choisit un qualité faible, ça prendra bien moins de place mais ça se verra.







Yangzebul a écrit :



Tu n’as pas compris la discussion.

Au sens strict (mathématique) du terme “compression sans perte” est un oxymore.

Une compression implique forcément une perte :




  • Si tu transformes un ensemble de données en un autre ensemble sans perte cela veut dire que tu utilise une bijection.

  • Hors Or une bijection entre deux ensemble implique forcément que ces deux ensembles aient la même taille.





    <img data-src=" /> Heu, tu insistes, mais tu te trompes.

    Une compression sans perte n’est pas un oxymore, et une compression n’implique pas de perte, sinon on ne saurait compresser du texte.

    Une compression sans perte est effectivement une bijection (sinon ça serait embêtant pour décompresser), un codage.

    Une des différences entre la compression sans perte et celle avec perte, c’est qu’il y a des données sur lesquelles la compression sans perte donne un résultat un peu plus grand.







    Pazns a écrit :



    Dans tous les cas on fait dedu l’encodage





    <img data-src=" />

    Non, on ne parle de codage (en mathématiques ou en informatique, j’ai étudié les 2) que quand c’est une bijection, autrement dit sans perte. L’UTF-8 est un codage, par exemple.









Yangzebul a écrit :



Au sens strict (mathématique) du terme “compression sans perte” est un oxymore.





Bien sûr que non, tu confonds information (le représenté) et support de l’information (le représentant - les bits). Va donc lire Shannon, tu verras qu’il emploie le terme compression à tout bout de champ pour parler de compression sans perte. Tu es en train de changer le sens des mots.







  • Si tu transformes un ensemble de données en un autre ensemble sans perte cela veut dire que tu utilise une bijection.



    La vision d’un fichier comme un simple ensemble est fausse car tu perds les informations implicites de l’ordonnancement et du format. Pour t’en convaincre tu n’as qu’à te demander quels seraient les éléments de cet ensemble ? 0 et 1 ? Nous n’irions pas loin. Les pixels ? Donc réordonner les pixels avec une bijection ne détruit pas l’information ?



    Et puisque la prémisse est erronée…









OlivierJ a écrit :



<img data-src=" />

Non, on ne parle de codage (en mathématiques ou en informatique, j’ai étudié les 2) que quand c’est une bijection, autrement dit sans perte. L’UTF-8 est un codage, par exemple.







Alors qu’est-ce que l’encodage ?









raoudoudou a écrit :



Me semblait avoir compris que c’était plutôt inspiré de jpegtran, avec des choses en plus







yep, c’est un “fork” de libjpeg.









HarmattanBlow a écrit :



La vision d’un fichier comme un simple ensemble est fausse car tu perds les informations implicites de l’ordonnancement et du format. Pour t’en convaincre tu n’as qu’à te demander quels seraient les éléments de cet ensemble ? 0 et 1 ? Nous n’irions pas loin. Les pixels ? Donc réordonner les pixels avec une bijection ne détruit pas l’information ?



Et puisque la prémisse est erronée…







Quand je dis ensemble je ne parle pas du fichier, mais de l’ensemble des fichiers exprimables dans un espace donnée (chaque fichier étant un point dans cet ensemble). Je faisais une description grossière du “pigeonhole principle”.



Après c’est vrai que Shannon utilise bien le terme compression, et dans la pratique comme l’entropie de ce que l’on veut compresser est rarement élevée, cela réduit effectivement la taille.

Ma vision de la sémantique exacte du terme est peut être un peu trop étriquée.









Pazns a écrit :



Alors qu’est-ce que l’encodage ?





Un anglicisme moche et inutile, vu qu’on a le terme codage, qui a réussi à se glisser même dans des dictionnaires (vu comment il a été utilisé par les informaticiens ces dernières années, qui sont très bons en français comme chacun sait <img data-src=" /> ).



(dans le même genre, on a des gens qui vont dire “encryptage”, tout aussi “joli”)









OlivierJ a écrit :



Un anglicisme moche et inutile, vu qu’on a le terme codage, qui a réussi à se glisser même dans des dictionnaires (vu comment il a été utilisé par les informaticiens ces dernières années, qui sont très bons en français comme chacun sait <img data-src=" /> ).



(dans le même genre, on a des gens qui vont dire “encryptage”, tout aussi “joli”)







Voilà une nouvelle arme dans mon attirail de grammar nazi <img data-src=" />









OlivierJ a écrit :



Non, on ne parle de codage (en mathématiques ou en informatique, j’ai étudié les 2) que quand c’est une bijection, autrement dit sans perte. L’UTF-8 est un codage, par exemple.





Je précise pour lever toute ambiguïté suite à la discussion avec Yangzebul : OlivierJ parle là de bijection entre les ensembles de valeurs.



Unicode compte environ un million de caractères (techniquement des points de code). Utf-8 et Utf-32 ont le même nombre de caractères, simplement dans le premier cas chaque caractère occupe un à quatre octets alors que dans le second chaque caractère occupe 4 octets. Entre ces deux espaces de valeurs il existe une bijection : 0x01 (utf-8) correspond à 0x00000001 (utf-32)









Yangzebul a écrit :



Quand je dis ensemble je ne parle pas du fichier, mais de l’ensemble des fichiers exprimables dans un espace donnée (chaque fichier étant un point dans cet ensemble). Je faisais une description grossière du “pigeonhole principle”.





Dans ce cas c’est ton second point qui est erroné : oui les deux ensembles ont la même taille mais ce n’est pas le décompte de l’ensemble des fichiers possibles qui nous intéresse mais la taille de chaque élément.





Ma vision de la sémantique exacte du terme est peut être un peu trop étriquée.



Elle est surtout non-conforme au langage mathématique en vigueur. ;)









Pazns a écrit :



Voilà une nouvelle arme dans mon attirail de grammar nazi <img data-src=" />





<img data-src=" />









HarmattanBlow a écrit :



Dans ce cas c’est ton second point qui est erroné : oui les deux ensembles ont la même taille mais ce n’est pas le décompte de l’ensemble des fichiers possibles qui nous intéresse mais la taille de chaque élément.







En quoi c’est différent de cette formulation ?



“- Comme les deux ensembles ont la même taille il existe forcément des points dont la taille augmentera après transformation.”



<img data-src=" />









Yangzebul a écrit :



En quoi c’est différent de cette formulation ?



“- Comme les deux ensembles ont la même taille il existe forcément des points dont la taille augmentera après transformation.”<img data-src=" />





Ce quatrième point est faux : il suffit de considérer une bijection de utf-32 vers utf-8 : une valeur utf-8 n’est jamais plus longue qu’une valeur utf-32.





Le premier point était donc imprécis ou non-pertinent, le second faux ou non-pertinent, le quatrième faux. <img data-src=" />



Et en fait le cinquième aussi, tiens : une fonction qui réduirait le plus souvent la taille mais l’augmenterait parfois pourrait tout de même être considéré comme une compression.









HarmattanBlow a écrit :









Yangzebul a écrit :









OlivierJ a écrit :







Tout ça nous a éloigné du sujet principal de la news :



Facebook c’est une bande de gros radins <img data-src=" /> !










Pazns a écrit :



Tout ça nous a éloigné du sujet principal de la news





Grave, parce que le concours de sodomie de drosophile c’est rigolo un moment, mais on ne sait toujours pas en quoi JPEG2000 est un cas extrême.









HarmattanBlow a écrit :



Ce quatrième point est faux : il suffit de considérer une bijection de utf-32 vers utf-8 : une valeur utf-8 n’est jamais plus longue qu’une valeur utf-32.





Le premier point était donc imprécis ou non-pertinent, le second faux ou non-pertinent, le quatrième faux. <img data-src=" />



Et en fait le cinquième aussi, tiens : une fonction qui réduirait le plus souvent la taille mais l’augmenterait parfois pourrait tout de même être considéré comme une compression.







Sauf que dans ton exemple les deux ensembles n’ont pas la même taille.



Je veux bien que ma formulation soit maladroite, imprécise, ambigüe ou mal formalisée, mais fausse. <img data-src=" />



Mais bon on ne sais jamais peut être va tu démontrer que le pigeonhole principle est faux et obtenir la médaille Fields dans quelques années pour avoir révolutionné les mathématiques combinatoires. <img data-src=" />









Yangzebul a écrit :



Sauf que dans ton exemple les deux ensembles n’ont pas la même taille.





Bien sûr que si : le million de points de code spécifiés par la norme Unicode, soit un peu moins de 2^21. Ils sont tous représentables aussi bien en utf-8 qu’en utf-32.





Mais bon on ne sais jamais peut être va tu démontrer que le pigeonhole principle est faux et obtenir la médaille Fields dans quelques années pour avoir révolutionné les mathématiques combinatoires. <img data-src=" />



Ce n’est pas le principe qui est en cause mais la façon dont tu l’utilises.









HarmattanBlow a écrit :



Bien sûr que si : le million de points de code spécifiés par la norme Unicode, soit un peu moins de 2^21. Ils sont tous représentables aussi bien en utf-8 qu’en utf-32.







Pas dans le même espace !







HarmattanBlow a écrit :



Ce n’est pas le principe qui est en cause mais la façon dont tu l’utilises.







Tu veux dire comme ça :



http://gailly.net/05533051.html



On va dire qu’on a un problème de communication tout les deux. <img data-src=" />









Yangzebul a écrit :



Pas dans le même espace !





Bien sûr que non, pourquoi devraient-ils l’être puisque nous discutons depuis le début de deux ensembles de valeurs distincts ayant la même cardinalité, entre lesquels existe une transformation bijective et dont les membres de l’un ont une représentation plus compacte que leurs correspondants.





On va dire qu’on a un problème de communication tout les deux. <img data-src=" />



C’est surtout que tu as voulu te la jouer, que tu as raconté n’importe quoi et que depuis un petit moment tu me tiens la jambe en refusant de reconnaître tes erreurs.



Dommage, les erreurs sont une chose normale en phase d’apprentissage. Ne pas savoir les reconnaître quand on te met le nez dedans est un tort.



Et donc, pourquoi ne pas passer à jpeg2000?








HarmattanBlow a écrit :



Bien sûr que non, pourquoi devraient-ils l’être puisque nous discutons depuis le début de deux ensembles de valeurs distincts ayant la même cardinalité, entre lesquels existe une transformation bijective et dont les membres de l’un ont une représentation plus compacte que leurs correspondants.







Ou est ce que j’ai dit ça ?! J’ai dit







Yangzebul a écrit :





  • Hors une bijection entre deux ensemble implique forcément que ces deux ensembles aient la même taille.







    Ce qui je te l’accorde peut être ambigüe, mais c’est une formulation grossière en langage naturel, le formalisme n’est pas le but recherché.



    Au contraire tu as déjà essayé de prendre le problème de cette manière et je t’ai déjà répondu très explicitement :







    Yangzebul a écrit :



    Quand je dis ensemble je ne parle pas du fichier, mais de l’ensemble des fichiers exprimables dans un espace donnée (chaque fichier étant un point dans cet ensemble). Je faisais une description grossière du “pigeonhole principle”.







    Je n’ai jamais parlé d’ensemble ayant la même cardinalité mais d’ensemble de même taille !! Et qui par conséquent ont la même cardinalité.











    HarmattanBlow a écrit :



    C’est surtout que tu as voulu te la jouer, que tu as raconté n’importe quoi et que depuis un petit moment tu me tiens la jambe en refusant de reconnaître tes erreurs.



    Dommage, les erreurs sont une chose normale en phase d’apprentissage. Ne pas savoir les reconnaître quand on te met le nez dedans est un tort.







    Bon d’accord j’ai compris tu t’es mis en tête depuis le début d’essayer de me rabattre le caquet. Cela ce sent, tu préfères chercher à interpréter mes posts de manière à ce que j’ai tord plutôt que comprendre ce que j’ai dit réellement.



    Belle mentalité de cour de récré.

    Bravo c’est toi qui est le plus fort. <img data-src=" />



    Moi j’arrête là tout à été dit, je ne vois pas l’intérêt d’essayer de parler à quelqu’un dont le but n’est pas de se comprendre mais de chercher l’affrontement.









Yangzebul a écrit :



Ce qui je te l’accorde peut être ambigüe, mais c’est une formulation grossière en langage naturel, le formalisme n’est pas le but recherché.





Oh ! C’est un peu fort de dire ça, excuse-nous du peu !

C’est justement toi qui parlais tout à l’heure de vocabulaire précis ! Même si hors-contexte en pratique.







Yangzebul a écrit :



Bon d’accord j’ai compris tu t’es mis en tête depuis le début d’essayer de me rabattre le caquet. Cela ce sent, tu préfères chercher à interpréter mes posts de manière à ce que j’ai tord plutôt que comprendre ce que j’ai dit réellement.



Belle mentalité de cour de récré.

Bravo c’est toi qui est le plus fort. <img data-src=" />



Moi j’arrête là tout à été dit, je ne vois pas l’intérêt d’essayer de parler à quelqu’un dont le but n’est pas de se comprendre mais de chercher l’affrontement.





Franchement, faut arrêter de croire que quelqu’un ici cherche l’affrontement avec toi…

Ne te crois pas si important. <img data-src=" />









OlivierJ a écrit :



Le problème n’est pas la résolution de 3-4 MP qui est déjà plus que suffisante, surtout sur un smartphone. C’est le choix du facteur de qualité JPEG qui est utilisé lors de la sauvegarde/compression. Si le logiciel du mobile choisit un qualité faible, ça prendra bien moins de place mais ça se verra.











Tourner.lapache a écrit :



3-4 MP c’est vrai que c’est vraiment dégueu comme image hein ? La plupart des écrans actuels ne sont pas capable de l’afficher en 100% et en théorie ça suffit pour imprimer des photos de bonne qualité à l’ancienne (12x7cm il me semble). Pour peu que le curseur de compression JPEG soit plutot du coté de 90 que du coté de 50 bien évidemment…







3-4mp quand je partage une photo prise avec mon G2 qui passe d’une tres belle photo en 13mp avec un bon taux de compression, je me retrouve avec un timbre poste sur mon mur/flux, ca le fait super bien quand c’est une photo de paysage prise quelque part, j’ai l’impression d’avoir pris une photo avec mon player one sous Touchwiz 1.0… Si j’avais voulu partager une photo qui ne nécessitais pas une bonne retranscription de la qualité de départ, je l’aurais demander, en attendant j’aurais bien aimer devoir eviter d’etre obliger de mettre ma photo sur PC et d’ensuite la mettre depuis le PC sur Facebook pour avoir une pleine resolution…







Lafisk a écrit :



Sur WP, je parle pas pour les autres, tu as le choix entre partager tel quel ou dans un format optimise (pour economiser ta data, se qui n’est pas aberrant)







Sous Android l’appli ne propose pas cette option tient <img data-src=" /> pourtant elle est presente sur le site, ca coule de source de proposé la meme option sur mobile pour justement si besoin est, d’economiser de la data…



Le cas extrême de JPEG 2000… mouai… bien sur… et l’auteur pourrait approfondir ce point ?

Car jusqu’à preuve du contraire le seul défaut du JPEG 2000 n’est de pas être populaire, mais est bien plus performant que JPEG pour une taille de fichier identique.








MasterDav a écrit :



Grave, parce que le concours de sodomie de drosophile c’est rigolo un moment, mais on ne sait toujours pas en quoi JPEG2000 est un cas extrême.





Jpeg2000 permet de faire du codage et de la compression. Du coup ça lance des débats sur PCI.

Toutes façons c’est la futé aux ondelettes :-P









kirire a écrit :



Le cas extrême de JPEG 2000… mouai… bien sur… et l’auteur pourrait approfondir ce point ?

Car jusqu’à preuve du contraire le seul défaut du JPEG 2000 n’est de pas être populaire, mais est bien plus performant que JPEG pour une taille de fichier identique.







Il doit y avoir des raisons à cette impopularité de JPEG-2000. La première est son incompatibilité avec JPEG malgré le nom qui laisse à penser le contraire. La seconde est une qualité relativement proche de JPEG sur les faibles taux de compression (ceux utilisés par le “grand public”).



Ce sont les mêmes raisons qui sont données par Mozilla pour justifier le choix d’améliorer “libjpeg” pour devenir mozjpeg plutôt que de développer/déployer JPEG-2000 ou WebP par exemple.










nolimits59 a écrit :



3-4mp quand je partage une photo prise avec mon G2 qui passe d’une tres belle photo en 13mp avec un bon taux de compression, je me retrouve avec un timbre poste sur mon mur/flux





Je ne comprends pas bien. Si ta photo se retrouve sur ton FB en format timbre-poste, elle n’est clairement pas en 3-4 MP (pour mémoire, du 1920 x 1200 c’est environ 2 MP et c’est déjà grand). Il y a sans doute une manière de partager ta photo en taille plus grande que le format que tu obtiens (genre celui des MMS où la photo est genre en VGA avec un poids &lt; 64 k).









brujita a écrit :



Il doit y avoir des raisons à cette impopularité de JPEG-2000. La première est son incompatibilité avec JPEG malgré le nom qui laisse à penser le contraire. La seconde est une qualité relativement proche de JPEG sur les faibles taux de compression (ceux utilisés par le “grand public”).





Incompatibilité avec JPEG c’est parfaitement normal, c’est deux algo qui n’ont pas grand chose à voir, l’un utilisant une TCD et l’autre une transformé en ondelette.

Pour le faible taux de compression il y a pas de grande différence, c’est parfaitement normal, j’irai même à dire qu’avec un taux de compression faible on fait difficilement une différence entre un JPEG et un TIFF, c’est donc un argumentaire un peu léger. Et avec un taux de compression très faible le poids du fichier JPEG doit tendre vers celui du TIFF.

Ceci ne change rien qu’à taux de compression égale le JPEG 2000 fait des fichier plus faible. De plus le JPEG 2000 à un mode de compression sans-perte plutôt efficace car grasse à la multi-résolution introduit par la transfo en ondelette on sépare très bien les détailles de l’image.









OlivierJ a écrit :



Je ne comprends pas bien. Si ta photo se retrouve sur ton FB en format timbre-poste, elle n’est clairement pas en 3-4 MP (pour mémoire, du 1920 x 1200 c’est environ 2 MP et c’est déjà grand). Il y a sans doute une manière de partager ta photo en taille plus grande que le format que tu obtiens (genre celui des MMS où la photo est genre en VGA avec un poids &lt; 64 k).





Désolé j’ai parlé un peu vite oui, je vient de voir les tailles obtenues après un partage mobile, j’obtient un joli 0.6mp… exemple, alors que depuis le portage PC elle n’est réduite qu’a 3-4mp effectivement déjà plus convenable même si la compression est discutable exemple, surtout comparer a la photo d’origine









Anne Onyme a écrit :



Un navigateur Facebook <img data-src=" />







Ca peut po etre pire que chrome qui redit tout à Google :) et qui s’il le faut partage sur Google plus <img data-src=" />









nolimits59 a écrit :



Désolé j’ai parlé un peu vite oui, je vient de voir les tailles obtenues après un partage mobile, j’obtient un joli 0.6mp… exemple, alors que depuis le portage PC elle n’est réduite qu’a 3-4mp effectivement déjà plus convenable même si la compression est discutable, surtout comparer a la photo d’origine





Quelle réponse précise :) .

Après c’est une question de goût, la première photo en 960x720 me paraît déjà pas mal pour une publication sur FB (on n’est pas tous des geeks avec un écran en 1920x1200, beaucoup regardent sur mobile en plus), et quant à la 2e en 2048x1536 ce n’est pas la peine de poster plus défini, elle est déjà très bien (j’ai un écran 1920x1200, et pas une merde en 16:9 ;) ), et je n’ai pas l’impression qu’elle soit mal comprimée.









OlivierJ a écrit :



Quelle réponse précise :) .

Après c’est une question de goût, la première photo en 960x720 me paraît déjà pas mal pour une publication sur FB (on n’est pas tous des geeks avec un écran en 1920x1200, beaucoup regardent sur mobile en plus), et quant à la 2e en 2048x1536 ce n’est pas la peine de poster plus défini, elle est déjà très bien (j’ai un écran 1920x1200, et pas une merde en 16:9 ;) ), et je n’ai pas l’impression qu’elle soit mal comprimée.







La compression en elle même est relativement bonne, mais les séparation definies comme un objet sur fond bleu, le ciel par exemple, c’est pas encore ca ^^, fin apres je cherche pas mal le detail mais c’est une habitude, je fait un peu de compositions et de créas sur toshop pour un label de musique. Donc il est possible que je cherche un peu trop la petite bete comparer a la majorité des personnes qui consulterons la dite photo x).