Google Glass : l'arrivée du HDR et de meilleurs clichés en situation sombre

Google Glass : l’arrivée du HDR et de meilleurs clichés en situation sombre

Spy Games

Avatar de l'auteur
Vincent Hermann

Publié dans

Sciences et espace

05/06/2013 2 minutes
24

Google Glass : l'arrivée du HDR et de meilleurs clichés en situation sombre

Alors que Google vient de supprimer la première application porno pour son projet Glass, il diffuse actuellement une nouvelle mise à jour importante pour les fameuses lunettes. L’éditeur s’attaque à la qualité des photos et autorise désormais le mode HDR.

Google Glass Touchpad

 

Les Google Glass sont mises à jour une fois par mois. Étant donné encore le statut du projet, l’éditeur corrige les problèmes et ajoute régulièrement de nouvelles capacités. Avec la dernière en date, publiée hier, c’est la qualité des photos qui est à l’honneur.

 

google glass google glass

Avant et après la mise à jour

 

On entend beaucoup parler des capacités présumées de ces lunettes pour prendre rapidement des clichés de tout ce que l’on voit. Il s’agissait d’ailleurs de ce principe dans l’application porno supprimée récemment par la firme. Les Glass ont donc tout intérêt à prendre des clichés d’une qualité raisonnable, et il reste justement encore du travail de ce côté.

 

La nouvelle mise à jour améliore donc premièrement la qualité des clichés en cas de manque de lumière. L’appareil photo changera automatiquement de mode et prendra par défaut une photo plus lumineuse. Au contraire, dans les situations bien éclairées, l’appareil prendra automatiquement les photos en mode HDR (High Dynamic Range). Pour ceux qui n’aimeraient pas le rendu assez particulier de ces images, on peut imaginer que l’option pourra être désactivée. Enfin, les Google Glass pourront prendre une série très rapide de clichés pour obtenir un meilleur résultat final.

 

Pour accompagner le partage des photos, la version spécifique d’Android dans les Google Glass permet maintenant d’ajouter du texte pour créer des étiquettes. L’utilisateur devra alors prononcer les mots, la reconnaissance vocale se chargeant du reste.


Ceux qui souhaitent voir des comparaisons sur la qualité des photos, entre avant et après la mise à jour, pourront se rendre sur la collection de Google créée pour l'occasion.

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (24)


Pour le coup la qualité photo est pas mal mine de rien, j’entends des bons echos a ce sujet.


Pas convaincu par le rendu du HDR dans ce cas, j’ai regardé les quelques exemples de la page G+ (cf lien), j’ai plus l’impression que la photo “Sans” est sur/sous-exposé (selon le cas), et que la photo “With” est exposé correctement sur le sujet.



Sinon d’accord avec zaknaster, globalement, les photos sont propres.


Ha ouui… Assez impressionnant la photo avec le pont. (Venise ?)<img data-src=" />








Ricard a écrit :



Ha ouui… Assez impressionnant la photo avec le pont. (Venise ?)<img data-src=" />







Non pas Venise (avec le drapeau US au fond…) <img data-src=" />



Pour info, les images dite HDR, au format .hdr, au lieu de stocker les informations de façon ‘normale’ sur 8bits par couleur / pixel, on les stock sous une autre formes, type YUV, sous forme flotante, et généralement associer un un log n. Donc la plage de valeurs est beaucoup plus grande pour un pixel donnée.

Le besoins de pouvoir stocker une plus large gamme de variation de la luminance beaucoup plus importante vien du fait que dans la réalité, la différence entre une zone sombre et une zone ensoleiller est énorme, et les phénomènes de sur ou de sous exposition vienne de la, on à une zone très large à stocker dans une zone plus petite, que l’on peut faire bouger, mais on perd forcément une partie.



La avec une image hdr on à toutes les infos pour chaque pixel, la zone entière, mais le problème c’est que les écrans actuel, bah peuvent afficher que 255 ‘gamme’ de couleur différente, ils sont prévu pour la zone utiliser depuis toujours, celle limiter. Donc une image hdr, on peut pas l’afficher sur un écrans normal, un écran hdr c’est 35k€ min, et c’est des proto, du coups il faut traiter l’image pour ramener les différentes valeurs, qui vont de beaucoup dans le grand, a beaucoup dans le petit, dans une petite zone, pour sa vous avez plein de méthode, développer par plein de gentils chercheur, et leurs nom c’est des TMO, donc le rendu bizarre, c’est à cause de la méthode utiliser, y a des forcément des avantages et des inconvénients et y en à aucun qui fonctionne pour toutes les situations, et l’objectif à terme de la recherche c’est de pouvoir les sélectionner de manière à avoir un rendu ‘esthétique’ plaisant, donc un autre domaine… mais le point important c’est de savoir quels qu’ils utilisent comme algo, et généralement ils ne le disent pas, et on ne peut pas choisir.



Oh le jolie pavé.


En tous cas, le premier qui me regarde avec des G-Glass s’en prend une. <img data-src=" />








Amenomade a écrit :



le problème c’est que les écrans actuel, bah peuvent afficher que 255 ‘gamme’ de couleur différente,







<img data-src=" />



C’est 255 variation par couleurs et non 255 en tout.









Clemzo a écrit :



Non pas Venise (avec le drapeau US au fond…) <img data-src=" />





Ha voui… Mais faut le voir…<img data-src=" />









Ricard a écrit :



Ha voui… Mais faut le voir…<img data-src=" />







Faut zommer avec des Google Glass <img data-src=" />









Ricard a écrit :



Ha ouui… Assez impressionnant la photo avec le pont. (Venise ?)<img data-src=" />







Non. Le pont de la National Biscuit Company (nabisco bridge, new-york). <img data-src=" />









Amenomade a écrit :











Je ne pense pas que l’on parle de la même chose. Oublie tes .hdr. L’appareil prend 3 photos avec des expos différentes et superpose le tout… Je pense que c’est de ça dont il est question.









127.0.0.1 a écrit :



Non. Le pont de la National Biscuit Company (nabisco bridge, new-york). <img data-src=" />





<img data-src=" />



Le HDR (High Dynamic Range) ou en français plage dynamique étendue consiste à afficher dans une meme image des expositions de zone qui ne pourrait coexister sur un seul cliche classique du fait de la limitation du capteur a prendre a la fois le sombre et le clair.

On prend 3 (au moins) expositions differentes pour avoir sur au moins une des 3 images chaque zone bien exposée et on rassemble les morceaux dans une meme image.

Le rendu particulier mentionne dans l’article tient plus au fait que beaucoup sature enormement les couleurs sur ce type de photo alors qu’il est possible d’avoir un rendu bien plus naturel.

Dans le cas d’une image tres contrastee, un a quand meme l’impression d’une image un peu fantastique, onirique.


Sans HDR : Un chat. Avec HDR : Un chat








AntonyToku a écrit :



Je ne pense pas que l’on parle de la même chose. Oublie tes .hdr. L’appareil prend 3 photos avec des expos différentes et superpose le tout… Je pense que c’est de ça dont il est question.



Je crois qu’il parlait de la même chose, il ne sait juste pas écrire, encore moins dans la forme que dans le fond, et il était extasié dans sa précipitation à évoquer un sujet qu’il aime, mais ce qu’il dit avec 457 fautes, c’est le HDR… aussi ( <img data-src=" /> )



prendre des photos discrètement oui

“…

Pour accompagner le partage des photos, la version spécifique d’Android dans les Google Glass permet maintenant d’ajouter du texte pour créer des étiquettes. L’utilisateur devra alors prononcer les mots, la reconnaissance vocale se chargeant du reste.

…”



genre t’es dans une conférence et tu te mets à déblatérer seul quand les sont concentrés sur le gus qui parle?<img data-src=" />








sylvainp a écrit :



Le HDR (High Dynamic Range) ou en français plage dynamique étendue consiste à afficher dans une meme image des expositions de zone qui ne pourrait coexister sur un seul cliche classique du fait de la limitation du capteur a prendre a la fois le sombre et le clair.







Ca c’est “comment afficher une image HDR sur un écran 24bits/pixel”, aka “Tone mapping” ou “compression de dynamique”.



HDR signifie seulement “grande dynamique”, c’est à dire une grande plage de valeurs possibles pour un élément. Ici, on parle de 96bits par pixel ou plus, au lieu du classique 24bits/pixel (8bits par composante).



On peut certes superposer 3 images 24b/p pour faire une image 96b/p, mais les APN modernes savent directement générer une image HDR. En fait, les vieux APN génèrent déjà en interne une image HDR, mais compressent la dynamique avant de stocker l’image.





(c’était la minute chiante du cours de traitement d’image)









Zorglob a écrit :



Je crois qu’il parlait de la même chose, il ne sait juste pas écrire, encore moins dans la forme que dans le fond, et il était extasié dans sa précipitation à évoquer un sujet qu’il aime, mais ce qu’il dit avec 457 fautes, c’est le HDR… aussi ( <img data-src=" /> )







Non, il parle d’une technologie extraterrestre, moi je lui parle de prendre 3 jpeg exposé de façon différente et de les coller l’un sur l’autre. ^^

Je ne comprend pas ce que son histoire d’écran à 35 000 € vient faire là dedans…









Ricard a écrit :



Ha voui… Mais faut le voir…<img data-src=" />







En même temps, l’architecture carrée des bâtiments en brique fait plus penser à New York qu’à Venise…



Edit : grilled by Localhost









sylvainp a écrit :



On prend 3 (au moins) expositions differentes pour avoir sur au moins une des 3 images chaque zone bien exposée et on rassemble les morceaux dans une meme image.





Mouais, rien de bien neuf par rapport à du bracketing, quoi… si ce n’est le processus automatique de couture.









WilliamSauron a écrit :



En même temps, l’architecture carrée des bâtiments en brique fait plus penser à New York qu’à Venise…



Edit : grilled by Localhost





Ben oui, mais comme je l’ai dit plus haut, en mattant vite fait sans agrandir les photos…









AntonyToku a écrit :



Non, il parle d’une technologie extraterrestre, moi je lui parle de prendre 3 jpeg exposé de façon différente et de les coller l’un sur l’autre. ^^

Je ne comprend pas ce que son histoire d’écran à 35 000 € vient faire là dedans…



Je te dis que ce qu’il baragouine correspond au HDR…. (https://fr.wikipedia.org/wiki/Imagerie_%C3%A0_grande_gamme_dynamique )

il est simplement rentré dans le détail technique concernant l’enregistrement de plusieurs données par pixel, qui contient donc plusieurs informations dynamiques différentes. Et certes il est très peu compréhensible, mais pour “être de la partie”, j’ai compris qu’il s’agissait bel et bien de HDR.

Toi, ce dont tu parles, c’est une version atrophiée de la technique HDR, c’est a dire qu’au lieu de faire contenir les différentes informations à chaque pixels, tu enregistres 3 x une image dont chaque pixels n’en contiennent qu’une (information).

Pour info, ta technique est plus simple d’exploitation, mais beaucoup plus pauvre en données. Elle s’apparente à du stitching.









AntonyToku a écrit :



Non, il parle d’une technologie extraterrestre, moi je lui parle de prendre 3 jpeg exposé de façon différente et de les coller l’un sur l’autre. ^^

Je ne comprend pas ce que son histoire d’écran à 35 000 € vient faire là dedans…







Un écran à 35k permet d’afficher directement une image hdr, en gros tu prend ton soleil couchant qui brille bien, tu rentre à la maison, il fait nuit, tu allume ton écran et tu lis ton image, et la dans ton écran t’as la même intensité lumineuse que ce que tu avais dehors, genre il fait jour, dans ton écran, sans que ce soit désagréable.



ah trouvéhttp://www.hdrsoft.com/resources/dri.html#unit plein d’info sur le sujet, mais l’idée c’est que ton oeuil il vois à la fois des différences entre des valeurs de luminance très faible,de l’odre du 10^-6 et en même temps du 10^+6, quand tu regarde depuis ton bureau dehors, avec un gros soleil, depuis un endroit sombre, tu vois les deux endroits en détail, en même temps.

Si tu prend une photo, sur exposition, ou sous exposition, normal, tes photo peuvent pas couvrir autant de variations que le naturel.

Ta technique des 3 photo, c’est du bricolage pour gagner des information dans les zones cramé, c’est le truc que ton oeuil fait en permanence, sur la zone ensoleiller dehors, il vas augmenter la plage disponible pour des valeurs élever, localement, genre dans le cadre de la fenêtre, et le reste vas être à un autre niveau, pour voir une zone plus faible.

Si tu prend une image hdr, tu à toutes les informations précisent, de manière fiable, sur l’intégralité de l’image, mais ton écran la avec lequel tu lis, il peut pas afficher une image hdr, il sais pas afficher autant de différence.

Du coups y a des techniques, c’est comme un gif en gros, t’as une place limiter pour mettre différentes variation dans le très grand et dans le très petit en même temps, du coups allouer moins de place dans le très blanc pour en récupérer dans le très sombre c’est possible.

Et du coups tu passe ton temps à manger des histogramme jusqu’à avoir une image satisfaisante.

Le problème actuel c’est le support materiel, les 1er caméras hdr arrivent et on à pas de quoi faire du traitement en temps réel pour les afficher.

Et si c’est encore peux claire, bah tant pis :)