Des séries originales d'Amazon passeront au HDR d'ici la fin de l'année

Des séries originales d’Amazon passeront au HDR d’ici la fin de l’année

Vivement la 8K SMHDR !

Avatar de l'auteur
Sébastien Gavois

Publié dans

Internet

13/04/2015 3 minutes
58

Des séries originales d'Amazon passeront au HDR d'ici la fin de l'année

Le HDR, ou High Dynamic Range, a le vent en poupe ces derniers jours. Après le HDMI Forum qui annonce la norme HDMI 2.0a pour prendre en charge cette technologie, c'est au tour d'Amazon de se lancer. Le géant du Net annonce qu'il proposera cette année des contenus dans ce format.

Depuis quelques jours, une nouvelle norme HDMI existe officiellement : la 2.0a. Concrètement, les câbles et les connecteurs restent les mêmes et il n'y a qu'un seul changement par rapport à la précédente mouture : la prise en charge du High Dynamic Range, ou HDR, qui permet d'obtenir plus de détails à la fois dans les couleurs sombres et claires. 

Amazon emboite le pas de l'association et annonce que certains de ses clients Prime Instant Video (aux États-Unis, au Royaume-Uni et en Allemagne) pourront profiter du HDR. « La résolution d'image 4K Ultra HD n'était qu'un début, nous sommes ravis à l'idée que les membres Prime soient en mesure de visionner des films et des programmes de télévision incluant Amazon Originals en qualité HDR » explique Michael Paul, le vice-président en charge de la vidéo numérique du géant du Net. Amazon ne donne aucun détail supplémentaire concernant les contenus qui seront disponibles, si ce n'est que « les séries Amazon Originals seront les premières à arriver en qualité vidéo HDR en fin d'année ».

Sauf surprise, le service de SVOD d'Amazon ne sera pas le seul à se battre sur ce terrain, loin de là même. Bien qu'aucune annonce officielle n'ait encore été faite du côté de Netflix, le responsable produit de la société, Neil Hunt, évoquait déjà le sujet au début de l'année lors d'une interview accordée à nos confrères du Telegraph : « Je pense que [le HDR] apporte une amélioration de la qualité encore plus importante que la 4K, et qui permet d'obtenir plus de luminosité et de détails dans l'image ». Il ajoute par contre qu'il « est probable que le HDR ne soit disponible que sur les TV 4K haut de gamme ». L'avenir nous le dira.

Il faudra maintenant voir comment le HDR sera perçu et adopté par les différents protagonistes (fabricants de télévision, créateurs et diffuseurs de contenus) et espérer qu'on ne retombera pas dans les travers de la 4K qui peine encore à se démocratiser, notamment à cause du manque de support physique et des besoins en bande passante pour du streaming.

 

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Commentaires (58)


Punaise ,cela sent le MKT pour la vente de télé cet été ,tiens…


Moi pas comprendre le HDR. Pourquoi c’est pas juste fait en post production ? En quoi ya besoin d’une TV spéciale?


+1 je comprend pas non plus, qu’est ce que la télé vient faire la dedans ? pour simuler des flux non ‘HDRisé’ ?? 








okeN a écrit :



Moi pas comprendre le HDR. Pourquoi c’est pas juste fait en post production ? En quoi ya besoin d’une TV spéciale?





Bah, c’est juste une technique pour augmenter la dynamique, mais il faut plus d’information que l’exposition de base. En soit tu pourrait le faire si t’avais une vidéo 10bit ou 12bit en post prod (d’ailleurs, je pense que c’est fait comme ça). C’est juste que t’as pas besoin d’avoir 12bit sur la chrominance, la luminance suffit (et c’est super facile à interpoler à partir de 3 images)



Bientôt on pourra régler le niveau de qualité des films et séries comme dans un jeu, est-ce réellement une avancée ou un gadget ^^ ? N’est ce pas mieux une télé qui respecte surtout au mieux l’œuvre originale comme elle a été filmée ? Vouloir absolument faire apparaitre le moindre détail dans une scène, ça ne risque pas de parasiter l’œil en le surchargeant ?

Je sais que de mon côté les jeux qui abusent des filtres comme le hdr me fatigue plus vite les yeux pour une amélioration visuel vraiment légère.


En effet, une explication serait bienvenue. Pour afficher les photos en HDR, je n’ai pas besoin d’acheter un autre écran. C’est la prise de vue qui fait le boulot !








okeN a écrit :



Moi pas comprendre le HDR. Pourquoi c’est pas juste fait en post production ? En quoi ya besoin d’une TV spéciale?



+1 je pige pas



mon écrant peut déjà afficher mes image en HDR comme tout écran …



alors la ça veut dire qu’on peut faire soit même le traitement HDR …. super lol  … j’vois pas l’interet

c’est comme rajouter des filtre à la con









Locke a écrit :



Bientôt on pourra régler le niveau de qualité des films et séries comme dans un jeu, est-ce réellement une avancée ou un gadget ^^ ? N’est ce pas mieux une télé qui respecte surtout au mieux l’œuvre originale comme elle a été filmée ? Vouloir absolument faire apparaitre le moindre détail dans une scène, ça ne risque pas de parasiter l’œil en le surchargeant ?

Je sais que de mon côté les jeux qui abusent des filtres comme le hdr me fatigue plus vite les yeux pour une amélioration visuel vraiment légère.







Certains modèles de TV peuvent désactiver complètement le traitement numérique (ma Pana peut le faire) et ainsi respecter l’oeuvre originale



Le soucis de nos TV actuelles concernant le HDR n’est pas une question de bitrate ?

On remarque souvent que déjà, une scène en traveling où tous les pixels se mettent à changer provoque souvent de petites sacades dûes à une augmentation énorme du bitrate.

Du coup, avec ce principe dynamique, le bitrate ne se retrouverai pas plus élevée sur la totalité du film, nécessitant alors un traitement plus lourd ?



Simple spéculation =)








Qruby a écrit :



Bah, c’est juste une technique pour augmenter la dynamique, mais il faut plus d’information que l’exposition de base. En soit tu pourrait le faire si t’avais une vidéo 10bit ou 12bit en post prod (d’ailleurs, je pense que c’est fait comme ça). C’est juste que t’as pas besoin d’avoir 12bit sur la chrominance, la luminance suffit (et c’est super facile à interpoler à partir de 3 images)



 

Oui, mais ça veut dire quoi ?

Que la série aura été filmée avec plusieurs valeurs d’exposition ? <img data-src=" />



&nbsp;Je ne vois pas “où” le HDR vient s’intercaler dans la norme de diffusion… à part avoir plusieurs flux diffusés simultanément (par un câble HDMI&nbsp;à cette norme) et une électronique derrière qui fait un “mix” de ces flux suivant les réglages voulus pour obtenir une seule image.



Je me posais la même question quand à l’impact technique nécessaire sur la TV.



&nbsp;Est ce que HDMI 2.0a et autres nouvelles TV ne permettent pas de recevoir plusieurs flux en parallèle et de faire le traitement avant d’afficher sur l’écran le résultat en HDR (un peu comme nos softs pour la photo mais en beaucoup beaucoup plus rapide…) ? donc gros traitement fait sur la TV (d’où l’arrivée des Octo Proc)



Mais ce flux peut-il être traité avant la TV : à la source du flux (ex : chez l’opérateur), sur une Box Media (dur dur pour mon Raspberry)… ?

&nbsp;

&nbsp;TV HDR = TV capable de faire le calcul HDR en temp réel? ou est-ce qu’une TV HD peut recevoir un signal contenant déjà une image HDR et l’afficher sans problème?


Apres le FHD, le DTS-HD, puis le 4K, maintenant le HDR, bientôt KKDTC, prochainement le JMMPP…





Bien sur, faut tout racheter


“Le HDR, ou&nbsp;High Dynamic Range, à le vent en poupe SES derniers jours.“Ca ne choque que moi???


Je sais meme pas pourquoi tu essaie de comprendre. Vraiment.



Garde juste en tete, que c’est mieux, plus beau, plus réaliste, plus tout. Que tout ce que tu possedes chez toi, c’est de la merde, et que va falloir tout racheter.



Voila.


Ses pas faux <img data-src=" />


Pour résumer, après l’échec de le “3D” et le risque de difficulté à faire passer le 4K comme “essentiel” , ils prévoient le 8K, le HFR, le HDR

Donc “ils” aimeraient nous voir acheter des télés 8k-3D-HFR-HDR d’ici 10 ans, mais pas tout à la fois hein, faut renouveller le parc tous les 4-5 ans sinon c’est pas intéressant ;)



Sauf que nous en attendant on voudrait juste du bon contenu bien tourné, avec de bons acteurs et de bons scénarios… c’est techniquement possible au vu des avancées scientifiques ou bien ?


Le problème du HDR est qu’il n’y a aucune norme pour le moment est chacun fait sa sauce dans son coin.

Certains ont proposé un solution hardware donc il faut tout racheter (Dolby) alors que d’autres philipps proposent une solution software.



Bref, c’est le bordel donc en attendant il ne vaut mieux même pas s’en préoccuper dans l’achat de sa télé.


Ce qui me choque c’est ceux qui ne savent pas utiliser la fonction “Signalez une erreur”.



Mais bon, chacun ses soucis.


Le HFR ferait un grand bien à mes yeux… Marre de voir des mouvements flous ou qui saccadent !


Je viens de m’inscrire sur ce site, je ne connais pas cette fonction. Mais bon quand on est journaliste on est pas censé faire ce genre de faute. Je dis ça je dis rien.



Ctrl f sur la page avec comme mot clé “Signalez” et je ne trouve rien. Cette option est visiblement bien caché mais elle serait pourtant utile.


HDR signifie simplement plus que 256 valeurs (8 bits) par composante RVB. Parce que 16 millions de couleurs (256256256) ça paraît beaucoup, mais en fait pour une teinte donnée il n’y a qu’au maximum 256 niveaux de luminosité.

Mais pour cela il faut, en plus de toute la chaîne de production (caméra, post-production etc.) :




  • que l’écran soit capable d’afficher plus que 256 niveaux pour chaque sous-pixel RVB. Aujourd’hui très peu le peuvent, et ils sont chers ;

  • ET que le format de transmission comprenne plus que 24 bits/pixel. Le DVI ne le fait pas, et la norme HDMI 2.0a n’a qu’un mois…

    À tous ceux qui pensent que leur écran affiche déjà en HDR, ou qu’il faut de la puissance de calcul : vous confondez avec le fait que votre écran actuel ne peut qu’afficher qu’en 24 bits et que si l’origine est en HDR il faut une conversion, soit brutale (laisser tomber les bits de poids faibles) soit adaptative localement (c’est ce que font les jeux vidéo).


si je me trompe pas, il n’y a pas de rapport entre le HDR et le flou ou les saccades.








Ben-J69 a écrit :



Mais bon quand on est journaliste on est pas censé faire ce genre de faute. Je dis ça je dis rien.





C’est vrai que les journalistes sont infaillibles…



Sinon bienvenue ! <img data-src=" />



En attendant l’erreur est toujours là…


Il parle du HFR, pas du HDR&nbsp;








von-block a écrit :



Il parle du HFR, pas du HDR





my bad, je pensais à une coquille <img data-src=" />









NiCr a écrit :



Ce qui me choque c’est ceux qui ne savent pas utiliser la fonction “Signalez une erreur”.



Mais bon, chacun ses soucis.





J’ai beau être inscrit depuis 8 ans maintenant, l’emplacement du bouton est tout sauf évident.

Je l’aurais probablement jamais trouvé si je ne savais pas qu’il existait…



&nbsp;



Ben-J69 a écrit :



Ctrl f sur la page avec comme mot clé “Signalez” et je ne trouve rien. Cette option est visiblement bien caché mais elle serait pourtant utile.



Il ne faut pas être en début de page et scroller suffisament pour que le bandeau Next Inpact devienne gris clair.

Tu trouvera dedans le nombre de partages, les boutons de partages (FB, Twitter, Google+, mail)… et enfin un bouton “Signalez une erreur” (texte en tooltip).



Grosso modo si tu es comme moi et que tu te contrefous des boutons de partage sur réseaux sociaux, tu n’as quasiment aucune chance de le trouver&nbsp;<img data-src=" />



Lorsque tu descends dans la news, dans la barre du haut à droite de NextInpact se trouve un bouton avec un triangle et un point d’exclamation. C’est le bouton qu’il faut utiliser pour le signalement.

<img data-src=" />


C’est vrai que le bouton signaler n’est pas évident à trouver ni très explicite.



Cette news m’intrigue très fortement. On parle bien du même HDR que en photo ?

Mais l’information pour les zones claires et sombres, ils la tirent d’où ? Ne risque-t-on pas de saloper l’image s’ils n’utilisent qu’une seule source ?

Et la recette employée pour le HDR sera ajustable ? Parce qu’il y a HDR et HDR, autrement dit un truc qui est discret mais efficace et un truc qui décolle la rétine (à titre d’exemple : https://www.flickr.com/groups/569830@N25/ )

En plus, sur ordinateur, le HDR demande quand même un certain temps de calcul pour traiter correctement une image, comment est-ce géré sur un téléviseur en direct ?








Jonathan Livingston a écrit :



[…]



Tu confonds dynamique et quantification.

Tu peux avoir une dynamique très large (HDR) sur 8 bits, et tu peux avoir une dynamique très faible sur 12 bits…

La dynamique ne dépend que de la prise du vue et/ou du post-traitement.



Le raccourci HDR = quantification &gt; 8 bits est complètement faux.









Jonathan Livingston a écrit :



HDR signifie simplement plus que 256 valeurs (8 bits) par composante RVB. Parce que 16 millions de couleurs (256256256) ça paraît beaucoup, mais en fait pour une teinte donnée il n’y a qu’au maximum 256 niveaux de luminosité.

Mais pour cela il faut, en plus de toute la chaîne de production (caméra, post-production etc.) :




  • que l’écran soit capable d’afficher plus que 256 niveaux pour chaque sous-pixel RVB. Aujourd’hui très peu le peuvent, et ils sont chers ;

  • ET que le format de transmission comprenne plus que 24 bits/pixel. Le DVI ne le fait pas, et la norme HDMI 2.0a n’a qu’un mois…

    À tous ceux qui pensent que leur écran affiche déjà en HDR, ou qu’il faut de la puissance de calcul : vous confondez avec le fait que votre écran actuel ne peut qu’afficher qu’en 24 bits et que si l’origine est en HDR il faut une conversion, soit brutale (laisser tomber les bits de poids faibles) soit adaptative localement (c’est ce que font les jeux vidéo).





    Donc en gros, si j’ai bien compris, ce que tu veux dire c’est que c’est un truc qui pour le commun des mortels n’apportera pas grand chose car les écrans grand public sont calibrés n’importe comment (sans parler de la gestion catastrophique de la luminosité). In fine, on se retrouve avec une F1 sur un chemin de campagne ?



Si je comprend bien, on parle du même “phénomène”, mais traité de manière différente :




  • en photo on prend plusieurs images avec différents niveaux d’exposition, et on “aplatit” tout dans une image “classique” qui sera lisible sur un écran normal et affichera les détails des zones sombre et des zones claires (donnant un effet un peu “artificiel” à la photo)



  • ici, si je comprend bien encore, on a encore plusieurs shot pris, mais l’image composite ne sera pas “écrasé”, c’est l’écran qui retranscrira une image “étendue”&nbsp;



    Mais pour le coup, j’aimerai bien voir de mes yeux la différence … mais j’ai un doute que les démo qu’ils montreront en magasin soient “interessantes” … oh regardez comme l’image est moche, naze, sale, saccadée sans HDR !!


C’est ça, et une image noire, même en 48 bits, ça a peu de dynamique…



Si, la quantification ça compte ; c’est ce qui limite la dynamique maximale. Bien sûr qu’il faut du HDR dès la prise de vue et tout au long du traitement, comme je le précisais d’ailleurs, mais là on parle de la fin de la chaîne, qu’il n’est pas simple de passer en HDR.

&nbsp;

(On parle de vidéo là, pas de photo. Et je travaille dans le domaine, enfin pas directement mais des collègues à moi)


Le prix de écrans va se démocratiser, c’est comme la HD : le problème c’est que personne ne va acheter un écran HDR tant qu’il n’y a pas de sources, et personne (ou presque, donc) ne veut diffuser en HDR tant que personne ne peut en profiter.



Et je partage l’avis cité dans la niouze : le HDR apporte bien plus que l’UHD/4K (qui ne se justifie que pour un écran de plus de 3 mètres).

&nbsp;


Pour ceux qui ne savent toujours pas ce qu’est le HDR en télévision, vous serez tout ici:



http://www.dolby.com/us/en/technologies/dolby-vision/the-art-of-better-pixels.pd…



Après plus d’excuse pour l’ignorance.&nbsp;

Reste que PCI devrait faire un petit dossier, car beaucoup de gens se questionne.


Oui, moi aussi je connais un type qui connait un gars qui bosse avec celui là. On me la fait pas à moi. Ok ?



D’ailleurs le gus en question a certainement donné la meilleur explication à ce procédé fumeux.

Son commentaire est le n°21.








Jonathan Livingston a écrit :



Et je partage l’avis cité dans la niouze : le HDR apporte bien plus que l’UHD/4K (qui ne se justifie que pour un écran de plus de 3 mètres).





Ça c’est vite dit quand même.

Autant actuellement la 4K n’est qu’une grosse hype marketing en l’absence de contenu, autant il faut quand même admettre que coller du FHD sur un écran de 30”, ça fait juste un pitch à vomir (déjà qu’en dessous c’est pas jojo, au-delà j’en parle même pas).



Pour une utilisation autre que TV, il serait bon de progresser un peu à ce niveau - surtout quand on compare à l’évolution du pitch des smartphone sur la même période.









Jonathan Livingston a écrit :



[…] &nbsp;

&nbsp;



Si tu prends une photo avec un capteur N&B 12 bits, et que tu convertis cette photo en 8 bits, tu auras la même dynamique (à l’arrondi du niveau de gris près lors de la conversion 12 bits -&gt; 8 bits). Tout ce que tu auras fait, c’est diminuer la quantification.



Je dis pas que le niveau de quantification est inutile. Je dis juste que ça n’a rien à voir avec l’HDR.



Une photo N&B 8 bits dont le pixel le plus noir vaut 0 et celui le plus blanc vaut 255 aura une dynamique plus importante (HDR) qu’une photo N&B 12 bits dont la valeur des pixels sont situés entre 1000 et 2000.



Pour te donner un exemple plus graphique: sur l’histogramme d’une image, la dynamique se lit en regardant les pieds: plus ils sont éloignés, plus la dynamique de l’image est importante (les noirs sont “très noirs” et les blancs sont “très blanc”). La quantification peut être liée au nombre de barres de l’histogramme.



Plus tu expliques… moins je comprends&nbsp;<img data-src=" />


Pardon, je parlais bien sûr d’écran de TV, c’est-à-dire de distance de visualisation de 2 ou 3 mètres. La niouze parle de séries TV.



Pour un écran de PC ou de smartphone c’est une autre histoire.

&nbsp;


Il explique que la HD n’a rien à voir avec le niveau de détail dans l’image. Parce que si l’image est floue à la prise de vue, hé bien la HD n’apporte rien.


Ben si, ce sera un flou de qualitay.








mancuso85 a écrit :



Plus tu expliques… moins je comprends&nbsp;<img data-src=" />





En gros, ce qu’il essaie de te dire, c’est que si tu prends une echelle de gris foncé à gris clair et que tu mets 1024 valeurs entre les deux, tu as une dynamique faiblarde (gris à gris) malgré une grande quantification (1024 valeurs).

Et si tu prends une echelle de noir à blanc avec 256 valeurs entre les deux, tu as une grande dynamique avec une quantification pourtant plus faible.



Le nombre de bit n’influe donc pas sur la qualité de la dynamique mais sur sa quantification.



Vivement que les consoles commencent a se battre sur ce genre de domaine “ 360 COMPATIBLE HDR”, “ OUAIS MAIS PS4 EST HFR”&nbsp;<img data-src=" />



D’ailleur quand est ce que les CG vont commencer a sortir çà, qu’on puisse continuer a faire “ PC master race “&nbsp;<img data-src=" />


Non. Les caméras pros prennent déjà des images sur 10 bits. Il n’y a pas de traitement pour recomposer des images.

Tout ce qui manque pour l’instant, c’est le protocole pour transférer les images vers les téléviseurs de particuliers… et des téléviseurs capables d’afficher des images codées en 10 bits (ou plus).


Les GPU pourraient le faire aisément de façon logiciel.



Mais ça prend un écran HDR…


J’avoue que j’ai dû mal à comprendre aussi. Le hdr consiste à prendre une image avec plusieurs valeurs d’expositions incluses dans un seul fichier image, ensuite le logiciel permet de choisir l’exposition désirée.



Beaucoup utilisée en 3D pour respecter au mieux la vérité de l’éclairement.



Ainsi en forte lumière le programme choisira de délaver des vitraux et si le ciel s’assombrit, le logiciel fera la transition avec l’image dans laquelle les vitraux auront été correctement exposés.



Du coup, il faudrait prendre à la prise de vu différentes valeurs de diaphragme. Ce qui semble impossible à la prise de vue ciné.



Sauf si c’est une fausse HDR.

En tous les cas, autant tout faire en post prod. Bien plus efficace.

Y’a un truc qui m’échappe…








sioowan a écrit :



J’avoue que j’ai dû mal à comprendre aussi. Le hdr consiste à prendre une image avec plusieurs valeurs d’expositions incluses dans un seul fichier image, ensuite le logiciel permet de choisir l’exposition désirée.





Ça, c’est une technique pour recréer une image à grande gamme dynamique (HDR) à partir d’un capteur qui ne le permet pas : Tu prends plusieurs images de la même scène à des expositions différentes pour en reconstituer une seule.



Les cameras pros permettent directement de prendre une image à grande gamme dynamique. Pas besoin d’extrapolation ou de reconstitution.



&nbsp;

&nbsp;



Ah. J’ai appris quelques choses :) Donc le 4:4:4 est d’office à gamme dynamique étendue ?








ErGo_404 a écrit :



Non. Les caméras pros prennent déjà des images sur 10 bits. Il n’y a pas de traitement pour recomposer des images.

Tout ce qui manque pour l’instant, c’est le protocole pour transférer les images vers les téléviseurs de particuliers… et des téléviseurs capables d’afficher des images codées en 10 bits (ou plus).





Voilà, c’est ça. Mais je comprends que ce ne soit pas compris.



sioowan a écrit :



Ah. J’ai appris quelques choses :) Donc le 4:4:4 est d’office à gamme dynamique étendue ?





Oui, et il garde le canal alpha dans tous les cas (pour utilisation post-prod) + le réencodage est lossless et idéal pour les habillages + il gère toutes les résolutions + il règle la majorité des éventuels pb de gamma (1.8 à 2.2). Par contre il a un bitrate de 50% plus élevé que le 4:2:2.



C’est d’ailleurs pour ça que je préfère viser une caméra 4:4:4, si j’avais à en acheter une.

Certaines petites canon le font avec en plus prises dmx pour le son.

Mais ce sera dans une autre vie ^^


&nbsp;







sioowan a écrit :



C’est d’ailleurs pour ça que je préfère viser une caméra 4:4:4, si j’avais à en acheter une.

Certaines petites canon le font avec en plus prises dmx pour le son.

Mais ce sera dans une autre vie ^^





&nbsp;Si tu peux/veux/a les moyens et la motivation, l’idéal (un des idéaux on va dire) est de miser sur l’évolutivité ET l’enregistrement en RaW/log ou lossless.

&nbsp;

&nbsp;Il n’y a que 3 lossless possibles dont 2 principaux (le 3ème, cineform, arrive depuis peu seulement en post-prod poussé par Adobe qui n’avait rien en spécialisé) : le ProRes ou le DNxHD/HR. Donc si tu vois qu’une cam enregistre illico en un de ces 2, tu peux y aller : tu vas gagner du temps et de la qualité garantie.



&nbsp;L’évolutivité pourrait par exemple être vue dans la possibilité d’adjoindre différents objectifs (pour de photographes qui en auraient déjà), etc…



Bref, dans ce contexte, pour prendre un max. de ces critères en restant dans des tarifs plus que corrects, je conseillerais d’aller voir vers là :https://www.blackmagicdesign.com/



Voilà pour le p’tit conseil gratos d’un mardi ensoleillé <img data-src=" />



moi j’ai du mal à voir comment tout se raccorde : on code (quantification) avec un certaines nombres de bits (8, 10, 12) chaque pixel de l’image et pour l’affichage, pour faire du HDR, on doit donc être capable d’assigner différentes nuances de luminosité plus importantes que sans HDR : par ex une scène avec une feuille de papier blanche et un soleil, on fera ressortir le soleil 15 000 fois plus “blanc” (lumineux) que la feuille (j’ai bon ?). Mais qu’est-ce qui permet de faire ça ? Ce qu’on appele l’espace de couleur (sRGB, AdobeRGB, etc) ? Le gamma ? Ça n’a rien à voir ?



Quelqu’un aurait un doc qui explique un peu tout ça parce qu’on s’y perds ? :(








Zorglob a écrit :



&nbsp;



&nbsp;Si tu peux/veux/a les moyens et la motivation, l’idéal (un des idéaux on va dire) est de miser sur l’évolutivité ET l’enregistrement en RaW/log ou lossless.

&nbsp;

&nbsp;Il n’y a que 3 lossless possibles dont 2 principaux (le 3ème, cineform, arrive depuis peu seulement en post-prod poussé par Adobe qui n’avait rien en spécialisé) : le ProRes ou le DNxHD/HR. Donc si tu vois qu’une cam enregistre illico en un de ces 2, tu peux y aller : tu vas gagner du temps et de la qualité garantie.



&nbsp;L’évolutivité pourrait par exemple être vue dans la possibilité d’adjoindre différents objectifs (pour de photographes qui en auraient déjà), etc…



Bref, dans ce contexte, pour prendre un max. de ces critères en restant dans des tarifs plus que corrects, je conseillerais d’aller voir vers là :https://www.blackmagicdesign.com/



Voilà pour le p’tit conseil gratos d’un mardi ensoleillé <img data-src=" />





Merci pour les conseils.

Faut que d’abord je trouve un taff, car ma reprise d’études m’a ruiné.



Suis spécialisé After effects et je monte sur première.



Après j’imagine le poids de la minute d’enregistrement.

Mon pauvre laptop Alienware risque de souffrir ^^








sioowan a écrit :



Merci pour les conseils.

Faut que d’abord je trouve un taff, car ma reprise d’études m’a ruiné.



Suis spécialisé After effects et je monte sur première.





Un petit ajout de DaVinci Resolve serait dans ce cas le bienvenu. (pour le cas laptop, point de salut à proposer)



Je vais regarder ça cet été.

Pour le moment mon laptop gère très bien du After non RaW en full HD.

Faudrait que je télécharge un fichier RaW pour me rendre compte ^^