Ultra HD (4K) : Sharp et Gigabyte annoncent des produits compatibles

Ultra HD (4K) : Sharp et Gigabyte annoncent des produits compatibles

Parés pour le CES 2013... en attendant le Brésil en 2014

Avatar de l'auteur
Julien Arrachart

Publié dans

Sciences et espace

28/11/2012 4 minutes
36

Ultra HD (4K) : Sharp et Gigabyte annoncent des produits compatibles

Un peu plus d'un mois avant le CES 2013, Sharp dévoile de nombreuses informations au sujet de son prochain moniteur exploitant la norme « Ultra HD » (4K) : le PN-K321. Ce modèle d'une diagonale de 32 pouces affiche une définition native de 3840 x 2160 pixels. De son côté, Gigabyte signale que ses cartes mères de la série « TH » équipées de deux connecteurs Thunderbolt (Mini DisplayPort) sont également compatibles avec la « Ultra HD » via un nouveau BIOS.

Alors qu'il sera présenté lors du CES 2013 qui se déroule du 8 au 11 janvier prochain, Sharp lâche quelques informations sur son moniteur de 32 pouces qui est compatibles avec la norme « Ultra HD ». En effet, celui-ci affiche une définition très élevée, puisqu'elle est de 3840 x 2160 pixels. Sachez qu'il est équipé d'une dalle Izgo (rétroéclairage à LED), qui provient directement des usines de Sharp.

 

Sharp PN-K321

 

Le constructeur communique une luminosité de 250 cd/m² et un taux de contraste de 800:1, ce qui semble pour le moins réaliste et bon à signaler. Le temps de réponse est de 8 ms de gris à gris, un chiffre plutôt correct. Du côté de l'ergonomie, nous signalerons qu'il est possible de le faire pivoter à 90° (mode portrait).

 

Sa connectique se montre suffisante, puisqu'elle embarque un connecteur DisplayPort et deux HDMI. De plus, une prise audio jacks 3,5 mm est également disponible afin de relier son casque audio, par exemple. Pour information, ce moniteur dispose de deux haut-parleurs d'une puissance de 2 W chacun.

 

Le design est relativement classique, nous noterons que le pied est assez plat. En ce qui concerne les dimensions, elles sont de 750 x 35 x 441 mm, pour un poids de 7,5 kg. Quant à la consommation, elle s'élève à 120 W, ce qui est encore raisonnable pour un tel moniteur.

 

Sharp n'a pas encore évoqué le tarif, cela sera surement le cas lors du CES 2013. Néanmoins, il est bon de savoir que la production est actuellement de seulement 1500 unités par mois, la somme à débourser risque donc d'être salée. De plus, il sera disponible, dans un premier temps, au Japon en fevrier 2013.

Gigabyte : les cartes mères de la série TH sont compatibles avec la norme « Ultra HD »

Il y a quelques jours, Gigabyte a pour sa part annoncé que ses cartes mères de la série « TH » sont compatibles avec la norme « Ultra HD » grâce à la présence des deux connecteurs Thunderbolt (mini DisplayPort). Ainsi, en les utilisant tous les deux simultanément, cela permet d'obtenir une définition pouvant atteindre les 4096 x 2160 pixels.

 

Gigabyte TH Gigabyte TH

 

Pour confirmer ses dires, Gigabyte a effectué des tests sur une carte mère GA-Z77MX-D3H TH, que nous avions récemment détaillée au sein de ce PCi Labs, en reliant les deux sorties vidéo à un moniteur FDH3601 d'Eizo via des adaptateurs Mini DP / DP. Des tests qui ont été fructueux, puisque la définition maximale annoncée est bien au rendez-vous.

 

Le tout est d'ores et déjà fonctionnel via une mise à jour du BIOS (F5). Reste que les moniteurs « Ultra HD » ne sont pas encore légion sur le marché, mais notre petit doigt nous dit que le CES qui se déroulera à Las Vegas en janvier prochain sera l'occasion pour de nombreux acteurs du marché de commencer à communiquer sur des produits compatibles qui vont tenter de nous séduire dans les mois et les années qui viennent.

 

Reste à voir si, après le passage à la HD, puis à la 3D, le consommateur aura encore le courage de porter de l'intérêt à l'Ultra HD. Sans doute faudra-t-il attendre la coupe de monde de football 2014 pour cela.

Écrit par Julien Arrachart

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Gigabyte : les cartes mères de la série TH sont compatibles avec la norme « Ultra HD »

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (36)


Chouette l’ultra HD va faire plonger le tarif des dalle Full HD donc directement le tarif du produit fini.



Bientôt une télé Full HD 46” à 300€ ?


Wow, ça innove(rai) dans le monde de l’écran PC ?!? <img data-src=" />


et moi qui suit toujours sur un vieu 720p avec des couelur moche :‘(




Sans doute faudra-t-il attendre la coupe de monde de football 2014 pour cela.





Ca m’étonnerait qu’elle soit retransmise en 4k… (sauf Japon peut-être)



Des moniteurs PC de 32” ! La même taille que ma télé !!



Peut-être il y a t’il un intérêt à la 4k finalement si ça permet de faire monter en résolution les moniteurs. Pour la TV/cinéma non 3D, je reste dubitatif.


<img data-src=" /> deux TB pour afficher ça <img data-src=" />



ça fait penser au DVI dual link pour le 2560x1600 <img data-src=" />


Je trouve ça cool mais en tant que joueur je me dis que des diagonales pareilles c’est impossible en TN avec les angles de vision et que les temps de réponse/rémanence des autres technologies vont rendre la chose difficile.



Le futur c’est bien mais c’est pas certain que ce soit mieux du coup.


Mon rêve : un moniteur 24” 192 dpi et 10 bits par canal (R, G, B, A), le tout avec tous les logiciels compatibles. Un jour, un jour…



En même temps, vu l’absence de ClearType sous métro, les dpi élevés ont de l’avenir sur desktop. Actuellement les fontes ont un aspect vraiment trop crade.








yvan a écrit :



Le futur c’est bien mais c’est pas certain que ce soit mieux du coup.





<img data-src=" />



Hum, 32” avec cette résolution, ça en fait un très bon écran de PC. Digne successeur du 30” 2560*1600.








HarmattanBlow a écrit :



Mon rêve : un moniteur 10 bits par canal (R, G, B, A)



On arrive vraiment à voir une différence entre 8 et 10 bits par canal ? Je demande en amateur, je ne suis pas graphiste ou autre…









sniperdc a écrit :



Chouette l’ultra HD va faire plonger le tarif des dalle Full HD donc directement le tarif du produit fini.



Bientôt une télé Full HD 46” à 300€ ?







C’est exactement ce que je me disais, faudra profiter de l’écoulement des stocks quand les vendeurs voudront tout liquider au profit des résolutions supérieures.



Mais franchement, la 4K pour une télévision aura peu d’intérêt dans l’immédiat, pas de médias compatibles 4K, les consoles galèrent déjà à cracher du 720P et les prochaines devraient tout juste pouvoir cracher du 1080P tout le temps, et je ne parle même pas des jeux PC, faudrait un gpu monstre (voir deux ou trois cartes) pour les faire tourner dans cette définition.



Le 2560x1440 semble un bon compromis pour le moment =&gt;http://www.exportprive.fr/fr/l/21143-ecran-led-crossover-27q-led-p-27-pouces-noi…









Inodemus a écrit :



On arrive vraiment à voir une différence entre 8 et 10 bits par canal ? Je demande en amateur, je ne suis pas graphiste ou autre…





Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.



PS : Si le résultat n’est pas clairement visible pour toi, notamment dans la moitié inférieure, c’est que le gamma de ton moniteur est mal calibré et qu’il assombrit trop les couleurs.



PPS : les bandes peuvent ne pas sembler homogènes et avoir des bords plus lumineux ou plus sombre, c’est une illusion optique appelée bandes de Mach.



PPPS : qui plus est certains (tous ?) moniteurs TN n’affichent en fait que 6 bits de profondeur et procédent à du dithering !




qui dis ultraHD dis doublement de la définition et donc doublement de la puissance 3D bof <img data-src=" />


enfin un bel ecran <img data-src=" />

allez sharp, on veut le meme en 24” <img data-src=" />








kervern a écrit :



qui dis ultraHD dis doublement de la définition et donc doublement de la puissance 3D bof <img data-src=" />





Tu joues toujours en 320*200 ?



D’ailleurs doublement de la résolution (et quadruplement du nombre de pixels) ne signifie pas quadruplement de tous les coûts : la géométrie reste inchangée, tu n’as pas à augmenter la taille des buffers intermédiaires (pour les ombres, les réflexions environnementales, etc), et une plus grande résolution t’épargne aussi bien des problèmes comme le filtrage bancal des textures de grillages.



Enfin, si tu considères qu’il faudra six ans pour que des moniteurs de ce genre se généralisent, la loi de Moore prédit que d’ici là les GPU seront capables de faire quatre fois plus de calculs par pixel avec quatre fois plus de pixels. Et en réalité la puissance des GPU a augmenté plus vite que la loi de Moore.



Harmanttanblow as-tu ton image en 10bit?

Sur mon SG2 AMOLED on voit bien les bandes du 8bit…




3840 x 2160 pixels



16:9 <img data-src=" />



On veut du 3840 x 2400 (16:10) <img data-src=" />







Et à des prix raisonables<img data-src=" />



Parce qu’à voir de telles résolutions, je crains que cela fasse des écrans complètement inabordables.<img data-src=" />





Dans un premier temps, avant que ces résolutions deviennent “standard”, ce qui rendra les prix également “standard” au passage…

(J’espère que cela se sera pas dans 30 ans<img data-src=" />)


Je n’avais pas vu le “32 pouces”…









Tourner.lapache a écrit :



Des moniteurs PC de 32” ! La même taille que ma télé !!







Voilà… A moins de jouer à 3 mètres je ne vois pas l’intérêt si ce n’est de se péter les yeux. Quelqu’un peut m’aiguiller sur la course à la plus grande taille qui a été entreprise ? Personnellement j’ai un 24” et je le trouve à une taille optimale (peut-être un 27” à la limite et encore…)



Ils ont augmenté la taille juste pour rentabiliser la 4K dans le moniteur ? Pourquoi ne pas continuer à faire du 1080p pendant encore quelques années ?



32 pouces le moniteur… Faut pas travailler à 50cm de l’appareil dis donc. Si la connectique doit être modifiée pour cette résolution pitié qu’ils passent au rj45, c’était un projet prometteur il y quelques années.








HarmattanBlow a écrit :



Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.



Et sinon oui j’ai un vieux TN iiyama qui dithere et qui a du mal avec les noirs…









manus a écrit :



Harmanttanblow as-tu ton image en 10bit?

Sur mon SG2 AMOLED on voit bien les bandes du 8bit…





En voici une en 16 bits par canal :http://www.mediafire.com/view/?4o7a466b8881fdn

Mais tu ne verras pas de différence à moins d’avoir un écran 10 ou 16 bits par canal.



Note par ailleurs que certains écrans de smartphones sont en 16 bits au total (et non par canal), afin d’économiser l’énergie, d’où un effet de banding encore plus prononcé. Et après vérification c’est le cas du tien.







Inodemus a écrit :



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.





Pour ma part j’ai rencontré le problème pour la première fois quand je développais une appli au design sombre avec ce genre de dégradés. Le résultat était magnifique sur l’écran du designer (qui, lui, avait un écran 16 bits par canal) et j’ai d’abord cru à un bug avant de me rendre compte que c’était un problème de banding.



Du coup il a fallu revoir une bonne partie de design. ^^

Ce n’était pas la seule fois, j’ai encore été confronté au problème quelques fois depuis, toujours lors du design de certaines UI. La généralisation d’écran à 10 ou 16 bits par canal ouvrirait quelques portes et les photos y sont plus jolies.









Spezetois a écrit :



Voilà… A moins de jouer à 3 mètres je ne vois pas l’intérêt si ce n’est de se péter les yeux. Quelqu’un peut m’aiguiller sur la course à la plus grande taille qui a été entreprise ? Personnellement j’ai un 24” et je le trouve à une taille optimale (peut-être un 27” à la limite et encore…)



Ils ont augmenté la taille juste pour rentabiliser la 4K dans le moniteur ? Pourquoi ne pas continuer à faire du 1080p pendant encore quelques années ?







C’est une bonne question, je me demande s’il vaut mieux 23 “petits” écrans ou un grand. A la limite du 32 pouces à distance de bureau ça doit pouvoir se supporter à faible luminosité.









Inodemus a écrit :



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.





J’ajoute que je viens de me rappeler que dans le monde médical on trouve aussi des écrans avec une profondeur accrue. Certaines images (notamment radiographies je crois) vues en 8 bits affichent des phénomènes de banding qui nuisent à leur lisiblité.











Inodemus a écrit :



Merci pour ton exemple et tes infos, en réfléchissant un peu je pensais aussi à ce genre de cas, mais en fait je me demandais plutôt au cours de quel type d’activité, générale ou spécifique à une profession particulière mais sans chercher volontairement la petite bête, on se retrouvait avec des cas moches qui donnaient envie d’avoir plus de couleurs.





Sans même parler de profession dans les animés (notamment japonnais) cela se voit très bien, c’est pour cela que certains sont maintenant diffusé sur Internet en 10bit, car en 1080p sur un bon écran cela se voit direct.

Personnellement sur mon plasma c’est assez flagrant.



voila a quoi ressemble la tv sharp 4k



sharp 4k igzo








HarmattanBlow a écrit :



Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.







$ file democ.png

democ.png: PNG image data, 1600 x 1200, 8-bit colormap, non-interlaced









HarmattanBlow a écrit :



Je t’invite à le voir par toi-même

Ceci est le résultat d’un dégradé d’une luminosité de 25% au noir. Soit, en 8 bits, de (64,64,64) vers (0,0,0). Sur 1024 pixels, tu te retrouves alors avec une succession de bandes de 16 pixels de large (102464 = 16) au lieu du magnifique dégradé attendu.







$ file democ.png

democ.png: PNG image data, 1600 x 1200, 8-bit colormap, non-interlaced



Edit: en noir et blanc ça change rien, enfin faut quand même forcer sur le gamma pour voir apparaître les bandes

Edit2:C’est quoi l’utilité d’un canal alpha pour un écran ? (post 7)



Moi je les vois très bien les bandes, et sur 2 écrans différents. Sur celui-ci, je les vois presque jusqu’en bas et j’en vois même certaines bien fourmiller à cause du dithering (première fois que je le vois aussi nettement), alors que d’autre sont bien unies.


le prix le prix :)








Inodemus a écrit :



On arrive vraiment à voir une différence entre 8 et 10 bits par canal ? Je demande en amateur, je ne suis pas graphiste ou autre…







10bit ok, même 16 juste histoire d’avoir une norme “à atteindre d’ici 20ans”



mais RGB-A………???

sauf si tu veux un écran transparent, ça ne veut rien dire vu que le canal Alpha est géré coté logiciel



les sub-pixel ça sera toujours de l’RGB en hardware










moxepius a écrit :



$ file democ.png

democ.png: PNG image data, 1600 x 1200, 8-bit colormap, non-interlaced





Parce que l’encodeur PNG a détecté que moins de 256 couleurs étaient nécessaires. Et pour cause puisque tu n’en n’as que 64. S’il y avait 256 teintes différentes les bandes feraient 4 pixels de hauteur et non 16. Amuse-toi à en créer un en 24 bits si tu préfères, le résultat sera exactement le même, au pixel près.





Edit2:C’est quoi l’utilité d’un canal alpha pour un écran ? (post 7)



J’ai écrit : “un moniteur 10 bits par canal (R, G, B, A)” non pas pour dire que l’écran devrait avoir quatre canaux mais pour que tout le monde comprenne bien ce que “canal” veut dire.









Texas Ranger a écrit :



mais RGB-A………???

sauf si tu veux un écran transparent, ça ne veut rien dire vu que le canal Alpha est géré coté logiciel





Pour les moniteurs traditionnels, non, ça ne veut rien dire. Cela dit des écrans transparents verront sans doute le jour dans les années à venir : pare-brises, vitres, etc.









sniperdc a écrit :



Chouette l’ultra HD va faire plonger le tarif des dalle Full HD donc directement le tarif du produit fini.



Bientôt une télé Full HD 46” à 300€ ?







En même temps il y a quelques jours/semaines il y avait des 50” fullHD pour 400 euros, donc on en est pas si éloigné :).



Un moniteur 32” c’est pas fait pour jouer de toute façon, mais pour la télé, le graphisme, etc.



J’ai viré mon moniteur et branché mon PC directement sur ma télé 40”, depuis impossible de jouer correctement à un jeu c’est 2 fois trop grand :) Je pense que pour le jeu 22” ou 24” sont le max à pas dépasser.



Après au niveau de la résolution ça présage que du beau, mais est ce que du 4K sur un écran plus petit que 30” a vraiment un intérêt ?


Je joue et j’ai joué depuis des années sur mon 30” à une distance inférieur à un bras, et pourtant cela me va parfaitement ;).



Et mes amis qui jouent sur plus petit ne disent jamais autre chose que wahhh quand ils font un test de jeux chez moi, c’est une opportunité d’avoir surtout plus d’infos affichées à l’écran que sur un 24”.



Tout est une question de distance en fonction des ppp ainsi que de la capacité du jeux a augmenter le champ de vision rendu.








HarmattanBlow a écrit :



Tu joues toujours en 320*200 ?



D’ailleurs doublement de la résolution (et quadruplement du nombre de pixels) ne signifie pas quadruplement de tous les coûts : la géométrie reste inchangée, tu n’as pas à augmenter la taille des buffers intermédiaires (pour les ombres, les réflexions environnementales, etc), et une plus grande résolution t’épargne aussi bien des problèmes comme le filtrage bancal des textures de grillages.



Enfin, si tu considères qu’il faudra six ans pour que des moniteurs de ce genre se généralisent, la loi de Moore prédit que d’ici là les GPU seront capables de faire quatre fois plus de calculs par pixel avec quatre fois plus de pixels. Et en réalité la puissance des GPU a augmenté plus vite que la loi de Moore.







ha oui mince comme tu le dis si bien la ultraHD c’est quadruplement de la définition, disons que pour le reste t as pas tord, et ni moi parce que faudra bien une carte doublement plus puissante pour une définition X4, mois cela me gave de devoir installer un jour une alim 1Kw dans mon pc, j’ai un 24 pouces fullHD 3D, avoir un 27 tjr fullHD me suffirai amplement ! je vois pas l’intéret du 4K sur un ecran de PC ! vu les tailles de ceci !