Wayne : que cache le futur Tegra 4 de NVIDIA ?

Wayne : que cache le futur Tegra 4 de NVIDIA ?

Oh Wayne the saint...

Avatar de l'auteur
Damien Labourot

Publié dans

Sciences et espace

19/12/2012 5 minutes
28

Wayne : que cache le futur Tegra 4 de NVIDIA ?

Alors que NVIDIA devrait profiter du CES en janvier prochain pour dévoiler le successeur de son Tegra 3, un document apparu sur les forums de ChipHell, nous indique ce que pourrait être le futur Tegra 4. De celui-ci, on ne connaissait pour l'instant que le nom de code : Wayne.

Après un très populaire SoC Tegra 3 que l'on retrouve au sein de nombreuses tablettes comme la Nexus 7 ou sur des smartphones tels que le HTC One X, pour ne citer que ces deux-là, NVIDIA dévoilera la suite pendant le CES de Las Vegas qui se tiendra du 8 au 11 janvier prochain. Connu sous le nom de code Wayne, cette puce qui devrait en toute logique se nommer Tegra 4, reprendrait une partie des éléments que l'on retrouve au sein de la précédente mouture : quatre coeurs accompagnés d'un « Companion core » moins performant et moins gourmand, qui s'occupera des basses besognes.

 

Si pour le moment nous ne savons pas quel type d'architecture ARM NVIDIA va exploiter pour ce SoC, il ne fait quasiment aucun doute qu'il s'agira du Cortex A15, que l'on retrouve déjà au sein des Exynos 5 Dual 5250 de Samsung, et qui devrait se déployer durant l'année 2013 chez les différents fabricants. Il faudra voir aussi ce qu'exploite le « Battery Saver Core » que l'on connait sous le nom de « Companion Core » sur l'actuel Tegra 3.

 

NVIDIA Tegra 4 Wayne

Crédits : Chiphell

 

Toujours est-il qu'une finesse de gravure en 28 nm HPL (High-K Metal-Gate) serait utilisée et devrait permettre des gains significatifs en terme de consommation par rapport au Tegra 3 qui exploitait de son côté le 40 nm. Il faut dire que les fondeurs peinent pour le moment à passer sous cette barrière, mais l'on devrait donc tout de même constater un gain notable sur ce point.

Des performances GPU revues nettement à la hausse

Comme on peut le voir sur le document ci-dessus, le caméléon en profiterait aussi pour ajouter un contrôleur mémoire double canal (DDR2, LPDDR3 ou DDR3), qui manquait cruellement sur la précédente génération et qui permettait à Qualcomm avec son architecture Krait de prendre le dessus dans de nombreux tests. Un bénéfice qui devrait en toute vraisemblance profiter autant à la partie CPU que GPU.

 

Si le document s'avère exact, la partie graphique offrirait des gains de performances relativement conséquents avec un facteur x20 par rapport à Tegra 2, mais surtout un x6 par rapport à Tegra 3. Reste bien entendu à voir ce que cela donne en pratique, puisqu'il s'agit souvent de chiffres bruts, qui ne reflètent pas vraiment des gains directs en terme de FPS dans les jeux. Il sera aussi intéressant d'analyser le positionnement face à l'A6X d'Apple, qui règne quasiment sans égal pour le moment.

Définition de 2560 x 1600 px pour l'écran, le 4K pour la sortie HDMI et de l'USB 3.0

La décompression de vidéo devrait être à l'honneur puisque l'on passerait au-delà du 1080p pour du 1440p, les vidéos exploitant VP8, le codec poussé par Google, seraient aussi prises en charge. Cela sera aussi le cas du H.264 en High-Profile, ce qui était déjà le cas au sein du Tegra 3. Il faudra sans doute attendre la mouture suivante pour le H.265, dont la version finale devrait être publiée durant le mois de janvier.

 

Du côté des écrans, on peut voir que NVIDIA prépare l'arrivée de concurrentes à la Nexus 10, puisque le caméléon permettrait d'exploiter des dalles ayant une définition allant jusqu'à 2560 x 1600 pixels sur une profondeur de couleurs de 24 bits. Notez que le 1080p serait quant à lui supporté jusqu'à 120 Hz, de quoi voir arriver des tablettes 3D Vision ? En outre, la sortie HDMI offrirait le support du 4K qui devrait commencer à être disponible sur les téléviseurs haut de gamme durant cette année 2013.

 

L'USB 3.0 devrait aussi être de la partie, ce qui pourrait permettre des taux de transferts nettement plus élevés que ce que l'on obtient aujourd'hui dès lors que l'on connecte une ardoise à un PC récent. Reste à voir si les fabricants exploiteront ou non ce type d'interface rapide sur leurs modèles.

 

Absence de connectivité 3G / 4G ?

Enfin, on pourra s'étonner de l'absence de connectivité 3G / 4G au sein de la puce. Cela pourrait indiquer que, comme pour Tegra 3, on devrait surtout voir des tablettes exploiter cette puce Wayne dans un premier temps. Mais cette fois, les choses pourraient changer assez rapidement puisque le caméléon s'est offert Icera en juin 2011 et compte bien proposer une solution complète pour les smartphones connue sous le nom de code Grey.

 

Reste à voir si ce second produit sera lui aussi évoqué durant le CES ou s'il faudra attendre le CeBIT (en mars) ou le Computex (en juin) pour en savoir plus.

Écrit par Damien Labourot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Des performances GPU revues nettement à la hausse

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (28)


Ca n’a pas l’air mal sur le papier…



Apres un Tegra 2 sans NEON

et un Tegra 3 énergivore



Quelles surprise pourrait bien nous réserver cette nouvelle mouture ?


Des performances graphiques au top ?



C’est cool, mais si on pouvait se concentrer sur le tout venant et rendre le surf plus fluide je préférerai.


C’est assez évident. Ce que cache Wayne, c’est qu’en réalité, c’est Batman.









Tiens, j’ai trouvé la sortie …








CR_B7 a écrit :



Des performances graphiques au top ?



C’est cool, mais si on pouvait se concentrer sur le tout venant et rendre le surf plus fluide je préférerai.





Et la durée d’une charge de plus d’un jour aussi…

Pour jouer à des jeux “tro lé grafism ki déchir” j’ai un PC. Pour un portable, j’aimerais bien, pour une fois depuis 4 ans, ne pas avoir à le recharger une fois par jour…



OH le sous titre ! ! ! ! !

Quelle créativité



http://www.youtube.com/watch?v=wyLjbMBpGDA&hl=fr&gl=FR


Le sous titre<img data-src=" /><img data-src=" /><img data-src=" />

Sinon pour la puce a voir une fois sortie, et le “battery saver core”, il fait quoi pour diminuer la conso?








blob741 a écrit :



C’est assez évident. Ce que cache Wayne, c’est qu’en réalité, c’est Batman.



Tiens, j’ai trouvé la sortie …







<img data-src=" /> Ça cache plus un shériff armé d’un six-coups <img data-src=" />







Attends moi ! <img data-src=" />



Et par rapport aux Qualcomm… ?








blob741 a écrit :



C’est assez évident. Ce que cache Wayne, c’est qu’en réalité, c’est Batman.









Tiens, j’ai trouvé la sortie …







<img data-src=" /> <img data-src=" />





Oh Wayne the saint…





NVIDIA : “Go marging in !”








NocuD a écrit :



NVIDIA : “Go marging in !”





<img data-src=" />



John Shaft a écrit :



<img data-src=" /> Ça cache plus un shériff armé d’un six-coups <img data-src=" />







Attends moi ! <img data-src=" />





<img data-src=" /> aux deux allez…









frscot a écrit :



Le sous titre<img data-src=" /><img data-src=" /><img data-src=" />

Sinon pour la puce a voir une fois sortie, et le “battery saver core”, il fait quoi pour diminuer la conso?







Il fait rien, comme ça il consomme rien.





Tiens, la sortie est encombrée…



Intéressant <img data-src=" />




De celui-ci, on ne connaissait pour l’instant que le nom de code : Wayne.





Because it’s Batman





EDIT: bon évidement j’ai été devancé.








blob741 a écrit :



C’est assez évident. Ce que cache Wayne, c’est qu’en réalité, c’est Batman.









Tiens, j’ai trouvé la sortie …







Il est pas très bien caché batman faut dire, tout le monde est au courant, sauf un flic <img data-src=" />



on vera au CES l’anatomie de Grey ? :p








Cypus34 a écrit :



Et la durée d’une charge de plus d’un jour aussi…

Pour jouer à des jeux “tro lé grafism ki déchir” j’ai un PC. Pour un portable, j’aimerais bien, pour une fois depuis 4 ans, ne pas avoir à le recharger une fois par jour…







Voilà quelqu’un d’optimiste ;-) Comme tu le dis, depuis 4 ans les smartphones ne tiennent jamais plus d’une grosse journée sauf à désactiver les synchros data et à ne pas jouer souvent.



Ceci dit je trouve qu’il se recharge assez vite quand même



La première image de la news est censé être une image “officielle” nvidia? <img data-src=" />








night57200 a écrit :



La première image de la news est censé être une image “officielle” nvidia? <img data-src=" />





Mouai, enfin vu que ca sort tout droit d’un forum chinois, j’emets quelques doutes. Ca ne veut pas dire que ce qu’il y a dessus est faux, mais je trouve que l’emploi du nom de code interne a ARM de Cortex-A15 est etrange, ou alors c’etait un slide interne de chez nVidia auquel cas il y aurait du y avoir une mention en bas du slide disant qu’il s’agit d’infos internes/confidentielles.









ldesnogu a écrit :



Mouai, enfin vu que ca sort tout droit d’un forum chinois, j’emets quelques doutes. Ca ne veut pas dire que ce qu’il y a dessus est faux, mais je trouve que l’emploi du nom de code interne a ARM de Cortex-A15 est etrange, ou alors c’etait un slide interne de chez nVidia auquel cas il y aurait du y avoir une mention en bas du slide disant qu’il s’agit d’infos internes/confidentielles.





image qui a certainement été tronquée / découpée ;)









labdam a écrit :



image qui a certainement été tronquée / découpée ;)





C’est bien possible oui, mais laisser ces petites annotations si juteuses qu’on nous colle sur les pres internes aurait donne un petit parfum d’authenticite qui manque un peu a mon gout <img data-src=" />









ldesnogu a écrit :



C’est bien possible oui, mais laisser ces petites annotations si juteuses qu’on nous colle sur les pres internes aurait donne un petit parfum d’authenticite qui manque un peu a mon gout <img data-src=" />





Certes, mais c’est très ressemblant à ce que l’on attend de la puce Tegra 4 ;)









labdam a écrit :



Certes, mais c’est très ressemblant à ce que l’on attend de la puce Tegra 4 ;)





Ha mais je l’ai dit : je ne remets pas en cause les infos :) En tout cas la partie CPU est assez proche de ce a quoi je m’attendais.



Cote GPU je suis un peu dubitatif : le x6 et les 72 coeurs sous-entendent qu’on a exactement les memes unites que sur T3 ainsi que la meme frequence. Tres etrange.









ninjafada a écrit :



on vera au CES l’anatomie de Grey ? :p





On sait même pas encore si il Icera… <img data-src=" />









ninjafada a écrit :



on vera au CES l’anatomie de Grey ? :p







Oui, 50 shades <img data-src=" />





—&gt;Je sors aussi









ldesnogu a écrit :



Cote GPU je suis un peu dubitatif : le x6 et les 72 cœurs sous-entendent qu’on a exactement les mêmes unités que sur T3 ainsi que la même fréquence. Très étrange.





Oui et non … ça peut paut-être s’expliquer <img data-src=" />

En multipliant par 6 le nombre d’unités du GPU (6x12=72), on multiplie aussi par 6 sa consommation à gravure constante …

Hors, même si elle a bien été réduite de 40 à 28 nm, ça ne suffit peut être pas pour permettre une augmentation de fréquence tout en restant dans un “TDP” acceptable … <img data-src=" />

Enfin, comme tu le dis si bien, y’a rien d’officiel ni de certain, et quand bien même, pas assez d’informations pour “faire” autre-chose que “des plans sur la comète” <img data-src=" />









Obelixator a écrit :



Oui et non …

En multipliant par 6 le nombre d’unités du GPU (6x12=72), on multiplie aussi par 6 sa consommation à gravure constante …

Hors, même si elle a bien été réduite de 40 à 28 nm, ça ne suffit peut être pas pour permettre une augmentation de fréquence tout en restant dans un “TDP” acceptable … <img data-src=" />





Tu as tout a fait raison. Mais ce que je trouve etrange c’est que ces “specs” sous-entendent que nVidia n’a pas change l’architecture de son GPU. Je pensais que c’etait prevu pour Wayne, mais c’est en fait peut-etre pour la generation suivante.



Hop une petite recherche :http://www.tomshardware.com/news/Nvidia-Tegra-Wayne-Grey-Icera,15407.html



The specs for “Wayne” include a 28-nm quad-core ARM Cortex-A15 MPCore plus an additional low power companion core (4-PLUS-1), clocked at 1.8 GHz for tablets and notebooks. Also thrown into the mix will be 24 GPU cores with support for DirectX 11.x, OpenGL 4.x and PhysX.



Et il me semble que le GPU actuel des T3 ne supporte pas DX11.



M’enfin bref, j’attends de voir, on verra bien <img data-src=" />









Obelixator a écrit :



Oui et non … ça peut paut-être s’expliquer <img data-src=" />

En multipliant par 6 le nombre d’unités du GPU (6x12=72), on multiplie aussi par 6 sa consommation à gravure constante …

Hors, même si elle a bien été réduite de 40 à 28 nm, ça ne suffit peut être pas pour permettre une augmentation de fréquence tout en restant dans un “TDP” acceptable … <img data-src=" />

Enfin, comme tu le dis si bien, y’a rien d’officiel ni de certain, et quand bien même, pas assez d’informations pour “faire” autre-chose que “des plans sur la comète” <img data-src=" />





Non, tu multiplie par 6 la consommation des unités correspondantes au pire des cas. Cela peut ne représenter que 20% de la consommation de la puce, et 5% de la consommation du téléphone (l’écran consomme sans doute bien plus que le reste), je donne des chiffres au hasard en mode scientifique wild ass guess, mais à mon avis en passant au 28nm la consommation générale de la puce devrait chuter (tout n’a pas été multiplié par 6)