Pour NVIDIA, le Tegra K1 Denver est capable de faire face aux CPU d'Intel

Pour NVIDIA, le Tegra K1 Denver est capable de faire face aux CPU d’Intel

Chiche ?

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

12/08/2014 4 minutes
54

Pour NVIDIA, le Tegra K1 Denver est capable de faire face aux CPU d'Intel

Alors qu'Intel vient de dévoiler de nouveaux détails sur ses processeurs Broadwell, NVIDIA a décidé d'en dire un peu plus sur l'évolution de son Tegra K1. Celle-ci exploitera en effet deux cœurs Denver compatibles 64 bits, que le caméléon nous promet comme exceptionnels.

Si les premiers produits exploitant une puce Tegra K1 de NVIDIA arrivent sur le marché, que ce soit au sein d'une tablette ou d'un Chromebook, on ne connait pour le moment que la première mouture de ce SoC. En effet, lors de son annonce en janvier dernier, le constructeur faisait savoir qu'une seconde mouture ferait son apparition. Ce sera ainsi la première à exploiter des cœurs Denver (ARM v8), fonctionnant en 64 bits. Un projet de longue date pour NVIDIA, qui commence à en dire plus à son sujet.

La grenouille et le bœuf : espérons que la fable se termine mieux pour NVIDIA

Il faut dire que certaines rumeurs faisaient état de son abandon. Le but est donc aussi de couper court à ces informations et de montrer qu'il y a bien du concret qui se prépare. Le second désir de NVIDIA est de montrer que les puces ARM qu'il est capable de concevoir sont à même de rentrer en concurrence avec celles de nos bons vieux PC. S'il ne faut pas s'emballer, et imaginer qu'un Tegra sera capable demain de faire face à un Core i7 ou même à un Broadwell-Y donné pour un TDP de quelques watts seulement, ce sont les Celeron et Pentium d'Intel qui sont visés.

NVIDIA Tegra K1 Denver
NVIDIA ose faire de grandes promesses pour son prochain Tegra K1 - Crédits : Tech Report

Pour preuve un graphique publié par nos confrères de Tech Report dans lequel on peut voir quelques tests sélectionnés sans doute assez opportunément par NVIDIA, afin de montrer que son Tegra K1 nouvelle version est capable de faire mieux qu'un Celeron N2910 (BayTrail) ou qu'un Celeron 2955U (Haswell). Des affirmations qu'il faudra vérifier, et pas seulement dans un test de navigateur et autres benchmarks, mais qui ont pour but de montrer que les solutions maison sont au-dessus de la mêlée et ne s'attaque pas à ces petites puces mobiles utilisées dans les smartphones, mais à bien plus costaud. Tout en étant bien plus économe en énergie, notamment grâce à des optimisations sur la gestion des états de veille, des tensions, des fréquences ou du power-gating.

 

Une bataille d'image qui durera le temps de l'arrivée de cette puce sur le marché et dans des produits concrets, mais qui ne devrait pas tarder à faire réagir la concurrence. 

Denver introduira de nombreuses optimisations

Mais outre ces quelques effets de manche, NVIDIA donne tout de même quelques détails plus concrets sur sa prochaine architecture mobile. Il est ainsi question de l'optimisation dynamique du code, qui permet de stocker des routines souvent exécutées dans une version optimisée via un cache de 128 Mo au sein de la mémoire principale.

 

NVIDIA Tegra K1 Denver

 

De quoi booster les performances sans besoin d'une gestion matériel selon le constructeur, qui promet de bons résultats sur du code souvent exploité ou non (l'optimisation est alors mise de côté), mais aussi lorsqu'un seul ou deux cœurs sont utilisés. Nul doute que tout cela sera très utile dans les benchmarks, espérons qu'il en sera de même dans une utilisation quotidienne.

 

NVIDIA annonce que les premiers produits exploitant cette version 64 bits de son Tegra K1 devraient être dévoilés (mais pas mis sur le marché ?) d'ici la fin de l'année, et qu'Android L sera bien entendu apte à en tirer parti. Il sera alors temps de se faire une idée plus précise de l'intérêt de cette nouvelle puce, attendue de longue date.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

La grenouille et le bœuf : espérons que la fable se termine mieux pour NVIDIA

Denver introduira de nombreuses optimisations

Commentaires (54)


j’espère que ca sera pas le dernier dinosaure



<img data-src=" />


Perso, j’attends de voir hein :o.








killer63 a écrit :



j’espère que ca sera pas le dernier dinosaure



<img data-src=" />









Ton ami et bien plus encore?



<img data-src=" />



Mouais, quand je vois le peu de différence dans les stats de leur truc comparé avec un pauvre proc d’iphone 5S vieux d’un an, je me pose quand même des questions.


Ouais enfin selon Nvidia les Tegra 1 & 2 étaient bon aussi <img data-src=" />








boglob a écrit :



Mouais, quand je vois le peu de différence dans les stats de leur truc comparé avec un pauvre proc d’iphone 5S vieux d’un an, je me pose quand même des questions.







Je me suis dit la même chose, c’est pas spécialement impressionnant <img data-src=" />



Nvidia qui troll intel…? J’ai du raté un episode…


Les résultats du Bay-Trail sur leur graph est assez étonnant…



Ces derniers, testés récemment sur H.fr, semblent capable de bien mieux que ça dans des tests plutôt orientés “Desktop”





De plus 3 des test présentés sont sur la bande passante mémoire…

Affiché dans la légende en “GB/s” mais sur les abscisses il n’y a qu’un “pourcentage”, encore un coup de marketing…



Et franchement Nvidia se pavaner qu’ils ont un meilleur contrôleur mémoire que Haswell ? Je demande franchement à voir par quel miracle !



Les deux qui m’ont mis la chanson de Denver dans la tête, la porte est la ====[ ]








Jean_Peuplus a écrit :



Je me suis dit la même chose, c’est pas spécialement impressionnant <img data-src=" />







C’est pareil à chaque sortie de Tegra, ils le sortent juste avant la nouvelle génération d’iPhone et leurs bench sont pas franchement au dessus de la génération précédente d’Apple <img data-src=" /><img data-src=" /><img data-src=" />









Mr.Nox a écrit :



Les deux qui m’ont mis la chanson de Denver dans la tête, la porte est la ====[ ]







Tu nous payes le voyage? <img data-src=" />



C’est demain qu’on verra Nvidia détrôner Intel sur le x86…Ils ont fait un bon CPU, faut pas non plus trop en faire…ce marketing de ouf..








arno53 a écrit :



Ouais enfin selon Nvidia les Tegra 1 & 2 étaient bon aussi <img data-src=" />







Les 2 & 3 doivent etre les plus utilisé, sur le 4 ils ont perdu pas mal de gros client.

Alors que le 4 devait etre la 8eme merveille du monde. Reste a voir ce qui a peché, le perf, les prix, peut etre une orientation trop graphique (le THD c’est bien mais les tablette sont vraiement pas orienté jeux)



S’il est passif comme la version 32bits du K1… miam.

Dans tous les cas ça devrait faire un proco très correct, peut-être une bonne brique de base pour remplacer avantageusement ma machine basée sur un proco AMD E-350 dont le ventilo recommence à faire des siennes?


Je reste toujours impressionné par les performances des soc ARM, en quelques années on a fait un bon prodigieux et il n’y a qu’à voir les jeux qui tournent sur les tablettes les plus puissantes pour s’en apercevoir. D’ici peu on sera au niveau d’une PS3 ou Xbox 360 dans un appareil mobile et ça c’est fort de mon point de vue.



L’acteur qui m’étonne le plus reste Apple, qui chaque année sort un soc qui met une fessée à ce qui se fait en face sans partir dans la surenchère de cœurs ou de Ram.

Les performances du A7 sont assez impressionnantes à ce titre et je me dis que si Apple nous sort un A8 4 cœurs sur Ipad avec 3go de Ram au cul, on peut se retrouver avec un petit monstre de puissance capable de satisfaire 90% des besoins des utilisateurs et ça c’est une belle avancée.








boglob a écrit :



Mouais, quand je vois le peu de différence dans les stats de leur truc comparé avec un pauvre proc d’iphone 5S vieux d’un an, je me pose quand même des questions.







En même temps, comme tous les ans, les puces d’Apple mettent une féssé à la concurrence.









Moebius13100 a écrit :



Je reste toujours impressionné par les performances des soc ARM, en quelques années on a fait un bon prodigieux et il n’y a qu’à voir les jeux qui tournent sur les tablettes les plus puissantes pour s’en apercevoir. D’ici peu on sera au niveau d’une PS3 ou Xbox 360 dans un appareil mobile et ça c’est fort de mon point de vue.



L’acteur qui m’étonne le plus reste Apple, qui chaque année sort un soc qui met une fessée à ce qui se fait en face sans partir dans la surenchère de cœurs ou de Ram.

Les performances du A7 sont assez impressionnantes à ce titre et je me dis que si Apple nous sort un A8 4 cœurs sur Ipad avec 3go de Ram au cul, on peut se retrouver avec un petit monstre de puissance capable de satisfaire 90% des besoins des utilisateurs et ça c’est une belle avancée.







C’est vrai que c’est dingue les progrès d’ARM depuis 2007, on est passé de la lecture confortable de l’internet mobile au jeux vidéo HD en 7 ans.









jojofoufou a écrit :



En même temps, comme tous les ans, les puces d’Apple mettent une féssé à la concurrence.







Ce qu’il faut pas lire ici … <img data-src=" />









FRANCKYIV a écrit :



Ce qu’il faut pas lire ici … <img data-src=" />







si concurrence = Nvidia c’est pas faux <img data-src=" />



Après face a Qualcomm le tout les ans est faux oui.









Leum a écrit :



Tu nous payes le voyage? <img data-src=" />







Il dit qu’il n’y a plus de sous. <img data-src=" />









Mr.Nox a écrit :



Il dit qu’il n’y a plus de sous. <img data-src=" />







Oh bah zut!









Moebius13100 a écrit :



Je reste toujours impressionné par les performances des soc ARM, en quelques années on a fait un bon prodigieux et il n’y a qu’à voir les jeux qui tournent sur les tablettes les plus puissantes pour s’en apercevoir. D’ici peu on sera au niveau d’une PS3 ou Xbox 360 dans un appareil mobile et ça c’est fort de mon point de vue.



L’acteur qui m’étonne le plus reste Apple, qui chaque année sort un soc qui met une fessée à ce qui se fait en face sans partir dans la surenchère de cœurs ou de Ram.

Les performances du A7 sont assez impressionnantes à ce titre et je me dis que si Apple nous sort un A8 4 cœurs sur Ipad avec 3go de Ram au cul, on peut se retrouver avec un petit monstre de puissance capable de satisfaire 90% des besoins des utilisateurs et ça c’est une belle avancée.





C’est oublier que le hardware 360 / PS3 a 10 ans… Heureusement qu’en 10 ans, on a été capable d’améliorer le rapport performances / chaleur / conso.









Nathan1138 a écrit :



C’est oublier que le hardware 360 / PS3 a 10 ans… Heureusement qu’en 10 ans, on a été capable d’améliorer le rapport performances / chaleur / conso.







Oui je suis bien d’accord mais il faut quand même mettre les choses en perspective et se dire que bientôt on aura une PS3 dans le creux de la main c’est quand même impressionnant.

D’autant que la vitesse à laquelle les performances augmentent, on peut s’attendre à rattraper la courbe d’évolution des consoles et à atteindre la parité en terme de capacités dans un futur proche.

Rappelons nous qu’il y a 10 ans en arrière c’était encore un peu de la science fiction tout ça et qu’aujourd’hui on a internet et les connaissances qui vont avec dans un téléphone.



J’ai entendu le rire gras d’Intel jusque chez moi…<img data-src=" />


Si quelqu’un est capable de m’expliquer le graphique parce qu’une courbe en pourcentage alors que le 100% correspond a quelque chose que l’on ne connait même pas ça veut pas dire grand chose pour moi…








FRANCKYIV a écrit :



Ce qu’il faut pas lire ici … <img data-src=" />





Même toi au fond tu leur donnes raison… Donc, oui, on peut le dire.









bojack9512 a écrit :



Si quelqu’un est capable de m’expliquer le graphique parce qu’une courbe en pourcentage alors que le 100% correspond a quelque chose que l’on ne connait même pas ça veut pas dire grand chose pour moi…







C’est pour avoir un ordre de grandeur de la différence de perfs. Le 100% correspond au score DMIPS de l’Haswell testé.









bojack9512 a écrit :



Si quelqu’un est capable de m’expliquer le graphique parce qu’une courbe en pourcentage alors que le 100% correspond a quelque chose que l’on ne connait même pas ça veut pas dire grand chose pour moi…





Cela s’appelle un graphique bullshitomarketing. Bref, ya rien à comprendre<img data-src=" />



Sans être méchant depuis le temps X années que nvidia dit que son nouveau proc casse la baraque , on devrait être submergé par des tegra , pourtant je vois que du qualcomm ou mediatek de partout , j’ai raté un truc ?








Dacoco974 a écrit :



J’ai entendu le rire gras d’Intel jusque chez moi…<img data-src=" />





… et pourtant même le k1 32bits n’est pas si loin.



cf les benchs comparatifs de phoronix.

(j’ai posté les liens en commentaire sur la news du chromebook13 d’Acer, la flemme de refaire la même ici).



Bref, leur Denver, je veux bien croire qu’il va aller chatouiller les cpu entrée ou milieu de gamme des constructeurs de cpu traditionnels côté perfs…

wait & see :)









FRANCKYIV a écrit :



Ce qu’il faut pas lire ici … <img data-src=" />







Un seul bench, ou une puce Apple est derrière les puces concurrentes à sa sortie ?









jojofoufou a écrit :



Un seul bench, ou une puce Apple est derrière les puces concurrentes à sa sortie ?





depuis quand les bench sont objectifs ? je precise bien quelque soit le sens ^^ <img data-src=" />









vloz a écrit :



Nvidia qui troll intel…? J’ai du raté un episode…









Moebius13100 a écrit :



Oui je suis bien d’accord mais il faut quand même mettre les choses en perspective et se dire que bientôt on aura une PS3 dans le creux de la main c’est quand même impressionnant.

D’autant que la vitesse à laquelle les performances augmentent, on peut s’attendre à rattraper la courbe d’évolution des consoles et à atteindre la parité en terme de capacités dans un futur proche.

Rappelons nous qu’il y a 10 ans en arrière c’était encore un peu de la science fiction tout ça et qu’aujourd’hui on a internet et les connaissances qui vont avec dans un téléphone.





Hé! faut pas déconner non plus. Il y a 10ans, les smartphone existait déjà, Windows phone était déjà à sa 5ième version, blackberry dominait le marché.



Sinon, pour les jeux, regarde bien, en particulier au niveau des ombre, tu verras l’arnaque. En faite, la plupart des ombres sont pré-calculé et statique. La lumière n’est pas dynamique.









feuille_de_lune a écrit :



depuis quand les bench sont objectifs ? je precise bien quelque soit le sens ^^ <img data-src=" />







Bah vu que c’est Samsung et pas Apple qui triche, ça donne une idée ;)









tazvld a écrit :



Hé! faut pas déconner non plus. Il y a 10ans, les smartphone existait déjà, Windows phone était déjà à sa 5ième version, blackberry dominait le marché.



Sinon, pour les jeux, regarde bien, en particulier au niveau des ombre, tu verras l’arnaque. En faite, la plupart des ombres sont pré-calculé et statique. La lumière n’est pas dynamique.







Je suis désolé mais en 2004 il était difficilement imaginable qu’on se retrouverait avec un jeu comme infinity blade dans sa proche ou même que nos Smartphone seraient capables de faire ce qu’ils font aujourd’hui.

Iil y a 10 ans sortait à peine le Motorola Razr, la mode c’était les clapets et le Full HD sur un écran de portable un doux rêve.

Donc tu es peut être blazé mais personnellement je m’émerveille constamment du progrès technique dans ces domaines <img data-src=" />









lateo a écrit :



… et pourtant même le k1 32bits n’est pas si loin.



cf les benchs comparatifs de phoronix.

(j’ai posté les liens en commentaire sur la news du chromebook13 d’Acer, la flemme de refaire la même ici).



Bref, leur Denver, je veux bien croire qu’il va aller chatouiller les cpu entrée ou milieu de gamme des constructeurs de cpu traditionnels côté perfs…

wait & see :)





Hum ok il est pas mal mais c’est pas un i3 330 m quand même…<img data-src=" />



De plus…ça sert à quoi au fait cette puissance dans un smartphone?



Parce que vu l’utilisation qu’en font la plupart des gens (facebook, banque, news, angry birds)… je ne vois pas trop l’intérêt…<img data-src=" />









lateo a écrit :



S’il est passif comme la version 32bits du K1… miam.

Dans tous les cas ça devrait faire un proco très correct, peut-être une bonne brique de base pour remplacer avantageusement ma machine basée sur un proco AMD E-350 dont le ventilo recommence à faire des siennes?







Sinon tu sais que tu as le droit de changer le ventilo? <img data-src=" />









Leum a écrit :



Bah vu que c’est Samsung et pas Apple qui triche, ça donne une idée ;)





Ils trichent tous <img data-src=" /> c’est juste qu’Apple ne s’est pas fait prendre <img data-src=" />









feuille_de_lune a écrit :



Ils trichent tous <img data-src=" /> c’est juste qu’Apple ne s’est pas fait prendre <img data-src=" />







Mignon le troll, mais je vais pas le nourrir ;)









Moebius13100 a écrit :



Je suis désolé mais en 2004 il était difficilement imaginable qu’on se retrouverait avec un jeu comme infinity blade dans sa proche ou même que nos Smartphone seraient capables de faire ce qu’ils font aujourd’hui.

Iil y a 10 ans sortait à peine le Motorola Razr, la mode c’était les clapets et le Full HD sur un écran de portable un doux rêve.

Donc tu es peut être blazé mais personnellement je m’émerveille constamment du progrès technique dans ces domaines <img data-src=" />





Dans le même genre, il y a 10ans (un tout petit peu moins) d’écart entre une super NES et une PS2.

La loi de Moore, la démocratisation des smartphones ont joué pas mal dans l’effet “wahoua”. Mais en soit, il y a un peu plus de 10ans, je me rappelle avoir vu un Nokia communicator et m’être dit que ça, c’était l’avenir. Ayant déjà vu l’explosion du PC depuis le début des année 90 (même pas 1 foyer sur 20 en avait à cette époque), je savais que ça irait loin. Donc du coup, je ne me considère pas comme quelqu’un de blazé, mais à me dire que ouai, c’est normal.

Sinon, fait bien attention avec des jeux comme infinity blade, il faut voir qu’il y a pas mal de petites astuces pour améliorer le rendu avec peu de moyen (typiquement, les ombres précalculé), ce sont des astuces que l’on avait pas forcément il y a 10ans.










loser a écrit :



Sinon tu sais que tu as le droit de changer le ventilo? <img data-src=" />





Voui, mais je consomme, tu consommes… <img data-src=" />

La machine avec le petit APU AMD peut toujours être réutilisée plus facilement que ma vieille grosse tour bruyante et énergivore qui dort dans un coin depuis au moins 2 ans.









Winston67 a écrit :



Sans être méchant depuis le temps X années que nvidia dit que son nouveau proc casse la baraque , on devrait être submergé par des tegra , pourtant je vois que du qualcomm ou mediatek de partout , j’ai raté un truc ?







Oui, tu as raté le passage où ni la qualité ni les perfs ne font les PDM, les linuxiens peuvent te faire un topo <img data-src=" /> Attention, je ne dis pas que le Tegra est trop de la mort et tout mais il y a d’autres facteurs qui rentrent en jeu. Et tu cites Mediatek d’ailleurs, qui a inondé le marché chinois de ses puces pas chers et très pourries niveau perfs, il y avait/a un marché, ils se sont placés et maintenant, ils commencent à jouer aussi dans d’autres gammes.







lateo a écrit :



… et pourtant même le k1 32bits n’est pas si loin.



cf les benchs comparatifs de phoronix.

(j’ai posté les liens en commentaire sur la news du chromebook13 d’Acer, la flemme de refaire la même ici).



Bref, leur Denver, je veux bien croire qu’il va aller chatouiller les cpu entrée ou milieu de gamme des constructeurs de cpu traditionnels côté perfs…

wait & see :)







Mouais, ça chatouille un celeron qui a les perfs d’un core 2 duo e6600, un milieu de gamme d’il y a 8 ans, Intel peut dormir tranquille, même AMD peut (pour l’instant ? <img data-src=" /> ).









Dacoco974 a écrit :



Mouais, ça chatouille un celeron qui a les perfs d’un core 2 duo e6600, un milieu de gamme d’il y a 8 ans, Intel peut dormir tranquille, même AMD peut (pour l’instant ? <img data-src=" /> ).







Sauf que là tu penses perfs brutes …

Les plates formes mobiles Android et Apple n’ont pas besoin d’un porte avion pour pêcher une sardine … Madame et monsieur Michu l’ont bien compris en se ruant sur les tablettes et 99 % de leurs besoins sont comblés…

Ce qui est d’ailleurs un problème pour le renouvellement du parc en place car si tout fonctionne bien pourquoi changer !

Un ipad 1 est encore au top pour une utilisation classique surf/appli/petits jeux gratos.

Tu as tort de penser qu’Intel ou AMD dorment tranquille, ils ont louper le virage et galère aujourd’hui pour combler leur retard et les petits nouveaux poussent comme des malades.









icelab a écrit :



Sauf que là tu penses perfs brutes …

Les plates formes mobiles Android et Apple n’ont pas besoin d’un porte avion pour pêcher une sardine … Madame et monsieur Michu l’ont bien compris en se ruant sur les tablettes et 99 % de leurs besoins sont comblés…

Ce qui est d’ailleurs un problème pour le renouvellement du parc en place car si tout fonctionne bien pourquoi changer !

Un ipad 1 est encore au top pour une utilisation classique surf/appli/petits jeux gratos.

Tu as tort de penser qu’Intel ou AMD dorment tranquille, ils ont louper le virage et galère aujourd’hui pour combler leur retard et les petits nouveaux poussent comme des malades.





Note que windows non plus n’a pas besoin d’un porte avion…il suffit de le mettre sur un SSD pour voir une énorme différence.<img data-src=" />









Alucard63 a écrit :



Note que windows non plus n’a pas besoin d’un porte avion…il suffit de le mettre sur un SSD pour voir une énorme différence.<img data-src=" />







Oui je sais, j’aime bien l’effet Wahoo quand j’en installe un chez un client :)

Mais regarde le prix d’un PC équipé d’un SSD sorti du carton, on est bien loin du prix d’achat moyen d’un PC en France … et très très loin du prix d’une tablette !









icelab a écrit :



Sauf que là tu penses perfs brutes …

Les plates formes mobiles Android et Apple n’ont pas besoin d’un porte avion pour pêcher une sardine … Madame et monsieur Michu l’ont bien compris en se ruant sur les tablettes et 99 % de leurs besoins sont comblés…

Ce qui est d’ailleurs un problème pour le renouvellement du parc en place car si tout fonctionne bien pourquoi changer !

Un ipad 1 est encore au top pour une utilisation classique surf/appli/petits jeux gratos.

Tu as tort de penser qu’Intel ou AMD dorment tranquille, ils ont louper le virage et galère aujourd’hui pour combler leur retard et les petits nouveaux poussent comme des malades.







La personne à qui je répondais parlait de perfs d’où ma réponse ^^ Sinon, je trouve absurde le titre de la news (enfin, la déclaration d’nVidia) et le bench, ça ne joue pas dans la même cour et ça ne sert pas à la même chose. Le Celeron utilisé dans le bench fait justement le chemin inverse de celui d’nVidia, Intel tranche dans le lard pour faire un truc plus faible mais autonome et nVidia va dans l’autre sens et augmente les perfs.









Dacoco974 a écrit :



Mouais, ça chatouille un celeron qui a les perfs d’un core 2 duo e6600, un milieu de gamme d’il y a 8 ans, Intel peut dormir tranquille, même AMD peut (pour l’instant ? <img data-src=" /> ).







Certes, mais implicitement on (enfin en tout cas je) place la compet’ sur le segment “basse conso”. Tablettes, chromebooks…

Et là les histoires de chatouilles n’ont rien d’un troll. Enfin amha.









Dacoco974 a écrit :



La personne à qui je répondais parlait de perfs d’où ma réponse ^^ Sinon, je trouve absurde le titre de la news (enfin, la déclaration d’nVidia) et le bench, ça ne joue pas dans la même cour et ça ne sert pas à la même chose. Le Celeron utilisé dans le bench fait justement le chemin inverse de celui d’nVidia, Intel tranche dans le lard pour faire un truc plus faible mais autonome et nVidia va dans l’autre sens et augmente les perfs.









Je suis entièrement en accord avec toi.

Si j’ai un souci, c’est plus envers les médias spécialisés mobilité du type Frandroid et autres qui se gargarisent de ces benchs à la <img data-src=" /> !

Il y a comme un mimétisme qui s’opère avec le monde du PC qui est aberrant dans la course à celui qui aura la plus grosse.

Du coup quand je vois bench je vois rouge <img data-src=" />









Alucard63 a écrit :



De plus…ça sert à quoi au fait cette puissance dans un smartphone?



(…)





Dans un smartphone cette puissance est très peu utile au commun des mortel. Par contre sur une tablette comme la Galaxy Note Pro 12, les SoC puissant ne sont pas un luxe, surtout si t’utilise des soft comme LayerPaint ou Clover Paint<img data-src=" />









Alkore a écrit :



Dans un smartphone cette puissance est très peu utile au commun des mortel. Par contre sur une tablette comme la Galaxy Note Pro 12, les SoC puissant ne sont pas un luxe, surtout si t’utilise des soft comme LayerPaint ou Clover Paint<img data-src=" />







Gasp, ces applis mettent à mal la Galaxy Note Pro 12 ?

On en a une en test à l’agence v matter cela demain, je pensais pas que c’était aussi mal codé.









icelab a écrit :



Gasp, ces applis mettent à mal la Galaxy Note Pro 12 ?

On en a une en test à l’agence v matter cela demain, je pensais pas que c’était aussi mal codé.





C’est surtout Touchwise qui met à mal les device Samsung<img data-src=" />

Sur les image en haute définition, l’application de certains effets/filtres utilisent à fond la puissance du SoC. <img data-src=" />









tazvld a écrit :



Dans le même genre, il y a 10ans (un tout petit peu moins) d’écart entre une super NES et une PS2.

La loi de Moore, la démocratisation des smartphones ont joué pas mal dans l’effet “wahoua”. Mais en soit, il y a un peu plus de 10ans, je me rappelle avoir vu un Nokia communicator et m’être dit que ça, c’était l’avenir. Ayant déjà vu l’explosion du PC depuis le début des année 90 (même pas 1 foyer sur 20 en avait à cette époque), je savais que ça irait loin. Donc du coup, je ne me considère pas comme quelqu’un de blazé, mais à me dire que ouai, c’est normal.

Sinon, fait bien attention avec des jeux comme infinity blade, il faut voir qu’il y a pas mal de petites astuces pour améliorer le rendu avec peu de moyen (typiquement, les ombres précalculé), ce sont des astuces que l’on avait pas forcément il y a 10ans.







Certes mais au final si sans le savoir je ne peux pas distinguer l’ombre précalculé de l’ombre temps réelle qu’elle importance ? Le plus important c’est le ressenti, après la cuisine qu’il y a derrière c’est secondaire et ça Apple l’a par exemple bien compris en privilégiant l’expérience utilisateur avant tout, avec une UI prépondérante et un système qui en fait moins que chez le concurrent direct mais qui offre un meilleur ressenti (je parle pour moi je n’en fais pas une généralité)









Alkore a écrit :



C’est surtout Touchwise qui met à mal les device Samsung<img data-src=" />

Sur les image en haute définition, l’application de certains effets/filtres utilisent à fond la puissance du SoC. <img data-src=" />







Je confirme ce que tu dis et je n’ai même pas eu besoin d’installer les applis dont tu parlais. A vide sans rien en fond de tache, la tablette à des micro-ralentissements rien que pour changer de bureau ou au lancement d’applis que je connais déjà …

Un modèle à éviter !









icelab a écrit :



Je confirme ce que tu dis et je n’ai même pas eu besoin d’installer les applis dont tu parlais. A vide sans rien en fond de tache, la tablette à des micro-ralentissements rien que pour changer de bureau ou au lancement d’applis que je connais déjà …

Un modèle à éviter !





Non, elle est n’est pas à éviter car avec son digitizer S-Pen by Wacom, c’est un très bon outils pour tt ce qui est graphisme.<img data-src=" />

Pour les ralentissement, cela se règle en installant un launcher alternatif (Nova, Apex etc…) car Touchwiz est vraiment lourdingue (Samsung autant il excelle en hardware autant ils sont à la ramasse en software)<img data-src=" />

Et d’une façon générale, il faudra attendre les Snapdragon S805 et autre Tegra K1 pour gérer parfaitement le QHD<img data-src=" />