AMD confirme l'arrivée du 20 nm pour 2015

AMD confirme l’arrivée du 20 nm pour 2015

Enfin un peu de nouveau ?

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

28/07/2014 3 minutes
31

AMD confirme l'arrivée du 20 nm pour 2015

Cela fait maintenant plusieurs années que le marché des cartes graphiques, mais aussi celui des CPU pour AMD, est bloqué sur une finesse de gravure de 28 nm. Si cela limite l'évolution des produits et creuse l'écart avec Intel, il faudra encore attendre 2015 pour que cela change, selon le père des Athlon et des Radeon.

Intel dispose de ses propres équipes et usines pour ce qui est de la fonderie de ses puces. Et le géant de Santa Clara est sans doute le leader de ce marché puisqu'il exploite du 22 nm depuis maintenant de nombreux mois et s'apprête à passer toute une partie de sa gamme en 14 nm. Un avantage de poids dans le monde de la mobilité, mais aussi plus simplement dans le rapport puissance / consommation / dissipation thermique de ses puces face à la concurrence.

 

En effet, tout le marché est encore en bonne partie limité à du 28 nm, seule la mémoire flash pour SSD étant produite à une finesse de gravure inférieure actuellement. L'autre géant du secteur, TSMC, devrait bientôt passer au 20 nm, ce qui sera notamment l'occasion de découvrir une nouvelle génération de GPU et de cartes graphiques chez NVIDIA et AMD, mais selon ce dernier, ce n'est pas pour tout de suite.

 

En effet, lors de la conférence téléphonique effectuée en marge de ses résultats financiers, Lisa Su, actuelle Vice-Présidente Senior et Directrice Exécutive, a indiqué que rien n'arriverait avant l'année prochaine. Elle a néanmoins confirmé que le passage au 20 nm était une étape importante, la société comptant l'exploiter pour toutes ses gammes de produits.

 

Cela va d'ailleurs dans le sens des derniers retours de TSMC, qui réalise actuellement plus d'un tiers de son chiffre d'affaires grâce au 28 nm et qui évoquait récemment le début de production de puces en 20 mn, qui devraient compter pour 10 et 20 % des ventes dans les deux prochains trimestres. NVIDIA n'a, de son côté, toujours rien indiqué sur ce point.

 

 

En 2010, AMD prévoyait le passage au 20nm pour ses CPU en 2014 et le 14 nm pour 2016

 

Reste maintenant à connaître le calendrier exact, et surtout le rendement de la production de TSMC, car c'est elle qui définira le tarif et la quantité de produits accessibles sur le marché chez les différents constructeurs. On se demande d'ailleurs ce qu'il en est de Global Foundries, qui promettait lui aussi une production en 20 nm cette année,  et du 14 nm assez rapidement du fait de son association avec Samsung.

 

Espérons d'ailleurs que le passage à l'étape suivante, le 16/14 nm, sera plus rapide que pour le passage de 28 nm à 20 nm. En effet, cela confère à Intel un avantage certain sur de nombreux marchés, et plus spécialement sur celui des smartphones et autres tablettes, où la concurrence va se faire de plus en plus forte dans les années à venir. Maîtriser la finesse de gravure et son évolution technique va être plus complexe dans les années à venir, mais sera ainsi un avantage de poids pour qui arrivera à se démarquer des autres.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (31)


Toujours pas de nouveaux CPU à l’horizon ? Mon phenom II x2 a encore de beaux jours devant lui. <img data-src=" />


Il était temps qu’AMD se remue le derrière…

Parce que là, Intel, est déjà partit loin devant…








Aces a écrit :



Il était temps qu’AMD se remue le derrière…

Parce que là, Intel, est déjà partit loin devant…







En même temps, ce n’est pas eux qui décident …

Et vu le budget R&D d’AMD comparé à celui d’Intel, les chances de les rattraper sur le plan des performances brutes est proche de zéro.



Pourtant il y sont bien arrivé a un moment et la diff de budget était aussi comparable <img data-src=" />








pentest a écrit :



Toujours pas de nouveaux CPU à l’horizon ? Mon phenom II x2 a encore de beaux jours devant lui. <img data-src=" />





Mais de toute façon ça fait dix ans que la puissance CPU par coeur stagne, donc ton phenom sera toujours au top niveau perfs mono-coeur dans dix ans.



Maintenant pour avoir plus de puissance il n’y a que deux moyens :

* Utiliser plus de coeurs. Et ça stagne aussi (mais pas pour des raisons physiques).

* Utiliser le GPU. Et là en revanche l’architecture HSA d’AMD est une vraie innovation qui déchire sa mère. Sauf qu’évidemment il faut que les logiciels suivent et ça prendra du temps.



Et sans rentrer dans les détails, autant paralléliser est assez chiant aujourd’hui pour un gain pas si extraordinaire, autant la donne change pas mal quand tu as mille unités de calcul à ta disposition qui désormais peuvent vraiment coopérer avec le CPU grâce au partage mémoire et d’autres trucs sympatoches. Y a encore du boulot mais on y arrive et certains algos vont bientôt être entièrement revus pour ces APU (je parie pour commencer sur les ramasse-miettes de JS/Java/Dotnet/etc) et ne pourront pas correctement s’exécuter sans ce type de matos. Et vu que les nouvelles consoles ont ce genre de bestioles…









PrOY a écrit :



En même temps, ce n’est pas eux qui décident …

Et vu le budget R&D d’AMD comparé à celui d’Intel, les chances de les rattraper sur le plan des performances brutes est proche de zéro.





On disait la même chose à l’époque des K6-2 et ça n’a pas empêché AMD avec un R&D moindre de les dépasser en terme de performance brutes avec la génération Athlon et Athlon X2 64.









HarmattanBlow a écrit :



Mais de toute façon ça fait dix ans que la puissance CPU par coeur stagne, donc ton phenom sera toujours au top niveau perfs mono-coeur dans dix ans.





Heuu .. Ca fait 10 ans que tu n’as pas changé de CPU ?



Prend un E6600 et un I7 4670k, les perfs mono cœurs ne sont pas du même ordre. Tu dois presque pouvoir taper dans du *4, mais je suis d’accord pour dire que ca vient aussi de l’évolution de la RAM.









HarmattanBlow a écrit :



Maintenant pour avoir plus de puissance il n’y a que deux moyens :

* Utiliser plus de coeurs. Et ça stagne aussi (mais pas pour des raisons physiques).

* Utiliser le GPU. Et là en revanche l’architecture HSA d’AMD est une vraie innovation qui déchire sa mère. Sauf qu’évidemment il faut que les logiciels suivent et ça prendra du temps.







Là est tout le problème. Beaucoup de logiciels sont optimisés soit pour tirer toute la puissance de Intel Quick Sync Video ou CUDA. Ou un moins courant OpenCL.









Aces a écrit :



Il était temps qu’AMD se remue le derrière…

Parce que là, Intel, est déjà partit loin devant…









Aces a écrit :



On disait la même chose à l’époque des K6-2 et ça n’a pas empêché AMD avec un R&D moindre de les dépasser en terme de performance brutes avec la génération Athlon et Athlon X2 64.





C’est ça d’avoir vendu ses usines <img data-src=" /> Bon après, GF ne fait de toutes façons pas mieux de son côté en attendant.









Tkop a écrit :



Heuu .. Ca fait 10 ans que tu n’as pas changé de CPU ?



Prend un E6600 et un I7 4670k, les perfs mono cœurs ne sont pas du même ordre. Tu dois presque pouvoir taper dans du *4, mais je suis d’accord pour dire que ca vient aussi de l’évolution de la RAM.







Dix ans c’est certainement exagéré. Je viens de vérifier, mon Phenom II x2 a 5 ans. J’avoue avoir eu quelques doutes dans le domaine du jeu, mais cela semble ne pas avoir une quelconque influence avec une gtx660 OC et un upgrade à 16G de mémoire.



J’ai par contre changé mon alimentation passant d’une 650 watts à 750 watts.



Surf, MAO, jeux <img data-src=" />









Aces a écrit :



On disait la même chose à l’époque des K6-2 et ça n’a pas empêché AMD avec un R&D moindre de les dépasser en terme de performance brutes avec la génération Athlon et Athlon X2 64.







Autres temps, autres mœurs, il y avait tout à faire au niveau logique sur ces CPU. Aujourd’hui, la quasi totalité des optimisations sont faites et les perfs se jouent à coup de mémoire cache et nombre de threads. Les performances dépendent plus des avancées matérielles que “logicielles”, à savoir comment sont foutus les cœurs d’exécution des CPU.









Tkop a écrit :



Heuu .. Ca fait 10 ans que tu n’as pas changé de CPU ?



Prend un E6600 et un I7 4670k, les perfs mono cœurs ne sont pas du même ordre. Tu dois presque pouvoir taper dans du *4, mais je suis d’accord pour dire que ca vient aussi de l’évolution de la RAM.





Tiens, compare donc un P4 haut de gamme de 2004 (modèle desktop avec un score de 874) avec un core i7 haut de gamme de 2014, le ratio n’est que de 2:5 alors que le second embarque 12 fois plus de cache et 25 fois plus de transistors.



Les performances mono-coeurs stagnent tandis que les performances multi-coeurs suivent toujours la loi de Moore.



Et parce qu’une image vaut mieux qu’un long discours







vida18 a écrit :



Là est tout le problème. Beaucoup de logiciels sont optimisés soit pour tirer toute la puissance de Intel Quick Sync Video ou CUDA. Ou un moins courant OpenCL.





Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.









David_L a écrit :



C’est ça d’avoir vendu ses usines <img data-src=" /> Bon après, GF ne fait de toutes façons pas mieux de son côté en attendant.





+1 <img data-src=" />









raoudoudou a écrit :



Autres temps, autres mœurs, il y avait tout à faire au niveau logique sur ces CPU. Aujourd’hui, la quasi totalité des optimisations sont faites et les perfs se jouent à coup de mémoire cache et nombre de threads. Les performances dépendent plus des avancées matérielles que “logicielles”, à savoir comment sont foutus les cœurs d’exécution des CPU.





Oui mais c’était juste pour dire qu’à une époque AMD avait réussi l’incroyable exploit de battre Intel sur son propre terrain, après, Intel a sortit les Intel CoreDuo et là, AMD s’est ramassé car il n’a pas pu suivre.

Après comme tu dis, tu ce joue à base d’optimisations cache et de thread.









HarmattanBlow a écrit :



Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.







Tant mieux. J’avais peur de voir de plus en plus de logiciels optimisés uniquement pour le tandem Intel/nVIDIA.









HarmattanBlow a écrit :



Tiens, compare donc un P4 haut de gamme de 2004 (modèle desktop avec un score de 874) avec un core i7 haut de gamme de 2014, le ratio n’est que de 2:5 alors que le second embarque 12 fois plus de cache et 25 fois plus de transistors.



Les performances mono-coeurs stagnent tandis que les performances multi-coeurs suivent toujours la loi de Moore.



Et parce qu’une image vaut mieux qu’un long discours





Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.







Sur le site que tu donne on obtient bien un ratio de 3 entre le p4 et le premier I7 (2540 / 831)

Mon estimation à un ratio de 4 est rabaissée à 2, entre le E6600 et les i7 récents.

C’est pas des masses mais c’est une moyenne.



Aprés c’est certain que l’avenir est dans les unités spécialisées: les CPU sont assez puissant pour gérer l’état logique du sytème et des unités sont spécialisé dans les calculs. Dans quelques année ce sera risible de parler de la puissance de calcul mono-core des CPU puisque ce ne sera plus du tout leur tache.









Aces a écrit :



Oui mais c’était juste pour dire qu’à une époque AMD avait réussi l’incroyable exploit de battre Intel sur son propre terrain, après, Intel a sortit les Intel CoreDuo et là, AMD s’est ramassé car il n’a pas pu suivre.

Après comme tu dis, tu ce joue à base d’optimisations cache et de thread.







C’était un accident. Intel s’était planté dans ses choix d’archi, à tel point que les Pentium M (version mobiles) étaient plus intéressants.



Ensuite Intel a été débaucher les meilleurs ingés d’AMD et une fois qu’ils ont pu tirer un trait sur le P4 ils ont naturellement repris le lead et les choses sont rentrées dans l’ordre.



Sur la partie CPU classique AMD n’a aucune chance de revenir, leur seule chance comme le dit Harmattan c’est l’intégration de la partie GPU.



Avoir mis sa techno sur la PS4 et la XO s’avérera peut-être un coup de maître d’ici deux ans quand tous les éditeurs optimiseront à mort.









Oryzon a écrit :



C’était un accident. Intel s’était planté dans ses choix d’archi, à tel point que les Pentium M (version mobiles) étaient plus intéressants.





Il a duré pas mal d’années l’accident.<img data-src=" />



Ce que je veux dire c’est que netburst aurait du disparaitre bien avant les Athlon 64…mais Intel a persisté dans sa connerie…surement pour d’obscures raisons de politique interne.



C’est pas impossible que ça se reproduise non plus.<img data-src=" />









Alucard63 a écrit :



Il a duré pas mal d’années l’accident.<img data-src=" />



Ce que je veux dire c’est que netburst aurait du disparaitre bien avant les Athlon 64…mais Intel a persisté dans sa connerie…surement pour d’obscures raisons de politique interne.



C’est pas impossible que ça se reproduise non plus.<img data-src=" />







De quoi, allonger le pipeline? Bah c’est plus ou moins en train de se faire, avec l’amélioration de l’exécution OO et puis toutes les ruses avec les pipelines multiples, les instructions conditionnelles bien plus adaptées à ce type d’archi, etc.



Dans mon souvenir, à part qu’ils chauffaient beaucoup trop, ça restait des CPU performants. La connerie c’est d’en avoir mis dans des ordinateurs “portables”









raoudoudou a écrit :



De quoi, allonger le pipeline? Bah c’est plus ou moins en train de se faire, avec l’amélioration de l’exécution OO et puis toutes les ruses avec les pipelines multiples, les instructions conditionnelles bien plus adaptées à ce type d’archi, etc.



Dans mon souvenir, à part qu’ils chauffaient beaucoup trop, ça restait des CPU performants. La connerie c’est d’en avoir mis dans des ordinateurs “portables”





Bah…on parlera pas du rapport qualité/prix face aux Athlon XP (aussi puissants mais beaucoup moins chers…) et les Athlon 6464 X2 les ont juste tués (plus puissants et moins chers…sans même parler de la dissipation).



Après, que maintenant les pipeline grandissent, c’est une autre affaire. Avoir raison trop top, c’est comme en bourse: c’est avoir tort.<img data-src=" />









Alucard63 a écrit :



Bah…on parlera pas du rapport qualité/prix face aux Athlon XP (aussi puissants mais beaucoup moins chers…) et les Athlon 6464 X2 les ont juste tués (plus puissants et moins chers…sans même parler de la dissipation).



Après, que maintenant les pipeline grandissent, c’est une autre affaire. Avoir raison trop toptot, c’est comme en bourse: c’est avoir tort.<img data-src=" />












Alucard63 a écrit :



Il a duré pas mal d’années l’accident.<img data-src=" />



Ce que je veux dire c’est que netburst aurait du disparaitre bien avant les Athlon 64…mais Intel a persisté dans sa connerie…surement pour d’obscures raisons de politique interne.



C’est pas impossible que ça se reproduise non plus.<img data-src=" />







Peut-être je n’ai plus en tête le déroulé exact, mais bon d’une part ce n’est pas si facile que ça d’admettre ses erreurs, d’autre part il était prévu il me semble que les P4 puissent monter très haut dans les Ghz qui était à l’époque le principal argument marketing.

Après même lorsque tu as décidé que tu as fait des erreurs et qu’il faut tout repenser, tu as des investissements gigantesques qui ont été réalisés, des contrats de livraison signés avec surement des engagements, une image à défendre auprès des partenaires et du grand public… tout cela provoque forcément de l’inertie.



Que cela se reproduise n’est pas impossible c’est juste improbable. Ils ont aussi appris de leurs erreurs. Ils ont les meilleurs ingés et surtout, surtout, là où auparavant AMD pouvait prendre le meilleur des autres, désormais ils sont derrière une palanquée d’autres acteurs bien plus attractifs qu’eux.



Que cela se soit produit une fois était déjà complètement inattendu, et c’est pour cela que cela a été si marquant. Que cela se reproduise est vraiment, vraiment improbable.



Je pense vraiment que l’intégration GPU/CPU est leur vrai planche de salut. Et encore d’un côté Nvidia a repris l’avantage, et de l’autre Intel progresse tous les ans sur leur GPU.





Que cela se reproduise n’est pas impossible c’est juste improbable.





On est d’accord.<img data-src=" />


Bof les erreurs ne sont pas si rares, reste à la concurrence de faire les bons choix (ici AMD) au bon moment pour reprendre la main.


Les pentium IV n’était peu être pas dégeux en perf sous certain domaines, mais leur gros problème était que les Pentium M offrait un niveau de performance équivalent ou supérieur et était plus facile à fabriquer.



Un excellent CPU grand publique doit :





  1. être facile a fabriquer en grande quantité (die pas trop gros pour avoir un bon yeild)

  2. Ne pas trop consommer vu que la tendance est au portable et miniaturisation

  3. S’adapter facilement au multicore vu que c’est la tendance de l’avenir (un plus petit “core” permet d’en mettre plus sur un die)

  4. Avoir de bonne performances



    le Pentium IV n’avait pas les 3 premier et le 4ième était selon l’application. Les gamers et les pro de CAD, Animation 3D, etc, sont de grand acheteur de CPU haut de gamme et à l’époque, AMD était meilleur dans ces domaines.








HarmattanBlow a écrit :



Tiens, compare donc un P4 haut de gamme de 2004 (modèle desktop avec un score de 874) avec un core i7 haut de gamme de 2014, le ratio n’est que de 2:5 alors que le second embarque 12 fois plus de cache et 25 fois plus de transistors.



Les performances mono-coeurs stagnent tandis que les performances multi-coeurs suivent toujours la loi de Moore.



Et parce qu’une image vaut mieux qu’un long discours





Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.







Attention, comparer CPU et GPU ne fait pas vraiment de sens. Ce serait comme comparer une F1 et un Camion sur la puissance de leur moteur :)



CPU x86 =&gt; architecture flexible et apte à traiter une grande variété de calculs

GPU =&gt; architecture dédiée à un seul (ou un nombre restreint) type de calculs (calculs fortement parallélisables).

Si les performances (en Gflops) des GPU explosent, c’est en partie parce que la multiplication des unités de calcul est beaucoup plus bénéfique que sur CPU, où il est encore difficile de tirer partir de plus de 4 cores pour un usage grand public.



Et pour la liste Passmark, il consiste en quoi exactement ce benchmark? C’est quoi le résultat final? (un temps? un indice de performance? Pondéré de quelle manière?). Les test ont étés effectués avec la même version?



Même si je suis d’accord avec toi sur le fait que la performance brute par coeur n’augmente plus de manière impressionnante, je ne suis pas d’accord avec la fourchette de 10 ans, ni sur le rapport performances/consommation ;)









Charly32 a écrit :



Attention, comparer CPU et GPU ne fait pas vraiment de sens. Ce serait comme comparer une F1 et un Camion sur la puissance de leur moteur :)



CPU x86 =&gt; architecture flexible et apte à traiter une grande variété de calculs

GPU =&gt; architecture dédiée à un seul (ou un nombre restreint) type de calculs (calculs fortement parallélisables).





Justement, non, cette vue des choses va être de moins en moins vraie.



Y a t-il des problèmes non-parallélisables ? Autrement dit des problèmes pour lesquels il n’existe aucun algorithme parallèle. Probablement pas (tout dépend de la définition de “problème” - une liste chaînée est un algorithme pas un problème, un problème intrinsèquement temporel n’est évidemment pas parallèle mais c’est du fait de signaux externes). Malheureusement je n’ai jamais trouvé de vraie réponse. Ce dont je suis sûr en revanche c’est que la quasi-totalité des problèmes est parallélisable.



Le seul problème c’est que paralléliser est difficile et soumis à erreur. Mais il y a des solutions pour ça : des langages dotés de sémantiques d’isolation, voire des langages encourageant l’isolation, des systèmes de mémoire transactionnelle (qui deviennent très rentables quand le bénéfice est de passer de 1 à 1k unités de calcul), etc. On n’est plus dans la situation où au mieux tu pouvait puiser dans un à trois coeurs en plus selon la machine de l’utilisateur, et en sacrifiant un peu de perfs par coeur pour assurer la synchronisation. On est désormais dans une situation où tu as cette énorme masse de puissance non-exploitée parce que, oui, tu peux paralléliser.



L’autre problème c’est que jusqu’à présent les GPU étaient limités. D’abord il fallait se coltiner le goulet d’étranglement du bus PCIe qui réduisait à néant l’intérêt de nombre d’algorithmes mais l’architecture HSA résout ce problème avec le partage de la mémoire (partage, pas segmentation) en exposant un modèle mémoire exploitable. Il y avait le problème du dataflow, mais ça c’est aussi c’est réglé. Il y avait le problème de la non-virtualisation de la mémoire, de l’absence d’ordonnancement logiciel, etc. Réglé. Il ne manque vraiment plus grand chose.



En revanche les GPU restent une architecture SIMD, oui. Mais on n’est plus à l’époque où le moindre branchement était intolérable. où les perfs s’effondraient dès lors que les données n’étaient pas gentiment alignées en bloc, où tu devais tout proprement mapper, etc. Ces archis SIMD sont désormais des bâtards. On en arrive au stade où tu vas pouvoir simplement prendre une grosse fonction de ton code normal et manipuler tes objets habituels sur le GPU comme tu le ferais sur N coeurs.





Et pour la liste Passmark, il consiste en quoi exactement ce benchmark? C’est quoi le résultat final? (un temps? un indice de performance? Pondéré de quelle manière?). Les test ont étés effectués avec la même version?



On s’en fout, j’ai filé ça à titre d’exemple pour avoir des ordres de grandeur. Si je voulais des chiffres sérieux je n’aurais pas pris la première réponse du moteur de recherche vu qu’elle a toutes les chances d’être biaisée. Ce qui importe c’est l’ordre de grandeur. Et dans la réalité je pense que les chiffres sont encore plus décevants.









HarmattanBlow a écrit :



Tiens, compare donc un P4 haut de gamme de 2004 (modèle desktop avec un score de 874) avec un core i7 haut de gamme de 2014, le ratio n’est que de 2:5 alors que le second embarque 12 fois plus de cache et 25 fois plus de transistors.



Les performances mono-coeurs stagnent tandis que les performances multi-coeurs suivent toujours la loi de Moore.



Et parce qu’une image vaut mieux qu’un long discours





Ce n’est déjà plus vrai. OpenCL est en train de s’imposer, d’ici quelques années CUDA et compères seront réservées à des niches. De toute façon on n’exploite pas la puissance de ces nouveaux APU sans utiliser les nouvelles API. Après il faudra beaucoup plus qu’OpenCL pour que la programmation parallèle hétérogène devienne un art du quotidien.





Je viens de le regarder, le benchmark. AMD n’a rien de plus puissant en monocoeur que mon core i7-2600 même pas K, que j’ai acheté pour le garder longtemps. J’ai l’impression d’avoir fait le bon choix.



Je me pose une question au sujet des SSD : si on diminue encore la taille des portes, n’allons-nous pas d’une part vers un raccourcissement de la vie des puces et aussi une moins bonne pérennité dans le temps des informations engrangées dessus ?


Le 29/07/2014 à 23h 21

Le 14 nm avec les équipements de photolithographie par immersion (laser de 193 nm), va être bien plus compliqué et cher à mettre en œuvre (du multi-patterning en paguaille).

La solution sont les photolitograveuses à rayonnement ultra-violet extrême (13.5 nm): il y aurait qu’une machine au monde encore loin d’être capable de faire de la production de masse (ASML aux pays-bas).



Bref… à part si tout se goupille miraculeusement bien, les ASIC fondu à cette finesse seront fiables et pas cher… 2015? mmmmmh… va pas falloir être pressé je pense.



<img data-src=" />








Aces a écrit :



Oui mais c’était juste pour dire qu’à une époque AMD avait réussi l’incroyable exploit de battre Intel sur son propre terrain, après, Intel a sortit les Intel CoreDuo et là, AMD s’est ramassé car il n’a pas pu suivre.

Après comme tu dis, tu ce joue à base d’optimisations cache et de thread.







Core 2 duo. Les core duo étaient des bouses infames et se faisaient distancer par les athlon X2 <img data-src=" />