ARM dévoile des résultats records et vaut désormais 10 fois plus qu'AMD

ARM dévoile des résultats records et vaut désormais 10 fois plus qu’AMD

Le nain est devenu géant

Avatar de l'auteur
Nil Sanyas

Publié dans

Économie

05/02/2013 3 minutes
92

ARM dévoile des résultats records et vaut désormais 10 fois plus qu'AMD

La société britannique ARM, dont la technologie est particulièrement présente dans les smartphones et les tablettes tactiles, n'en finit pas d'étendre ses tentacules à travers le monde. Ses derniers résultats financiers signent des records, tout comme le nombre de puces exploitant son architecture.

arm puce

2,5 milliards de puces en un trimestre

Auparavant nommée Advanced RISC Machines, l'entreprise ARM, basée à Cambridge, est passée en quelques années d'un nain du processeur à un véritable acteur majeur. Si la société ne vend pas elle-même ses produits, ses très nombreux partenaires, Qualcomm, NVIDIA, STM, Samsung et Toshiba notamment, ne se privent pas d'exploiter les architectures ARM pour écouler des millions de puces chaque jour.

Résultat, pour le seul dernier trimestre 2012, près de 2,5 milliards de puces ont été livrées par ses partenaires. Un nombre astronomique, permettant à ARM d'afficher des résultats financiers records, ceci grâce aux licences et aux redevances payées justement par ses partenaires.

ARM a ainsi réalisé un chiffre d'affaires de 262,8 millions de dollars au dernier trimestre, en hausse de 21 %, pour un bénéfice avant impôt de 125 millions de dollars (+16 %). Sur toute l'année, son chiffre d'affaires a dépassé les 913 millions de dollars (+16 %), pour un bénéfice avant impôt de 433 millions de dollars (+20 %).

L'ARM7 toujours très populaire

ARM s'appuie sur de nombreuses architectures différentes afin de toucher un maximum de marchés. Ses processeurs les plus livrés au dernier trimestre sont toujours les ARM7, 9 et 11 puisqu'ils représentent 60 % de ses livraisons. Les ARM7 occupent d'ailleurs à eux-seuls encore 33 % des livraisons des puces exploitant les technologies ARM, contre 19 % pour les ARM9 et 8 % pour les ARM11. Concernant les Cortex, les versions M sont largement majoritaires avec 26 % des livraisons, loin devant les Cortex-A (11 %) et les Cortex-R (3 %).

 

Pour rappel, les puces ARM7 sont utilisées depuis de très nombreuses années. De l'iPod à la Game Boy Advance, en passant par la Nintendo DS, la Dreamcast, de nombreux baladeurs numériques et divers produits mobiles, l'architecture ARM7 est présente dans des centaines de millions de produits. Les ARM9 et ARM11 ne sont toutefois pas en reste, avec une forte présence dans les smartphones, des NAS, des consoles (PSP, Wii, DSi), des routeurs, des appareils photo, etc. Quant aux Cortex, de nombreux smartphones et tablettes tactiles en sont pourvus. C'est par exemple le cas du Nexus 7, de la Samsung Galaxy Tab ou encore du Galaxy SIII.

Un effectif en hausse et une valorisation boursière record

Le Britannique compte désormais 2392 employés précisément (au 31 décembre 2012), en hausse de 276 personnes en un an. 41,5 % de l'effectif, soit 993 salariés, est présent au Royaume-Uni. La société compte seulement 296 employés en Europe continentale, contre 583 personnes aux USA, 347 en Inde et 173 en Asie Pacifique. Notez que ARM est présent en France, notamment à Grenoble et à Nice (Sophia Antipolis précisément), des lieux qui ne doivent rien au hasard, ces deux villes étant des pôles de compétitivité pour de nombreuses entreprises de haute technologie.

 

ARM est aujourd'hui valorisée en bourse à plus de 20 milliards de dollars, soit une quasi-multiplication par deux depuis le mois de mai dernier, et une multiplication par quatre en trois ans. C'est surtout dix fois plus qu'AMD et à peine moins que Dell, qui quittera la bourse sous peu.

Écrit par Nil Sanyas

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

2,5 milliards de puces en un trimestre

Fermer

Commentaires (92)


Entreprise co-fondée par Apple.

Je me demande si les respnsables actuels regrettent de ne plus avoir ARM sous son giron.


question :

pourquoi ARM et pas AMD ou Intel? y’a de grosse différence? valeurs ajouté?

toujours pas compris <img data-src=" />


AMD c’est bien cette société qui va faire (d’après les rumeurs) les proc et les GPU des consoles du futur ?


Nexus 7 c’est un Tegra 3 non ?


Le 4 c’est du qualcomm par contre !








Tumeconnais a écrit :



question :

pourquoi ARM et pas AMD ou Intel? y’a de grosse différence? valeurs ajouté?

toujours pas compris <img data-src=" />







ARM sont spécialisés dans l’architecture RISC contrairement aux deux autres larrons qui eux travaillent quasiment exclusivement en x86.



Je ne saurais lister de mémoire les avantages de RISC par rapport à x86, mais l’une d’elle est la “facilité” de conception sur mesure de RISC par rapport à x86 qui permet de placer ce type de processeur dans tout type d’appareil à “moindre coût” pour le fabricant (téléphones, tablettes, matériel réseau, frigo, four, automobile, etc… )



Etant donné l’essor des appareils “intelligents” ces derniers temps, ARM a clairement le vent en poupe et, a moins d’une réaction rapide d’Intel ou AMD, n’est pas prêt de s’arrêter.



(veuillez noter les guillemets placés stratégiquement :-) )



Tegra3 et les chips de Qualcomm sont tous basé sur l’arch ARM ;)


Oki <img data-src=" />








Tumeconnais a écrit :



question :

pourquoi ARM et pas AMD ou Intel? y’a de grosse différence? valeurs ajouté?

toujours pas compris <img data-src=" />





PLusieurs arguments en faveur de ARM

-Très faible consommation (on retrouve les puces ARM là où les processeurs x86 n’arrivent pas à “rentrer” thermiquement et électriquement, à part les récents Atom qui consomment quand même trop pour de nombreuses applications)

-ARM ne vend pas des processeurs mais des IP (de la propriété intellectuelle, des droits sur un processeur ou son jeu d’instructions). SI tu veux un CPU Intel, ton seul choix est d’acheter ce cpu seul, fabriqué et packagé par Intel, et il n’en existe qu’une sseule gamme. Si tu veux un CPU ARM, tu trouves des térachiées de constructeurs de tous poils qui utilisent ces CPU dans des system-on-chip comprenant énormément de fonctionnalités et à un coût défiant toute concurrence. Il est même assez facile (relativement…) de faire ses propres SoC à base de CPU ARM.(tu prends un sous-traitant/rachètes une start-up comme Apple ou Nintendo ont fait, tu achètees les licences ARM et des autres puces que tu veux intégrer dans ton SoC, tu câbles tout ça ensemble, et hop tu envoies ça à un fondeur comme TSMC qui te le grave. Tout ça est bien sûr simplifié)




  • Très peu cher au final

  • Des performances de plus en plus correctes

  • Un quasi-monopole de ARM sur le marché de l’embarqué, sans que ce soit un monopole (cf. en-dessous). ARM a inventé l’hégémonie qui permet quand même une certaine concurrence.





    Daedelus a écrit :



    Le 4 c’est du qualcomm par contre !





    Le qualcomm c’est de l’ARM aussi.

    Tous les concurrents actuels d’ARM (Qualcomm, Apple avec l’A6, Marvell avec les PXA) ont une licence sur le jeu d’instructions Arm. Et développent à partir de ça leurs propres processeurs. Donc tous les CPU embarqués, en gros, sont de l’ARM, et ARM gagne du fric dessus, même les processeurs vendus par les concurrents, sous forme de royalties <img data-src=" />



Et tu as juste oublié de dire que les Cortex A15 (photo) se permettent même le luxe d’enterrer gravement au niveau performance les Atoms fabriqués tout exprès pour la même gamme de machine.



Décidément, la bourse ne se trompe guère Intel a du souci à se faire s’ils ne réagit pas… mais remarquez, Intel a aussi une licence ARM, donc rien ne l’empêche de graver aussi des procs ARM vu que côté finesse de gravure ce sont les meilleurs au monde, ils devraient pouvoir faire un truc valable s’ils le décident !


doublon désolé!








LordZurp a écrit :



Tegra3 et les chips de Qualcomm sont tous basé sur l’arch ARM ;)







<img data-src=" /> Je sais pas pourquoi mais tu m’as bien fait rire <img data-src=" />









Danytime a écrit :



AMD c’est bien cette société qui va faire (d’après les rumeurs) les proc et les GPU des consoles du futur ?





Oui oui c’est bien cela. Mais on ne peut désormais plus parler de rumeurs mais de certitudes.



Le 05/02/2013 à 19h 18



Aucun rapport direct avec la choucroute mais ARM Sophia recherche son RRH

http://cadres.apec.fr/offres-emploi-cadres/0_2_6_40582377W________offre-d-emploi…



S’il y a des métallos dans la salle…








Tumeconnais a écrit :



question :

pourquoi ARM et pas AMD ou Intel? y’a de grosse différence? valeurs ajouté?

toujours pas compris <img data-src=" />







2 choses principalement :



Le coût est très très faible

La conso est minuscule

Le dégagement de chaleur est aussi très faible

L’adaptation de la techno ou l’intégration dans un soc est assez facile

Et les perfs commencent à être sérieusement intéressantes.



Intel est presque 2x moins bon à tous les niveaux et ne parlons même pas d’AMD



ARM doit son succès en partie à Apple qui a ouvert une brèche sur le marché des smartphones et tablettes.








kail a écrit :



ARM doit son succès en partie à Apple qui a ouvert une brèche sur le marché des smartphones et tablettes.









Tu plaisantes ou bien ???

ARM est le roi de l’embarque depuis bien avant qu’apple pense à son 1er iPhone…









KP2 a écrit :



Intel est presque 2x moins bon à tous les niveaux et ne parlons même pas d’AMD





C’est sous-estimer les APU. Actuellement, c’est ce qu’il y a de mieux en terme de rapport perf, conso, prix.

Les tablettes avec APU arrivent, avec notamment la surface pro 2 qui en sera équipée.<img data-src=" />









KP2 a écrit :



Tu plaisantes ou bien ???

ARM est le roi de l’embarque depuis bien avant qu’apple pense à son 1er iPhone…





Je parle plus du succès des smartphone. Avant, tout le monde s’en foutait que le téléphone puisse diffuser de la musique, tant qu’il servait à téléphoner. Mais un téléphone qui peut faire plein de trucs, ça donne bien plus envie de s’en procurer un.









ziouf a écrit :



ARM sont spécialisés dans l’architecture RISC contrairement aux deux autres larrons qui eux travaillent quasiment exclusivement en x86.



Je ne saurais lister de mémoire les avantages de RISC par rapport à x86, mais l’une d’elle est la “facilité” de conception sur mesure de RISC par rapport à x86 qui permet de placer ce type de processeur dans tout type d’appareil à “moindre coût” pour le fabricant (téléphones, tablettes, matériel réseau, frigo, four, automobile, etc… )



Etant donné l’essor des appareils “intelligents” ces derniers temps, ARM a clairement le vent en poupe et, a moins d’une réaction rapide d’Intel ou AMD, n’est pas prêt de s’arrêter.



(veuillez noter les guillemets placés stratégiquement :-) )





Tu présentes la chose comme si le RISC avait tous les avantages; or ce n’est pas le cas. Le RISC se débarrasse du souci des instructions complexes et laisse le compilateur se débrouiller à convertir du code complexe en instructions simples. L’avantage certes c’est que le RISC est moins gourmand en énergie. Le souci c’est qu’aujourd’hui, les compilateur sont à des années lumière du matériel.









kail a écrit :



Je parle plus du succès des smartphone. Avant, tout le monde s’en foutait que le téléphone puisse diffuser de la musique, tant qu’il servait à téléphoner. Mais un téléphone qui peut faire plein de trucs, ça donne bien plus envie de s’en procurer un.







Il y avait des smartphones bien avant l’iphone. Il y a plus de 10 ans j’avais pu voir un Treo 600 qui faisait tourner Doom. Nous à côté on jouait au snake sur les vieux Nokia n&b.



Mais l’abonnement data indispensable pour ce type d’appareil coûtait la peau des fesses. A l’epoque du gprs c’était 10 euros par mois pour 30Mo et encore.



Je pense que l’iphone a surtout poussé les opérateurs a faire des forfaits plus avantageux. Ils ont ouvert un marché, pas une technologie.



Je suis curieux de voir un graphe du CA d’ARM et du nombre de CPU vendus en fonction du temps pour voir quand cela a décollé.








Obidoub a écrit :



Il y avait des smartphones bien avant l’iphone. Il y a plus de 10 ans j’avais pu voir un Treo 600 qui faisait tourner Doom. Nous à côté on jouait au snake sur les vieux Nokia n&b.





Est-ce qu’il y avait des appli store pour installer tout et n’importe quoi? est-ce qu’il y avait un GPS? Est-ce que le téléphone était tactile?









RRMX a écrit :



Tu présentes la chose comme si le RISC avait tous les avantages; or ce n’est pas le cas. Le RISC se débarrasse du souci des instructions complexes et laisse le compilateur se débrouiller à convertir du code complexe en instructions simples. L’avantage certes c’est que le RISC est moins gourmand en énergie. Le souci c’est qu’aujourd’hui, les compilateur sont à des années lumière du matériel.





Vu que X86 est une archi RISC qui émule le CISC pour la rétro compatibilité depuis des lustres ces débats n’ont plus lieu d’être. RISC a gagné il y a bien longtemps.<img data-src=" />



AMD est bien mal ARMé…








Alucard63 a écrit :



Vu que X86 est une archi RISC qui émule le CISC pour la rétro compatibilité depuis des lustres ces débats n’ont plus lieu d’être. RISC a gagné il y a bien longtemps.<img data-src=" />







Tiens je ne l’avais jamais lue celle la, je la raconterai au bureau demain xD

On se marrera aussi avec les potos de chez Renesas.









MikeNeko a écrit :



Tiens je ne l’avais jamais lue celle la, je la raconterai au bureau demain xD

On se marrera aussi avec les potos de chez Renesas.





Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.



Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.



Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples.<img data-src=" />









kail a écrit :



Est-ce qu’il y avait des appli store pour installer tout et n’importe quoi? est-ce qu’il y avait un GPS? Est-ce que le téléphone était tactile?





T’es un révisionniste?<img data-src=" />

Le 1er market, c’est Archos qui l’a proposé pour ces PMP connecté.

Le GPS existait sur les smartphones sous Symbian et winMo bien avant qu’Apple ne ce décide d’en intégré à l’iphone.

Les tel tactile existe depuis des siècles, hein, mais je suppose que tu voulait dire capacitif.

<img data-src=" />

Ceci étant, Apple a bien marqué le monde de la téléphonie avec son iphone<img data-src=" />









Alucard63 a écrit :



Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.



Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.



Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples.<img data-src=" />





Ceci il est vrai que cette partie utilise de la place sur le die pour garder la retro compatibilité on est d’accord sur ce point.









kail a écrit :



Est-ce qu’il y avait des appli store pour installer tout et n’importe quoi? est-ce qu’il y avait un GPS? Est-ce que le téléphone était tactile?





peut-être pas, mais tous les téléphones utilisaient déjà une puce ARM :o









Alucard63 a écrit :



Bah marre toi bien, mais, avant, fait une petite recherche: depuis le Pentium I( si je ne me trompe pas ) les processeurs intels ne sont plus CISC comme on a pu le concervoir au moment de la guerre CISC/RISC.



Le jeu d’instruction CISC est complètement disponible en assembleur on est d’accord.



Mais Intel utilise un convertisseur d’opération( hardware ) pour une partie du jeu d’instruction. Ceci afin de convertir les instructions complexes en de multiples instructions simples.<img data-src=" />







Certaines instructions je veux bien, mais heureusement que tout n’est pas décomposé en micro-ops. Tu ne me vendras pas l’idée que le CISC maintenant c’est du RISC xD









MikeNeko a écrit :



Certaines instructions je veux bien, mais heureusement que tout n’est pas décomposé en micro-ops. Tu ne me vendras pas l’idée que le CISC maintenant c’est du RISC xD









Bah je ne sais pas ce que c’est alors.<img data-src=" />



Et dire qu’en France on est in-foutu de faire la même chose dans la hightech …



A quand l’ordinateur <img data-src=" />


Tiens, je suis gentil j’illustre ton propos:

http://www.docstoc.com/docs/114868070/Risc-vs-Cisc



Ils parlent effectivement de l’intégration de certaines caractéristiques RISC dans les CPUs style intel n co.



(c’est y pas malheureux xD)








coucou78 a écrit :



Et dire qu’en France on est in-foutu de faire la même chose dans la hightech …



A quand l’ordinateur <img data-src=" />





Cortex-A9 c’est Sophia quand meme <img data-src=" /> C’est toujours ca…



Quant a Intel, cela fait bien longtemps qu’ils pompent des trucs du RISC, mais les micro ops n’ont de micro que le nom. De plus c’est toujours microprogramme. Bref forcement il y a eu convergence sur des concepts de micro architecture, mais de la a dire que les x86 sont RISC…



Ca me fait penser à power pc, sparc.. mais bon je dois être HS <img data-src=" /> désolé…


Le 05/02/2013 à 22h 03

Étrange… très étrange… ce qui est très cher dans les puces, c’est pas le design… mais la fonderie à échelle de masse ,ce que ne fait pas ARM justement. Alors comment ça se fait que qu’ils fassent si peu de bénéfices par rapport à leur chiffre d’affaire… ça sent mauvais…








sylware a écrit :



Étrange… très étrange… ce qui est très cher dans les puces, c’est pas le design… mais la fonderie à échelle de masse ,ce que ne fait pas ARM justement. Alors comment ça se fait que qu’ils fassent si peu de bénéfices par rapport à leur chiffre d’affaire… ça sent mauvais…





Ouai ARM va mal <img data-src=" /> Si tu compares avec Intel dis toi juste qu’Intel vend ses chips avec des marges de folie, parce qu’ils abusent de leur situation de quasi monopole, et ils auraient tort de se priver ; sauf que le marche change et qu’ils risquent de devoir baisser leurs marges pour etre competitifs.



Sinon le design coute assez cher. Les inges qualifies coutent cher, les outils d’EDA coutent cher, les emulateurs coutent cher, un cluster pour faire tourner les validations coute cher, les test chips coutent cher.









sylware a écrit :



Étrange… très étrange… ce qui est très cher dans les puces, c’est pas le design… mais la fonderie à échelle de masse ,ce que ne fait pas ARM justement. Alors comment ça se fait que qu’ils fassent si peu de bénéfices par rapport à leur chiffre d’affaire… ça sent mauvais…





<img data-src=" />

Cite moi une boîte qui fasse mieux pour voir.



En bon profane de merde, je ne me doutais pas que la GBA,

la DS, et encore moins la Dreamcost ( <img data-src=" /> ), en étaient équipées !



Impressionnant… <img data-src=" />








sylware a écrit :



Étrange… très étrange… ce qui est très cher dans les puces, c’est pas le design… mais la fonderie à échelle de masse ,ce que ne fait pas ARM justement. Alors comment ça se fait que qu’ils fassent si peu de bénéfices par rapport à leur chiffre d’affaire… ça sent mauvais…







Avoir la moitié de son CA en bénéfice tu appelles ça peux ?









kail a écrit :



Est-ce qu’il y avait des appli store pour installer tout et n’importe quoi? est-ce qu’il y avait un GPS? Est-ce que le téléphone était tactile?







bien sur… les smartphone ne sont pas nés avec l’iPhone, hein…



Par contre, Apple a eu le merite de foutre un coup de pied au cul magistral dans ce marché en forcant les operateurs a fournir des forfaits data illimités et en proposant un navigateur enfin digne de ce nom sur un mobile (y’avait bien opera mais payant et leeeeeeent).



Et ARM fournissait deja pratiquement tous les constructeurs de consoles, terminaux divers et variés, gps, assistants numeriques, etc en plus des smartphones sous symbian, winmo et blackberry.









Reznor26 a écrit :



En bon profane de merde, je ne me doutais pas que la GBA,

la DS, et encore moins la Dreamcost ( <img data-src=" /> ), en étaient équipées !



Impressionnant… <img data-src=" />





Ah bah non, la Dreamcast, c’est effectivement du RISC mais certainement pas un arm, c’est un SH4 d’Hitashi.









poshu a écrit :



Ah bah non, la Dreamcast, c’est effectivement du RISC mais certainement pas un arm, c’est un SH4 d’Hitashi.





La partie son etait geree par un ARM7 ;)









KP2 a écrit :



2 choses principalement :



Le coût est très très faible

La conso est minuscule

Le dégagement de chaleur est aussi très faible

L’adaptation de la techno ou l’intégration dans un soc est assez facile

Et les perfs commencent à être sérieusement intéressantes.



Intel est presque 2x moins bon à tous les niveaux et ne parlons même pas d’AMD





C’est bien tu nous a fait la liste des points positifs concernant la mobilié (ce que personne ne nie par ailleurs).



Mais il existe encore des gens qui ont besoin de puissance pure et pas sur que l’architecture “ARM” convienne à merveille à mes stations de travail…









carbier a écrit :



C’est bien tu nous a fait la liste des points positifs concernant la mobilié (ce que personne ne nie par ailleurs).



Mais il existe encore des gens qui ont besoin de puissance pure et pas sur que l’architecture “ARM” convienne à merveille à mes stations de travail…







Un des autres avantages du RISC par rapport au CISC c’est qu’on peut paralleliser mieux les calculs.



D’où les annonces récentes (de HP je crois) pour commencer à étudier des serveurs en ARM 64bits….



Le problème pour l’archi x86, c’est que les procos ARM ont atteint la puissance “critique” qui permet de faire de la bureautique / surf / multimedia sur un windows 8 / android / iOS tout en étant moins chers et moins gourmand en énergie.



Arm va devenir l’archi grand public et x86 va devenir petit à petit la niche. Bref, les rôles sont inversés…. à moins qu’Intel et AMD sortent des APUs basse conso et peu chers mais ils ont déjà pris du retard :s



EDIT : Au final, on peut reprocher à AMD et à INTEL d’avoir dépassé cette “puissance critique” et d’avoir continué d’augmenter la puissance de leur proco sans réfléchir plutôt que d’essayer d’ajuster les variables conso et cout. Ca a laissé de la place pour des nouveaux entrants comme ARM.



Enfin, la 4k/h265 va demander aux ARM de prendre encore un peu de puissance. Ce sera la chance à saisir pour Intel.








ldesnogu a écrit :



Si tu compares avec Intel dis toi juste qu’Intel vend ses chips avec des marges de folie, parce qu’ils abusent de leur situation de quasi monopole, et ils auraient tort de se priver ; sauf que le marche change et qu’ils risquent de devoir baisser leurs marges pour etre competitifs.







qu’est-ce qu’il ne faut pas lire … <img data-src=" />

Des marges de folie ? Et ta pizza et ton pull fabriqué en Chine : ca c’est des produits hyper basique vendu avec des marges de folies.

Il y a tellement de marge de folie qu’AMD perd de l’argent.












Drepanocytose a écrit :



Un des autres avantages du RISC par rapport au CISC c’est qu’on peut paralleliser mieux les calculs.



D’où les annonces récentes (de HP je crois) pour commencer à étudier des serveurs en ARM 64bits….







Je ne vois pas en quoi cela permettrait de mieux paralleliser le code ?



ARM c’est un jeu d’instruction a taille fixe : donc beaucoup plus simple à décoder ce qui evite une grande partie du processeur qui tourne tout le temps : la partie decodage d’instructions. Les ARM consomment donc moins.

Intel est particulièrement fort dans la partie decodage, donc se debrouille bien, mais c’est pas si simple à faire.



On envisage des serveurs en ARM parce que cela consomme peu et que pour les serveurs le rapport perf/W est important. Sur sa duree de vie, un serveur coute autant en electricite qu’en hardware.









Tourner.lapache a écrit :



EDIT : Au final, on peut reprocher à AMD et à INTEL d’avoir dépassé cette “puissance critique” et d’avoir continué d’augmenter la puissance de leur proco sans réfléchir plutôt que d’essayer d’ajuster les variables conso et cout. Ca a laissé de la place pour des nouveaux entrants comme ARM.



Enfin, la 4k/h265 va demander aux ARM de prendre encore un peu de puissance. Ce sera la chance à saisir pour Intel.







C’est le gros avantage de la concurrence : on progresse dans tous les sens : amelioration de l’existant et invention d’alternatives.



Pour les 4k, ca va passer par des puces dédiées ou des parties dédiées des CPU.

Et puis c’est un peu comme tu l’a bien remarque au début : le 1080p c’est la “puissance critique”. La 4K on s’en fout un peu. C’est bcp moins important que la HD





Les ARM9 et ARM11 ne sont toutefois pas en reste, avec une forte présence dans les smartphones, des NAS, des consoles (PSP, Wii, DSi)





Sources ?



J’aimerais bien voir à quoi ressemble cet ARM9/ARM11 dans la Wii ? ils l’ont mis où avec le PowerPC déjà présent ?








Tourner.lapache a écrit :



Le problème pour l’archi x86, c’est que les procos ARM ont atteint la puissance “critique” qui permet de faire de la bureautique / surf / multimedia sur un windows 8 / android / iOS tout en étant moins chers et moins gourmand en énergie.







Oui et non.



En fait, la consommation de la concurrence est déjà faible et va encore baisser, tandis que la puissance augmente et est toujours largement supérieure aux ARM. L’Atom est voué à disparaitre de toutes façons, trop crastré pour un gain misérable de conso.



Il ne faut pas oublier qu’un ordinateur, c’est aussi un écran, un disque de stockage (HDD ou SSD) qui consomme! Un disque dur, ça bouffe facilement 5W, un écran 15 pouces LED, ça bouffe 7W.



De là, la consommation ARM vs Intel n’est plus un facteur déterminant, dès lors que les CPU Intel sont en dessous de 15W quand ils sont au taquet. Le facteur déterminant, c’est est-ce qu’on veut beaucoup de puissance, ou bien une puissance tout juste suffisante à faire de la bureautique confortablement.



Du coup, si ARM veut continuer à vendre, il faut qu’ils augmentent la puissance de leurs CPU !



AMHA









kypd a écrit :



J’aimerais bien voir à quoi ressemble cet ARM9/ARM11 dans la Wii ? ils l’ont mis où avec le PowerPC déjà présent ?







Après recherche il est intégré dans le GPU Hollywood… ça va chercher loin tout de même !









raoudoudou a écrit :



Il ne faut pas oublier qu’un ordinateur, c’est aussi un écran, un disque de stockage (HDD ou SSD) qui consomme! Un disque dur, ça bouffe facilement 5W, un écran 15 pouces LED, ça bouffe 7W.







Entre la surface rt et la surface pro, il y a quand même une sacré difference d’autonomie.

Les ssd consomment pour moi moins que 1w. Cela doit être négligeable par rapport au wifi. L écran d une tablette ne fait pas 15 pouces, la conso doit être moins que 7w. Du coup le cpu+gpu, ça doit être l élément clé qui explique le facteur 2 sur l autonomie des 2 surface. Dans ce contexte mobile ce n est pas un critère négligeable.









chambolle a écrit :



qu’est-ce qu’il ne faut pas lire … <img data-src=" />

Des marges de folie ? Et ta pizza et ton pull fabriqué en Chine : ca c’est des produits hyper basique vendu avec des marges de folies.

Il y a tellement de marge de folie qu’AMD perd de l’argent.





Oui Intel a des marges de folie, tout le monde le sait. Pour t’en convaince cherche la surface d’un die AMD et d’un die Intel, compare les prix. Fais pareil avec un SoC ARM. Et si tu n’arrives toujours pas a te convaincre, tu devrais faire cette revelation au monde entier, parce qu’alors tout le monde se trompe sur Intel <img data-src=" />







chambolle a écrit :



ARM c’est un jeu d’instruction a taille fixe : donc beaucoup plus simple à décoder ce qui evite une grande partie du processeur qui tourne tout le temps : la partie decodage d’instructions. Les ARM consomment donc moins.





Non le jeu d’instruction n’a pas des opcodes de taille fixe. Je t’invite a regarder Thumb2. Et si tu crois que c’est juste un decodage plus simple qui permet de moins consommer, c’est faux, ca aide mais c’est insuffisant.










chambolle a écrit :



Et puis c’est un peu comme tu l’a bien remarque au début : le 1080p c’est la “puissance critique”. La 4K on s’en fout un peu. C’est bcp moins important que la HD







Les marketeux ne s’en foutent pas et les tablettes ont déjà des réso supérieures à la HD. (même si c’est débile) Il faudra de toute façon des ARM pour les TV 4k et à mon avis la prochaine “puissance critique” sera celle pour faire tourner du 4k/vp8 sur youtube.

A voir si les gens mordent au marketing ou non.







raoudoudou a écrit :



Il ne faut pas oublier qu’un ordinateur, c’est aussi un écran, un disque de stockage (HDD ou SSD) qui consomme! Un disque dur, ça bouffe facilement 5W, un écran 15 pouces LED, ça bouffe 7W.







Oui enfin maintenant les HDD c’est des produits de niches qui bientôt seront dédiés aux NAS et Cloud. Un ssd ça consomme 2W en pointe et moins de 0,5W en idle (il est 95% du temps en idle). Pour la plupart des appareils mobiles on ne parle même pas de ssd juste de Nand comme dans une clé usb et là la conso c’est bien plus bas : certaines clés usb2.0 se contentant de 78 mW en full.



Après ok, il y a des puces qui consomment beaucoup comme les puces 2G/3G/4G et les écrans mais on progresse aussi régulièrement niveau conso sur ces parties là.

C’est un effort d’ensemble certes, mais toute baisse de conso est bonne à prendre ^^









raoudoudou a écrit :



De là, la consommation ARM vs Intel n’est plus un facteur déterminant, dès lors que les CPU Intel sont en dessous de 15W quand ils sont au taquet. Le facteur déterminant, c’est est-ce qu’on veut beaucoup de puissance, ou bien une puissance tout juste suffisante à faire de la bureautique confortablement.







Si l’on parle d’ordinateur portable ok. Mais pour une tablette c’est plutôt 2W la conso cible du SoC.







zart a écrit :



Du coup le cpu+gpu, ça doit être l élément clé qui explique le facteur 2 sur l autonomie des 2 surface. Dans ce contexte mobile ce n est pas un critère négligeable.







Pas totalement d’accord. J’ai fait un test avec mon tel portable (HTC Hero) : je l’ai underclocké en idle en divisant sa fréquence par 2 -&gt; Même en le laissant tout le temps en idle je n’ai pas vu une différence notable d’autonomie. (ou alors de quelques heures sur une autonomie moyenne de 3j)










Tourner.lapache a écrit :



Enfin, la 4k/h265 va demander aux ARM de prendre encore un peu de puissance. Ce sera la chance à saisir pour Intel.





Je pense que ce sera plutot a celui qui aura le premier bloc hardware dedie :)









carbier a écrit :



C’est bien tu nous a fait la liste des points positifs concernant la mobilié (ce que personne ne nie par ailleurs).



Mais il existe encore des gens qui ont besoin de puissance pure et pas sur que l’architecture “ARM” convienne à merveille à mes stations de travail…







Mais personne n’a dit que les proc ARM etaient meilleurs que les intel dans tous les cas d’utilisation !

On nous a demande les avantages des ARM sur les intel, je donne les avantages. Mais c,est pas parce que j,ai pas parle des inconvenients qu,ils n’existent pas. Et la puissance brute en est un serieux. On pourrait ajouter aussi le support du 64bits (qui arrive seulement sur ARM alors qu’il existe depuis 10+ ans chez intel) et aussi le support des instructions de virtualisation et plein d’autres bricoles.









Drepanocytose a écrit :



Un des autres avantages du RISC par rapport au CISC c’est qu’on peut paralleliser mieux les calculs.



D’où les annonces récentes (de HP je crois) pour commencer à étudier des serveurs en ARM 64bits….





Oh mais on peut très bien paralléliser avec des procs x86 aussi… le problème au niveau de la parallélisation n’est pas hardware mais software: tous les codes de calcul ne se prêtent pas bien au jeu de la parrallélisation.

On pourra toujours les faire fonctionner plus vite… mais à quel prix ? et avec quelle perte d’efficacité ?









KP2 a écrit :



Mais personne n’a dit que les proc ARM etaient meilleurs que les intel dans tous les cas d’utilisation !

On nous a demande les avantages des ARM sur les intel, je donne les avantages. Mais c,est pas parce que j,ai pas parle des inconvenients qu,ils n’existent pas. Et la puissance brute en est un serieux. On pourrait ajouter aussi le support du 64bits (qui arrive seulement sur ARM alors qu’il existe depuis 10+ ans chez intel) et aussi le support des instructions de virtualisation et plein d’autres bricoles.





+1









ldesnogu a écrit :



Oui Intel a des marges de folie, tout le monde le sait. Pour t’en convaince cherche la surface d’un die AMD et d’un die Intel, compare les prix. Fais pareil avec un SoC ARM. Et si tu n’arrives toujours pas a te convaincre, tu devrais faire cette revelation au monde entier, parce qu’alors tout le monde se trompe sur Intel <img data-src=" />







Je ne dis pas qu’il n’y pas de marge, mais parler de marge de folie : c’est ridicule.

En 2012 Intel fait 8,3 milliards de resultat net sur un chiffre d’affaire de 40,3

C’est impressionnant, mais faut pas delirer non plus.



Tu pourrais aussi dire que ca vient du silicum qui est super abondant et qu’on trouve partout pour pas un centime. <img data-src=" />









ldesnogu a écrit :



Non le jeu d’instruction n’a pas des opcodes de taille fixe. Je t’invite a regarder Thumb2. Et si tu crois que c’est juste un decodage plus simple qui permet de moins consommer, c’est faux, ca aide mais c’est insuffisant.





Exact le jeu n’est pas fixe. Pourquoi un mec d’Intel m’a dit cela ?



Et si tu détaillais un peu sur la faible conso ? Ca m’intéresse.










Tourner.lapache a écrit :



Pas totalement d’accord. J’ai fait un test avec mon tel portable (HTC Hero) : je l’ai underclocké en idle en divisant sa fréquence par 2 -&gt; Même en le laissant tout le temps en idle je n’ai pas vu une différence notable d’autonomie. (ou alors de quelques heures sur une autonomie moyenne de 3j)







Pour le coup, la mesure serait plus juste entre idle et un processus qui bouffe l’essentiel des ressources gpu et le même processus en underclockant. En idle, il y a pleins de stratégies de réduction de la conso (Loin d’être sur que le bon vieux k.f.Vdd² ait beaucoup de sens en idle).









chambolle a écrit :



Je ne dis pas qu’il n’y pas de marge, mais parler de marge de folie : c’est ridicule.

En 2012 Intel fait 8,3 milliards de resultat net sur un chiffre d’affaire de 40,3

C’est impressionnant, mais faut pas delirer non plus.



Tu pourrais aussi dire que ca vient du silicum qui est super abondant et qu’on trouve partout pour pas un centime. <img data-src=" />





Tes chiffres pour Intel sont faux : c’est \(53.3 milliards de CA pour une marge de 62.1%.

http://www.intc.com/releasedetail.cfm?ReleaseID=734198

ARM c'est \)
913 million pour une marge de 45.6%.



Mais tu n’as pas fait la recherche que je te demandais qui t’aurait permis de calculer la marge qu’Intel fait par CPU qu’ils vendent compare aux autres.









chambolle a écrit :



Exact le jeu n’est pas fixe. Pourquoi un mec d’Intel m’a dit cela ?





Parce que le jeu d’instructions original avait des opcodes de taille fixe sans doute. Mais il est de moins en moins utilise actuellement car Thumb2 a une meilleure densite de code.





Et si tu détaillais un peu sur la faible conso ? Ca m’intéresse.



C’est a la fois simple et complique :) En gros des la conception de la microarchitecture tu vas faire des compromis entre la performance et la consommation ; par exemple, pour un CPU out of order, tu vas te dire j’ai une fenetre de 20 instructions (les gros Intel c’est plus de 100).



Une autre chose extremement importante est ce qu’on appelle le clock gating : des qu’une partie du design est inutilisee tu coupes l’horloge ce qui fait gagner de la conso. Un autre truc plus agressif est le power gating, ou la tu coupes carrement la conso (mais c’est beaucoup plus complique a mettre en oeuvre au niveau implementation et aussi au niveau support SW qui est souvent requis).









KP2 a écrit :



On pourrait ajouter aussi le support du 64bits (qui arrive seulement sur ARM alors qu’il existe depuis 10+ ans chez intel)





Raaaaaah on oublie bien vite que c’est AMD qui a fait le x86_64 et qu’Intel a recupere leurs brevets pour faire pareil quand ils ont vu que leur Itanium n’allait pas conquerir le marche des serveurs. Donc premier CPU AMD 64-bit en avril 2003 et chez Intel en juin 2004. Ca fait plutot 10- que 10+ <img data-src=" />





et aussi le support des instructions de virtualisation et plein d’autres bricoles.



Cortex-A15 supporte la virtualisation :)



Sinon clairement en terme de perf brute Intel est a des annees lumiere d’ARM sur le haut de gamme. Mais c’est toujours pareil : qu’est-ce qui suffit a la personne moyenne ? Perso, j’aurai toujours besoin d’un gros desktop bien puissant pour le dev, mais d’un autre cote un bete iPad me suffit amplement pour pas mal de taches.



http://fr.wikipedia.org/wiki/Acorn_Computers



Un peut de culture .

Le Risc c’est un processeur a jeu d’instructions reduite

le Cisc donc les Intel il ya beaucoup d’instruction pour faire plein de choses.

A l’epoque des premiers PC ou le processeur se taper pratique tout le boulot , je parle des programme, faire du son déplacer des fenêtres afficher des icônes , le Cisc avait peut etre un intérêt !

Mais aujourd’hui on a des puces dedier a ce travail et le processeur n’est la que en chef d’orchestre , la carte son est capable de faire tout un tat de chose, pareil pour la carte video etc … Donc l’interet de l’architecture Risc et grandissant .

Par contre dans le cas ou il n’y a pas de corposseur, le Cisc sera plus rapide car il aura des instructions dedier a certaine taches avec que les Risc il faudra ruser avec des ou trois pour arriver au meme resultat qu’un processeur Cisc qui en aura utiliser qu’une seule ! Et plus on utilise d’instruction plus c’est lent !








Le-Glod a écrit :



http://fr.wikipedia.org/wiki/Acorn_Computers

le Cisc donc les Intel il ya beaucoup d’instruction pour faire plein de choses.







C’est fini les RISC qui ne savent pas faire de multiplication hein…



D’ailleurs, en interne, les processeurs Intel/AMD sont des RISC qui émulent du CISC…









Le-Glod a écrit :



http://fr.wikipedia.org/wiki/Acorn_Computers



Un peut de culture .

Le Risc c’est un processeur a jeu d’instructions reduite

le Cisc donc les Intel il ya beaucoup d’instruction pour faire plein de choses.

A l’epoque des premiers PC ou le processeur se taper pratique tout le boulot , je parle des programme, faire du son déplacer des fenêtres afficher des icônes , le Cisc avait peut etre un intérêt !

Mais aujourd’hui on a des puces dedier a ce travail et le processeur n’est la que en chef d’orchestre , la carte son est capable de faire tout un tat de chose, pareil pour la carte video etc … Donc l’interet de l’architecture Risc et grandissant .

Par contre dans le cas ou il n’y a pas de corposseur, le Cisc sera plus rapide car il aura des instructions dedier a certaine taches avec que les Risc il faudra ruser avec des ou trois pour arriver au meme resultat qu’un processeur Cisc qui en aura utiliser qu’une seule ! Et plus on utilise d’instruction plus c’est lent !





Sauf qu’entre temps avec la miniaturisation le convertisseur d’opérations occupe de moins en moins de place sur le die.



Donc la différence entre CISC et RISC avec l’évolution de la finesse de gravure et les architectures “modernes”( on parle depuis le pentium et les K5… ) CISC/RISC utilisées actuellement dans les processeurs AMD/INTEL. La différence est de plus en plus ténue.<img data-src=" />









ldesnogu a écrit :



Raaaaaah on oublie bien vite que c’est AMD qui a fait le x86_64 et qu’Intel a recupere leurs brevets pour faire pareil quand ils ont vu que leur Itanium n’allait pas conquerir le marche des serveurs. Donc premier CPU AMD 64-bit en avril 2003 et chez Intel en juin 2004. Ca fait plutot 10- que 10+ <img data-src=" />





Exact.

La plupart des gens semble bien vite oublier que c’est AMD qui a amené le x64 au monde PC. Plus stable et plus performant que le x86 d’intel, il est aujourd’hui couramment utilisé.









KP2 a écrit :



Et ARM fournissait deja pratiquement tous les constructeurs de consoles, terminaux divers et variés, gps, assistants numeriques, etc en plus des smartphones sous symbian, winmo et blackberry.





Ce que j’entendais par succès des smartphones, c’est que maintenant, les téléphones à forte valeur ajoutée attirent beaucoup plus qu’avant, d’où un ARM qui monte. Et avec le nouveau marché des tablettes qui, petit à petit, sont en mesure de remplacer les PC portables pourvu qu’il n’y ait pas de hautes exigences, c’est encore mieux.









Danytime a écrit :



AMD c’est bien cette société qui va faire (d’après les rumeurs) les proc et les GPU des consoles du futur ?







avant que les PS4 et XBox 720 représentent des centaines de millions de terminaux vendus, c’est pas demain la veille (si ce jour arrive)



de plus les consoles de salon sont fabriquées à perte, Sony et MS sont des marchands de tapis sur ce secteur et ils vont faire en sorte que les marges (d’AMD) soient les plus infimes possibles… pas sûr que ce soit le “salut” d’AMD ce “monopole” contrats, limite ils vont gagner plus d’argent avec le GPU de la WIi-U <img data-src=" />









chris_lo a écrit :



avant que les PS4 et XBox 720 représentent des centaines de millions de terminaux vendus, c’est pas demain la veille (si ce jour arrive)



de plus les consoles de salon sont fabriquées à perte, Sony et MS sont des marchands de tapis sur ce secteur et ils vont faire en sorte que les marges (d’AMD) soient les plus infimes possibles… pas sûr que ce soit le “salut” d’AMD ce “monopole” contrats, limite ils vont gagner plus d’argent avec le GPU de la WIi-U <img data-src=" />





Si ça rapportait pas ils ne répondraient pas à l’appel d’offre.



Donc ça va sûrement pas sauver AMD( qui ne coulera pas de toute façon ) mais c’est toujours ça de pris et de moins pour la concurrence. <img data-src=" />









chris_lo a écrit :



de plus les consoles de salon sont fabriquées à perte.





Cette affirmation, bien que souvent donnée par les CEO comme argument de vente, est un mythe.

Il n’y a pas de ventes à pertes, surtout au niveau des consoles. Microsoft n’a jamais dit qu’il vendait la 360 à perte. Ça reste néanmoins toujours la console la plus intéressante au niveau du rapport qualité/prix.



Le 06/02/2013 à 12h 28







ldesnogu a écrit :



Sinon le design coute assez cher. Les inges qualifies coutent cher, les outils d’EDA coutent cher, les emulateurs coutent cher, un cluster pour faire tourner les validations coute cher, les test chips coutent cher.







C’est là que c’est louche.









sylware a écrit :



C’est là que c’est louche.





Je ne vois pas ce qu’il y a de louche, tu peux preciser le fond de ta pensee ?



Le 06/02/2013 à 12h 36







ldesnogu a écrit :



Je ne vois pas ce qu’il y a de louche, tu peux preciser le fond de ta pensee ?







Dans le design de puce, fabless modulo les prototypes, je n’arrive pas à m’imaginer de tels coûts.



Si on les mets à plat, peut-être que ça va s’expliquer tout seul. Je reste sur ma première impression, jusqu’à preuve du contraire.









sylware a écrit :



Dans le design de puce, fabless modulo les prototypes, je n’arrive pas à m’imaginer de tels coûts.



Si on les mets à plat, peut-être que ça va s’expliquer tout seul. Je reste sur ma première impression, jusqu’à preuve du contraire.





Je bosse dans le domaine, j’ai surement plus de billes que toi, mais tu es libre de ne pas me croire. En plus je t’ai cite tout une liste de choses qui coutent. Tu nies que les outils d’EDA sont chers ? Meme les simulateurs soft ? Tu connais le prix d’un emulateur Palladium ? Sers-toi de Google, tu verras. Et avec ca tu n’es meme pas en capacite de fabriquer un test-chip.



Donc oui tu as raison ARM va tres mal, ils sont sur la pente descendante. Pendant que toute l’industrie de la micro elec perdait du CA, eux ils ont cru de plus de 15% tout en augmentant leur marge. Oui c’est louche.









sylware a écrit :



Dans le design de puce, fabless modulo les prototypes, je n’arrive pas à m’imaginer de tels coûts.



Si on les mets à plat, peut-être que ça va s’expliquer tout seul. Je reste sur ma première impression, jusqu’à preuve du contraire.







ldesnogu a raison, si t’as pas quelques M$ disponibles (les M€ sont acceptés aussi), tu ne sortiras pas un test chip



Le 06/02/2013 à 15h 56







ldesnogu a écrit :



… tu es libre de ne pas me croire …







Exactement. Et j’espère que c’est réciproque.



Par conséquent, je reste à nouveau sur ma première impression: je trouve ça louche.










sylware a écrit :



Exactement. Et j’espère que c’est réciproque.





Le probleme n’est pas tant que je ne te crois mais que je te trouve plutot un peu obtus et trop sur de toi pour quelqu’un qui de toute evidence ne connait rien au domaine.





Par conséquent, je reste à nouveau sur ma première impression: je trouve ça louche.



Par conséquent, je reste à nouveau sur ma première impression: t’en tiens une couche <img data-src=" />



ARM c’est 2400 ingénieurs un peu partout dans le monde, en comptant 80k\( de coût moyen par ingé juste pour le salaire, ce qui est loin en-dessous de la réalité, tu expliques déjà 200M\) de coûts annuels. Rien que pour les salaires, dans une estimation très basse…


Le 08/02/2013 à 11h 13







ldesnogu a écrit :



Le probleme n’est pas tant que je ne te crois mais que je te trouve plutot un peu obtus et trop sur de toi pour quelqu’un qui de toute evidence ne connait rien au domaine.







Il suffit de bien mettre tout à plat au niveau des dépenses. On sera vite fixé. Mais ce n’est pas réservé à ARM, mais aussi à AMD. Si c’est être obtu de vouloir y voir plus clair…







night57200 a écrit :



ARM c’est 2400 ingénieurs un peu partout dans le monde, en comptant 80k\( de coût moyen par ingé juste pour le salaire, ce qui est loin en-dessous de la réalité, tu expliques déjà 200M\) de coûts annuels. Rien que pour les salaires, dans une estimation très basse…







2400 ingénieurs…. pour du fabless??












sylware a écrit :



Il suffit de bien mettre tout à plat au niveau des dépenses. On sera vite fixé. Mais ce n’est pas réservé à ARM, mais aussi à AMD. Si c’est être obtu de vouloir y voir plus clair…





Je t’ai listé les choses qui coûtent, c’est déjà à plat :)





2400 ingénieurs…. pour du fabless??



Pas 2400 chez ARM mais 1500 facilement.



Le 08/02/2013 à 15h 15







ldesnogu a écrit :



Je t’ai listé les choses qui coûtent, c’est déjà à plat :)

Pas 2400 chez ARM mais 1500 facilement.







1500 ingénieurs?! Si ils développent en interne tous leurs outils c’est déjà plus probable… et encore, ça fait délirant.









sylware a écrit :



1500 ingénieurs?! Si ils développent en interne tous leurs outils c’est déjà plus probable… et encore, ça fait délirant.





Ecoute, je bosse chez ARM, mais tu peux continuer à ne pas me croire :) Tu sais combien de CPU différents sont créés / en cours de dév ? Tu sais combien bossent sur les compilos ? Tu sais quelle taille font les équipes de validation ? Tu sais combien de personnes bossent en R&D ? Connais-tu même la taille d’une équipe de design CPU ?



Le 08/02/2013 à 15h 37







ldesnogu a écrit :



Ecoute, je bosse chez ARM, mais tu peux continuer à ne pas me croire :) Tu sais combien de CPU différents sont créés / en cours de dév ? Tu sais combien bossent sur les compilos ? Tu sais quelle taille font les équipes de validation ? Tu sais combien de personnes bossent en R&D ? Connais-tu même la taille d’une équipe de design CPU ?







Non, c’est bien pour ça que je parle de mise à plat… Car 1500 ingénieurs pour du fabless, ça me paraît louche, moins louche si ils développent tous leurs outils en interne… mais quand même.



OK je laisse tomber <img data-src=" />








ldesnogu a écrit :



Parce que le jeu d’instructions original avait des opcodes de taille fixe sans doute. Mais il est de moins en moins utilise actuellement car Thumb2 a une meilleure densite de code.





C’est a la fois simple et complique :) En gros des la conception de la microarchitecture tu vas faire des compromis entre la performance et la consommation ; par exemple, pour un CPU out of order, tu vas te dire j’ai une fenetre de 20 instructions (les gros Intel c’est plus de 100).



Une autre chose extremement importante est ce qu’on appelle le clock gating : des qu’une partie du design est inutilisee tu coupes l’horloge ce qui fait gagner de la conso. Un autre truc plus agressif est le power gating, ou la tu coupes carrement la conso (mais c’est beaucoup plus complique a mettre en oeuvre au niveau implementation et aussi au niveau support SW qui est souvent requis).





merci