Mac à base d'Apple Silicon : la fin d'une ère, AMD et Intel réagissent

Mac à base d’Apple Silicon : la fin d’une ère, AMD et Intel réagissent

Rupture de cycle ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

30/06/2020 12 minutes
27

Mac à base d'Apple Silicon : la fin d'une ère, AMD et Intel réagissent

Après 14 ans chez Intel, Apple utilisera ses propres SoC, même sur les Mac. À ce sujet, on a déjà à peu près tout lu depuis les premières rumeurs d'un tel « switch ». Il ne s'agit pourtant que de la suite logique d'une stratégie de contrôle total de la plateforme. Quitte à devenir le concurrent de ses actuels partenaires.

À trop vouloir analyser la décision d'Apple comme une rupture avec Intel, on en oublie presque que la firme de Cupertino a surtout décidé de couper les ponts avec l'architecture x86. Et donc également avec la possibilité, que certains imaginaient réelle à une époque,  d'utiliser des processeurs AMD.

AMD vante ses efforts des dernières années

C'est sans doute ce qui a poussé ce dernier à communiquer quelques jours après la conférence d'ouverture de la WWDC 2020 pour annoncer avoir « avoir dépassé l’ambitieux objectif 25x20 fixé en 2014 pour améliorer l’efficacité énergétique de ses processeurs mobiles de l’ordre de 25 fois d’ici 2020 ».

Il faut dire que la société partait de loin avec son architecture Bulldozer, sorte d'anti-thèse de l'efficacité, encore plus sur le plan énergétique. Ryzen lui avait permis de multiplier par trois les efforts faits précédemment, le passage à Renoir cette année multipliant à nouveau par trois ce score selon ses chiffres : 

AMD Objectif 25x20AMD Objectif 25x20

Ainsi, l'objectif est dépassé avec le Ryzen 7 4800H « qui améliore par 31,7 fois l'efficacité énergétique face au mètre étalon de 2014 ». Et AMD d'ajouter : « si une entreprise met à jour sa flotte de 50 000 ordinateurs portables AMD de 2014 vers des modèles 2020, cela représenterait une économie de 1,4 million de kilowatts-heure pour l’électricité et 971 000kg d’émissions carbone en moins, soit l’équivalent de 16 000 arbres plantés en 10 ans ».

L'entreprise vante ici « ses architectures CPU et GPU de pointe, étroitement intégrées dans un SoC commun profitant de l'architecture primée « Zen », des innovations dans la gestion de l'énergie en temps réel, l'évolution continuelle de l’architecture AMD Infinity Fabric, des optimisations de puissance au niveau du silicium, l'adoption rapide des processus de fabrication de pointe », qui n'auront néanmoins pas suffi à séduire Apple.

Mais les deux entreprises ne sont pas vraiment concurrentes. Avec sa stratégie du die unique, multiplié au sein des packagings de ses différents processeurs (Ryzen, Threadripper, EPYC), AMD l'avait clairement annoncé dès les débuts de l'architecture Zen : elle n'ira pas sur le terrain de l'ultra-basse consommation. 

Ses SoC affichent ainsi dans le meilleur des cas un optimiste TDP de 15 watts, bien trop par rapport à des puces actuellement utilisées dans des smartphones et autres tablettes telles que celle d'Apple. Deux fois plus que le projet de SoC tout-en-un Lakefield d'Intel qui culmine à 7 watts. Est-ce que cela changera avec Zen 3 ? Est-ce que la modularité à la Big.Little sera au programme ? Impossible à dire pour le moment. 

Après la décision d'Apple, Intel a tout à prouver

Premier concerné, Intel n'a pas publié de communiqué de presse. L'entreprise s'est contentée de faire passer une réaction officielle précisant qu'Apple « est un client à travers différents segments de marché, et nous allons continuer de les soutenir ». Une manière de rappeler que remplacer le MacBook Air est une chose, mais que ce sera une autre paire de manches lorsqu'il faudra produire une puce capable de remplacer celle d'un Mac Pro. 

Et quand bien même, la transition complète prendra au moins deux ans. Une période pendant laquelle de nouveaux Mac à base de processeurs Intel seront mis sur le marché. Avec Tiger Lake d'ici la fin de l'année, et pourquoi pas Lakefield ou Alder Lake-S ensuite, profitant tous deux d'une architecture Big.Little ?

« Intel se focalise sur le fait de proposer l'expérience PC la plus avancée et une large gamme technologique qui redéfinit l'informatique. Nous pensons que les ordinateurs à base de processeurs Intel [...] fournissent à nos clients la meilleure expérience là où cela compte le plus pour eux, mais aussi la plateforme la plus ouverte pour les développeurs, maintenant et à l'avenir ». Comprendre que ses produits ne sont pas concentrés sur un écosystème fermé.

Une ouverture qui a toujours été le point fort du PC, mais aussi sa faiblesse : le résultat dépend du travail conjoint des constructeurs, intégrateurs, éditeurs et développeurs. Là où Apple concentre les trois premiers rôles, laissant aux quatrièmes le soin de produire les applications qu'elle ne propose pas (encore) elle-même.

Pour Intel, le départ de son partenaire de 14 ans est une blessure, mais pas une mise à mort. Tout d'abord parce qu'il s'agit certes d'un client important, mais d'un de ses marchés uniquement (les CPU grand public) qui n'est pas celui générant le plus de bénéfices. Apple est loin d'être leader dans l'ordinateur (fixe ou portable).

Ces quelques pourcents de CA vont donc progressivement disparaître, sans doute rapidement puisque les Mac à base d'Apple Silicon sont présentés comme disposant de nombreux avantages pratiques. De quoi refroidir probablement ceux tentés par un renouvellement de leur machine avec un modèle à base de CPU Intel.

Pour Intel le problème se situe plus dans l'image renvoyée. Il prouve également que Bob Swan et la nouvelle équipe constituée à son arrivée vont devoir passer la seconde. Car si la roadmap (publique ou non) est plutôt intéressante sur le papier, il faut en finir avec les promesses, les excuses et autres bêtises du marketing, pour en revenir à un basique oublié depuis trop longtemps par l'entreprise : il faut « délivrer ».

Certes, la conception de CPU est une industrie de long terme, où les effets du travail des équipes à l'instant « t » ne se concrétisent le plus souvent que 3 à 5 ans plus tard. Mais l'excuse des ratés de l'ancienne direction ne tiendra plus très longtemps. L'ère Brian Krzanisch, commencée en 2013, est terminée depuis 2018.

Apple et Intel : des chemins divergents depuis bien avant Skylake

Pour François Piednoel (aka Mr Intel), ancien Principal Engineer ayant quitté l'entreprise en 2017, le départ d'Apple s'est décidé avec Skylake mis sur le marché en 2015 (Core de 6e génération). Il s'est exprimé en ce sens sur sa chaîne YouTube, fraîchement créée.

Ce Français, régulièrement en contact avec la presse lorsqu'il était en place, est notamment connu pour placer des informations pertinentes dans un océan de propos plus « approximatifs ». Il évoque dans sa vidéo l'un de ses sujets récurrents, à savoir la guerre des clans à l'époque du départ de Paul Otelinni et la perte de leadership avec l'arrivée de Brian Krzanisch. Pour lui, l'IDC (le centre de R&D d'Intel en Israël) aurait fait tout ce qu'il pouvait depuis pour faire évoluer au mieux les produits face à une équipe en Oregon responsable de tous les maux.

Ainsi, c'est la QA (Quality Assurance) de Skylake qui n'était pas au rendez-vous, Apple ayant alors détecté et remonté de nombreux problèmes. Ce qui aurait précipité la décision dont on voit le fruit aujourd'hui. Si l'on ne peut nier qu'une telle situation ait pu jouer en la défaveur d'Intel, d'autres faits ont pu contribuer. D'ailleurs, les divergences stratégiques sont bien antérieures.

Car des ratés, Intel en avait connu bien avant Krzanich. Un peu moins d'un an après son arrivée à la tête d'Intel en 2005, Otellini débarquait lors d'une conférence Apple pour présenter les processeurs x86 devant intégrer les Mac. L'année suivante, l'iPhone était mis sur le marché avec un SoC ARM. Les deux entreprises n'avaient pas réussi à s'entendre pour une conception conjointe de ce produit. La mobilité hantera Intel pendant près de 10 ans.

C'est d'ailleurs ce qui symbolise la fin du mandat d'Otellini, tout positif qu'il soit par d'autres aspects. À l'époque arc-bouté sur son « Continuum » expansionniste au slogan loin d'être visionnaire – « x86 everywhere » – il donnera naissance aux MID, aux Atom mobiles et autres SoFia.

Vous connaissez la suite : tous furent abandonnés. ARM est dans tous les smartphones, le Raspberry Pi, même NVIDIA mise de plus en plus sur ces architectures qui lorgnent sur les serveurs.

Et que reste-t-il de la métamorphose d'Intel clamée en 2010 ? Presque rien. C'est d'ailleurs la même année qu'Apple annonçait une petite révolution. Non pas l'iPad ou l'iPhone 4, mais... sa première puce maison utilisée dans un produit grand public : l'A4. Le premier des « Apple Silicon ».

La firme de Cupertino voyait sans doute déjà à l'époque le potentiel de ce projet à plus long terme, et la possibilité qui serait la sienne de migrer également ses Mac. Cela lui aura pris 10 ans. Une période pendant laquelle elle s'est progressivement détachée de ses différentes dépendances, parfois dans la douleur (voir ici ou ).

Il lui reste quelques partenaires de premier plan qu'elle n'a pas (encore ?) concurrencé ou racheté, notamment TSMC. Intel n'était donc sans doute qu'une étape à franchir dans le plan de bataille. Pas la plus rapide, ni la plus simple, mais pas la plus insurmontable. 

Projets abandonnés : Intel au coude à coude avec Google

Car pendant ces dix ans, Intel n'aura pas réussi à la rassurer ou à se rendre indispensable. Il faut dire qu'après ses ratés dans le mobile, le fondeur a répété les mêmes erreurs. Krzanich a lui aussi a annulé projets sur projets à trop vouloir jouer aux copycat. Le Raspberry Pi connait du succès ? Voici Gallileo. Les objets connectés font la tendance, lançons-nous dans Quark, les lunettes et la mode. Tout est passé à la trappe ou presque.

On passera sur les montres rapidement rappelées pour cause de défaut ou le casque de VR autonome, lui aussi aux oubliettes. Des erreurs à peine compensées par une stratégie de croissance externe, notamment lorsqu'il a fallu se renforcer dans le véhicule autonome et l'IA. Mais aussi de bons résultats financiers, parfois obtenus au prix d'efforts importants de la part des salariés, pour une part licenciés.

Comment Apple aurait-elle pu imaginer son avenir dans de tels errements ? D'autant qu'elle connaissait aussi les coulisses, moins publiques : la roadmap était au point mort et la finesse de gravure rencontrait des problèmes. Et ce, même avant Skylake, ses (trop) nombreuses déclinaisons ou le 10 nm.

Intel manquera-t-il à Apple ?

L'entreprise à la pomme est bien placée, avec ses claviers par exemple, pour savoir qu'un produit peut rencontrer des problèmes et qu'il faut parfois du temps pour en venir à bout. Et qu'une feuille de route ne s'exécute pas toujours aussi bien que prévu. Dans de telles situations, on juge en général un partenaire à ses réactions. Et c'est sans doute aussi là qu'Intel ne s'est pas montrée à la hauteur.

On se rappelle ainsi du passage douloureux à Broadwell, où Krzanich a répété que tout allait bien malgré les retards du projet (qui n'étaient pas de son fait, il n'était là que depuis un an). Une erreur qu'il répètera avec le 10 nm, évoquant à plusieurs reprises que tout allait bien et que tous les marchés en profiteraient sous peu, esquivant le sujet considéré comme trop technique, avec le résultat que l'on connait.

Intel Roadmaps 2021Intel Roadmaps 2021

Comet Lake-S, annoncé le mois dernier, est toujours gravé en 14 nm. Il ne devrait pas avoir une durée de vie très longue, Rocket Lake-S qui ne tardera pas à le remplacer. Avec des caractéristiques et un socket LGA 1200 similaires, mais pour la première fois un GPU Xe intégré sur PC de bureau. C'est seulement avec la génération suivante et son architecture parfois asymétrique (Alder Lake-S), sur LGA 1700 que l'on passera enfin au 10 nm.

Les puces mobiles garderont ainsi et pour un temps encore un peu d'avance. Le 10 nm est déjà en place pour certaines puces de 10e génération et devrait se généraliser avec Tiger Lake qui introduira lui aussi un GPU Xe sous la forme d'une partie graphique intégrée, d'ici la fin de l'année

On commencera alors à basculer progressivement dans la roadmap dessinée par la nouvelle équipe, et à toucher à ce qu'elle a mis en place, notamment une plus grande modularité des architectures, la couche logicielle unifiée (via OneAPI), puis de nouvelles technologies devant permettre à Intel de faire son retour en force.

Le géant de Santa Clara l'a très bien dit, à sa manière, dans son commentaire public : le meilleur moyen de faire regretter un ex, c'est de lui montrer que l'on s'épanouit bien mieux sans lui. Pour une société telle qu'Intel, la stratégie consiste donc à proposer les meilleurs produits du marché, avec une bonne intégration aux OS, et qu'Apple finira par regretter de ne pouvoir intégrer dans ses Mac fermés sur eux-mêmes, n'utilisant que les SoC ARM maison. 

Y'a plus qu'à ! Autant dire que la route risque d'être encore longue.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

AMD vante ses efforts des dernières années

Après la décision d'Apple, Intel a tout à prouver

Apple et Intel : des chemins divergents depuis bien avant Skylake

Projets abandonnés : Intel au coude à coude avec Google

Intel manquera-t-il à Apple ?

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (27)


"il faut « délivrer »" arrgh non pitié pas ces anglicismes ignobles :eeek2: :transpi:



Dommage de pas avoir tenté AMD en fait, ou mieux CPU AMD et GPU Nvidia :francais::francais:
Je m‘en fais pas pour Apple qui saura bien vendre ses nouveautés. Dommage pour le x86 :chinois:


Dans mac os "big sur" il y a des références de pilote concernant AMD NAVI 31(RDNA3) ou d‘autres futures GPU d’AMD radeon instinct (embarquant CDNA ou CDNA2), pour le moment rien ne dit qu‘Apple va lâcher les GPU AMD



jb18v a dit:


"il faut « délivrer »" arrgh non pitié pas ces anglicismes ignobles :eeek2: :transpi:




Oui ça m‘a un peu choqué aussi, surtout qu’il y avait pas "libérer…" avant :mdr2:



Pour Intel, je ne pense pas qu‘Apple les regrette… au contraire, maintenant ils pourront avancer à leur rythme et s’ils font de la daube, ils ne pourront plus rejeter la faute sur quelqu‘un d’autre (Motorola, IBM, Intel), quoique ils pourront toujours dire que le fondeur fait de la m :D


Toute la question va résider dans les performances des puces apple et dans l‘immense campagne de pub qui va nous raconter qu’elles sont 100 fois plus puissantes en consommant moitié moins que les intels.
En tout cas, ça va relancer les trolls !
Après, pour un macbook air, ça ne devrait pas faire trop de différence, mais pour une machine demandant plus de puissance, je pense qu‘intel et AMD ont encore de la marge…


"La prochaine génération pour PC de bureau, sur LGA 1700 (Rocket Lake-S puis Alder Lake-S), sera la première à passer au 10 nm"



De ce que j‘ai compris, Rocket Lake sera encore en 14nm avec du LGA1200 :
https://wccftech.com/intel-rocket-lake-8-core-16-thread-desktop-cpu-xe-gpu-benchmarks-leak/
"The whole CPU is a Frankenstein of a design since it will be making use of a 14nm process node while backporting 10nm architectures to 14nm."


PPC -> x86_64 -> ARM
Ce sera quoi la prochaine architecture? SPARC? MIPS? :D



xillibit a dit:


Dans mac os "big sur" il y a des références de pilote concernant AMD NAVI 31(RDNA3) ou d‘autres futures GPU d’AMD radeon instinct (embarquant CDNA ou CDNA2), pour le moment rien ne dit qu‘Apple va lâcher les GPU AMD




Oui, comme dit, Apple va continuer à supporter les Mac Intel et à en proposer de nouveau. La présence d’AMD ne dit en rien qu‘ils seront présents aux côtés des SoC ARM. Cela pourra être le cas, ou pas, on verra. Si c’est le cas, ce sera quand même un gros travail d‘adaptation pour eux et pour un unique client, mais ça peut être dans leur intérêt. On verra ce qu’Apple en pense.




bilbonsacquet a dit:


Oui ça m‘a un peu choqué aussi, surtout qu’il y avait pas "libérer…" avant :mdr2:Pour Intel, je ne pense pas qu‘Apple les regrette… au contraire, maintenant ils pourront avancer à leur rythme et s’ils font de la daube, ils ne pourront plus rejeter la faute sur quelqu‘un d’autre (Motorola, IBM, Intel), quoique ils pourront toujours dire que le fondeur fait de la m :D



bilbonsacquet a dit:


Oui ça m‘a un peu choqué aussi, surtout qu’il y avait pas "libérer…" avant :mdr2:




Parfois on est obligé de faire avec ;)




bilbonsacquet a dit:


Pour Intel, je ne pense pas qu‘Apple les regrette… au contraire, maintenant ils pourront avancer à leur rythme et s’ils font de la daube, ils ne pourront plus rejeter la faute sur quelqu‘un d’autre (Motorola, IBM, Intel), quoique ils pourront toujours dire que le fondeur fait de la m :D




Qu‘Apple les regrette ou pas dépend de ce qu’ils seront capables de mettre sur le marché. Maintenant Intel joue contre eux, ils le prendront sans doute en compte. Mais comme dit, ce sont des paris et des enjeux à long terme, on ne peut jamais être sûr de rien à l‘avance.



Mais oui, Apple sera désormais responsable aussi de la performance de ses Mac et de comment ils se placent face à la concurrence (dans autre chose que GeekBench, vu qu’on ne sera pas dans un OS complètement verrouillé à la iOS pour analyser les performances).




golgoth17 a dit:


Toute la question va résider dans les performances des puces apple et dans l‘immense campagne de pub qui va nous raconter qu’elles sont 100 fois plus puissantes en consommant moitié moins que les intels. En tout cas, ça va relancer les trolls ! Après, pour un macbook air, ça ne devrait pas faire trop de différence, mais pour une machine demandant plus de puissance, je pense qu‘intel et AMD ont encore de la marge…




Voir ma remarque au-dessus et le précédent papier IH sur le sujet. Mais dans un premier temps on va nous servir du geekbench global jusqu’à l‘épuisement. Quand on sera capable de lancer un vrai test significatif et natif, on aura une idée de ce qu’ils ont dans le ventre.




Magyar a dit:


De ce que j‘ai compris, Rocket Lake sera encore en 14nm avec du LGA1200




Oui my bad, même avec l’habitude et les relectures, on fini par s‘y perdre :transpi:




Albirew a dit:


PPC -> x86_64 -> ARM Ce sera quoi la prochaine architecture? SPARC? MIPS? :D




Risc-V ;)



Albirew a dit:


PPC -> x86_64 -> ARM Ce sera quoi la prochaine architecture? SPARC? MIPS? :D




Comme David, je vote RISC-V ! L‘avantage ? ISA (le jeu d’instructions) et ses extensions sont libres de droit, aucune royalties à payer comme c‘est le cas pour ARM.



Elioty a dit:





Ce qui fait qu‘Apple n’ira jamais (à moins de pouvoir s‘assurer de pouvoir tout verrouiller :D


Il y a peut être aussi la question récurrente des failles de sécurité chez Intel.


Il y a aussi un aspect culturel pour Apple qui n‘a jamais aimer la mémoire segmentée (68000 family).



CR_B7 a dit:


Il y a peut être aussi la question récurrente des failles de sécurité chez Intel.




Oui, même si aucune archi n‘est épargnée en la matière (et ce n’est de toutes façons qu‘une question de temps pour que ce soit réglé by design). Mais je doute que ce soit une préoccupation majeure expliquant la décision prise par rapport à la multitude d’autres aspects.



CR_B7 a dit:


Il y a peut être aussi la question récurrente des failles de sécurité chez Intel.




La faiblesse d‘Intel est de travailler sans OS sur des produits larges (une architecture maximale par an, avec 2 ou 3 variantes). La moindre faille rapporte très gros.



Rien ne dit qu’une fois les processeurs ARM Mac implantés, ils n‘aient pas leur lot de failles également, par contre, ce n’est pas sûr que ça intéresse grand monde (le parc de Mac n‘est pas foufou). Leur OS ne sera pas fiable de toutes façons (sans être péjoratif, des OSes fiables à 100%, ça n’existe pas à ma connaissance), alors pourquoi s‘emmerder à cibler un matériel spécifique?



Tout comme il est plus facile de pirater un iphone parce que plus de gens s’y intéressent. Mais ça cible bien plus l‘OS que sa base matérielle.



CR_B7 a dit:


Il y a peut être aussi la question récurrente des failles de sécurité chez Intel.




Cela a du clairement peser dans la décision.



patos a dit:


La faiblesse d‘Intel est de travailler sans OS sur des produits larges (une architecture maximale par an, avec 2 ou 3 variantes). La moindre faille rapporte très gros.Rien ne dit qu’une fois les processeurs ARM Mac implantés, ils n‘aient pas leur lot de failles également, par contre, ce n’est pas sûr que ça intéresse grand monde (le parc de Mac n‘est pas foufou). Leur OS ne sera pas fiable de toutes façons (sans être péjoratif, des OSes fiables à 100%, ça n’existe pas à ma connaissance), alors pourquoi s‘emmerder à cibler un matériel spécifique?Tout comme il est plus facile de pirater un iphone parce que plus de gens s’y intéressent. Mais ça cible bien plus l‘OS que sa base matérielle.




Tu cible les clients plus que les machines, soit par le nombre, soit par leur porte monnaie.
En plus, les puces Apple seront déclinées sur tout la gamme, donc la cible est d’un coup bien plus large (Smartphone, tablettes, Mac).
Avec en prime, dans certains cas, la possibilité de transposer sur des puces ARM génériques et donc démultiplié…



Suivant le type d‘attaquant, c’est soit l‘exploit, soit pour se faire du cash derrière, d’une manière ou d‘une autre. On va laissé de côté les sempiternels "vengeance du mec qui se fait lourder" et "terro trop fertile" pour le moment.


Intel reste une drôle de boîte. Ils ont des moyens colossaux mais ont complètement foire sur le mobile et sont maintenant mis à mal par AMD…



Je serai curieux de savoir où est parti tout leur fric… Probablement en p et cocaïne! :mad2:



Nerg34 a dit:


Intel reste une drôle de boîte. Ils ont des moyens colossaux mais ont complètement foire sur le mobile et sont maintenant mis à mal par AMD…Je serai curieux de savoir où est parti tout leur fric…




Comme dit dans l‘article: investissements et abandons, recrutement hors de prix certainement…
Je ne leur crache pas dessus, ils ont déjà la rançon de la gloire: les failles qui s’enchaînent (enfin, surtout des nouvelles façons d‘exploiter les mêmes), les quitter devient un argument marketing (avant cette annonce d’Apple, n‘oublions pas Windows 10 sur PC/tablette en ARM), et leur réputation est au plus bas (ce que je trouve disproportionné - leurs processeurs restent très performants)



D’ailleurs, c‘est dommage pour Atom: c’était fiable, pas cher, suffisamment performant et peu consommateur. Mais on ne les a pas retrouvé dans les bons produits!



Enfin, avec l‘arrivée de "BIG.little" chez Intel, on peut s’attendre à se rapprocher des promesses d‘ARM mais avec les PC (quand Windows sera prêt :) ).



Ceci dit, je fais confiance aussi à Apple pour produire de la puce qui finira par arracher, surtout que maîtrisant le silicone, l’OS et le soft, ils vont bien réussir à montrer des softs spécifiquement développé, sans équivalent réel, et aux perfs incomparables.



(quote:47890:brice.wernet)
D‘ailleurs, c’est dommage pour Atom: c‘était fiable, pas cher, suffisamment performant et peu consommateur. Mais on ne les a pas retrouvé dans les bons produits!




Il ne faut pas oublier que les Atom sont encore là. Mais oui, ils ont été pensés pour des trucs mobiles et sont massivement utilisés dans des NAS :D



David_L a dit:


Il ne faut pas oublier que les Atom sont encore là. Mais oui, ils ont été pensés pour des trucs mobiles et sont massivement utilisés dans des NAS :D




c‘est mobile un NAS ! je vois pas ce que tu veux dire ^^



David_L a dit:


Comment Apple aurait-elle pu imaginer son avenir dans de tels errements ?




Je ne suis pas d‘accord sur le terme "errements", Intel a essayé diverses choses et certaines n’ont pas fonctionné, c‘est normal (et souhaitable) dans une société de haute technologie de se lancer dans des secteurs quitte à se planter sur certains. D’autres grandes sociétés ont connu des plantages en se lançant dans un sous-secteur.




jb18v a dit:


"il faut « délivrer »" arrgh non pitié pas ces anglicismes ignobles :eeek2: :transpi:




:chinois:



Je n‘arrive pas à me faire non plus au terme "expérience" pour dire "utilisation/ressenti utilisateur", comme dans la phrase « proposer [i]l’expérience PC[/i] la plus avancée ». On ne fait pas une expérience (comme dans un labo), on utilise, ça n‘a pas du tout le même sens. Quand j’utilise un PC, je ne fais pas d‘expérimentation.




bilbonsacquet a dit:


Oui ça m’a un peu choqué aussi, surtout qu‘il y avait pas "libérer…" avant :mdr2:




:mdr:



OlivierJ a dit:


Je ne suis pas d‘accord sur le terme "errements", Intel a essayé diverses choses et certaines n’ont pas fonctionné, c‘est normal (et souhaitable) dans une société de haute technologie de se lancer dans des secteurs quitte à se planter sur certains. D’autres grandes sociétés ont connu des plantages en se lançant dans un sous-secteur.:chinois:




Oui, mais quand ça devient une marque de fabrique (et on en a vécu une paire d‘assez près, je n’ai d‘ailleurs pas tout mentionné pour éviter l’inventaire à la Prévert), ce ne sont plus des erreurs ponctuelles, on peut parler d‘errements ;)



(quote:47890:brice.wernet)
surtout que maîtrisant le silicone




Silicium… Silicone ça a pas trop d‘utilité dans un processeur :mdr:



OlivierJ a dit:


Je n‘arrive pas à me faire non plus au terme "expérience" pour dire "utilisation/ressenti utilisateur", comme dans la phrase « proposer [i]l’expérience PC[/i] la plus avancée ». On ne fait pas une expérience (comme dans un labo), on utilise, ça n‘a pas du tout le même sens. Quand j’utilise un PC, je ne fais pas d‘expérimentation.




Pour une expérience comme dans un labo, on parle d’expériment. :troll:



bilbonsacquet a dit:


Silicium… Silicone ça a pas trop d‘utilité dans un processeur :mdr:




C’est pour gonfler les perf



bilbonsacquet a dit:


Silicium… Silicone ça a pas trop d‘utilité dans un processeur :mdr:




C’est pour amortir les problèmes liés aux failles de sécurité intégrées dans le Silicium :lol:




tazvld a dit:


C‘est pour gonfler les perf




Aussi, les deux (amortir les problèmes liés aux failles de sécurité, enfin, leur contournement logicielle) et gonfler les perfs (ou éviter d’en perdre) xD



Avisance a dit:




:mdr2: