IDF 2014 : Intel veut profiter des révolutions en cours, et évoque Skylake

IDF 2014 : Intel veut profiter des révolutions en cours, et évoque Skylake

Intel partout, ARM nulle part ?

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

09/09/2014 5 minutes
21

IDF 2014 : Intel veut profiter des révolutions en cours, et évoque Skylake

C'est aujourd'hui que s'ouvrait le second IDF avec Brian Krzanich aux commandes. Le nouveau PDG d'Intel est ainsi venu sur scène pour évoquer les nouveaux marchés visés par l'entreprise et sa stratégie à long terme, toujours avec le x86 au cœur.

L'année dernière, Intel montrait toute sa volonté de se lancer dans le monde des objets connectés, mais aussi sur le marché du « wearable ». Une volonté qui prenait la forme de l'annonce du processeur Quark, mais qui s'est renforcée depuis avec l'arrivée d'un nouveau modem ultra compact ou de plusieurs produits créés avec de grands nom de la mode ou de la musique

Intel, c'est fashion !

Une volonté d'obtenir rapidement des résultats exprimée assez clairement par Brian Krzanich dès l'ouverture de sa keynote de cette année, ce dernier évoquant l'importance de montrer que les annonces mènent à du concret d'une année à l'autre. L'occasion d'apprendre qu'AT&T sera le distributeur exclusif du bracelet MICA. Il est néanmoins rapidement revenu aux basiques d'Intel et le besoin d'étendre la présence des puces x86, qui étaient plus de 2,2 milliards sur le marché en 2013.

 

IDF Keynote day 0IDF Keynote day 0

 

Après que Greg McKelvey de Fossil Group se soit un peu appesanti sur la notion de marque, de partenariat et comment des sociétés peuvent travailler ensemble pour créer des produits innovants, notamment dans le monde de la mode, Krzanich est revenu sur Edison. Ce PC ultra compact, de la taille d'une carte SD, était annoncé il y a quelques mois et est arrivé sur le marché depuis. Proposé à 50 $ chez certains revendeurs, il devrait être présent dans 65 pays d'ici la fin de l'année. Pour rappel, il est composée d'un SoC à deux cœurs fonctionant à 500 MHz et gravé en 22 nm, et d'un microcontrôleur Quark 32 bits à 100 MHz. Il intègre 1 Go de LPDDR3, 4 Go d'eMMC, du Wi-Fi double bande, du Bluetooth LE et  peut supporter un connecteur GPIO à 40 brocheS. 

 

Intel espère ainsi voir « une explosion de l'innovation » autour de ce produit, notamment via les « makers » qui sont mentionnés partout dans la communication d'Intel ces derniers temps. Il en est surement de même concernant un autre produit, moins compact mais qui vise un public similaire : Galileo.

Des objets aux serveurs en passant par la recherche, Intel veut être partout

Mais le vrai focus d'Intel reste l'internet des objets (IoT pour les intimes), qui a un double intérêt pour la société, qui peut à la fois chercher à se placer dans les objets en questions, mais aussi dans le secteur du Big Data et des serveurs nécessaires pour traiter la multitude de données générées par tous ces gadgets, plus ou moins utiles, mais qui vont prendre une place de plus en plus importante dans nos vies, qu'on le veuille ou non. De quoi nous faire entrer dans « l'ère de l'analytique ».

 

Intel EdisonIDF Keynote day 0

 

Intel vise aussi le marché de la médecine et de la génétique, multipliant les partenariats et les efforts afin de prendre une place de choix dans l'étude du génome et l'analyse des maladies pouvant toucher chacun d'entre nous, qui sera sans doute l'un des marchés en pleine expansion dans les prochaines années. La promesse ? Séquencer votre génome, détecter vos cancers possibles et vous donner des conseils médicaux, le tout en une seule journée d'ici 2020. Dans seulement six ans.

 

Plus proche de nous, il a été question d'un nouveau programme réservé aux développeurs, A-Wear (Analytics for wearables) pensé pour faciliter la création d'applications et de services permettant d'analyser et de traiter les données issues d'objets connectés. Celui-ci permet d'accéder à des outils spécifiques mais aussi aux solutions de Cloudera, sans que l'on ait pour le moment tous les détails.

Le 14 nm bientôt dans vos portables, l'année prochaine dans vos PC de bureau

Il était ensuite temps de parler des machines qui font notre quotidien, notamment avec les récentes annonces ou l'arrivée du 14 nm et des Core M, les versions de bureau étant bien prévues pour le début de l'année prochaine. Bien entendu, Kirk Skaugen nous a vanté les intérêts de son nouveau bébé, que ce soit en termes de performance, de finesse ou même d'autonomie. 

 

Mais la suite de la roadmap a aussi été évoquée, avec Skylake. Pour rappel, il s'agira ici d'une nouvelle architecture qui sera la seconde à profiter du 14 nm. Une première démonstration a été faite sur 3DMark, mais aussi un 2-en-1 qui sera proposé aux développeurs afin de leur permettra d'adapter leurs applications. Skylake est attendu pour la seconde moitié de 2015.

 

IDF Keynote day 0IDF Keynote day 0

 

Du côté des usages, on a eu droit à l'habituelle charge contre les mots de passe qu'il faut absolument remplacer, sans doute par des outils biométriques qui ne conviendront pas non plus... nous incitant à rester sur les mots de passe. Mais c'est du côté des usages sans fil qu'il faut chercher des éléments intéressants, que ce soit du côté de la charge sans fil (via Rezence, ex AW4P). Mais comme l'on pouvait s'y attendre, des stations d'accueil sans fil seront aussi de la partie, tout comme WiDi (Wireless Display). 

 

Tant de pistes qui devraient permettre à Intel de s'assurer une omniprésence dans notre avenir... si tout se passe comme prévu.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Intel, c'est fashion !

Des objets aux serveurs en passant par la recherche, Intel veut être partout

Le 14 nm bientôt dans vos portables, l'année prochaine dans vos PC de bureau

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (21)


Du coup intel lance les i3-i5-i7 Broadwell en 14 nm début 2015 et les Skylake au deuxième semestre ?








wrcseb a écrit :



Du coup intel lance les i3-i5-i7 Broadwell en 14 nm début 2015 et les Skylake au deuxième semestre ?





Comme prévu, oui ;)









David_L a écrit :



Comme prévu, oui ;)





Merci :)



Et sur le LGA 1150 y aura du 6 cœurs au moins ? ou c’est encore reparti avec du 4 cœurs ?



edit = visiblement c’est que du quad core même pour skylake bon ben…… X99


Damned j’ai en commande une cm itx z97 un i7 4790k et 16go ddr3….. <img data-src=" />

Leurs remplaçants déjà dans 6 mois ?

<img data-src=" />


Remercions l’éco-taxe, que le client paie et qui permet aux entreprises et avec la complicité de nos chers politocards, de prendre notre planète pour une poubelle géante en incitant à la sur-consommation et à la prolifération de déchets électronique.





Remercions l’éco-taxe, que le client paie et qui permet aux entreprises et avec la complicité de nos chers politocards, de prendre notre planète pour une poubelle géante en incitant à la sur-consommation et à la prolifération de déchets électronique.





Et oui ! D’autant plus que plus les gravures sont fines (16 nm, c’est une grosse centaine d’atomes …) plus la durée de vie des ces circuits est limitée. Bref, attendez-vous à remplacer assez souvent ces inutiles gadgets.








chr_yokohama a écrit :



Damned j’ai en commande une cm itx z97 un i7 4790k et 16go ddr3….. <img data-src=" />

Leurs remplaçants déjà dans 6 mois ?

<img data-src=" />





C’est parce qu’une nouvelle gamme apparaît que l’ancienne est de suite obsolète. Un i7-2600k ça en a encore un paquet sous le pied ;)

D’autant plus que les perfo brute n’augmente plus énormément entre deux générations, l’accent étant mis sur le rapport perf/conso :)









Charly32 a écrit :



[quote:5154327:chr_yokohama]D’autant plus que les perfo brute n’augmente plus énormément entre deux générations, l’accent étant mis sur le rapport perf/conso :)





vrai, je trouve d’ailleurs ça bien triste !! :(



Vraiment pressé de voir qu’est ce que ces core M vont donner :)








ptetbien a écrit :



Et oui ! D’autant plus que plus les gravures sont fines (16 nm, c’est une grosse centaine d’atomes …) plus la durée de vie des ces circuits est limitée. Bref, attendez-vous à remplacer assez souvent ces inutiles gadgets.





Je pense que tu connais assez mal le sujet, parce que c’est assez bien caractérisé justement l’usure de chaque point du circuit.

Pouvoir réduire certains composants fait qu’il faut moins d’énergie pour les basculer de 0 a 1, donc moins de courant, donc ca fatigue moins le fil.

Et pouvoir graver a 16nm n’empeche pas de graver des mos de 1um bien au contraire.





Je pense que tu connais assez mal le sujet, parce que c’est assez bien caractérisé justement l’usure de chaque point du circuit.





Je connais très bien le sujet. Je m’occupe avec les fabricants de semi-conducteurs des problèmes posés par les composants utilisés dans l’industrie pour qui la fiabilité et la durée de vie des équipements est fondamentale. Dans les années 60 70, l’industrie électronique est guidée par les besoins des industriels qui représentaient alors la majorité du marché en valeur. Avec le développement explosif du marché grand public de ces dernières décennies, l’essentiel du chiffre d’affaires des fabricants de semi-conducteurs est réalisé avec ce marché grand public. Les industriels sont désormais obligés de se servir des composants grand public pour fabriquer des automates industriels. La preuve en est que les gammes de composants dits “militaires” ou “industriels” ne sont plus dans les catalogues. Il fut une période (années 80 et 90) où les composants grand public et industriels étaient confondus, ce qui à permis de faire baisser les coûts des applications industrielles.

C’est donc le marché grand public qui oriente la recherche et le développement des composants. Et là, c’est la course en avant, comme le montre cet article. Les technologies des semi-conducteurs ne seront jamais matures parce qu’en perpétuelle évolution, et ce n’est pas moi qui le dit, ce sont les fabricants eux-mêmes. Cette fiabilité relative des composants électroniques actuelle n’est par en soi gênante pour un marché qui se renouvelle rapidement, mais elle est très gênantes pour les utilisateur qui ont besoin de matériels sérieux. Et cette distance entre les besoins des industriels et les disponibilités du marché augmente d’années en années.



Et pouvoir graver a 16nm n’empêche pas de graver des mos de 1um bien au contraire.



Non, les usines ont disparu pour la plupart. Et s’il en reste pour des raisons évoquées plus haut (fiabilité), les coûts de production sont d’un tout autre ordre.

Il est possible en effet que dans l’avenir, on retrouve comme dans les années 60 deux marché séparés, un marché industriel, avec des technologies éprouvées fabriquées avec des process rares et chers, et un marche grand public où la durée de vie des composants n’est pas une affaire puisque l’on jette une fois que c’est en panne.








David_L a écrit :



Comme prévu, oui ;)





Du coup, je trouve ca commercialement etrange : autant attendre quelques mois et avoir un CPU superieur (AVX-512 notamment).









ptetbien a écrit :



Je connais très bien le sujet. Je m’occupe avec les fabricants de semi-conducteurs des problèmes posés par les composants utilisés dans l’industrie pour qui la fiabilité et la durée de vie des équipements est fondamentale. Dans les années 60 70, l’industrie électronique est guidée par les besoins des industriels qui représentaient alors la majorité du marché en valeur. Avec le développement explosif du marché grand public de ces dernières décennies, l’essentiel du chiffre d’affaires des fabricants de semi-conducteurs est réalisé avec ce marché grand public. Les industriels sont désormais obligés de se servir des composants grand public pour fabriquer des automates industriels. La preuve en est que les gammes de composants dits “militaires” ou “industriels” ne sont plus dans les catalogues. Il fut une période (années 80 et 90) où les composants grand public et industriels étaient confondus, ce qui à permis de faire baisser les coûts des applications industrielles.

C’est donc le marché grand public qui oriente la recherche et le développement des composants. Et là, c’est la course en avant, comme le montre cet article. Les technologies des semi-conducteurs ne seront jamais matures parce qu’en perpétuelle évolution, et ce n’est pas moi qui le dit, ce sont les fabricants eux-mêmes. Cette fiabilité relative des composants électroniques actuelle n’est par en soi gênante pour un marché qui se renouvelle rapidement, mais elle est très gênantes pour les utilisateur qui ont besoin de matériels sérieux. Et cette distance entre les besoins des industriels et les disponibilités du marché augmente d’années en années.



Non, les usines ont disparu pour la plupart. Et s’il en reste pour des raisons évoquées plus haut (fiabilité), les coûts de production sont d’un tout autre ordre.

Il est possible en effet que dans l’avenir, on retrouve comme dans les années 60 deux marché séparés, un marché industriel, avec des technologies éprouvées fabriquées avec des process rares et chers, et un marche grand public où la durée de vie des composants n’est pas une affaire puisque l’on jette une fois que c’est en panne.





Bon, désolé si je te froisse mais tu parles de composants discrets plutot on dirait.

On parle de micro-électronique, et je maintiens que tout est caractérisé selon un cahier des charges et une usure donnée.

On sait faire des chips qui sont censés rester fonctionnels 10ans sur une plage de température donnée comme on sait faire des chips qui vont marcher 50ans dans l’espace. Et oui c’est pas le meme prix.



Ensuite tu parles d’usines, tant qu’il y a du marché ils maintiennent les vieux process a pas cher, mais moi je te disais qu’on peut très bien faire du robuste avec un process moderne.



En fait, tu te pleins plus du marché que des gravures fines il me semble…









ptetbien a écrit :



Et oui ! D’autant plus que plus les gravures sont fines (16 nm, c’est une grosse centaine d’atomes …) plus la durée de vie des ces circuits est limitée. Bref, attendez-vous à remplacer assez souvent ces inutiles gadgets.







Tu aurais un article qui parle du phénomène de cause a effet?

Je pensais que du fait de la finesse ça chauffait plus et donc que c était plus fiable









ldesnogu a écrit :



Du coup, je trouve ca commercialement etrange : autant attendre quelques mois et avoir un CPU superieur (AVX-512 notamment).





On peut dire ça de Haswell vis-à-vis de Broadwell non ? On peut toujours avoir mieux, plus tard :)









David_L a écrit :



On peut dire ça de Haswell vis-à-vis de Broadwell non ? On peut toujours avoir mieux, plus tard :)





Entre Haswell et Broadwell il se sera ecoule au mieux 18 mois puisque Haswell etait dispo mi-2013. La on parle de moins de 12 mois et potentiellement 6 mois, ce qui change fortement la donne, non ? A mon avis, oui :-)





Bon, désolé si je te froisse mais tu parles de composants discrets plutot on dirait.





Je ne vois pas où tu vois que je parle de composants discrets. Il s’agit bien de VLSI.



Un cahier des charges ne fait pas tout. C’est un papier. Le circuit intégré obéit à des lois physiques et non à une spécification. Disons seulement qu’il est étudié pour respecter une spécification, cela ne veut pas dire que des phénomènes non contrôlés sont alors exclus.



Voici une liste non exhaustive dont peut souffrir un circuit intégré





  • Electromigration,

  • Porteurs chauds,

  • Diffusion

  • Diaphonie





  • Tout cela est d’autant plus sensible que les gravures sont fines et que la température de fonctionnement est élevée.



    Les fabricants ont intérêt à pousser leurs produits aux limites physiques pour proposer à moindre coût des circuits de plus en plus puissants. Il n’est donc pas dans leur projet de limiter la température de fonctionnement à fonctions égales, mais d’intégrer dans le même composant plus de fonctions à température de fonctionnement égale.




Tu aurais un article qui parle du phénomène de cause a effet?

Je pensais que du fait de la finesse ça chauffait plus et donc que c était plus fiable





Il y en a plein :



http://scholar.google.fr/scholar?as_ylo=2013&q=failure+mechanism+in+vlsi&amp…








ptetbien a écrit :



Je ne vois pas où tu vois que je parle de composants discrets. Il s’agit bien de VLSI.



Un cahier des charges ne fait pas tout. C’est un papier. Le circuit intégré obéit à des lois physiques et non à une spécification. Disons seulement qu’il est étudié pour respecter une spécification, cela ne veut pas dire que des phénomènes non contrôlés sont alors exclus.



Voici une liste non exhaustive dont peut souffrir un circuit intégré





  • Electromigration,

  • Porteurs chauds,

  • Diffusion

  • Diaphonie





  • Tout cela est d’autant plus sensible que les gravures sont fines et que la température de fonctionnement est élevée.



    Les fabricants ont intérêt à pousser leurs produits aux limites physiques pour proposer à moindre coût des circuits de plus en plus puissants. Il n’est donc pas dans leur projet de limiter la température de fonctionnement à fonctions égales, mais d’intégrer dans le même composant plus de fonctions à température de fonctionnement égale.







    <img data-src=" />

    Ok, je connais pas bien ton domaine non plus.



    Les pbs dont tu parles sont bcp mieux modélisables de nos jours; il y a 10 ou 20ans ca n’était ni un pb ni potentiellement gérable de simuler ces comportements; aujourd’hui on peut se permettre de les prendre en compte et de dimensionner en conséquence chaque besoin.



    Je me permets d’insister sur 1 point, quand si une techno 20nm permet de graver des fils de 20nm espacés de 20nm, elle permet aussi de graver des fils de 1um espacés de 1um et elle le fera avec beaucoup plus de précision qu’une techno 0.35um, la variation sera bien mieux contrôlée donc le yield sera bien meilleur pour tous les composants exigents.

    L’utilisation de la finesse maximale se fera sur certains points critiques très répétitifs et avec une certaine tolérance aux fautes de process par design (redondance) et sur des parties tolérantes aux variations de process; mais la majeure partie du circuit sera sur-dimensionnée pour éviter les défaillances dont tu parles.



    Disons que c’est une évolution normale et logique que de savoir dimensionner chaque point du circuit intégré à la taille réelle de son usage, énormément de choses ne seraient possible sans cette miniaturisation. J’ai connu l’osborne ou tu pouvais changer chaque puce de la mémoire avec des pins au pitch de 2.54mm, et je ne vois pas l’intérêt aujourd’hui, à part au musée.

    C’est sur que c’est du jetable l’informatique; à part quelques marchés de niche on ne peut viser plus de 10ans d’usage. Et d’un point de vue consommation et démultiplication des capacités, en 10ans tu fais un sacré bond quand même.



    Et la on en revient à la divergence des besoins selon les marchés, et du volume de chaque marché; et du cout selon le volume.

    C’était une news sur les CPU mobiles, desktop et datacenter; pour ce marché à mon sens on ne peut ignorer les progrès faits à chaque étape.

    1 étape c’est 2ans (un shrink de 0.7 soit 50% en 2D), on peut sauter 2 étapes au mieux mais travailler avec du matériel qui a 10ans c’est un gouffre financier point de vue consommation, donc l’obsolescence est peut être programmée mais évidente aussi à l’usage.



    My 2 cents, merci d’avoir répondu en tout cas.

    <img data-src=" />



@ptetbien:

Comme toujours, il faut qu’on atteigne les limites et les problèmes pour s’en inquiéter, tant que ça passe, on ne met pas d’énergie dessus. Le cycle prend du coup quelques années (développement, production, échec, construction d’outils pour prévenir).









ptetbien a écrit :





  • Electromigration,





    Ca se définit maintenant il me semble, selon si ton noeud a telle charge (capacité), tel buffer de sortie et telle fréquence de fonctionnement, on peut détecter des faiblesses à la conception. D’ailleurs parmi les corrections si le routage est trop fin pour encaisser l’usage récurrent on peut décider de diminuer le buffer pour que le fil encaisse moins de courant pic si le signal n’est pas critique dans le timing global. Ça diminue la conso en même temps. :)







    ptetbien a écrit :



  • Porteurs chauds,





    Pas sur de comprendre, tu parles de substrat? d’échauffement des fils non pas du au courant sur le fil mais à l’échauffement de proximité?







    ptetbien a écrit :



  • Diffusion





    Pareil, pas sur de comprendre, on parle des charges arrachés pdvue atomique sur un mos ou des effets de variation de dopants well aux frontières des zones dopées dues à la profondeur des injections? Si c’est ça c’est pas encore intégré à la modélisation mais ça se prend en compte en amont sur les zones critiques, par design on peut prendre des marges pour éviter ces effets par brassage des composants et par uniformité des wells.







    ptetbien a écrit :



  • Diaphonie





    Ça je pense que c’est parmi les plus maitrisés, le couplage entre les nœuds est pris en compte dès le début du design depuis 10ans, et on peut shielder (un blindage type coaxial) ou équilibrer les nœuds qui ont besoin de l’être. Pour tous les autres noeuds c’est un gain non négligeable de pouvoir faire petit quand c’est pas critique.







    Bref, c’est pas simple quand on parle de chips a 5 milliards de composants actifs, mais à chaque problème il peut exister une solution. Reste à définir la volonté de chacun et l’énergie à mettre à chaque chose.