Intel : Brian Krzanich dévoile sa feuille de route, et vise les objets connectés

Intel : Brian Krzanich dévoile sa feuille de route, et vise les objets connectés

Renée James voudra bientôt vous faire implanter des sous Atom

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

10/09/2013 7 minutes
13

Intel : Brian Krzanich dévoile sa feuille de route, et vise les objets connectés

L'IDF de San Francisco ouvrait ses portes en fin d'après-midi. L'occasion pour le nouveau PDG, Brian Krzanich, de passer son premier grand oral et d'en dire plus sur ses intentions vis-à-vis de l'avenir de la société. Et force est de constater que l'opération est plutôt réussie, avec quelques annonces importantes à la clef.

Il y a quelques mois, Intel changeait de PDG. Paul Otellini laissait sa place à Brian Krzanich qui s'est assez rapidement attaché à évoquer les erreurs du passé et à confesser que la société avait pris le virage de la mobilité bien trop tard. Mais il fallait bien plus que ça pour convaincre qu'à l'avenir, ce genre de choses ne pourrait pas se reproduire.

 

Intel IDF 2013 Keynote Day 1 Intel IDF 2013 Keynote Day 1

Une roadmap qui se déroule, avec un zeste de « continuum »

Cette keynote d'ouverture était donc un test grandeur nature qui devait nous dire si l'homme avait la capacité d'un leader et surtout, une vision. Et cela semble bien le cas. SI l'on nous a rappelé qu'Intel voulait être présent dans tous les appareils, ce qui n'était pas sans rappeler le fameux « Continuum », c'était pour nous confirmer que le géant de Santa Clara passait de l'ère des processeurs à celle des SoC. Le message caché derrière cela était simple : Broadwell arrive. 

Pour rappel, cette nouvelle génération est attendue pour la fin de l'année prochaine (voir notre dossier) et sera la première à être gravée en 14 nm. Et plutôt que de nous rassurer sur l'avancée de cette technologie avec un wafer, il a ici été question de nous montrer une machine fonctionnelle, en nous promettant de plus en plus d'appareils à refroidissement passif.

Il nous a au passage été confirmé que les premières puces sortiraient des usines pour la fin de l'année et que les produits arriveraient chez les revendeurs d'ici la fin 2014. Aux dernières nouvelles, il est en effet question d'un lancement durant le troisième trimestre.

Intel IDF 2013 Keynote Day 1 Intel IDF 2013 Keynote Day 1
Une machine fonctionnant sous Broadwell

Le 14 nm arrive, le 7 nm pour 2017... et bientôt des modems XMM 7260 LTE Advanced

Les Atom seront aussi assez rapidement concernés puisque Airmont, qui remplacera Silvermont, devrait aussi passer au 14 nm dès le début de 2014 pour ce qui est des premières puces produites.

Un rapprochement des changements de finesse de gravure sur les différentes gammes prévu de longue date, mais qui semble enfin devenir réellement concret. La suite ? On en saura finalement assez peu : le 10 nm est ainsi prévu pour 2015 et en 2017, il sera temps de passer au 7 nm. Des nouveautés qui devront être accompagnées d'innovations dont il n'a pas été question.

C'est ensuite de tablettes et de smartphones d'entrer en piste. Si Bay Trail ne sera dévoilé officiellement que demain, il a déjà été question de produits fonctionnant avec des puces en 22 nm qui devraient arriver d'ici quelques semaines, de manière à terminer sous le sapin.

De nombreux produits commencent d'ailleurs à être exposés dans les allées du Moscone Center et nous devrions en savoir plus assez rapidement. Il a néanmoins été question d'un tarif de départ à moins de 100 $. 

Intel IDF 2013 Keynote Day 1 Intel IDF 2013 Keynote Day 1

Quoi qu'il en soit, le fondeur semble paré pour la LTE puisqu'il annonce que des smartphones exploitent désormais son modem XMM 7160 avec la plateforme Merrifield. Pour la LTE Advanced, il faudra par contre attendre encore un peu, le XMM 7260 qui la prendra en charge étant encore en développement. 

On attendra néanmoins des annonces plus concrètes pour se réjouir, tant nous avons été habitués avec Intel par ce genre d'annonces qui n'étaient dans la pratique suivies que par 2 ou 3 produits sur le marché, dans le meilleur des cas.

 

Intel IDF 2013 Keynote Day 1 Intel IDF 2013 Keynote Day 1

Les Xeon ne sont pas oubliés : Intel dévoile ses E5 v2 (Ivy Bridge-EP)

À l'inverse, il a aussi été question de serveurs, avec les Xeon de nouvelle génération (Ivy Bridge-EP) qui ont été dévoilées juste après la fin de la Keynote. Ceux-ci peuvent s'utiliser à plusieurs contrairement à Ivy Bridge-E et contiennent jusqu'à 12 cœurs ainsi que 30 Mo de cache L3. Ils supportent la DDR3 jusqu'à 1866 MHz dans le meilleur des cas et leur TDP peut grimper à 150 watts comme pour le E5-2687W v2 par exemple.

Ils sont au final annoncés comme 50 % plus performants et 45 % plus efficaces en terme de gestion de l'énergie par rapport à la gamme précédente, et de nombreux modèles ont été dévoilés :

 Intel Xeon E5 v2 Intel Xeon E5 v2

Pour rappel, il avait récemment été question des Atom C2000 Avoton pour l'entrée de gamme et les micro-serveurs (voir notre dossier). 

Des puces plus de plus en plus présentes et de plus en plus compactes...

Mais la plus grande surprise de cette matinée d'IDF était ailleurs. En effet, la nouvelle direction semble décidée à ne pas louper un autre mouvement qui est en marche : celui des appareils connectés et « portables ». Du podomètre nouvelle génération tel que l'Up de Jawbone à celui qui vous sera apposé sur le bras sous forme de patch dans les hôpitaux du futur, tout y passe. Et pour prendre cela en charge, un nouveau type de processeur a été annoncé : les Quark X1000.

Intel IDF Quark

Là encore, aucun détail pour le moment : l'architecture, la fréquence, le TDP... c'est silence radio. On apprendra juste que la puce est cinq fois plus petite qu'un Atom pour une puissance nécessaire 10x inférieure et un seul objectif : proposer un produit avec une consommation minimale et une architecture ouverte.

Attention, il n'est pas ici question de libérer les « plans » de la puce, mais bien de permettre à n'importe quel intégrateur de l'utiliser comme bon lui semble au sein d'une solution maison. Brian Krzanich a précisé que des « points d'accès » seraient ainsi proposés, sans en dire plus. 

... pour bientôt finir par être intégrées à l'homme lui-même ?

Deux kits de référence ont été dévoilés : l'un pour le marché de l'embarqué et un autre pour des appareils tels que les bracelets et autres « smartwatchs ». Aura-t-on droit à l'avenir à du Raspberry Pi ou à une gamme de produits Withings basés sur ces Quark en x86 ? Seul l'avenir nous le dira.

Mais cela semble bien le but puisque le fameux « Day 0 » de cet IDF était consacré en partie à comment l'informatique va révolutionner notre quotidien en nous accompagnant de manière toujours plus constante, batterie de futuristes à l'appui. La société nous a ainsi dit travailler sur l'émergence de produits qui consomment toujours moins, de l'ordre du microwatt. Bref : l'« Ubiquitous computing ».

Intel IDF Quark

Mais lorsque Renée James arrive et qu'il est question de commencer à séquencer notre génome, à guérir des maladies grâce à la technologie et de mieux nous connaître pour en arriver à trouver des solutions à des problèmes si complexes... on ne peut pas s'empêcher de s'attendre à ce que la société commence assez rapidement à faire des annonces autour du courant transhumaniste et à vouloir nous implanter ses puces, pour notre bien (bien entendu).

« I have a dream » à la sauce Intel : x86 partout, ARM nulle part

Quoi qu'il en soit, une chose semble sûre : Intel ne veut pour l'instant plus laisser le moindre terrain à ARM et ses partenaires. Alors qu'Apple vient d'annoncer son A7 en 64 bits, ce qui pourrait sonner comme une véritable révolution (pour une fois) si un tel produit était finalement utilisé dans un appareil tel qu'un MacBook Air (ce qui semble encore relativement improbable), il lui faut assurer sa présence dans les produits actuels, tout comme dans ceux qui changeront notre quotidien demain.

Un chemin qui est désormais tracé, mais qui nous semble relativement semé d'embuches. Reste à voir si Brian Krzanich sera le bon guide pour mener ce voyage à son terme.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une roadmap qui se déroule, avec un zeste de « continuum »

Le 14 nm arrive, le 7 nm pour 2017... et bientôt des modems XMM 7260 LTE Advanced

Les Xeon ne sont pas oubliés : Intel dévoile ses E5 v2 (Ivy Bridge-EP)

Des puces plus de plus en plus présentes et de plus en plus compactes...

... pour bientôt finir par être intégrées à l'homme lui-même ?

« I have a dream » à la sauce Intel : x86 partout, ARM nulle part

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (13)




Mais lorsque Renée James arrive et qu’il est question de commencer à séquencer notre génome, à guérir des maladies grâce à la technologie et de mieux nous connaître pour en arriver à trouver des solutions à des problèmes si complexes… on ne peut pas s’empêcher de s’attendre à ce que la société commence assez rapidement à faire des annonces autour du courant transhumaniste et à vouloir nous implanter ses puces, pour notre bien (bien entendu).



?????????????

Ils en parlent ou ils l’evoquent un minimum, ces puces implantées, ou c’est juste ton imagination ?



Ils parlent peut-être de puces “simples” de séquençage d’ADN, qui sont extrêmement spécifiques et qui demandent une archi particulière pour être vraiment efficaces ; ou des puces pour le calcul des conformations chimiques des nouvelles molécules pharma avec et les interactions molécule / récepteur, là aussi un domaine qui demanderait des puces spéciales…



De là à se les faire fourrer dans le Q, il y a quand même un gros monde et toute une palette d’autres possibilités à envisager, non ?








Drepanocytose a écrit :



?????????????

Ils en parlent ou ils l’evoquent un minimum, ces puces implantées, ou c’est juste ton imagination ?



Ils parlent peut-être de puces “simples” de séquençage d’ADN, qui sont extrêmement spécifiques et qui demandent une archi particulière pour être vraiment efficaces ; ou des puces pour le calcul des conformations chimiques des nouvelles molécules pharma avec et les interactions molécule / récepteur, là aussi un domaine qui demanderait des puces spéciales…



De là à se les faire fourrer dans le Q, il y a quand même un gros monde et toute une palette d’autres possibilités à envisager, non ?





Ils n’en parlent pas (juste de solutions ingérables pour des capteurs), mais c’est la suite logique. Ils ont une volonté de continuer de lier santé et technologie, notamment avec une version dérivée de l’ubiquitous. Mais globalement, quand tu commences à mesurer et à vouloir améliorer, ce qui suit… ;)



Woooooow on va passer du 14 nm au 7 nm en 3 ans ?? Du coup il n’est pas du tout irréaliste de penser qu’en 2025~2030 on atteindra 1 nm soit environ la taille de l’atome si je ne m’abuse…



En gros dans 15 ans on arriverait à la finesse de gravure maximum. Je me demande comment ils vont innover ensuite. La multiplication des coeurs sera probablement la prochaine étape. Puis le développement de puces non plus à base de silicium mais de graphène qui laisse entrevoir des possibilités inouïes.



Parallèlement je ne serais pas étonné qu’Intel se lance dans les batteries. Ca leur permettrait d’accroître leur présence dans le mobile (au sens large), tout en capitalisant sur leur expérience et leur technologie pour maîtriser et produire un produit complémentaire au microprocesseur. D’ailleurs il dit bien que le but est de réduire au max la consommation des puces, donc on peut aussi imaginer qu’ils veuillent augmenter la capacité des batteries une fois qu’ils ne pourront plus réduire la consommation des puces.








zozolebo a écrit :



Woooooow on va passer du 14 nm au 7 nm en 3 ans ?? Du coup il n’est pas du tout irréaliste de penser qu’en 2025~2030 on atteindra 1 nm soit environ la taille de l’atome si je ne m’abuse…





Pour être précis, un atome libre c’est plutot 0.1 nm…

1 nm c’est la distance entre 2 atomes liés, dans une molécule ou un cristal (ce qui est le cas ici).



Mais avant d’arriver par là, on va vite tomber sur des effets d’interférences quantiques qui vont poser beaucoup de problèmes… Même pas sûr qu’on arrive au 3 ou 4 nm…









zozolebo a écrit :



La multiplication des coeurs sera probablement la prochaine étape.





Les processeurs grand public d’il y a 6 ans avaient au maximum 4 coeurs. Et aujourd’hui ? 4 coeurs max pour les CPU grand public, malgré une gravure 3 fois plus fine. Alors ne t’emballe pas trop…









vampire7 a écrit :



Les processeurs grand public d’il y a 6 ans avaient au maximum 4 coeurs. Et aujourd’hui ? 4 coeurs max pour les CPU grand public, malgré une gravure 3 fois plus fine. Alors ne t’emballe pas trop…







Non je pense qu’il a raison on va vite arrivé aux limites de la gravure sur silicium (voir le comm de Drépanocytose) ensuite à court termes y’a pas 36 solutions … Soit on refait mumuse avec les Frequences, soit on multiplie les coeurs ce qui est bien plus facile a court termes … Leur gamme serveur va deja jusqu’à 12 coeurs.



Le manycore est clairement une solution qui va etre envisagé.



Avant qu’on dompte les photons <img data-src=" />



Si nous avons des multi-cores dans nos bécanes, ce n’est sûrement pas à cause d’Intel mais plutôt Amd; et aussi le 64bits.

Si le nombre de cœur ne s’est pas emballé, c’est que le concurrent direct est en vacances. Bientôt il sera de retour mais il faudra qu’il se presse, les choses avancent sans lui.

Je miserai plus sur l’architecture des processeurs et le système de gravure. Je pense et je souhaite qu’on arrive à l’auto-alimentation, l’auto-suffisance du système. Pas de batterie embarquée tel que l’on connaît.

Je reviens sur les cœurs: Combien de logiciels peuvent travailler en multi-cœurs, en multitâche? De jeux vidéo?

Au vu du tableau, on comprend aussi pourquoi les processeurs grand-publiques n’ont pas franchis la barre de 4 cœurs. A vos claviers les programmeurs. Nous attendons des résultats; surtout sur nos jeux.


doit etre pas mal d’avoir plusieur coeur pour faire plusieur chose en même temp !

j’imagine bien, 1coeur qui s’occupe de faire tourner les appli légère, 4 qui sont entrein d’encoder une video, 3 autre qui me font tourner un jeuxvideo et tout ça simultanément <img data-src=" />








mango a écrit :



Je reviens sur les cœurs: Combien de logiciels peuvent travailler en multi-cœurs, en multitâche? De jeux vidéo?

Au vu du tableau, on comprend aussi pourquoi les processeurs grand-publiques n’ont pas franchis la barre de 4 cœurs. A vos claviers les programmeurs. Nous attendons des résultats; surtout sur nos jeux.





Aujourd’hui les JV et quasi tous les programmes qui demandent un minimum de performance utilisent le multicoeur. Dans la plupart des JV par ex, l’IA, la physique et le dessin se font sur des threads différents.



Depuis quelques temps les devs sont largement formés au multi-threading.









wagaf a écrit :



Aujourd’hui les JV et quasi tous les programmes qui demandent un minimum de performance utilisent le multicoeur. Dans la plupart des JV par ex, l’IA, la physique et le dessin se font sur des threads différents.



Depuis quelques temps les devs sont largement formés au multi-threading.





Mais la bande passante ne suit pas. Ainsi, tous les coeurs ne sont pas correctement utilisés. Le multicoeur a des limites que le multiproc/multicoeur outrepasse.









lain a écrit :



doit etre pas mal d’avoir plusieur coeur pour faire plusieur chose en même temp !

j’imagine bien, 1coeur qui s’occupe de faire tourner les appli légère, 4 qui sont entrein d’encoder une video, 3 autre qui me font tourner un jeuxvideo et tout ça simultanément <img data-src=" />







Ah t’es pas au courant? ça existe sur PC depuis 2005 et ça fait déjà plusieurs années qu’on ne trouve presque plus de CPUs avec un seul core… En fait le PC sur lequel tu es en ce moment est très probablement un multi-core…









Drepanocytose a écrit :



Mais avant d’arriver par là, on va vite tomber sur des effets d’interférences quantiques qui vont poser beaucoup de problèmes… Même pas sûr qu’on arrive au 3 ou 4 nm…







Quand on regardes un transistor au microscope, cela ressemble à un terrain de tennis, les 14nm était l’épaisseur du filet. Le transistor fait lui 1µm de haut, en gros. Il y a donc de la marge aussi pour réduire cette dimension là.









loser a écrit :



Ah t’es pas au courant? ça existe sur PC depuis 2005 et ça fait déjà plusieurs années qu’on ne trouve presque plus de CPUs avec un seul core… En fait le PC sur lequel tu es en ce moment est très probablement un multi-core…







je sait, mais les cpu publique ne dépassés jusqu’a maintenant jamais les 4 coeur ! ^^