La gestion de l'énergie, l'OC et l'architecture
Haswell dans sa version commune (4 cœurs, GT2) est une puce composée de 1,4 milliard de transistors. Un chiffre identique à Ivy Bridge bien que l'on arrive au final à une taille de 177 mm² contre 160 mm² précédemment. Pour autant, les changements sont assez nombreux comme nous allons avoir l'occasion de le voir, et l'on assiste bien à un « tock », même si l'on retrouvera de nombreux éléments qui avaient fait le succès de Sandy Bridge puis d'Ivy Bridge.
Du côté de l'architecture, on retrouve une assez grande partie des cœurs d'Ivy Bridge. Intel a en effet indiqué qu'il n'avait pas cherché à bouleverser son organisation actuelle, mais surtout à la corriger pour améliorer les performances dans les logiciels existants tout en étant surtout plus efficace en terme d'énergie. Car Haswell a été surtout prévu pour changer la donne en terme d'intégration et d'autonomie dans les portables et autres machines compactes.
Le « front-end » évolue donc assez peu et on garde la même profondeur de pipeline alors que les unités d'exécution connaissent quelques modifications. De manière globale, on se retrouve donc avec une meilleure prédiction de branchement, des buffers plus importants et des débits améliorés pour les différents caches.
L'économie d'énergie au centre des préoccupations, S0ix pour les Ultrabook
On notera d'ailleurs au passage que le LLC (Last Level Cache) et son fameux « Ring bus » sont désormais gérés indépendamment au niveau de leur alimentation. Le C-state C6 est amélioré afin d'être plus économe et le C7 fait son arrivée. Auparavant utilisé dans la génération Sandy Bridge-E, il permet de grappiller quelques watts lorsque la machine est au repos, quitte à poser souci avec quelques alimentations (bien que dans la pratique, nous n'ayons pas pu reproduire un tel problème).
Les états actifs S0ix font aussi leur apparition pour certains processeurs destinés aux Ultrabook. Ils permettent d'assurer une consommation minimale alors que le processeur n'est pas considéré comme au repos. Pour rappel, le mode S0 est quand le processeur est « réveillé ». Les modes S1 à S5 représentent, eux, différents états de repos ou de veille. Mais dans un monde connecté, cela n'était plus suffisant. Ainsi est né ce que l'on appelle communément « Connected standby », qui est déjà supporté sur plusieurs architectures ARM, ainsi que sur les puces Clover Trail d'Intel (Atom Z2500 et Z2700).
La promesse est simple : une consommation aussi faible qu'avec une machine en veille (S3) alors que l'utilisateur est actif, mais avec un retour au plein fonctionnement en quelques millisecondes seulement. Cela ne concerne bien entendu pas que le CPU, qui est rarement le plus gourmand dans une plateforme mobile, surtout au repos, mais bien l'ensemble des composants.
La partie logicielle n'est d'ailleurs pas en reste puisque Windows 8 prend en compte ce besoin, de manière un peu plus importante que ce n'était déjà le cas avec Windows 7, notamment dans la gestion des interruptions.
Un régulateur de tension intégré : simplification des cartes mères à la clef
Précédemment, un processeur Intel nécessitait que la carte mère lui fournisse pas moins de six tensions différentes afin d'assurer le fonctionnement de ses multiples composantes. Avec Haswell, et c'est l'une des plus grandes nouveautés de cette puce, ce ne sera plus le cas. Désormais, seules deux seront nécessaires : Vccin (1,8 V) et Vddq.
Cette dernière sera nécessaire pour la mémoire alors que la première alimentera l'ensemble des autres éléments. Un régulateur de tension intégré se chargera alors de l'adapter à chacun d'entre eux en interne. Cela devrait impliquer une hausse du TDP et de la chaleur dégagée par la puce, mais au final, le processeur dispose d'un bien meilleur contrôle au niveau de la gestion de l'énergie, tout en permettant aux constructeurs d'unifier la gestion des tensions et de simplifier leurs cartes mères.
Mais ne rêvez pas, ceux-ci ne vont pas réduire leur tarif ou limiter l'étage d'alimentation pour autant. Tous ceux que nous avons interrogés ou presque continuent de nous indiquer que le CPU doit recevoir un courant important et stable pour assurer son bon fonctionnement en toutes conditions et que ces multiples phases sont nécessaires surtout pour les modèles destinés aux adeptes de l'overclocking. On continuera donc bien d'avoir des cartes mères à 16 phases et plus :
La Z87 MPower de MSI et ses multiples phases
La question de l'overclocking : la déception au bout du chemin ?
D'ailleurs, lorsqu'Intel a commencé à parler de l'overclocking d'Haswell, les choses avaient bien commencé. En effet, on gagnait une possibilité en plus par rapport à la génération précédente, issue de la plateforme X79 / LGA2011 : un multiplicateur de la fréquence de base (B-Clock). Vous pourrez ainsi laisser les PCie / DMI à 100 MHz, mais avoir une fréquence de base à 125 MHz ou 166,67 MHz qui ne sera appliquée qu'aux cœurs et pas au reste de l'architecture.
Un modèle « K » utilisé avec un chipset Z87 pourra donc jouer à la hausse sur ce point, mais aussi sur les multiplicateurs du CPU (x80 au maximum), les tensions, les limites de TDP et de courant, ainsi que sur la partie graphique (x60 au maximum). Mais quid des autres modèles ? Pas grand-chose. En effet, avec Ivy Bridge il était possible de grimper de quelques bins tout de même, histoire de grappiller quelques MHz. Là, ce ne sera plus le cas.
L'overclocking : de Sandy Bridge à Haswell
Pour ce qui est de la mémoire, officiellement, Haswell supporte jusqu'à la DDR3-1600, mais il est possible de friser les 3 GHz via le plus gros ratio proposé (2933 MHz). G.Skill n'a d'ailleurs pas tardé à annoncer qu'il dépassait cette barre sans problème avec un kit de 32 Go de TridentX.
Dans la pratique, il y aura tout de même quelques déceptions. La question de la pâte thermique entre le die et le heatspreader du CPU, qui était apparue avec la génération précédente, n'a pas été réglée. De plus, l'intégration du régulateur de tension semble augmenter la chauffe de la puce dans des conditions similaires en charge. Il faudra donc disposer d'un système de refroidissement suffisant, puisque l'on arrivera rapidement à 70 / 80 °C lorsque le processeur est longuement sollicité... la limite avant le throttling étant à 100 °C sur cette génération.
Reste maintenant à voir ce que les adeptes de l'overclocking extrême arrivent à tirer de ces petits bébés. Il semblerait qu'en refroidissement à air, on tourne aux alentours de 4.5 GHz maximum. Corsair et Intel organisaient justement un évènement pendant le Computex. Au final, sous Azote, il a été possible de grimper à 6,98 GHz avec le CPU contre 3,78 GHz pour la DDR3. On trouve d'ailleurs déjà des validations CPU-Z à plus de 6.7 GHz en ligne :
De nouvelles unités d'exécution. AVX2 et TSX sont de la partie
Et du côté de l'architecture, quoi de neuf ? Comme nous le disions, le « front-end » a été assez peu modifié. On retrouve par contre deux nouvelles unités d'exécution capables de gérer les instructions FMA (Fused muliplty add), le tout avec une latence réduite de 8 à 5 cycles. Trois autres font leur apparition. L'une pour le traitement des entiers (port 6), une seconde pour la gestion des branchements afin de décharger le port 0, et une dernière permettra de décharger les ports 2 et 3 puisqu'elle sera consacrée à l'écriture en mémoire.
Cette nouvelle organisation devrait permettre d'accélérer le traitement dans certaines applications, reste à voir ce qu'il en sera dans la pratique. Intel annonce aussi que des optimisations spécifiques ont été effectuées concernant la virtualisation :
Du côté des jeux d'instructions, on note tout d'abord l'arrivée d'AVX2 qui propose désormais un traitement des entiers sur 256 bits et exploite le FMA3 (Fused Multiply-Add avec trois opérandes), qui devrait largement accélérer certains calculs et les applications multimédia, HPC et dans une certaine limite, les jeux. Pour rappel, AMD propose aussi le FMA3 depuis Piledriver. Mais il est aussi question de nombreuses autres instructions que pourront désormais utiliser les développeurs, notamment pour ce qui est du chiffrement, du hashage, de l'indexation... vous trouverez tous les détails par ici.
Il est aussi question de TSX (Transactional Synchronization Extensions) sur lequel nous ne nous étendrons pas outre mesure. Sachez néanmoins qu'il s'agit pour Intel de donner aux développeurs l'accès à la mémoire de manière transactionnelle. Pour éviter que des portions de données soient accessibles à plusieurs cœurs à la fois, il est d'usage d'en bloquer l'accès via différentes méthodes qui sont utiles, mais coûteuses en terme de performances.
Intel permet désormais avec les instructions XACQUIRE et XRELEASE (Hardware Ellision lock) afin d'indiquer qu'une portion de la mémoire devra être bloquée seulement si un autre processus décide d'y accéder. Si ce n'est pas le cas, elle restera libre et on ne constatera aucun impact négatif sur les performances. L'autre possibilité, plus complète, permet au développeur d'indiquer via trois instructions XBEGIN, XEND et XABORT (Restricted Transactional Memory) la portion de code qui est éventuellement à bloquer, et ce qui se passe pour le processus qui tenterait d'accéder au même espace mémoire.
Dans tous les cas, cette fonctionnalité sera surtout prise en charge par les nouveaux compilateurs tels que celui d'Intel à partir de la version 13.0. Reste à voir quand les applications pourront commencer à en tirer partie dans la pratique.
La gamme, les tarifs, la stragégie et les chipsets
Nouvelle année, nouvelle série de processeurs chez Intel. Si Ivy Bridge était surtout l'occasion pour la société d'introduire sa finesse de gravure en 22 nm, les processeurs Core de quatrième génération (Haswell) apportent un lot important de nouveautés au niveau des fonctionnalités et de l'architecture. Et dans un univers informatique qui tend de plus en plus vers la mobilité, c'est surtout l'optimisation au niveau de la consommation et de la concentration des différents éléments qui étaient recherchés. Mais le reste n'a-t-il pas été oublié au passage ?
Commençons tout d'abord par la gamme, que vous retrouverez détaillée au sein de notre tableau récapitulatif. Celle-ci arbore de nouveaux logos qui font la part belle à la mise à plat que l'on retrouve chez de nombreux constructeurs actuellement :
Mais la première chose que l'on constate lorsque l'on analyse les choses dans le détail, c'est que les deux tendances que l'on critiquait (le nombre de références et le découpage tarifaire) ne sont pas près de s'arrêter.
Une gamme avec un air de déjà vu, mais quelques nouveautés
En effet, en plus des références que l'on était habitués à voir, de nouvelles ont fait leur apparition. Elles se découpent en quatre gammes pour les processeurs destinés aux PC de bureau :
- Classique : TDP de 84 W
- K : Déverrouillés pour l'overclocking
- R : BGA avec Iris Pro 5200
- S : TDP réduit de 65 W
- T : TDP réduit de 35 W ou 45 W
Côté tarif, la fameuse « taxe des huit coeurs » est toujours de mise : les Core i7 sont tous annoncés à plus de 300 $. Il faudra donc compter au moins 300 € (ou un peu moins dans la pratique) pour se les payer. Le modèle le plus accessible est pour le moment le Core i5 4430 qui n'était pas présent dans les documents donnés à la presse. Il est pour le moment référencé à moins de 180 € par les revendeurs. Entre les deux, on retrouvera le Core i5 4670 et ses dérivés à 213 $ ou 242 $ pour le modèle K.
On appréciera par contre une certaine unification au niveau des fonctionnalités. Celles-ci sont toutes intégrées à deux différences près :
- L'Hyper Threading est réservé aux Core i7
- Les modèles K ne disposent pas des fonctionnalités « Pro » : vPro, TXT, VT-d / SIPP
C'est aussi fini de disposer de plusieurs puces graphiques au sein des différents processeurs pour PC de bureau. C'est l'HD Graphics 4600 qui est systématiquement intégrée, mais comme nous le verrons un peu plus loin, c'est loin d'être le plus véloce. Là aussi, on note néanmoins deux points à noter :
- La fréquence maximale varie de +/- 50 à 100 MHz selon les gammes
- Le Core i7 4770R dispose d'une Iris Pro 5200 à 1300 MHz
En effet, celui-ci est le seul à exploiter un socket BGA, puisqu'il est destiné aux machines de type tout-en-un. Sa puce graphique est accompagnée de 128 Mo d'eDRAM qui est présente au sein du packaging du processeur. Un point que nous étudierons plus en détail.
Entrée de gamme : plus de gammes Celeron et Pentium au profit de Bay Trail ?
Reste la question de l'entrée de gamme. Comme toujours, les plans du géant de Santa Clara pour les puces à moins de 150 € seront dévoilés dans un second temps. Pour le moment, AMD n'aura donc aucun nouveau concurrent direct face à ses APU Trinity et Richland (séries 5000 et 6000) ainsi que ses processeurs FX. On devrait néanmoins avoir droit à de nouveaux Core i3 d'ici la fin de l'été ou la rentrée.
Du côté des Pentium et des Celeron, une petite révolution est en cours de préparation. En effet, depuis maintenant près d'un an Intel évoque publiquement ses puces Bay Trail. Présentées au départ comme des Atom disposant d'une nouvelle architecture entièrement revue, et d'une puce graphique maison bien plus véloce, celles-ci affichent un TDP très bas tout en disposant de fonctionnalités désormais cruciales sur l'entrée de gamme et la mobilité. Intel a donc décidé de mixer ses deux gammes, tout du moins sur l'offre pour PC de bureau.
Celeron N2000 (Bay Trail-M) : les remplaçants de l'architecture Core pour l'entrée de gamme mobile ?
Les déclinaisons Bay Trail-D Bay Trail-M devraient donc être présentées comme des Celeron ou des Pentium au final, évitant le besoin de segmenter l'offre « Core » sous la barre des 100 €. Est-ce que ce sera bien le cas ? Intel semble le confirmer, mais seul l'avenir nous le dira.
Un nouveau socket LGA1150 et l'arrivée d'un modèle BGA pour PC de bureau
Intel avait été largement critiqué lors du passage au socket LGA1156, celui-ci n'ayant eu au final qu'une durée de vie réduite. Il était né avec Lynnfield et il est mort un peu plus d'un an plus tard avec l'arrivée de Sandy Bridge. On passait alors au socket LGA1155 qui a duré deux générations et qui est remplacé une nouvelle fois par le LGA1150. Il faut dire que les nouveautés sont nombreuses, notamment du côté de l'intégration du régulateur de tension par exemple.
La bonne nouvelle est par contre que seul le brochage change. Le système de fixation du CPU est toujours le même et les systèmes de refroidissement n'ont pas à être modifiés, les ouvertures leur étant destinées restant exactement à la même place.
Le socket LGA1150
Dans le même temps, le BGA et les modèles tout intégré pour des formats spécifiques et l'entrée de gamme devraient gagner du terrain, et Intel devrait continuer à proposer une offre haut de gamme sur un socket spécifique (actuellement le LGA2011 pour les Sandy Bridge-E).
Espérons que la durée de vie sera cette fois encore prévue pour deux générations et que Broadwell ne nécessitera pas de nouvelles cartes mères, ce que l'on devrait commencer à nous confirmer (ou non) dès l'IDF de San Francisco qui se tiendra en septembre.
Valse des sockets : le FM2+ arrive chez AMD
Du côté de la concurrence, est-ce d'ailleurs mieux ? Nous l'avons déjà évoqué mais AMD gère les choses de manière totalement différente. Le Texan propose en effet plus de sockets, mais assure en général la rétrocompatibilité au minimum, permettant une mise à jour en deux temps.
Pour le grand public, AMD propose trois gammes, et deux types de sockets. Le FM2+ arrive.
En plus du BGA déjà utilisé avec les APU d'entrée de gamme, on a ainsi le FMx qui est utilisé pour les APU. La première génération Llano exploitait le FM1 qui a été remplacé avec l'arrivée de Trinity par le FM2 avec lequel il était totalement incompatible. Pour Richland, rien n'a changé puisque les puces sont quasiment identiques, la gestion de l'énergie et les fréquences étant la principale modification de cette génération (voir notre dossier). Pour Kaveri que l'on attend pour la fin de l'année, il faudra par contre passer au FM2+. Là aussi une incompatibilité sera de mise, mais il faut espérer qu'il sera possible d'utiliser des APU FM2 sur les nouvelles cartes mères.
Du côté des FX, l'arrivée de l'AM3+ en remplacement de l'AM3 n'avait pas vraiment apporté d'incompatibilité : les nouveaux processeurs fonctionnaient aussi sur les cartes mères AM3 si celles-ci étaient à jour. Aucune nouvelle génération n'étant prévue cette année, aucun changement n'est nécessaire au sein de la plateforme, même si de nouveaux modèles finissent par arriver.
Du côté des chipsets, rien de bien excitant pour le consommateur
Et qu'en est-il des chipsets ? Comme souvent, il s'agit ici surtout d'un ajustement. 14 ports USB sont désormais supportés au total, avec un maximum de six en USB 3.0. Chacun d'entre eux peuvent être désactivés, une fonctionnalité qui devrait être proposée dans la majorité des BIOS/UEFI. De plus, la gestion par l'xHCI est désormais généralisée. Un problème de compatibilité semble avoir été relevé avec quelques clefs USB 3.0 dans certains cas. Un point que nous avions détaillé de manière complète au sein de cette actualité.
Le nombre de ports S-ATA reste de six, mais désormais ils sont tous à la norme S-ATA 6 Gb/s avec gestion des RAID 0, 1, 5 et 10. La puce garde huit lignes PCIe qui restent à la norme 2.0. Elle voit par contre disparaître le support du PCI sur l'ensemble des modèles (il n'était plus que sur les versions B et Q précédemment), ainsi que la gestion des sorties vidéo qui est désormais intégrée au CPU (DDI, Digital Display Interface).
Notez enfin que des améliorations ont aussi été apportées à la gestion des cartes mémoires avec l'arrivée du SFDP (Serial Flash Discoverable Parameters) et l'augmentation du débit de la SPI (Serial Peripheral Interface) qui est utilisée pour les connecter est doublé.
Les chipsets H87 et Z87
Les chipsets B85, Q85 et Q87
Le tout tient dans un package 22x23 mm et la finesse de gravure passe au 32 nm ce qui devrait permettre d'économiser quelques watts. Bien entendu, des alternatives au Z87, moins chères, sont aussi prévues. Ce sera le cas du H87 qui ne proposera pas le support des CrossFire et autre SLi, ni l'overclocking. Les gammes B et Q destinées au monde professionnel sont aussi toujours de la partie.
HD Graphics, Iris Pro et PC compacts
Nous avions déjà évoqué la partie graphique des processeurs Core de quatrième génération il y a quelques semaines. Celle-ci évolue une fois de plus et de bien des manières. Tout d'abord en multipliant les références puisqu'en plus des habituelles déclinaisons GT1 et GT2 à 6 et 20 unités d'exécution, on a cette fois droit à GT3 qui en dispose de 40.
Des IGP toujours plus nombreux... et plus performants
Celle-ci a aussi droit à un doublement des performances de certains éléments fixes pour accompagner cette augmentation, sans que l'on en sache plus. La déclinaison GT3e aura quant à elle droit à 128 Mo de mémoire embarquée dans le packaging de la puce, ce qui fera office de cache L4 et devrait permettre de revoir les performances à la hausse.
Au total, six sections sont définies au sein de cet IGP qui gagne au passage un « Command streamer », désormais en charge de la répartition des calculs. Chaque partie aura eu droit à son lot d'améliorations par rapport à la génération précédente, mais c'est surtout l'augmentation des unités sur GT3 qui devrait faire la différence dans la pratique. Du côté des API, Intel semble avoir enfin rattrapé son retard puisque DirectX 11.1 est de la partie, ainsi qu'OpenGL 4.0 Et OpenCL 1.2.
Le tout est au final segmenté en trois gammes principales, qui contiennent chacun leurs déclinaisons :
C'est GT2 que l'on retrouvera principalement sur les modèles pour PC de bureau, où Intel veut surtout assurer une présence minimale sans forcément chercher à combattre les cartes graphiques indépendantes qui seront de toute façon bien plus puissantes.
GT3 et GT3e seront donc surtout reservés aux ordinateurs portables ou à des usages spécifiques, là où empêcher l'intégration d'une GeForce et d'une Radeon est une bonne chose du point de vue d'Intel. Une vision des choses que certains regretteront sans doute. Reste à voir quels seront les choix des partenaires, et surtout, quelles machines innovantes basées sur Haswell on finira par nous proposer.
Quick Sync Video ouvert à plus de formats
Le multimédia n'est pas en reste et gagne aussi en efficacité. La partie encodage/décodage vidéo a été retravaillée afin de consommer moins d'énergie et de supporter de nouveaux formats. Le SVC, qui permet un support unifié des appareils (écrans, tablettes, smartphones...) est l'un d'entre eux et devrait surtout être utile pour ce qui est des vidéo-conférences. On retrouve aussi quelques nouvelles fonctionnalités dédiées au respect des tons de peau, la gestion du gamut étendu ou la stabilisation d'image par exemple.
QSV devrait pour sa part être plus rapide, mais l'on note surtout deux changements récents et de taille pour cette fonctionnalité. Elle est désormais supportée par une version bêta de l'outil open-source Handbrake suite à une modification de sa licence. De plus, elle est désormais présentée comme une solution idéale pour le monde des serveurs, et il sera intéressant de voir ce qu'il en est au final en terme de qualité d'image.
Le support de la 4K, des trios d'écrans et Thunderbolt s'améliorent
Outre les améliorations du côté de la partie 3D de la puce graphique, Intel a largement retravaillé la gestion du multimédia ces dernières années. Ainsi, avec Ivy Bridge on avait pour la première fois droit au support de la 4K, de trois écrans et du mode Collage. Pour rappel, à la manière de l'Eyefinity d'AMD ou du Surround de NVIDIA, celui-ci vous permet de transformer un groupe de plusieurs écrans en un seul élément virtuel. Vous pouvez alors afficher simplement une vidéo de manière étendue, il en est de même pour vos photos de vacances ou tout simplement votre bureau. Ne comptez par contre pas jouer avec l'HD Graphics 4600 à World of Warcraft en 5760 x 1080 pixels :
Avec Haswell, tout cela est amélioré, d'une manière ou d'une autre. Tout d'abord parce que la gestion des écrans est désormais dévolue au processeur, et non plus au chipset. Cette DDI (Digital Display Interface) peut désormais gérer jusqu'à trois sorties numériques de manière indépendante. Le lien FDI (Flexible Display Interface) reste néanmoins entre les deux, notamment pour le support du VGA qui n'existe pas dans les plateformes à une puce (Chipset LynxPoint-LP intégré).
Pour ceux qui veulent utiliser plusieurs écrans, de nombreuses configurations sont possibles, mais quelques limites doivent être respectées :
- 2 HDMI
- 2 DVI
- 1 DVI et 1 HDMI utilisés de manière simultanée
Aucune limitation n'est par contre imposée concernant le DisplayPort, le VGA ou l'eDP. Il en résulte ainsi le tableau suivant qui permet de connaître les cas pouvant être exploités :
Comme vous le noterez, la définition maximale indiquée pour le DP correspond à la norme 1.2 puisqu'il est question de 3840 x 2160 pixels @ 60 Hz et ce même sur trois écrans. L'HDMI 1.4 est aussi de la partie, mais cette norme est bien plus restrictive puisqu'à 60 Hz il n'est pas possible de dépasser le 2560x1600 pixels alors qu'en 4096x2304 pixels, on devra se limiter à 24 Hz. Dans tous les cas, le support de la 3D, du 4K et de l'Ultra HD sera donc de la partie, mais on ira un peu plus loin qu'avec la génération précédente.
Bien entendu, Thunderbolt pourra être de la partie. C'est d'ailleurs le cas avec la carte mère de référence d'Intel : la DZ87KL-75K. Certains constructeurs n'hésitent d'ailleurs pas à opter pour la présence de deux ports, comme ASUS avec sa Z87 Deluxe/Dual. Les marques ont d'ailleurs commencé à intégrer des puces de la génération Redwood Ridge qui remplace l'actuel Cactus Ridge : les DSL4410 (1 port) et DSL4510 (2 ports). Bizarrement par contre, ASUS ne s'en vante nullement, et Intel a choisi de masquer la version de la puce sur sa carte mère de référence.
L'intérêt de cette nouvelle gamme ? Elle gère le DisplayPort 1.2 lorsqu'elle est connectée à un écran non Thunderbolt, la gestion de l'énergie a été améliorée et le coût réduit tant au niveau de la puce que de son intégration (le DSL4410 passe de 12x12 mm à 10x10 mm). Il faudra par contre attendre la fin de l'année voire 2014 pour qu'arrive Falcon Ridge qui apportera cette fois une nette amélioration : le doublement de la bande passante qui passera de 10 à 20 Gb/s.
WiDi 4.1 est là : quelques améliorations et plus d'ouverture
Et si l'on préfère le sans fil ? Wireless Display est toujours de la partie, là aussi avec quelques améliorations puisque la technologie passe à la version 4.1. Tout d'abord quelques petits rappels. Introduit en 2010, WiDi est une technologie pensée par Intel autour du Wi-Fi. Elle permet tout simplement de déporter l'affichage de votre écran sur un moniteur ou une TV.
Au fil du temps, elle n'a cessé de s'améliorer et de se rendre plus simple. On a ainsi vu la qualité d'image et la latence se réduire, les contenus 3D et protégés être supportés. Plus récemment, il n'était plus nécessaire de disposer d'un boîtier ou d'une TV certifiée WiDi puisqu'il a été rendu possible de faire transiter l'image via le protocole DLNA qui est supporté par de nombreux composants comme les box des FAI, la PS3, etc...
Désormais, il ne sera plus impératif de disposer d'une puce réseau Intel, Broadcom ayant obtenu une licence. Mais derrière cette annonce, se cache en réalité une modification bien plus grande dans le monde de l'affichage sans fil qui a un petit nom : Miracast. Ce standard de la Wi-Fi Alliance est en effet intimement lié à WiDi puisqu'il en représente la version basique, qui peut être implémentée par n'importe quel constructeur.
Ses possibilités sont limitées puisqu'il n'est pas question de gestion de l'affichage étendu, de support systématique des contenus Full HD, 3D ou protégés, ni d'optimisations spécifiques pour la latence, tout ceci étant optionnel. Il permet néanmoins de mettre tout le monde d'accord, ce qui explique que de grandes marques telles que Samsung ou Sony ont décidé de l'utiliser sur leurs TV, mais aussi sur toute une partie de leurs smartphones et de leurs tablettes. Il en est de même pour Microsoft dont Windows 8.1 gèrera nativement l'affichage sans fil Miracast dès sa sortie. C'est d'ailleurs sans doute cela qui a motivé AMD a activer sa propre technologie qui tente aussi d'aller un peu plus loin que le standard : Wireless Display (oui, ça ne va pas être pratique si tout le monde se pique les dénominations).
Ainsi, tous les appareils WiDi sont compatibles Miracast à partir de la version 3.5. C'est donc le cas des PC avec un pilote à jour, et de quelques appareils déjà sur le marché ou qui arrivent. C'est par exemple le cas du Push2TV 3000 de Netgear, qui est d'ores et déjà référencé à un peu moins de 80 € et qui devrait arriver sur le marché dès le mois prochain. Cette nouvelle génération est plus compacte, mais c'est de toute façon via l'intégration directe et systématique dans les TV que la solution viendra sans doute à terme.
Avec cette version 4.1, Intel annonce qu'il a une fois de plus réduit la latence et la consommation du côté du portable émetteur via le Panel Self Refresh. Il est désormais possible de diffuser du contenu 3D en 1080p et l'interface de l'application a été revue pour fonctionner aussi de manière tactile (Windows 8... quand tu nous tiens). Il ne reste plus qu'à mettre la main sur tout ça et sur des produits compatibles afin de voir qui détient la meilleure solution.
La gamme NUC n'est que le début de la révolution BGA
Tout cela nous mène au salon et aux mini PC. L'année dernière, Intel dévoilait son NUC (Next Unit of Computing). Cette machine ultra-compacte nous avait été montrée à l'IDF de San Francisco et elle était arrivée sur le marché quelques mois plus tard, via différentes déclinaisons. Au cœur de ce produit, on retrouvait une carte mère avec un processeur soudé, exploitant un packaging BGA. Il pouvait être de deux types : un Core i3 3217U ou un Celeron 847 de la génération Sandy Bridge.
Le but est avant tout de disposer d'une meilleure intégration et de réduire les contraintes techniques en évitant l'utilisation d'un socket, ce qui est capital pour un produit de cette taille. Mais c'était surtout l'occasion pour Intel de faire comprendre qu'il misait énormément sur de tels produits à l'avenir, et qu'il faudrait adapter sa gamme en conséquence.
En effet, on avait alors des CPU mobiles dans des machines fixes, ce qui n'avait pas spécialement de sens, si ce n'est pour le fait de disposer d'un TDP réduit. Mais le refroidissement d'un NUC ou d'une machine tout-en-un peuvent être bien plus imposants que ceux d'un Ultrabook ou d'un ordinateur portable. D'où la naissance du Core i7 4770R. Celui-ci se limite à 65 watts, dispose de la partie graphique la plus véloce de cette génération, avec 128 Mo d'eDRAM intégrée et il utilise un socket BGA.
Une tendance qui pourrait bien aller de manière croissante dans les années à venir, et avec les prochaines générations de puces. Mais cela faisait craindre à certains un passage au tout intégré sur l'ensemble de la gamme. Ainsi, des rumeurs sur la généralisation du BGA dès la prochaine génération ont été largement diffusées il y a quelques mois. Intel a néanmoins tenu à rassurer tout le monde : il sera toujours possible de disposer de produits avec des sockets afin d'avoir des machines évolutives.
Cela devrait néanmoins être de plus en plus limité à des produits tels que le milieu et le haut de gamme, où les attentes du public sont assez différentes. On avait déjà eu droit à des cartes mères avec CPU intégré pour l'entrée de gamme avec les Atom et les plus petits APU d'AMD, il faut s'attendre à voir de tels produits gagner du terrain dans les années à venir.
Le prochain NUC d'Intel, le BRIX de Gigabyte
Reste à voir si les constructeurs de cartes mères seront capables de continuer à innover sur de tels formats, et surtout, quelles sont les machines qui pourront émerger de tout cela ? On a vu des marques comme Giada, Sapphire, Shuttle ou encore Zotac se lancer sur le marché des machines compactes avec parfois un certain succès. Est-ce l'avenir pour toute une partie du marché ? Il faudra encore attendre pour le savoir.
Quoi qu'il en soit, Intel qui avait décidé de devenir un constructeur de machines pour la création et la commercialisation du NUC semble bien décidé à continuer dans cette voie le temps que ses partenaires prennent le relai. On devrait donc voir quelques nouveaux modèles sous Ivy Bridge dans les mois qui viennent, avant qu'une génération sous Haswell ne fasse son apparition. Des marques comme ASUS ou Gigabyte sont d'ailleurs en train de se lancer puisque l'on a déjà vu la nouvelle mouture du BRIX mais aussi du VivoPC.