AMD lance sa Radeon R9 295X2 : double GPU, watercooling et TDP de 500 W

AMD lance sa Radeon R9 295X2 : double GPU, watercooling et TDP de 500 W

Pour la moitié du tarif de la GeForce GTX Titan Z

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

08/04/2014 4 minutes
55

AMD lance sa Radeon R9 295X2 : double GPU, watercooling et TDP de 500 W

Comme nous l'avions évoqué récemment, AMD dévoile aujourd'hui sa nouvelle carte graphique haut de gamme : la Radeon R9 295X2. Composée de deux Radeon R9 290X, elle annonce un TDP de 500 watts, dispose d'un système de refroidissement liquide, et sera proposée à 1320 € dans le meilleur des cas. Bref, un modèle extrême pensé pour reprendre la première place au jeu de « qui a la plus grosse ».

AMD Radeon R9 295X2 Slides AMD Radeon R9 295X2 Slides

 

NVIDIA ne sera donc pas le seul à oser exploiter deux GPU haut de gamme au sein d'une carte graphique. Après la GeForce GTX Titan Z évoquée il y a peu, on aura donc droit à la Radeon R9 295X2. Mais comme souvent, AMD compte surtout sur une différence de prix majeure pour marquer le coup. Là où son concurrent n'a pas hésité à annoncer un produit à 3 000 $, il est cette fois question de 1320 euros pour le tarif officiel.

 

Un prix public revu à la baisse en dernière minute, mais qui pourra être tout de même plus élevé dans la pratique selon plusieurs de nos sources. Réponse d'ici la fin du mois, la disponibilité n'étant pas pour tout de suite mais pour le 21 avril. Pour rappel, une R9 290X est actuellement proposée à partir de 470 euros  pour les modèles de référence, et de 500 euros pour ceux personnalisés par les constructeurs.

Une double Radeon R9 290X, équipée d'un système de refroidissement liquide

Mais pour ce prix, à quoi a-t-on droit ? Officiellement, une double Radeon R9 290X via un pont PEX 8747 signé PLX. Même GPU, aucune limitation des caractéristiques, un TDP de 500 watts, un système de refroidissement liquide spécifique signé Asetek... mais attention. En effet, si AMD a évoqué plus de 1 GHz pour les GPU, il ne s'agit que d'une valeur maximale. Dans la pratique, est-ce qu'elle sera appliquée de manière constante ? Il semblerait que oui.

 

C'est néanmoins un point qu'il sera intéressant d'analyser dans le détail. NVIDIA, pour sa part, avait précisé lors de l'annonce de la Titan Z que la même fréquence serait appliquée à ses deux GPU de manière constante, et s'était limité à un système de refroidissement classique bien que plus imposant. 

 

AMD Radeon R9 295X2 Slides AMD Radeon R9 295X2 Slides

 

Côté dimensions justement, la R9 295X2 mesure plus de 30 cm de long, mais ne nécessitera que deux slots, en plus du besoin de fixer le radiateur et son ventilateur de 120 mm bien entendu. Deux connecteurs d'alimentation à huit broches seront nécessaires. Pour ce qui est des sorties vidéo, on retrouve trois connecteurs Mini DP 1.2 et un DVI Dual-Link. On notera aussi la présence d'un système d'affichage par LED, que l'on retrouve chez plusieurs marques depuis quelques générations, mais aussi chez NVIDIA qui permet de les gérer depuis GeForce Experience.

Utiliser deux GPU c'est bien, mais le défi est de le faire de manière efficace

Mais pour AMD, le véritable défi sera surtout de réussir à produire assez de cartes sur le marché pour ne pas se retrouver rapidement en situation de pénurie et voir ainsi les tarifs exploser. L'autre problématique touche aux pilotes de la marque, qui rencontrent de nombreux problèmes avec le CrossFire ces derniers mois, que ce soit via l'adaptation des jeux exploitant Mantle ou le besoin de travailler à la mise en place efficace du Frame pacing. C'est sur ce terrain que ce produit devra réellement convaincre, pour être plus qu'une simple annonce de victoire dans la bataille pour « celui qui a la plus grosse ». 

 

AMD Radeon R9 295X2 Slides

 

À moins que ce produit ne vise un autre public, comme les adeptes du calcul sur GPU ou du minage de crypto-monnaies. Mais dans ce dernier cas, il faudra sans doute être patient pour rentabiliser un tel produit, surtout au cours actuel. Quoi qu'il en soit, pour vous faire un avis sur les performances mais aussi sur la consommation et le bruit généré par la bête, rendez-vous chez nos confrères :

 

En Français :

En Anglais :

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une double Radeon R9 290X, équipée d'un système de refroidissement liquide

Utiliser deux GPU c'est bien, mais le défi est de le faire de manière efficace

Commentaires (55)


Vend Rein 1320 euros sur le bon coin


La carte graphique qui sera morte bien avant d’être utile pour les jeux. <img data-src=" />


Pas assez cher mon fils <img data-src=" />


La précédente génération en bi-gpu soit la 7990 était commercialisée de base à 919 €, et celle là à 1500$ ? Mais ils ont fumé quoi ? Qu’est-ce qui justifie une telle différence de tarif avec 2 cg r9-290x ? C’est presque 30% du prix en plus…


Ça serait mieux d’optimiser les pilotes SLI/dx10/dx11/mantle que de sortir une nouvelle carte pour avoir la plus grosse. D’autant plus que ça peut servir à plusieurs cartes, et donc toucher un plus grand nombre de clients ! <img data-src=" />


500W Oo



et l’été qui arrive à grand pas , sont pas fous <img data-src=" />








BennJ a écrit :



La précédente génération en bi-gpu soit la 7990 était commercialisée de base à 919 €, et celle là à 1500$ ? Mais ils ont fumé quoi ? Qu’est-ce qui justifie une telle différence de tarif avec 2 cg r9-290x ? C’est presque 30% du prix en plus…







Logique Implacable : Tu prends le modèle kikiàlaplusgrosse de chez Nvidia et tu divise le prix par deux.



Ouais enfin la TitanZ ce n’est pas du tout la même gamme et surtout c’est encore plus débile comme tarif. Dans ce cas autant comparer avec des produits professionnel si on veut jouer juste la carte du prix le plus haut.


Bigpu Amd moi jamais <img data-src=" />








Papa Panda a écrit :



500W Oo



et l’été qui arrive à grand pas , sont pas fous <img data-src=" />







c’justement le “W” qui m’a fait réfléchir à changer pour une plateforme Intel ( actuel phenom x4 965 downclock a 2.7Ghz ) , car en passant d’une 6870 à une gTX770 ma conso in game a augmenté de 150watt voire 200 <img data-src=" />









Angelus69 a écrit :



Bigpu Amd moi jamais <img data-src=" />







Ma 7990 marche parfaitement <img data-src=" />



Hum, 500 W … et le tarif de l’EDF qui augmente en permance. Bientôt il faudra allumer le PC pendant 1 heure au risque de devoir faire un crédit pour payer la facture <img data-src=" />


On est dans la démonstration technologique (et donc la com’) plus qu’autre chose ici (Nvidia - Titan Z included).



Par contre, la solution liquid cooling intégrée est une bonne idée et j’espère que c’est quelque chose qui va se généraliser sur des produits plus raisonnables en prix et TDP.



J’espèrais que ces monstres allaient faire baisser le prix des “veilles” Titan…mais toujours pas… :(


Je suppose que le boîtier frigorifié n’est pas fourni ? ^^


Tout ça juste pour miner <img data-src=" />








gogo77 a écrit :



Je suppose que le boîtier frigorifié n’est pas fourni ? ^^







Je suppose que tu n’as pas lu les tests ? Le système de refroidissement est très efficace.









Anna Lefeuk a écrit :



Vend Rein 1320 euros sur le bon coin





Vends la paire et prend la titan z :français:





BennJ a écrit :



La précédente génération en bi-gpu soit la 7990 était commercialisée de base à 919 €, et celle là à 1500$ ? Mais ils ont fumé quoi ? Qu’est-ce qui justifie une telle différence de tarif avec 2 cg r9-290x ? C’est presque 30% du prix en plus…





GPU plus gros, système de refroidissement hors-norme, marché existant Tadaaaaa!





M3t3or a écrit :



Ça serait mieux d’optimiser les pilotes SLI/dx10/dx11/mantle que de sortir une nouvelle carte pour avoir la plus grosse. D’autant plus que ça peut servir à plusieurs cartes, et donc toucher un plus grand nombre de clients ! <img data-src=" />





Oui mais dur de faire une vitrine technologique avec des pilotes graphique. Alors que la tu as l’effet “kikitoudur” qui est bien présent. Et les pilotes sont fournis gratuitement aussi.





BennJ a écrit :



Ouais enfin la TitanZ ce n’est pas du tout la même gamme et surtout c’est encore plus débile comme tarif. Dans ce cas autant comparer avec des produits professionnel si on veut jouer juste la carte du prix le plus haut.





la Titan peut être qualifiée de “semi-pro”, avec un belle quantité de vRAm et ses calculs en double précision :)





Angelus69 a écrit :



Bigpu Amd moi jamais <img data-src=" />





A moins de jouer sur un système hors-norme (4k, tri-écrans), je trouve que le bi-GPU c’est se prendre la tête pour pas grand chose : conso, refroidissement, optimisation des pilotes…





carbier a écrit :



Tout ça juste pour miner <img data-src=" />





Oulah, c’est vraiment pas la carte à prendre pour miner! Mieux vaut prendre 2 R9 290 ou même 3 R9 280!



Sauf que comme tu le dis Charly32 quand tu joues en 5760x1080 (3 écrans 1080p) alors le bi-gpu est juste indispensable.








Anna Lefeuk a écrit :



Vend Rein 1320 euros sur le bon coin









Hahahahaha ( rire de philippe bouvard )



Perso je crois que je vais plutôt attendre deux ou trois ans avant de changer de matos, le graphène risque de changer la donne sur pas mal de choses (contraintes thermiques, résistance, conductivité, etc…) et il semble qu’on soit enfin capable de le produire en masse (wafers, etc…)



Curieux que PCI n’ait pas repris la nouvelle d’ailleurs !



http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/technologie-grap…


bas en tri screen c’est utile et pas qu’un peut



après perso je préfère 100 fois 2 carte séparé et un water cooling maison



je comprend pas trop l’intérêt des ces grosse carte tout en une

à moins que ça soit plus efficace et sature moins le PCIe


bon celle la par rapport a la 7990 elle a le refroidissement liquide ce qui fait qu’elle doit etre aussi bien moins bruyante , par contre s’il l’avait mis a un peu moins de 1000 euro , psychologiquement ils auraient mis un coup de batte a nvidia sur le segment, mais la , psychologiquement c’est moins le cas , et ca concerne que les gros riche … alors qu’a moins de 1000 euro j’aurais envisagé de vendre un peu de peau de mes fesses <img data-src=" />








Reparateur a écrit :



bas en tri screen c’est utile et pas qu’un peut



après perso je préfère 100 fois 2 carte séparé et un water cooling maison



je comprend pas trop l’intérêt des ces grosse carte tout en une

à moins que ça soit plus efficace et sature moins le PCIe







bah pas besoin d’une carte mere crossfire avec cette carte , tu peux la faire tourner sur le port en 16x sur une carte a 50 euros alors qu’une carte crossfire coute 150 euro

donc c’est toujours pratiquement 100 euros d’economisé deja



1320e AMd qui fait comme nvidia.<img data-src=" />








bingo.crepuscule a écrit :



Perso je crois que je vais plutôt attendre deux ou trois ans avant de changer de matos, le graphène risque de changer la donne sur pas mal de choses (contraintes thermiques, résistance, conductivité, etc…) et il semble qu’on soit enfin capable de le produire en masse (wafers, etc…)



Curieux que PCI n’ait pas repris la nouvelle d’ailleurs !



http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/technologie-grap…







Le graphène va pas remplacer le silicium ni dans 3 ans ni même dans 10 ans mais bon peut-être que son utilisation régnera sur les processeurs pendant le 21ème siècle comme le silicium a régné pendant le 20ème siècle.









bingo.crepuscule a écrit :



Perso je crois que je vais plutôt attendre deux ou trois ans avant de changer de matos, le graphène risque de changer la donne sur pas mal de choses (contraintes thermiques, résistance, conductivité, etc…) et il semble qu’on soit enfin capable de le produire en masse (wafers, etc…)



Curieux que PCI n’ait pas repris la nouvelle d’ailleurs !



http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/technologie-grap…





futura-sciences :



Aucune feuille de route n’est communiquée pour la mise en œuvre de ce nouveau procédé.



23 ans me paraissent un poil optimiste.



[boule de cristal (de graphène)]

610 ans au mieux pour les premières utilisations grand public.

[/boule de cristal]









BennJ a écrit :



Je suppose que tu n’as pas lu les tests ? Le système de refroidissement est très efficace.







Pas le peine d’être aussi sérieux, c’était juste une boutade <img data-src=" />



Mouais, les résultats ne sont pas terribles face à un sli 780 gtx pourtant.

En 4k , c’est même pas très fiable a u vu des retours des tests avec ,encore…, des drivers qui plantent chez amd / ati, comme quoi.








Papa Panda a écrit :



Mouais, les résultats ne sont pas terribles face à un sli 780 gtx pourtant.

En 4k , c’est même pas très fiable a u vu des retours des tests avec ,encore…, des drivers qui plantent chez amd / ati, comme quoi.







ayant eu une 4870X2 et une 6870X2 , je ne m’en fais pas pour les drivers ca fonctionnera d’ici a ce que tu l’ai dans ton pc



en plus on a pas vu la meme chose :

http://www.guru3d.com/articles_pages/amd_radeon_r9_295x2_review,17.html










mightmagic a écrit :



1320e AMd qui fait comme nvidia.<img data-src=" />





Pas sur la prochaine bi gpu de Nvidia sera a 3000 euro donc Amd s’est encore un prix lowcost <img data-src=" />









xloxlox a écrit :



ayant eu une 4870X2 et une 6870X2 , je ne m’en fais pas pour les drivers ca fonctionnera d’ici a ce que tu l’ai dans ton pc



en plus on a pas vu la meme chose :

http://www.guru3d.com/articles_pages/amd_radeon_r9_295x2_review,17.html





Je vois mais ici ils disent autre chose



Maintenant ,j’ai eu une 4870X2. Et ,il a fallu un moment avant d’avoir des drivers stables alors que mon autre pc sous nvidia tournait tranquille à ce moment là.

Du copu, je jouais sur mon portable ,le temps que les drivers ati se stabilise un peu …comme quoi.









Papa Panda a écrit :



Je vois mais ici ils disent autre chose



Maintenant ,j’ai eu une 4870X2. Et ,il a fallu un moment avant d’avoir des drivers stables alors que mon autre pc sous nvidia tournait tranquille à ce moment là.

Du copu, je jouais sur mon portable ,le temps que les drivers ati se stabilise un peu …comme quoi.





je vois pas ce que t’as eu comme souci , perso jamais eu de probleme avec ces cartes … comme quoi … <img data-src=" />



puis sur ton test la différence est de quoi 5 image/s , pour combien de différence en terme de prix ?

gardons le sens des proportions



si les drivers gèrent mieux une dual GPU qu’un CrossFire pourquoi pas <img data-src=" /> (J’ai connais rien en Dual GPU ^^)








xloxlox a écrit :



je vois pas ce que t’as eu comme souci , perso jamais eu de probleme avec ces cartes … comme quoi … <img data-src=" />



puis sur ton test la différence est de quoi 5 image/s , pour combien de différence en terme de prix ?

gardons le sens des proportions





sur numériques ,ils parlent de 3 % en faveur du sli nvidia en 4k , cela peut avoir son importance même si jouer à cette définition faut voir l’utilité.



Pour la différence du prix tu as des geforce gtx 780 ti entre 450 et 670 euros, et surtout, tu pourras faire évoluer ton sli en changeant une des deux ;)



Après bon, c’est tout de même pour les fortunés et les sans enfants <img data-src=" />









Ideal a écrit :



Le graphène va pas remplacer le silicium ni dans 3 ans ni même dans 10 ans mais bon peut-être que son utilisation régnera sur les processeurs pendant le 21ème siècle comme le silicium a régné pendant le 20ème siècle.







Entre 20042008, lors de sa découverte et des premières applications théoriques et pratiques, on parlait déjà de 10ans, depuis de l’eau a coulé sous les ponts, et les labos ont pondus pas mal de petites merveilles dans des conditions pratiques… Ces dernières années, la production du graphène était ce qui posait le plus de problème, aucun procédé simple et peu coûteux, même si le temps et les nouvelles techniques aidant, il se révélait plus accessible…



La possibilité de produire en masse était vraiment ce qu’il lui manquait pour mettre un bon coût d’accélérateur aux débouchés commerciaux.



En tous cas, très bien refroidit !

Le systéme de refroidissement joue bien son rôle.








Papa Panda a écrit :



sur numériques ,ils parlent de 3 % en faveur du sli nvidia en 4k , cela peut avoir son importance même si jouer à cette définition faut voir l’utilité.



Pour la différence du prix tu as des geforce gtx 780 ti entre 450 et 670 euros, et surtout, tu pourras faire évoluer ton sli en changeant une des deux ;)



Après bon, c’est tout de même pour les fortunés et les sans enfants <img data-src=" />







a moins de faire travailler les enfants pour ca









xloxlox a écrit :



a moins de faire travailler les enfants pour ca





Ils sont déjà pris pour les taxes et l’augmentation rétroactive de edf <img data-src=" />









bingo.crepuscule a écrit :



Entre 20042008, lors de sa découverte et des premières applications théoriques et pratiques, on parlait déjà de 10ans, depuis de l’eau a coulé sous les ponts, et les labos ont pondus pas mal de petites merveilles dans des conditions pratiques… Ces dernières années, la production du graphène était ce qui posait le plus de problème, aucun procédé simple et peu coûteux, même si le temps et les nouvelles techniques aidant, il se révélait plus accessible…



La possibilité de produire en masse était vraiment ce qu’il lui manquait pour mettre un bon coût d’accélérateur aux débouchés commerciaux.







Oué c’est sur, mais malgré le fait que samsung sait produire du graphène en masse avec un procédé de wafer la mise en place dans les usines, le rendement et le coût tout simplement fait que tu n’auras pas de processeurs en graphène dans tes produits même dans les 10 ans …



Je répondais juste au mec qui mettait son achat de GPU en attente car il pense pouvoir acheter du AMD en graphène d’ici 2 - 3 ans <img data-src=" />



La prochaine génération sera sans doute fournie avec un générateur au naquadriah. <img data-src=" />








Ideal a écrit :



Oué c’est sur, mais malgré le fait que samsung sait produire du graphène en masse avec un procédé de wafer la mise en place dans les usines, le rendement et le coût tout simplement fait que tu n’auras pas de processeurs en graphène dans tes produits même dans les 10 ans …



Je répondais juste au mec qui mettait son achat de GPU en attente car il pense pouvoir acheter du AMD en graphène d’ici 2 - 3 ans <img data-src=" />







«en masse» ça veut pas dire pareil dans un labo. et dans une usine









levhieu a écrit :



«en masse» ça veut pas dire pareil dans un labo. et dans une usine







En masse pour le type qui veut acheter du AMD en graphène ça veut dire dans une usine …



Ça doit être sympa les températures et le bruit connaissant les cartes amd de cette gen, les nostalgiques de Satolas seront satisfaits de leur achat.<img data-src=" />








Ideal a écrit :



En masse pour le type qui veut acheter du AMD en graphène ça veut dire dans une usine …







Oui mais l’annonce récente de Samsung concerne la recherche, donc le labo.



Je voulais mettre en évidence que Samsung n’a pas annoncé pouvoir commencer à produire l`a maintenant, ni même très bientôt, mais juste montrer à ses ingénieurs les résultats de la recherche en leur disant «c’est à vous maintenant».









Papa Panda a écrit :



Ils sont déjà pris pour les taxes et l’augmentation rétroactive de edf <img data-src=" />







arf, va falloir faire plus d’enfants









levhieu a écrit :



Oui mais l’annonce récente de Samsung concerne la recherche, donc le labo.



Je voulais mettre en évidence que Samsung n’a pas annoncé pouvoir commencer à produire l`a maintenant, ni même très bientôt, mais juste montrer à ses ingénieurs les résultats de la recherche en leur disant «c’est à vous maintenant».







Bah moi aussi …. quand tu cites quelqu’un qui lui même a quoté quelqu’un d’autre ptet remonte un peu le fil de la conversation histoire d’être sur de parler à la bonne personne parce que la on flood et on tourne en rond …



Et sinon concernant le “ produire en masse ” quand on produit du silicium pur ou du graphène par voie de wafer on peut appeler ça produire en masse que ce soit en labo ou usine … après les volumes seront pas les même mais c’est une production de masse.









bingo.crepuscule a écrit :



Perso je crois que je vais plutôt attendre deux ou trois ans avant de changer de matos, le graphène risque de changer la donne sur pas mal de choses (contraintes thermiques, résistance, conductivité, etc…) et il semble qu’on soit enfin capable de le produire en masse (wafers, etc…)



Curieux que PCI n’ait pas repris la nouvelle d’ailleurs !



http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/technologie-grap…









Idem j’attend cette techno qui remplacera le Graphene à savoir l’IP oAC

http://fr.wikipedia.org/wiki/IP_over_Avian_Carriers <img data-src=" />









Ideal a écrit :



Bah moi aussi …. quand tu cites quelqu’un qui lui même a quoté quelqu’un d’autre ptet remonte un peu le fil de la conversation histoire d’être sur de parler à la bonne personne parce que la on flood et on tourne en rond …







<img data-src=" />









Anna Lefeuk a écrit :



Idem j’attend cette techno qui remplacera le Graphene à savoir l’IP oAC

http://fr.wikipedia.org/wiki/IP_over_Avian_Carriers <img data-src=" />









Déjà quand tu l’as sortis sur la news Couvertures 3G et 4G, réseau de fibre optique, employés : Free fait son bilan c’était pas drôle mais bon la tu pars en HS juste pour faire un comm “ marrant”

Allez je t’encourage je te ressors mon rire de philippe bouvard : Hahahahaha c’est dur à reproduire un rire furtif sur papier .



Arrêtez avec l’humour façon “grosses têtes de RTL” PCI a changer de nom essaye de changer d’humour :)



ouah t’as vu la pub nvidia au dessus de l’article amd… =&gt; the “NEXT” evolution …

dingue ca , comme quoi “next” revient a la mode … (?)








DarKCallistO a écrit :



La prochaine génération sera sans doute fournie avec un générateur au naquadriah. <img data-src=" />





Pas assez stable, il y a un risque d’explosion de plusieurs mégatonnes et d’impulsion EMP <img data-src=" />.

Un générateur au Naqahdah de 3ème génération fera très bien le boulot.



En parlant de Futura-Science, pour le 1er avril, ils ont fait un article qui fait penser au fonctionnement de l’E2PZ :

http://www.futura-sciences.com/magazines/matiere/infos/actu/d/physique-energie-n…

Dommage que ça soit un poisson, ça aurait été super classe <img data-src=" />.









xloxlox a écrit :



bah pas besoin d’une carte mere crossfire avec cette carte , tu peux la faire tourner sur le port en 16x sur une carte a 50 euros alors qu’une carte crossfire coute 150 euro

donc c’est toujours pratiquement 100 euros d’economisé deja







wé c’est pas mal c’est clair comme ça nickel pour le mini PC ça lui fera juste un grosse protuberance de 500X









xloxlox a écrit :



bah pas besoin d’une carte mere crossfire avec cette carte , tu peux la faire tourner sur le port en 16x sur une carte a 50 euros alors qu’une carte crossfire coute 150 euro

donc c’est toujours pratiquement 100 euros d’economisé deja







<img data-src=" />



plus l’encombrement dans le boitier, un boitier moyenne tour avec 2 CG ça fait tout de suite très chargé.









bingo.crepuscule a écrit :



Perso je crois que je vais plutôt attendre deux ou trois ans avant de changer de matos, le graphène risque de changer la donne sur pas mal de choses (contraintes thermiques, résistance, conductivité, etc…) et il semble qu’on soit enfin capable de le produire en masse (wafers, etc…)



Curieux que PCI n’ait pas repris la nouvelle d’ailleurs !



http://www.futura-sciences.com/magazines/high-tech/infos/actu/d/technologie-grap…







Me rappelle avoir lu un article dans un magazine de science sur le sujet en 20072008 qui présentait déjà le graphène comme une solution d’avenir et que les premières commercialisations auraient lieu dans les 5 ans.



Force est de constater qu’en 2014, on ne voit toujours rien venir.<img data-src=" />



Dans le même genre, ça me rappelle les capteurs photo de 50 megapixels qui existent depuis 2008 (fabriqués par Kodak) mais dont on n’a jamais vu la couleur pendant 4 ans.

(merci à Nokia d’avoir un peu poussé le marché)









js2082 a écrit :



Me rappelle avoir lu un article dans un magazine de science sur le sujet en 20072008 qui présentait déjà le graphène comme une solution d’avenir et que les premières commercialisations auraient lieu dans les 5 ans.



Force est de constater qu’en 2014, on ne voit toujours rien venir.<img data-src=" />





Il n’y a pas encore d’application dans le domaine de l’électronique, mais le graphène est dors et déjà utilisé de manière industrielle pour l’élaboration de certains produit (plastiques, aciers, encres etc..).



Donc l’article de ton magazine de science, n’avait peut-être pas tord…