AMD dévoile ses Radeon R7 / R9, et déçoit

AMD dévoile ses Radeon R7 / R9, et déçoit

2h45 de conférence, pleine de vide

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

25/09/2013 6 minutes
115

AMD dévoile ses Radeon R7 / R9, et déçoit

C'est avec une bonne heure de retard que la conférence #GPU14 d'AMD a commencé ce soir. Comme prévu, c'est en direct d'Hawaii que la marque a annoncé ses Radeon R7 et R9, qui reprennent majoritairement l'architecture actuelle avec une nouvelle dénomination, comme l'on s'y attendait.

AMD GPU14 Hawaii AMD GPU14 Hawaii

Une nouvelle gamme qui n'en est pas vraiment une, vers des hausses de prix ?

Cette semaine, AMD invitait une partie de la presse internationale à Hawaii à l'occasion de son Tech Day annuel. L'occasion pour la société d'évoquer son futur au niveau du secteur du GPU, alors que la finesse de gravure en 28 nm continue de limiter les évolutions en termes de produits. 

 

Après avoir vanté les gammes précédentes qui ont été proposées ces deux dernières années, Matt Skynner a dévoilé les R7 et R9. La majorité de ces produits exploitera un GPU actuel même si cela n'est pas clairement évoqué pour le moment.  Les tarifs iront 89 à 299 dollars :

  • Radeon R7 250 : moins de 89 dollars
  • Radeon R7 260X : 139 dollars
  • Radeon R9 270X : 199 dollars
  • Radeon R9 280X : 299 dollars

AMD GPU14 Hawaii AMD GPU14 Hawaii AMD GPU14 Hawaii

 

Il sera intéressant de voir quels sont les produits exactement remplacés et si des baisses de prix sont prévues, à moins que ce ne soit l'inverse. En effet, une Radeon HD 7790 qui devrait exploiter le même GPU qu'une R7 260X est actuellement proposée à 100 € à peine. Les stocks commencent ainsi à se vider à coups de bons plans, ce que l'on attendait pas forcément pour tout de suite. Une Radeon HD 7950 se retrouve ainsi à moins de 150 € contre moins de 240 € pour une Radeon HD 7970.

 

Du côté des détails techniques, on ne saura rien ou presque. Seul un score 3DMark sur le test FireStrike est évoqué. Pour référence, selon nos derniers tests, une GeForce GTX 760 y obtient 5375 points, une GTX 770 grimpe à 6831 points alors qu'une GTX 780 culmine à 8239 points. Cela confirme le fait qu'elle devrait se retrouver face à la R9 290X alors qu'un CrossFire sera encore nécessaire pour passer outre la Titan.

 

AMD GPU14 Hawaii AMD GPU14 Hawaii

La R9 290X en précommande le 3 octobre, avant les premiers tests : mauvais signe ?

Un peu plus tôt dans la journée, la marque a laissé les journalistes voir la prochaine R9 290X, qui intègrera Battlefield 4 au sein de son bundle pour un tarif qui n'a pas encore été annoncé. Le tout sera proposé en quantités limitées. Ce partenariat se fait aussi au niveau du développement du jeu qui sera le premier à exploiter Mantle. Cette API propriétaire (limitée aux puces exploitant GCN), qui se veut plus efficace que DirectX (sans le nommer), sera d'ailleurs détaillée lors de la prochaine conférence APU13 début novembre. C'était sans doute l'annonce la plus intéressante de la soirée, qui promet des échanges tendus avec NVIDIA :

 

AMD GPU14 Hawaii AMD GPU14 Hawaii

 

Pour la R9 290X, il est question de six milliards de transistors via le nouveau GPU Hawai qui sera pleinement compatible DirectX 11.2. On ne sait presque rien d'autre puisqu'il est seulement question de 5 TFLOPS, d'une bande passante mémoire de 300 Go/s et de 4 Go de GDDR5. Tout devrait en effet être dévoilé dans un second temps, la précommande étant prévue pour le 3 octobre. D'après nos informations, cela sera avant la publication des tests, toujours prévus pour la mi-octobre.

 

On constate néanmoins que le style du ventirad évolue sans vraiment révolutionner le genre. Un connecteur PCIe à six broches est accompagné d'un second à huit broches pour l'alimentation alors que rien ne semble prévu pour le CrossFire, ce qui ne signifie pas que la technologie sera absente. Il en sera de même pour la R9 290 qui se contentera par contre de deux connecteurs à six broches.

 

Les modèles inférieurs basés sur la gamme actuelle garderont, par contre, la possibilité d'utiliser des ponts CrossFire. Pour ce qui est de la connectique vidéo, elle est simple et sans fioritures puisque l'on retrouve un duo de DVI-DL, un HDMI (2.0 ?) et un DisplayPort :

 

Radeon R9 280X Radeon R9 290 Radeon R9 290X

Radeon HD 280X, 290 et 290X : le jeu des sept différences... et pourtant

 

Ne vous attendez par contre pas à voir ces modèles de référence débarquer en masse chez les revendeurs. La plupart de nos contacts nous précisent que des design maison seront mis sur le marché en majorité, en réutilisant ou non le PCB de la gamme actuelle. Aucun n'a pour le moment pu envoyer de communiqué de presse, ceux-ci étant très certainement attendus pour le lancement officiel.

Pas de nouveauté à annoncer ? Pas grave, on mise tout sur l'audio et la 4K

Du côté des réelles nouveautés, rien de bien spécial à se mettre sous la dent. AMD a indiqué travailler sur un nouveau standard VESA pour faciliter l'utilisation de la 4K Ultra HD dans la pratique. Pour autant, le support du 2160p60 sur les écrans qui n'exploitent pas le mode MST (voir notre analyse) ne seront supportés que via une mise à jour ultérieure des pilotes Catalyst. Eyefinity devrait pour sa part s'affranchir du besoin d'utiliser le DisplayPort, comme c'est déjà le cas avec Surround chez NVIDIA.

 

On notera aussi l'annonce de Raptr, un outil tiers qui propose des fonctionnalités quasiment identiques à GeForce Experience de NVIDIA en termes d'optimisation automatisée des réglages des jeux notamment. Une bêta est disponible par ici.

 

AMD Radeon Raptr

 

Il a aussi été question de la technologie TrueAudio qui prend la forme d'un pipeline programmable au niveau de l'environnement sonore. C'est d'ailleurs ce qui a monopolisé la majorité de cette (longue) conférence pourtant dédiée à des cartes graphiques ! De quoi nous faire revivre l'expérience SoundStorm de NVIDIA, morte en 2005 ? Il faudra voir ce que cela pourra donner dans la pratique, et si les développeurs peuvent réellement apporter une meilleure expérience dans les jeux avec cela. 

 

Quoi qu'il en soit, n'attendez pas une rétrocompatibilité puisque seules les Radeon R7 260X et R9 290(X) sont compatibles. Exit donc les R9 270X / 280X, basés sur les GPU des Radeon HD 7800 / 7900, et qui n'intègrent sans doute pas ce qu'il faut. Attendons néanmoins plus de détails pour savoir ce qu'il en est.

 

AMD GPU14 Hawaii AMD GPU14 Hawaii

 

Le reste de la conférence était une suite de démonstrations, le point d'orgue étant sans doute ce moment où l'on a eu droit à une redite de celle annonçant le retour de Ruby... qui datait du Computex. Elle était alors montrée sur une Radeon HD 7990. Décidément, on s'était rarement autant ennuyé lors d'un évènement (de 2h45 !) qui avait pourtant été annoncé comme révolutionnaire. Espérons pour AMD que le meilleur reste à venir.

 

Vous retrouverez l'intégralité de cet évènement via la vidéo ci-dessous :

 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une nouvelle gamme qui n'en est pas vraiment une, vers des hausses de prix ?

La R9 290X en précommande le 3 octobre, avant les premiers tests : mauvais signe ?

Pas de nouveauté à annoncer ? Pas grave, on mise tout sur l'audio et la 4K

Fermer

Commentaires (115)


C’est toujours la même génération de GPU que ma HD6850 ?


lo BF4 dispo que en précommande sur la 290X …. -_-



et en quantité limité



vla le bundle merdique

je suis déçu par AMD








metaphore54 a écrit :



C’est toujours la même génération de GPU que ma HD6850 ?





Non, ce sera de l’architecture GCN comme les HD 7k …









metaphore54 a écrit :



C’est toujours la même génération de GPU que ma HD6850 ?





non pas du tout il pars sur un nouveaux modèle pousser vers le gaming et le 4k en gros maintenant AMD lance deux gamme différente le R7 xxx et le R9 xxx (tiré plus vers le gaming que le R7 xxx )



Le GPU qui gère l’audio



j’espère que je pourrais enfin utiliser monc able HDMi pour l’audio lol



La conférence d’ Nvidia est prévue pour quelle date ?



S’ils se tirent la bourre sur les prix, ca peut-être sympa <img data-src=" />


AMD ne sachant plus faire de carte graphique se lance dans les cartes son. <img data-src=" />


Je dois changer de CG, j’hésite avec la 770…. :/








Reparateur a écrit :



Le GPU qui gère l’audio



j’espère que je pourrais enfin utiliser monc able HDMi pour l’audio lol





C’est déjà le cas ;)



Ca doit être sympa les shaders programmable avec le truc du son, j’attends d’en voir plus !


Merci pour la réponse,il n’y a pas encore assez de différence avec les 7k pour justifier un changement de CG. Reste à voir pour celle ci mais je ne me fait pas d’illusion si c’est la génération 7K.








David_L a écrit :



C’est déjà le cas ;)







pas sur mes Radeon (problème de driver probablement ou de fabriquant tier qui à mal implémenté la chose, bref jamais j’ai pu résoudre ce problème )





édit : par contre le gar il baratine sur des techno audio qui existe depuis 15 ans



ma monster sound faisais déjà tout ça vas un simple casque stéréo avant même que les carte 3D existe …



faut dire l’audio stagne ou régresse depuis pas mal de temps









Reparateur a écrit :



pas sur mes Radeon (problème de driver probablement ou de fabriquant tier qui à mal implémenté la chose, bref jamais j’ai pu résoudre ce problème )







Heu… J’ai eu une 4870 de chez Sapphire et j’ai toujours eu le son par hdmi…



Maintenant j’ai une 7950 de chez HIS et pareil sans aucun problème.









metaphore54 a écrit :



Merci pour la réponse,il n’y a pas encore assez de différence avec les 7k pour justifier un changement de CG. Reste à voir pour celle ci mais je ne me fait pas d’illusion si c’est la génération 7K.







Euh c’est une très grosse avancé entre les 6k & 290(X) ou pas.









syndrome a écrit :



Heu… J’ai eu une 4870 de chez Sapphire et j’ai toujours eu le son par hdmi…



Maintenant j’ai une 7950 de chez HIS et pareil sans aucun problème.









moi pas ^^ (2 4850 de sapphyre mais je pense que c’est un modèle foireux)




Pour ceux qui veulent se faire une idée:https://www.youtube.com/watch?v=nKnhcsRTNME



C’est pas si mal je trouve.


Bah, selon GNT, la Radeon R9 290 dépasse la GeForce Titan et son prix oscillerait dans les 550-600 € en Europe ! A voir ! <img data-src=" />








ichigo87 a écrit :



Pour ceux qui veulent se faire une idée:https://www.youtube.com/watch?v=nKnhcsRTNME



C’est pas si mal je trouve.





Oui mais c’est déjà possible depuis longtemps. Les creative offrent déjà cela depuis 10 ans.









dtoxftw a écrit :



Euh c’est une très grosse avancé entre les 6k & 290(X) ou pas.





+100-120% d’apres fire Strike



Ils touchent vraiment le fond sur le live AMD la, c’est d’un ridicule ….








kantfredo a écrit :



Ils touchent vraiment le fond sur le live AMD la, c’est d’un ridicule ….





J’allais le dire c’est vraiment horrible…



Personne ne les a applaudit lol, Fail =&gt; +1








kantfredo a écrit :



En plus leur jeu est pitoyable quoi, d’ou ils sortent ….





Oui mais bon Cryengine quoi ! <img data-src=" />



on sais pas si le jeux est mauvais ou bon mais c’est clair ça fait flop flop flop lol



bon on dira c’est leur première feront mieux une autre fois pour dynamiser la chose

bref s’aurez mieux fait de faire un truc plus technique et basta



édit : pas con le PC vertical mais le mieux serais juste de retourner les CG pour que la chaleur monte



C’est toujours bien d’avoir mis des hdmi 2.0 pour le futur 4k.



je préférais la tronche de l’ancienne ruby ^^ (ou c’est la video qui est tellement crade qu’on a pas le temps de voir ça tête )


eyefinity sur 3 projo ça claque !!








Clad omnislash a écrit :



C’est toujours bien d’avoir mis des hdmi 2.0 pour le futur 4k.







Peut-être un jour il y aura du “contenu” en 4K qui sait ! <img data-src=" />









matroska a écrit :



Peut-être un jour il y aura du “contenu” en 4K qui sait ! <img data-src=" />







D’ici la carte ne sera peut être plus valable. <img data-src=" />









metaphore54 a écrit :



D’ici la carte ne sera peut être plus valable. <img data-src=" />







Ah, ah, ah ! <img data-src=" />



La carte ne sera plus assez performante donc il faudra attendre la prochaine génération !



Et en plus du “Contenu 4K, labellisé P.U.R avec D.R.M” <img data-src=" />









Reparateur a écrit :



pas sur mes Radeon







Oui mais ça doit faire au moins 3 ans que la plupart des cartes graphiques gèrent l’audio sur HDMI. J’avais une GeForce GT 430 qui pouvait en attester.



Mantle ça c’est un gros truc



API made in DICE et AMD



ça vas dépoter <img data-src=" />








David_L a écrit :



C’est déjà le cas ;)







Y’avait des petits fours et un buffet apéro au moins pour palier l’ennui ? <img data-src=" />









Reparateur a écrit :



Mantle ça c’est un gros truc



API made in DICE et AMD



ça vas dépoter <img data-src=" />







J’ai pas tout compris, c’est à la place de Dx, c’est compatible uniquement windows, uniquement avec du matos AMD ?









matroska a écrit :



Bah, selon GNT, la Radeon R9 290 dépasse la GeForce Titan et son prix oscillerait dans les 550-600 € en Europe ! A voir ! <img data-src=" />





R9 290X









zogG a écrit :



J’ai pas tout compris, c’est à la place de Dx, c’est compatible uniquement windows, uniquement avec du matos AMD ?









en fait j’pense c’est plus un driver qui permet d’accéder plus profond dans la hardware surement en bypassant certain truc de Dx



enfin j’ai pas tout compris en fait ^^

attendons des dossier techniques










Reparateur a écrit :



Mantle ça c’est un gros truc



API made in DICE et AMD



ça vas dépoter <img data-src=" />







C’est la seule chose intéressante pour moi dans cette conférence. Reste à voir si ça va changer quelques chose ou pas pour moi.



0 concurrence=0 innovation



Tu m’étonnes que le marché PC se casse la gueule.

Il ne se passe plus rien.



Les nouvelles “générations” CPU se contente de rajouter 50Mhz, ou d’améliorer les perfs des GPU intégrés (cherchez l’erreur)



Idem pour les GPU. On est passé d’une époque à +50 à 80% de perfs supplémentaires par an à +1015% tous les 18mois voire tous les deux ans.



Quand on voit comment ça bastonne sévère du côté des tablettes, tu m’étonnes qu’on en ait plus rien à foutre du marché PC.



Même Ms essaye de fourrer son OS pour tablette sur PC. Le monde à l’envers.

Comme si c’était révolutionnaire des cubes et des rectangles les uns à côté des autres.

Je veux bien croire que c’est plus pratique pour du tactile, mais moi j’utilise une souris avec mon PC, et le premier qui mets ses doigts gras sur mon écran je lui mets une mandale.

Sans déconner.








Reparateur a écrit :



en fait j’pense c’est plus un driver qui permet d’accéder plus profond dans la hardware surement en bypassant certain truc de Dx



enfin j’ai pas tout compris en fait ^^

attendons des dossier techniques







En espérant que des jeux compatible uniquement AMD ne débarquent pas quoi <img data-src=" />



L’idéal étant que ça utilise DX pour du matos non compatible Mantle, et Mantle pour le reste. à voir le boulot que ça demande aux devs. On verra avec BF4 déjà si le boost en performance est là.









dricks a écrit :



et le premier qui mets ses doigts gras sur mon écran je lui mets une mandale.







pouick







<img data-src=" />









syndrome a écrit :



Heu… J’ai eu une 4870 de chez Sapphire et j’ai toujours eu le son par hdmi…



Maintenant j’ai une 7950 de chez HIS et pareil sans aucun problème.







La meme chose chez moi (ou presque).

Une 4870 de Sapphirre, suivi d’une 7870 de HIS, les deux branchées sur un ampli A/V, et ça gere le stéreo, le multi canal decodé, le DTS et le dolby.



Je suis triste pour toi <img data-src=" />



Je ne comprends pas très bien la déception :




  • à process égal (28nm), les perfs semblent nettement au dessus des 7970

  • perf apparemment similaires aux Titan pour un GPU beaucoup plus petit

  • pas d’info de prix

  • ajout de l’audio dans les capacités de calcul des GPU, après la physique et les textiles : pourquoi pas, à voir…



    à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas <img data-src=" />


Ben, qu’y ait pas d’info de prix :p








brokensoul a écrit :



Je ne comprends pas très bien la déception :




  • à process égal (28nm), les perfs semblent nettement au dessus des 7970

  • perf apparemment similaires aux Titan pour un GPU beaucoup plus petit

  • pas d’info de prix

  • ajout de l’audio dans les capacités de calcul des GPU, après la physique et les textiles : pourquoi pas, à voir…



    à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas <img data-src=" />





  • Quelles perfs ? On a même pas la moindre spec (sauf Hawaii, mais on a pas grand chose non plus)

  • Pour la comparaison Titan, attend encore un peu à mon avis, vu ce sur quoi tout le monde se base… ;)

  • Les seuls prix donnés semblent indiquer une hausse (mais à voir dans la pratique, tout la gamme n’est d’ailleurs pas encore évoquée).

  • Ajout de peanuts pour l’audio je pense. Mais allez, avec un peu d’espoir, on va avoir du détail technique qui va tout changer.



    Bon après on peut être content d’avoir une gamme qui n’a rien de nouveau vu que tout est renommé sauf le modèle dont on ne sait pas le prix hein. Mais ce n’est pas mon cas. (sans parler de la conf désastreuse en elle même).









David_L a écrit :



(sans parler de la conf désastreuse en elle même).





C’est sûr que si les clients commencent à être exigeants sur la qualité du marketing… Bref vivement les tests de tout ça.









brokensoul a écrit :



Je ne comprends pas très bien la déception :




  • à process égal (28nm), les perfs semblent nettement au dessus des 7970

  • perf apparemment similaires aux Titan pour un GPU beaucoup plus petit

  • pas d’info de prix

  • ajout de l’audio dans les capacités de calcul des GPU, après la physique et les textiles : pourquoi pas, à voir…



    à part le renommage d’une partie des cartes, je ne comprends pas très bien ce qui ne vous plaît pas <img data-src=" />







    Peut être parce que ça n’apporte pas de fonctionnalité intéressante en plus. Comme par exemple les effets de Nvidia ou autre.



    Moi ce qui m’aurait plus c’est un changement à la volée du gpu à l’intégré du CPU.



    Je ne sais pas si c’est possible mais j’attendais autre chose que cette présentation.



Il manque une puce du type NVENC pour streamer grâce à SteamOS. Tout comme nvidia.



C’est mon futur critère d’achat.








dricks a écrit :



0 concurrence=0 innovation



Tu m’étonnes que le marché PC se casse la gueule.

Il ne se passe plus rien.



Les nouvelles “générations” CPU se contente de rajouter 50Mhz, ou d’améliorer les perfs des GPU intégrés (cherchez l’erreur)



Idem pour les GPU. On est passé d’une époque à +50 à 80% de perfs supplémentaires par an à +1015% tous les 18mois voire tous les deux ans.



Quand on voit comment ça bastonne sévère du côté des tablettes, tu m’étonnes qu’on en ait plus rien à foutre du marché PC.



Même Ms essaye de fourrer son OS pour tablette sur PC. Le monde à l’envers.

Comme si c’était révolutionnaire des cubes et des rectangles les uns à côté des autres.

Je veux bien croire que c’est plus pratique pour du tactile, mais moi j’utilise une souris avec mon PC, et le premier qui mets ses doigts gras sur mon écran je lui mets une mandale.

Sans déconner.





Il y a innovation dans les laboratoires de recherche. Quand une techno arrive sur le marché, c’est qu’on a trouvé un procédé d’industrialisation.

Je rajoute que je n’ai jamais vu de technologie fraichement sortie d’un labo vite industrialisée. Il faut attendre plusieurs dizaines d’années en général…

Cette petite digression est là pour vous dire que l’innovation que l’on vous vend n’est qu’un pur produit de la publicité.

Pour mieux comprendre mon propos, va acheter un ordinateur quantique, tu constateras après transaction le trou dans ta poche <img data-src=" />



Amd utilise la terminaison de nVidia 50 60 70 80 et 90…








ichigo87 a écrit :



Pour ceux qui veulent se faire une idée:https://www.youtube.com/watch?v=nKnhcsRTNME



C’est pas si mal je trouve.







C’est juste impressionnant !



C’est devenu d’une platitude le monde du hardware PC. <img data-src=" />

Le bon côté, c’est que je fais des économies. <img data-src=" />








David_L a écrit :





  • Quelles perfs ? On a même pas la moindre spec (sauf Hawaii, mais on a pas grand chose non plus)



    • Pour la comparaison Titan, attend encore un peu à mon avis, vu ce sur quoi tout le monde se base… ;)

    • Les seuls prix donnés semblent indiquer une hausse (mais à voir dans la pratique, tout la gamme n’est d’ailleurs pas encore évoquée).

    • Ajout de peanuts pour l’audio je pense. Mais allez, avec un peu d’espoir, on va avoir du détail technique qui va tout changer.



      Bon après on peut être content d’avoir une gamme qui n’a rien de nouveau vu que tout est renommé sauf le modèle dont on ne sait pas le prix hein. Mais ce n’est pas mon cas. (sans parler de la conf désastreuse en elle même).







      -Bah pour les specs, ils indiquent les specs de la carte et un score 3DMark, ok c’est pas le Pérou, mais ils laissent sûrement les testeurs faire leur taf, non ?

      -La comparaison Titan est effectivement inutile pour le moment, sachant que si les rumeurs du prix sont fondées (550600 euros), ça sera plus un match vs GTX780.

      -Effectivement le prix n’est pas confirmé, et c’est ça qui va changer la donne, en bien ou en mal.

      -L’audio c’est peut-être peanut, mais sur du mini ITX gamer, ça peut changer pas mal de chose si c’est mieux qu’une carte audio externe (je ne parle pas d’un DAC hors de prix hein), vu la qualité des chipsets audio des carte mère M ITX…





      Tu perds vite la mémoire, le “renommage” a déjà été effectué par NVIDIA avec leurs GTX760 et GTX770, voir peut-être l’hypothétique GTX750ti… Et là curieusement pas l’impression d’être prix pour des pigeons… De toute façon AMD tout comme Nvidia sont bloqué par le process de fabrication actuel…



      Si renommage il y a, espéreront simplement que les perfs seront revus à la hausse (boostées comme Nvidia avec sa série actuelle hors GTX780 et Titan), sinon quoi qu’il arrive ça sera une bonne affaire pour les HD7870/HD7950/HD7970 dont le prix aura normalement baissé.



      Par contre j’avoue que la conférence était soporifique, menfin c’est pas non plus un épisode de Friends, mais plus ou moins une conférence pro lol










Florent_ATo a écrit :



C’est juste impressionnant !





J’avoue ! A écouter avec un casque pour bien comprendre. Un rêve qui devient réalité, l’application du binaural à n’importe quel contenu multimédia ? (pour ceux qui ne connaissent pas, cherchez les sons holoacoustic ou binaural, c’est très, très impressionnant).



Par contre sortir qu’AMD déçoit, Je viens de faire le tour de votre dossier PCi “Tout savoir de la GeForce GTX Titan de NVIDIA”, et il y avait pas vraiment plus d’information de la part d’Nvidia.



Et comme je le dit plus haut les GTX760 et 770 sont que du renommage, la GTX 780, une Titan castrée. (Titan qui d’ailleurs est une version castrée de Kepler…)…





La seule chose que j’espère c’est que ça va faire baisser le prix des GPU actuels :)








mightmagic a écrit :



Oui mais c’est déjà possible depuis longtemps. Les creative offrent déjà cela depuis 10 ans.









Les cartes faisant dolby headphone et autres permettent en effet de très précisément connaitre la direction du bruit.



Ici j’ai l’impression qu’en plus de rajouter la direction, l’effet de distance ainsi que le haut et le bas est rajouter.



J’utilise la techno dolby headphone et avant ça CMSS depuis très longtemps et jamais je n’avais été aussi immergé.




Pour l’Audio, faut pas se le caché, seul Creative labs faisait des trucs qui fut un temps fut assez intégré au jeux mais depuis l’arrivé de Vista et Windows 7, c’est le silence radio de ce coté.



On se contente d’offrir un support audio basique et bien souvent aucun positionnement. Si AMD peut offrir une API qui permettra de simplifier la spatialisation et autres effets sonore, moi je dit que c’est un gros plus.



De toute manière, la place de l’audio 3D c’est ou sont les informations 3D, sur la carte graphique. Elle connais la disposition du décors, l’emplacement des objets etc. ça ne fait que du sens.





Pour Mantle, j’ai bien hate de voir et hate de voir si Linux sera de la partie. SteamOS + Mantle = jeux facilement portable entre windows - consoles - Linux donc un gros afflux de jeux récent et de qualité pour Linux.



on verra. Pour la carte, avant, oui il y avait plus de concurence, mais aussi les process diminuait beaucoup plus rapidement. Maintenant, ça fait une éternité qu’on est en 28 nm et on va s’en tapper pour un bout encore…



ça limite les constructeur. ça les forces à optimiser…








Reparateur a écrit :



Le GPU qui gère l’audio



j’espère que je pourrais enfin utiliser monc able HDMi pour l’audio lol







on eut deja le faire depuis un bout de temp ^^



Décidément, AMD et Nvidia auraient bien besoin de concurrence, ils se reposent sur leurs lauriers et sont devenus les rois du renommage… <img data-src=" />


Faut voir le système de son peut être vraiment une révolution, les gens sous-estiment vraiment l’impact du son sur leur vision du jeu.








matroska a écrit :



Bah, selon GNT, la Radeon R9 290 dépasse la GeForce Titan et son prix oscillerait dans les 550-600 € en Europe ! A voir ! <img data-src=" />





En même temps la titan c’est une carte à la con qui n’attire que les neuneu, elle n’a aucun intérêt comparé à une gtx 780.



Maintenant si cela se confirme cela placerait la R9 290 à un prix inférieur à celui de gtx 780 pour des perf supérieur et c’est une bonne chose mais ne comparons pas la carte à l’attrape couillon qu’est la gtx titan.



Bon…

* 4Go de VRAM, c’est décevant, insuffisant pour les jeux consoles à venir (osef de la RAM tout court, la bande passante et la latence du PCIe sont trop faibles). Et comme le passage de 4Go à 8Go est tout sauf transparent (passage d’adresses 32bits à 64bits), je présume qu’il ne sera pas possible d’aller au-delà avec ce GPU (j’espère me tromper et que les adresses sont déjà en 64 bits).



* Une API pour piloter le matos directement est bonne à prendre vu que la même chose sera dispo sur consoles avec des puces ATI justement. Même si à mon avis les gains seront très circonstanciels (mais potentiellement majeurs).



* le son, vaste blague : 44k échantillons par seconde, n’importe quel CPU d’il y a dix ans peut effectuer des tonnes de traitement en temps réel sur cent pistes simultanées et faire le café en même temps (j’exagère un poil mais à peine). Cela dit il me semble que la même chose sera possible sur consoles, donc NVidia et ATI pourraient s’y mettre par souci d’homogénéisation, simplement afin de simplifier le boulot des dévs.








Punkenjoy a écrit :



Pour l’Audio, faut pas se le caché, seul Creative labs faisait des trucs qui fut un temps fut assez intégré au jeux mais depuis l’arrivé de Vista et Windows 7, c’est le silence radio de ce coté.



On se contente d’offrir un support audio basique et bien souvent aucun positionnement. Si AMD peut offrir une API qui permettra de simplifier la spatialisation et autres effets sonore, moi je dit que c’est un gros plus.



De toute manière, la place de l’audio 3D c’est ou sont les informations 3D, sur la carte graphique. Elle connais la disposition du décors, l’emplacement des objets etc. ça ne fait que du sens.





Pour Mantle, j’ai bien hate de voir et hate de voir si Linux sera de la partie. SteamOS + Mantle = jeux facilement portable entre windows - consoles - Linux donc un gros afflux de jeux récent et de qualité pour Linux.



on verra. Pour la carte, avant, oui il y avait plus de concurence, mais aussi les process diminuait beaucoup plus rapidement. Maintenant, ça fait une éternité qu’on est en 28 nm et on va s’en tapper pour un bout encore…



ça limite les constructeur. ça les forces à optimiser…





Dans 7 mois il y aura une nouvelle génération de carte graphique qui exploiterons le 22nm. Cette génération est ce que sont les gtx 7xx de Nvidia mais avec plus d’avancés que ce dernier par rapports aux produits précédents.









Punkenjoy a écrit :



Pour l’Audio, faut pas se le caché, seul Creative labs faisait des trucs qui fut un temps fut assez intégré au jeux mais depuis l’arrivé de Vista et Windows 7, c’est le silence radio de ce coté.



On se contente d’offrir un support audio basique et bien souvent aucun positionnement. Si AMD peut offrir une API qui permettra de simplifier la spatialisation et autres effets sonore, moi je dit que c’est un gros plus.





En fait, après des années de positionnement foireux avec des voix inaudibles à 10° près, nous avons aujourd’hui un positionnement correct et purement CPU, des effets d’écho et de doppler qui ne sont pas dix fois abusés, etc. Forcément ça se remarque moins mais c’est bel et bien un progrès.





De toute manière, la place de l’audio 3D c’est ou sont les informations 3D, sur la carte graphique. Elle connais la disposition du décors, l’emplacement des objets etc. ça ne fait que du sens.



Ca n’a pas de sens parce que :

* Les infos 3D sont au moins autant sur le CPU que sur le GPU, davantage sur le CPU en fait, de par son rôle de chef d’orchestre.

* Le GPU est très sollicité, le CPU tend a toujours un ou deux coeurs en train de se tourner les pouces et a bien plus que le nécessaire en puissance.

* Le GPU n’est jamais complètement autonome (techniquement incapable) et il faut des aller-retours coûteux entre CPU et GPU.

* La programmation du GPU est plus coûteuse, crade et casse-gueule que celle du CPU.



A mes yeux le seul intérêt c’est l’homogénéité avec les consoles qui utiliseront le GPU pour compenser leur CPU minable.



J’avais oublié à quel point la moindre news hardware pouvait devenir relou… <img data-src=" />









troudhuk a écrit :



C’est sûr que si les clients commencent à être exigeants sur la qualité du marketing… Bref vivement les tests de tout ça.





Bah désolé hein, on fait une actualité suite à une conférence. Si la conférence est chiante, c’est aussi évoqué. Après si tu décides de t’en foutre, ce que je comprend, c’est ton choix :) Je ne suis pas là pour être client ;)



Pour les tests, c’est simple : reprend n’importe quel test de Radeon HD 7000 publié récemment ?







darkandy a écrit :



-Bah pour les specs, ils indiquent les specs de la carte et un score 3DMark, ok c’est pas le Pérou, mais ils laissent sûrement les testeurs faire leur taf, non ?



Bah les testeurs ont déjà publié les résultats si on y va par là. Mais bon, pas d’infos sur les puces, même pas un mot sur la finesse de gravure. Tout le souci est que si une info est donnée, elle mènera à la conclusion suivante : seul le nom des cartes a changé. Du coup, on passe quelques slides rapido, on évoque même pas Hawaii alors qu’on a déplacé tout le monde à Honolulu et organisé une conférence de 2h45 en live pour ça et on espère que ça va passer en parlant d’audio pendant plus d’une heure.



-La comparaison Titan est effectivement inutile pour le moment, sachant que si les rumeurs du prix sont fondées (550600 euros), ça sera plus un match vs GTX780.



Toute comparaison est inutile est stupide, sans aucune information et rien de concret (genre une carte dans une machine de test). De toutes façons le graphique sur lequel tout le monde se tape la nouille est piégeux, mais bon, tous ceux qui le reprennent pour faire du hit ne sont même pas capable de l’avoir vu…



-Effectivement le prix n’est pas confirmé, et c’est ça qui va changer la donne, en bien ou en mal.



Il n’est pas évoqué du tout. Le reste, c’est du vent. Même les partenaires ne savent rien et ne peuvent rien faire tellement les choses sont bien faites…



-L’audio c’est peut-être peanut, mais sur du mini ITX gamer, ça peut changer pas mal de chose si c’est mieux qu’une carte audio externe (je ne parle pas d’un DAC hors de prix hein), vu la qualité des chipsets audio des carte mère M ITX…



T’as conscience qu’on parle très certainement d’une fonctionnalité software là ? Tu sais un truc rajouté vite fait pour faire genre un truc à changé sur une seule des cartes sur les trois renommages annoncés et la version haut de gamme dont on ne sait rien…



Tu perds vite la mémoire, le “renommage” a déjà été effectué par NVIDIA avec leurs GTX760 et GTX770, voir peut-être l’hypothétique GTX750ti… Et là curieusement pas l’impression d’être prix pour des pigeons… De toute façon AMD tout comme Nvidia sont bloqué par le process de fabrication actuel…



Le fait que NV ait renommé sur la gamme 700 n’est pas en soi une excuse pour effectuer un renommage ici. Surtout qu’une partie de la gamme a déjà été renommée (HD 8000), que cela est plus ou moins planqué pendant une conf officielle (si la presse n’avait pas ces infos qu’AMD ne donne pas, ce serait passé comme une lettre à la poste) et qu’en plus on a même pas la moindre info intéressante sur les cartes.



Après, NV n’a pas caché le fait que ses GPU étaient les mêmes (c’était évoqué clairement dans les docs fournis à la presse lors des tests), on a su le peu qui avait changé (qques détails et la gestion du ventirad grosso modo) et on avait néanmoins gueulé à l’époque sur le fait qu’on attendait mieux que ça.



N’oublions pas qu’on parle de boites qui nous refourguent la même soupe depuis un an en cherchant à crier à la nouveauté tous les six mois pour continuer à nous refourguer la même chose, plus cher, à des moments clefs (ici Noel).



Après il y a le cas des GTX 780 / Titan, mais vu le tarif des produits en question, leur intérêt est quasiment inexistant, sauf pour ceux qui veulent se prendre pour des cadors <img data-src=" />



Si renommage il y a, espéreront simplement que les perfs seront revus à la hausse (boostées comme Nvidia avec sa série actuelle hors GTX780 et Titan), sinon quoi qu’il arrive ça sera une bonne affaire pour les HD7870/HD7950/HD7970 dont le prix aura normalement baissé.



Soit rasuré, on sait déjà que le prix, lui, a grimpé <img data-src=" /> Du coup, pas besoin de baisser le prix de la gamme actuelle. Le plus fun c’est qu’on ne sait même pas si les offres Bundle “Never Settle” seront applicables. Bref, une conférence pour rien.



Par contre j’avoue que la conférence était soporifique, menfin c’est pas non plus un épisode de Friends, mais plus ou moins une conférence pro lol











darkandy a écrit :



Par contre sortir qu’AMD déçoit, Je viens de faire le tour de votre dossier PCi “Tout savoir de la GeForce GTX Titan de NVIDIA”, et il y avait pas vraiment plus d’information de la part d’Nvidia.



Bah on avait juste toutes les specs, le tarif, et la carte. Sur la 290X, on a une référence, Six chiffres et basta. (Ah si, on sait que ça supporte TrueAudio, génial !).



Et comme je le dit plus haut les GTX760 et 770 sont que du renommage, la GTX 780, une Titan castrée. (Titan qui d’ailleurs est une version castrée de Kepler…)…



Déjà répondu. Pour rappel, le fait qu’un produit exploite un GPU castré n’a rien de problématique, ni rien de nouveau. C’est un peu le principe des gammes de GPU depuis des années…



La seule chose que j’espère c’est que ça va faire baisser le prix des GPU actuels :)



Déjà répondu : ça ne devrait pas être le cas (hors soldes pour vider les stocks si vraiment ça galère trop en janvier




AMD Ultimate app, ça a l’air assez dégueulasse… Pourquoi gamer = soft trop dark ?


Bon ben on va attendre les tests, mais en soi c’est beaucoup d’attente pour rien… ça leur a bouffé beaucoup de temps d’être positionné sur toutes les consoles.








Loeff a écrit :



Bon ben on va attendre les tests, mais en soi c’est beaucoup d’attente pour rien… ça leur a bouffé beaucoup de temps d’être positionné sur toutes les consoles.





C’est surtout le 28 nm qui plombe tout le monde pour le moment. Tout devrait (enfin) bouger l’année prochaine.



ahhh AMD qui nous refait le coup de renommer les vieux GPU avec 50MHz de plus et coller une étiquette toute neuve et un nouveau prix dessus.



Les pro du marketing : AMD.



Quand à moi j’ai une HD6950, un des tout premier modèle dont on peut flasher le bios et la passer en HD6970.



Je ne trouve pas de carte qui m’attire chez AMD pour remplacer mon actuelle… et c’est pas cette annonce qui va me faire changer de carte…


Bon et bien je crois que je vais conserver ma HD5850 XTreme Edition encore qques temps :)


Je comprend pas les gens qui parles de renommage a chaque fois qu’il parle de Nvidia.

Chez Nvidia, les chiffre paires c’est une nouvelle archi (Souvent les cartes qu’il faut éviter car souvent elle chauffe, les drivers sont pas capable d’exploiter le meilleur de la CG, etc) et les chiffres impaires sont les même archi mais corrigée de leur problème.

Nvidia l’as toujours fait et pour temps il y a toujours autant de monde qui gueule… <img data-src=" />








von-block a écrit :



Ici j’ai l’impression qu’en plus de rajouter la direction, l’effet de distance ainsi que le haut et le bas est rajouter.







Les Gravis Ultrasound première génération le faisaient en temps réel. Depuis, y a EAX qui a posé son implémentation qui fonctionne plutôt bien et sûrement d’autres entre les deux.



Il n’y a qu’à (ifoyakafokon) appliquer un HRTF à ton son et roule ma poule. Il y a d’autres techniques qui fonctionnent bien, plus roots, mais adaptables au sujet qui écoute (tu donnes les dimensions de ta tête, en gros, pour calculer au mieux les déphasage de sons).



Pour l’HRTF, deux méthodes (que je connais). Une méthode qui demande de la puissance et ne s’adapte qu’à une forme de tête particulière. Il faut donc des presets pour différentes formes d’auditeurs. Et l’autre méthode, plus roots, qui calcule vraiment la physique du son jusqu’aux oreilles, en forçant un peu les déphasages. Ça fonctionne plutôt bien (pis tu peux donner les dimensions de ta tête au programme pour affiner les calculs), et surtout, contrairement à l’HRTF de EAX, par exemple, les délais dûs à la distance, tout comme l’effet doppler* sont gérés.



*quoiqu’ils ont peut-être corrigé ça depuis le temps, pour le doppler…





On notera aussi l’annonce de Raptr, un outil tiers qui propose des fonctionnalités quasiment identiques à GeForce Experience de NVIDIA en termes d’optimisation automatisée des réglages des jeux notamment. Une bêta est disponible par ici.





ils savent que Raptr est déjà utilisé ?



http://raptr.com/


Je retiens surtout de cette conf (comme d’autres dans les commentaires) l’introduction de Mantle : d’après AMD, cette API sera disponible à la fois sur les PC équipés de ses puces GCN, mais aussi sur les Wii U, XBox One et PS4… ils ont donc le poids suffisant pour convaincre les développeurs d’utiliser cette API.

On parle de BF4 ici, mais au final c’est carrément le moteur Frostbite qui aura la possibilité de basculer sur Mantle (au lieu DirectX ou OpenGL) sur les systèmes compatibles…



Si les perfs sont vraiment au rendez-vous et que la promesse d’effectuer 9 fois plus d’appels par seconde aux fonctions graphiques de la carte que via DirectX ou OpenGL se vérifie, ça risque d’être clairement TRES intéressant!



Oui, on dirait l’aventure du Glide pour 3dfx, mais la différence c’est qu’aujourd’hui les cartes graphiques sont dans quasiment tous les PC… sans parler des consoles.

A suivre, donc…



Quant au reste de la conf, effectivement aucun intérêt (même pas de bench pour la R9 290X… pfff… <img data-src=" />).



PS : par contre, ceux qui attendaient une révélation en lien avec la XBox One, ben, du coup c’est râpé…



EDIT : j’oubliais un détail important : Mantle supporte le HLSL d’après certains sites, ce qui permet un portage simplifié des moteurs… vraiment ça me semble prometteur ce truc…


Lien vers le Ratpr dead :) (suffit d’être un peu débrouillard et on y arrive quand même xD)








ichigo87 a écrit :



Pour ceux qui veulent se faire une idée:https://www.youtube.com/watch?v=nKnhcsRTNME





Dans l’absolu c’est énorme, je n’ai jamais entendu un son aussi clair dans mes écouteurs.

Néanmoins, c’est la techno de traitement du son qui donne ce résultat, ce n’est pas lié directement à la carte graphique, d’autant qu’en cherchant binaural on trouve plein d’exemple sans rapport avec AMD.



Il n’est finalement question ici que d’allouer une puissance de calcul au procédé.

De cas de figure alors :




  • Un CPU actuel est tout a fait capable de faire du binaural sans pénaliser le moteur du jeu, dans ce cas c’est un non évènement, et pourquoi n’a-t-on pas déjà ce rendu dans tous les jeux ??

  • Le CPU actuel ne peut pas sans plomber le reste, dans ce cas l’apport par le GPU est intéressant, mais va lui bouffer beaucoup de ressources, le rendant insuffisant pour la 3D du jeu (syndrome physx)



    La seule bonne nouvelle serait alors : “plutôt qu’acheter une carte son dédiée propriétaire qui ne le fera pas aussi bien, utilisez votre ancienne carte graphique AMD pour gérer le binaural !”, oui sauf que les anciennes cartes ne le gèrent pas …



    Quel est donc l’apport des “nouveaux” GPU dans l’histoire ??



Prochainement: Un bios pour transformer une:





  • HD7970 -&gt; R9 270X ?

  • HD7970Ghz -&gt; R9 280X ?



    <img data-src=" />



    Mantle par contre <img data-src=" />








lolotwingo a écrit :









Tu as quand même vu que la vidéo datait de 2011 ? <img data-src=" />









ichigo87 a écrit :



Pour ceux qui veulent se faire une idée:https://www.youtube.com/watch?v=nKnhcsRTNME



C’est pas si mal je trouve.







Super bizarre la vidéo. Autant je trouve que le positionnement vertical est très bien rendu, autant le positionnement devant/derrière est immonde et le positionnement latéral souffre de plusieurs lacunes, notamment le phénomène d’occlusion quand un son est très proche d’une oreille et qu’il doit “faire le tour” de la tête pour arriver dans l’autre.



Bref, une solution de plus, et pas forcément la meilleure (surtout si en prime elle bouffe beaucoup de CPU)



pourquoi ils changent encore de numérotation de produits <img data-src=" />








David_L a écrit :



C’est surtout le 28 nm qui plombe tout le monde pour le moment. Tout devrait (enfin) bouger l’année prochaine.







On va dire d’ici 1.5-2ans, en général les premières puces gravées plus finement posent quelques soucis.









David_L a écrit :





  • Quelles perfs ? On a même pas la moindre spec (sauf Hawaii, mais on a pas grand chose non plus)



    • Pour la comparaison Titan, attend encore un peu à mon avis, vu ce sur quoi tout le monde se base… ;)

    • Les seuls prix donnés semblent indiquer une hausse (mais à voir dans la pratique, tout la gamme n’est d’ailleurs pas encore évoquée).

    • Ajout de peanuts pour l’audio je pense. Mais allez, avec un peu d’espoir, on va avoir du détail technique qui va tout changer.



      Bon après on peut être content d’avoir une gamme qui n’a rien de nouveau vu que tout est renommé sauf le modèle dont on ne sait pas le prix hein. Mais ce n’est pas mon cas. (sans parler de la conf désastreuse en elle même).





      pour les perfs, je me base juste sur les scores 3DMark annoncés, j’ai la faiblesse de penser qu’ils vont être au moins respectés.. Pour les prix j’ai dit que je n’en savais rien, et pour l’audio plusieurs sites (dont anandtech par exemple) disent que ce n’est pas annecdotique. Pas sûr que ça prenne à grande échelle si l’API n’est pas ouverte, mais ce n’est pas rien. Et Mantle est aussi intéressant, vu qu’AMD a le marché des consoles. La comparaison avec DX va être évidente avec BF4, si c’est vraiment un bonus en perfs d’autres studios suivront peut être.

      Beaucoup d’hypothétique, mais les perfs devraient être là, j’attends de voir mais je ne suis pas “déçu”.










jb18v a écrit :



pourquoi ils changent encore de numérotation de produits <img data-src=" />





Changement de nom &gt; Hype &gt; Achat &gt; Noël / Black Friday









brokensoul a écrit :



pour les perfs, je me base juste sur les scores 3DMark annoncés, j’ai la faiblesse de penser qu’ils vont être au moins respectés.. Pour les prix j’ai dit que je n’en savais rien, et pour l’audio plusieurs sites (dont anandtech par exemple) disent que ce n’est pas annecdotique. Pas sûr que ça prenne à grande échelle si l’API n’est pas ouverte, mais ce n’est pas rien. Et Mantle est aussi intéressant, vu qu’AMD a le marché des consoles. La comparaison avec DX va être évidente avec BF4, si c’est vraiment un bonus en perfs d’autres studios suivront peut être.

Beaucoup d’hypothétique, mais les perfs devraient être là, j’attends de voir mais je ne suis pas “déçu”.





Oui donc pour toi le truc amazing dans les nouvelles Radeon, c’est :





  1. Le GPU Computing utilisé pour l’audio (youpi; révolution)

  2. L’API proprio conçue pour les consoles réutilisée pour déséquilibrer les perfs sur PC



    Je suis assez d’accord sur le fait que Mantle est une info importante. Mais :






  • Cela n’a rien à voir avec cette fausse nouvelle gamme

  • Cela ne sera pas utilisé avant un moment (et une update de BF4)

  • Cela aura aussi des implications négatives (mais on en reparlera)

  • Cela a été évoqué en fin de conf au bout de 2h30 (no comment)



    Pour le reste, pour une conf qui était censé vendre du rêve sur les GPU, ça a surtout parlé d’audio et de software. De toutes façons, étant donné que rien n’arrive en test avant mi-octobre, que la préco est prévue pour le 3 octobre, et qu’on reste sur une même archi, on ne pouvait pas tenir des heures. Mais du coup, on se demande l’intérêt d’une telle annonce, si tôt, et surtout sous cette forme.





Eyefinity devrait pour sa part s’affranchir du besoin d’utiliser le DisplayPort





C’est bon ça miam <img data-src=" />



Mais je pense quand même faire l’impasse sur cette génération.

Les générations suivantes bénéficieront, à n’en pas douter, de la même évolution.








David_L a écrit :



Oui donc pour toi le truc amazing dans les nouvelles Radeon, c’est :





  1. Le GPU Computing utilisé pour l’audio (youpi; révolution)

  2. L’API proprio conçue pour les consoles réutilisée pour déséquilibrer les perfs sur PC



    Je suis assez d’accord sur le fait que Mantle est une info importante. Mais :






  • Cela n’a rien à voir avec cette fausse nouvelle gamme

  • Cela ne sera pas utilisé avant un moment (et une update de BF4)

  • Cela aura aussi des implications négatives (mais on en reparlera)

  • Cela a été évoqué en fin de conf au bout de 2h30 (no comment)



    Pour le reste, pour une conf qui était censé vendre du rêve sur les GPU, ça a surtout parlé d’audio et de software. De toutes façons, étant donné que rien n’arrive en test avant mi-octobre, que la préco est prévue pour le 3 octobre, et qu’on reste sur une même archi, on ne pouvait pas tenir des heures. Mais du coup, on se demande l’intérêt d’une telle annonce, si tôt, et surtout sous cette forme.





    ah mais je n’ai pas dit que c’était amazing, il y a toute une palette de nuances possibles, j’ai juste dit que ce n’était pas décevant pour moi. Côté hardware pur c’est sûr qu’il n’y a pas eu grand chose de dit; mais pas mal d’autres trucs potentiellement intéressants. Je me demande par exemple ce qu’ils comptent faire de Mantle, si ça pourrait intégrer une norme ouverte, par exemple comme déclinaison plus bas niveau d’openGL. [Pas trop étonné qu’ils aient eu besoin de travailler là dessus sur les consoles au fait, vue la faiblesse des CPU de ces bécanes.] Sinon c’était plus une conf à la Apple, un peu de hard avec quelques chiffres clefs, et beaucoup sur les usages. Le hard et la technique viendront plus tard j’imagine..









David_L a écrit :



Tu as quand même vu que la vidéo datait de 2011 ? <img data-src=" />





<img data-src=" /> C’est pire que ce que je pensais <img data-src=" />



Que reste-t-il de ce vapor meeting alors ? <img data-src=" />



@David: je ne sais pas si tu as l’info, mais les nouvelles cartes sont-elles enfin gérées nativement par les UEFI ? Actuellement, je suis obligé de conserver le mode legacy activé car sinon la HD7970GE n’est pas reconnue par l’UEFI. C’est bien dommage ! (ASUS M5A99X EVO R2.0 et Sapphire Radeon HD 7970 GHz Edition)








Franck Capon a écrit :



ils savent que Raptr est déjà utilisé ?



http://raptr.com/









Oui et il y a la versionbeta pour amd, avec réglages de performances.



http://raptr.com/amd



D’accord, ça m’apprendra a vérifier ;-)

Je pensais que c’était une application bien a eux mais qui utilisait un nom déjà pris ;-)

Là, en fait, c’est un partenariat…


Au passage Marc, merci de m’avoir pris le temps de me répondre :)








David_L a écrit :





  1. L’API proprio conçue pour les consoles réutilisée pour déséquilibrer les perfs sur PC







    On parle d’augmenter les perfs par rapport aux api existantes, ce n’est pas comme si cela allait dégrader les perfs chez les verts…

    Bref, nos GPU vont peut être enfin être exploités plus efficacement, à l’image de ce qu’il se passe sur console, c’est plutôt une bonne nouvelle pour moi!

    Et pour tous les possesseurs de GPU équipés de GCN d’ailleurs.



    En tout cas, c’est de mon point de vue un très bon mouvement de la part d’AMD. Il tirent profit de leur implication dans le marché console pour se créer un atout important sur le marché PC.

    Reste à voir ce que celà donne dans les faits, et on devrait être fixés au plus tard en décembre avce la MAJ de battlefield 4…



TSMC et globalfoundires semblent avoir des problèmes ou être en retard sur le 20nm, AMD a du changer sa feuille de route pour les APUs et avec les GPUs ils nous sortent du réchauffé








darkandy a écrit :



Au passage Marc, merci de m’avoir pris le temps de me répondre :)







Rahh je voulais dire David lol Pas réveillé aujourd’hui lol <img data-src=" />









djil a écrit :



On parle d’augmenter les perfs par rapport aux api existantes, ce n’est pas comme si cela allait dégrader les perfs chez les verts…

Bref, nos GPU vont peut être enfin être exploités plus efficacement, à l’image de ce qu’il se passe sur console, c’est plutôt une bonne nouvelle pour moi!

Et pour tous les possesseurs de GPU équipés de GCN d’ailleurs.



En tout cas, c’est de mon point de vue un très bon mouvement de la part d’AMD. Il tirent profit de leur implication dans le marché console pour se créer un atout important sur le marché PC.

Reste à voir ce que celà donne dans les faits, et on devrait être fixés au plus tard en décembre avce la MAJ de battlefield 4…





Vivement que chaque constructeur ponde son API bas niveau alors, youpi <img data-src=" /> Disons que de la part d’une marque qui critique NV quand elle fait la même chose, ou quand elle annonce de la fonctionnalité “non gaming” c’est fun tout de même ;)



Après il faudra attendre de voir ce qu’il se passera dans la pratique, les résultats, la réponse en face, etc. avant de juger définitivement.









David_L a écrit :



Vivement que chaque constructeur ponde son API bas niveau alors, youpi <img data-src=" /> Disons que de la part d’une marque qui critique NV quand elle fait la même chose, ou quand elle annonce de la fonctionnalité “non gaming” c’est fun tout de même ;)



Après il faudra attendre de voir ce qu’il se passera dans la pratique, les résultats, la réponse en face, etc. avant de juger définitivement.







On parle bien d’AMD non? AMD qui s’est pris les pires coups bas par Intel dans le passé? AMD qui a vu Nvidia sortir et profiter de ses nombreuses techno exclusives? AMD qui se traine sa mauvaise réputation niveau software depuis x années?

Et là, pour une fois qu’ils ont l’opportunité de rendre les coups, ils ne devraient pas parce que ce n’est pas “fair” vis à vis de la concurrence?

Nvidia n’a pas voulut du marché consoles car pas assez rentable, et bien qu’ils en assument les conséquences maintenant.

Et je doute que de nombreux développeurs soient intéressés pour utiliser une nouvelle API Nvidia qui serait cantonnée au marché PC…



Enfin, je rappelle que mantle devrait offrir un gain de perf “gratuit” aux possesseurs de GPU gcn, c’est donc de mon point de vue au moins aussi intéressant que l’annonce d’une nouvelle carte à 1000 euros…









djil a écrit :









Je ne dis pas qu’il ne faut pas. Je dis que venant de leur part, c’est “fun” (un peu comme quand on te jure la main sur le cœur que Gaming Evolved ne tacle pas les GPU concurrent dans les jeux et que tu vois les options qui ont été activées dans TR et DiRT Showdown par exemple), et que ça va forcément lever une problématique.



Pour le reste, tu confonds un peu tout. Oui Mantle est intéressant, non ça ne rend pas cette conférence plus réussie du point de vue des annonces GPU (Mantle n’est que du software, prévu pour être annoncé à l’APU13 depuis le départ. On en parle ici pour sauver les meubles).



Oui Mantle est une bonne chose pour AMD, mais : il faudra voir l’effet dans la pratique et si justement ça ne lève pas une nouvelle guerre des optimisations à coup de programme développeur et de gros chèques. Sans parler de la question des portages notamment, à l’heure de Steam OS.



Après si dans la pratique ça permet à AMD de corriger pas mal de ses soucis software au passage ce sera tout bénéf’, mais rien n’est jamais intéressant si c’est anodin.



Quelques questions :




  • La partie audio avec laquelle AMD nous a bassiné pendant une trop grosse partie de la conférence, c’est plus évolué que ce que fait Nvidia sur ces cartes ? Ou c’est la même chose ?

  • Mantle est une API bas niveau ok. Est-ce que Nvidia planifie de sortir la sienne aussi ?

  • Est-ce que cela risque pas de faire des jeux vraiment galères avec 3-4 moteurs de rendu différents (Mantle, DirectX, OpenGL et la version de Nvidia si ce dernier en sort une) ?

  • Est-ce que les perfs seront vraiment au rdv ? AMD parle de 9 fois plus d’appel que sous DirectX et OpenGL, cela semble énorme ? Sait on pourquoi ?

  • N’y a t il pas un risque que AMD néglige les autres API au profit de la sienne ?

  • Pourquoi mais pourquoi donc avoir invité toute la presse a Hawai ??? Pourquoi une entreprise qui est plus souvent dans le rouge que dans le vert c’est une sacré perte d’argent pour pas grand chose.








dricks a écrit :



0 concurrence=0 innovation



Tu m’étonnes que le marché PC se casse la gueule.

Il ne se passe plus rien.



Les nouvelles “générations” CPU se contente de rajouter 50Mhz, ou d’améliorer les perfs des GPU intégrés (cherchez l’erreur)



Idem pour les GPU. On est passé d’une époque à +50 à 80% de perfs supplémentaires par an à +1015% tous les 18mois voire tous les deux ans.



Quand on voit comment ça bastonne sévère du côté des tablettes, tu m’étonnes qu’on en ait plus rien à foutre du marché PC.



Même Ms essaye de fourrer son OS pour tablette sur PC. Le monde à l’envers.

Comme si c’était révolutionnaire des cubes et des rectangles les uns à côté des autres.

Je veux bien croire que c’est plus pratique pour du tactile, mais moi j’utilise une souris avec mon PC, et le premier qui mets ses doigts gras sur mon écran je lui mets une mandale.

Sans déconner.









t’a pas tord sur la fin de ton analyse



le monde à l’envers

triste époque pour l’informatique



Au contraire ça commence enfin à bouger, Steam lance son OS linux pour avoir une meilleur optimisation matériel et enfin se débarrasser du boulet du jeu PC à savoir DirectX, et vu que nVidia lance depuis quelques mois des drivers OpenGL de plus en plus optimisé on peut penser que la Steam Machine de référence utilise un GPU nVidia.

nVidia qui a en plus “apparemment” montrer un truc “énorme” à certain développeur (notamment Mark Rein de Epic ).

Et de l’autre on a AMD qui annonce Mantle.

Ça fait pas mal de nouveautés et d’hypothèse sur l’avenir du jeu PC.








yeagermach1 a écrit :



Quelques questions :




  • La partie audio avec laquelle AMD nous a bassiné pendant une trop grosse partie de la conférence, c’est plus évolué que ce que fait Nvidia sur ces cartes ? Ou c’est la même chose ?







    Non, ici on parle d’un framework ou API pour augmenter le nombre et la qualité des effets sonores dans les jeux . La demo de Genaudio n’est pas exclusive à Truesound d’AMD mais cette dernière permet d’avoir de bonne performance en temps réel. Il ne s’agit plus vraiment aussi de d’avoir un DSP dédié au effets à la façon des EMU mais bien d’utiliser le GPGPU pour faire le traitement du son.



    Il faut aussi séparé le traitement du son et la sortie audio qui elle pourra être soit via HDMI, SPDIF, ou via une sortie Jack via un convertisseurs numérique -&gt; analogique. Ce dernier restera important pour garder une bonne qualité audio sur des écouteurs ou un système de son brancher avec les prise jacks.



  • Mantle est une API bas niveau ok. Est-ce que Nvidia planifie de sortir la sienne aussi ?



    On n’en sais rien pour le moment, mais AMD à l’avantage d’avoir le marché des consoles pour convaincre les développeurs. PhysX n’a pas très bien marché mais CUDA a beaucoup de succès. Faudra voir…



  • Est-ce que cela risque pas de faire des jeux vraiment galères avec 3-4 moteurs de rendu différents (Mantle, DirectX, OpenGL et la version de Nvidia si ce dernier en sort une) ?



    Déjà programmer pour Mantle sera plus une galère, mais il y a de forte chance que ce ne soit que les développeurs de moteurs de jeux qui vont se taper ce travail. Les jeux ne se basant que sur des moteurs déjà compatible Mantle risque de l’être aussi si le gain de performance versus l’Effort y est.



  • Est-ce que les perfs seront vraiment au rdv ? AMD parle de 9 fois plus d’appel que sous DirectX et OpenGL, cela semble énorme ? Sait on pourquoi ?



    De ma compréhension, les draw call (dessiné un objets) font en ce moment

    Moteur du jeux -&gt; directX -&gt; Drivers -&gt; carte graphique



    Avec Mantle, on élimine l’étape de directX qui ne parallélise pas les draw call. Certaine étapes préliminaire peuvent être multithreader, mais l’écriture des draw call se fait toujours en single thread.



    Dans Mantle, le jeux parlera directement avec le pilote qui sera optimisé pour ce genre de tache. Il faut prévoir un gain de performance et une augmentation du niveau du détail, mais ça ne rendra probablement pas plus fluide un jeux en 4K puisque la bande passante, le fillrate et cie seront toujours limitant.



    Mais des jeux comme Crysis avec énormément d’éléments affiché à l’écran et souvent CPU limited y verront un grand gain.





  • N’y a t il pas un risque que AMD néglige les autres API au profit de la sienne ?



    • Pourquoi mais pourquoi donc avoir invité toute la presse a Hawai ??? Pourquoi une entreprise qui est plus souvent dans le rouge que dans le vert c’est une sacré perte d’argent pour pas grand chose.





      Beaucoup ont du faire le voyage a leur frais. La salle n’était pas si grosse et même si ça la couté 2-3 millions il n’y a rien la overall versus le cout total du développement du chips. Et franchement tout le monde en parle en bien ou en mal dans le milieux donc l’effet est réussi.



      Je doute qu’AMD va négligé DirectX et OpenGL, trop de jeux et d’application continueront d’en tirer partie.










Snake278 a écrit :



Au contraire ça commence enfin à bouger, Steam lance son OS linux pour avoir une meilleur optimisation matériel et enfin se débarrasser du boulet du jeu PC à savoir DirectX, et vu que nVidia lance depuis quelques mois des drivers OpenGL de plus en plus optimisé on peut penser que la Steam Machine de référence utilise un GPU nVidia.

nVidia qui a en plus “apparemment” montrer un truc “énorme” à certain développeur (notamment Mark Rein de Epic ).

Et de l’autre on a AMD qui annonce Mantle.

Ça fait pas mal de nouveautés et d’hypothèse sur l’avenir du jeu PC.









directX n’est pas un boulet



il a permis d’avoir un standar que tout ne parte pas en couille dans tout les sens façon console



mais bon grosoft a abandonnée le PC donc voilà









troudhuk a écrit :



J’avoue ! A écouter avec un casque pour bien comprendre. Un rêve qui devient réalité, l’application du binaural à n’importe quel contenu multimédia ? (pour ceux qui ne connaissent pas, cherchez les sons holoacoustic ou binaural, c’est très, très impressionnant).







Avec un Steel Series Siberia v2 ça envoie du lourd !









HarmattanBlow a écrit :



En fait, après des années de positionnement foireux avec des voix inaudibles à 10° près, nous avons aujourd’hui un positionnement correct et purement CPU, des effets d’écho et de doppler qui ne sont pas dix fois abusés, etc. Forcément ça se remarque moins mais c’est bel et bien un progrès.





Ca n’a pas de sens parce que :

* Les infos 3D sont au moins autant sur le CPU que sur le GPU, davantage sur le CPU en fait, de par son rôle de chef d’orchestre.

* Le GPU est très sollicité, le CPU tend a toujours un ou deux coeurs en train de se tourner les pouces et a bien plus que le nécessaire en puissance.

* Le GPU n’est jamais complètement autonome (techniquement incapable) et il faut des aller-retours coûteux entre CPU et GPU.

* La programmation du GPU est plus coûteuse, crade et casse-gueule que celle du CPU.



A mes yeux le seul intérêt c’est l’homogénéité avec les consoles qui utiliseront le GPU pour compenser leur CPU minable.







En réalité, ça fait 10-15 ans que ça stagne au niveau audio. Concernant le reste, le CPU ce tourne les pouces, mais il n’est pas adapté à l’application des effets sonores de qualités. Il applique plutôt des estimations sommaire parce qu’il n’a pas la puissance de traitement pour faire tout. Bon peux être que les dernier quadcore I7 avec l’AVX, SSE4 et cie peuvent avoir quelque chose de potable, mais un GPU avec ses unités de calculs massivement parallèle le battra sans problème.



Après oui, les GPU sont très utilisé, mais au final, ce qui craint dans le monde audio sur jeux vidéo, c’est le piètre effort fait par les développeurs aujourd’hui. J’ai l’impression même d’avoir regressé versus les jeux en EAX sur Audigy et consort. Il est temps que quelqu’un fassent quelque chose pour l’expérience audio sur PC et c’est un fabriquant qui a de forte chance de se retrouver dans bien des PC et console qui pourra le faire.



Ce n’est plus creative labs qui n’équipe presque plus d’ordinateur de nos jours qui pourra améliorer l’expérience…










Punkenjoy a écrit :



De ma compréhension, les draw call (dessiné un objets) font en ce moment

Moteur du jeux -&gt; directX -&gt; Drivers -&gt; carte graphique



Avec Mantle, on élimine l’étape de directX qui ne parallélise pas les draw call. Certaine étapes préliminaire peuvent être multithreader, mais l’écriture des draw call se fait toujours en single thread.





Depuis DirectX 11, il est possible d’effectuer les Draw Calls sur des “Deferred Contexts”. Généralement, tu génères autant de ces contextes que t’as de threads de rendus, dans lesquels tu vas effectuer tes draw calls. Ca permet donc de les effectuer en parallèle.

En gros, ca permet de générer plusieurs listes de commandes de rendus. Une fois que tes commandes ont toutes été envoyées, il faut resynchroniser tout ça sur le contexte immédiat (ce qu’on faisait avant Dx11 en fait).



Dans leur histoire de draw calls, je comprends plutôt qu’il y a un overhead moins important. C’est à dire que pour un draw calls qui ne demande pas réellement de ressources GPU (en gros, ne rien afficher), il sera possible d’effectuer 9 fois plus d’appels. Ca peut être une solution pour éviter d’avoir à passer par du geometry Instancing par exemple :

En D3D, on utilise le GI pour afficher plein de fois la même géométrie

Avec Mantle, on fait autant de draw que d’instances de la géométrie



Le problème, c’est que ce sont pas généralement pas les draw calls qui sont couteux.

D’ailleurs, beaucoup vantent l’avantage d’OpenGL qui aurait un overhead moins important sur les draw calls que Direct3D. En pratique, c’est difficilement vérifiable.









von-block a écrit :



Les cartes faisant dolby headphone et autres permettent en effet de très précisément connaitre la direction du bruit.



Ici j’ai l’impression qu’en plus de rajouter la direction, l’effet de distance ainsi que le haut et le bas est rajouter.



J’utilise la techno dolby headphone et avant ça CMSS depuis très longtemps et jamais je n’avais été aussi immergé.





Ce n’était d&éjà pas implémenté dans l’eax 3 la gestion de la hauteur du son?



Je pense que oui.



Excuse moi David, mais je ne sais pas où tu as vu une HD7950 à moins de 150€, non seulement ton lien est mort, mais en cherchant sur internet, le prix le plus bas sur lequel on tombe est 206€.








Punkenjoy a écrit :



En réalité, ça fait 10-15 ans que ça stagne au niveau audio.





Nous n’avons visiblement pas les mêmes souvenirs ! Pire, tu parlais dans ton précédent post d’une dégradation depuis la fin de Creative Labs, ce qui montre à quel point tu te laisses influencer par le marketing autour du matériel.





Concernant le reste, le CPU ce tourne les pouces, mais il n’est pas adapté à l’application des effets sonores de qualités.



Pardon ?! Cela fait des années que le CPU est capable d’appliquer en temps-réel tous les effets que tu veux et avec n’importe quelle qualité, que l’on parle de modification de la hauteur du son ou de spatialisation, et ce sur des dizaines de pistes à la fois. D’ailleurs la techno d’AstoundSound que va reprendre AMD existe en version purement logicielle et est appliquée en temps réel avec une conso CPU dérisoire !



Aucun des algorithmes audio que je connais ne serait trop gourmand pour le CPU (loin de là), donc si tu souhaites continuer à défendre ta thèse merci d’être précis et de nous nommer l’algo en question. Parce qu’en réalité pas besoin de core i7 ou de GPU, loin de là, un P4 en était déjà capable, simplement il n’aurait pas resté grand chose pour le jeu. Pour rappel un coeur de CPU mouline plusieurs milliard d’opérations par seconde (je ne parle pas de “flops” mais de mon expérience de développeur) quand une piste audio n’a que 44k échantillons par seconde, soit 20k opérations possible par échantillon. Et les transformées peuvent être pré-calculées.



Tout ce dont les dévs de JV ont besoin aujourd’hui c’est de meilleures briques logicielles et peut-être d’échantillons enregistrées ou annotés de façon spécifique.









HarmattanBlow a écrit :



Nous n’avons visiblement pas les mêmes souvenirs ! Pire, tu parlais dans ton précédent post d’une dégradation depuis la fin de Creative Labs, ce qui montre à quel point tu te laisses influencer par le marketing autour du matériel.





Pardon ?! Cela fait des années que le CPU est capable d’appliquer en temps-réel tous les effets que tu veux et avec n’importe quelle qualité, que l’on parle de modification de la hauteur du son ou de spatialisation, et ce sur des dizaines de pistes à la fois. D’ailleurs la techno d’AstoundSound que va reprendre AMD existe en version purement logicielle et est appliquée en temps réel avec une conso CPU dérisoire !



Aucun des algorithmes audio que je connais ne serait trop gourmand pour le CPU (loin de là), donc si tu souhaites continuer à défendre ta thèse merci d’être précis et de nous nommer l’algo en question. Parce qu’en réalité pas besoin de core i7 ou de GPU, loin de là, un P4 en était déjà capable, simplement il n’aurait pas resté grand chose pour le jeu. Pour rappel un coeur de CPU mouline plusieurs milliard d’opérations par seconde (je ne parle pas de “flops” mais de mon expérience de développeur) quand une piste audio n’a que 44k échantillons par seconde, soit 20k opérations possible par échantillon. Et les transformées peuvent être pré-calculées.



Tout ce dont les dévs de JV ont besoin aujourd’hui c’est de meilleures briques logicielles et peut-être d’échantillons enregistrées ou annotés de façon spécifique.









Le convolution reverb en autre qui oui peux être traité sur un CPU à un très haut taux d’utilisation CPU par source sonore, ou très rapidement sur un GPU.












Punkenjoy a écrit :



Le convolution reverb en autre qui oui peux être traité sur un CPU à un très haut taux d’utilisation CPU par source sonore, ou très rapidement sur un GPU.





Des programmes le font en temps réel sur iPhone ! Une convolution c’est trois transformées de Fourier (inverse du produit des deux transformées), donc du O(N). Cerise sur le gâteau : c’est une technique qui doit être appliquée au résultat final (44k échantillons par seconde) et non pas indépendamment à chaque piste.









HarmattanBlow a écrit :



Pardon ?! Cela fait des années que le CPU est capable d’appliquer en temps-réel tous les effets que tu veux et avec n’importe quelle qualité, que l’on parle de modification de la hauteur du son ou de spatialisation, et ce sur des dizaines de pistes à la fois. D’ailleurs la techno d’AstoundSound que va reprendre AMD existe en version purement logicielle et est appliquée en temps réel avec une conso CPU dérisoire !







Évidemment que pour faire un mixer un petit CPU suffit.



Quand il s’agit de faire du son 3D, c’est un poil plus compliqué. Pour faire un minimum réaliste, il faut gérer ses sources dans l’espace et les déplacer à chaque échantillon, calculer les vitesses, appliquer le doppler, retard, etc. Pour aller plus loin encore dans la simulation (occlusion, rebonds) il faut avoir une géométrie simplifiée de l’univers dans lequel évoluent auditeur+sources et lancer des rayons un peu partout, pour calculer les décalages (et faire, de facto, une reverb réaliste).



Il y a encore beaucoup de progrès à faire en audio rapport à l’existant, et du CPU à griller <img data-src=" />









ed a écrit :



Excuse moi David, mais je ne sais pas où tu as vu une HD7950 à moins de 150€, non seulement ton lien est mort, mais en cherchant sur internet, le prix le plus bas sur lequel on tombe est 206€.







175€ si tu suis les bonne affaires









raoudoudou a écrit :



Évidemment que pour faire un mixer un petit CPU suffit.



Quand il s’agit de faire du son 3D, c’est un poil plus compliqué. Pour faire un minimum réaliste, il faut gérer ses sources dans l’espace et les déplacer à chaque échantillon, calculer les vitesses, appliquer le doppler, retard, etc.





Mais je te parle bel et bien de ce genre de choses : traitements complexes, spatialisation du son, etc. Comme je l’ai dit plus haut un seul coeur est capable d’effectuer des milliards d’opérations par seconde, soit des dizaines de milliers d’opérations par valeur à envoyer vers le sortie à raison de 44kHz. L’application d’effets dopplers, les FFT, les convolutions, etc, ne posent absolument aucun problème au CPU, il applique tout ça à des pelletées de pistes sans gagner un seul degré de température.



Bienvenue en 2013. Pas besoin de GPU pour ça, le CPU fait ça en rigolant.





Pour aller plus loin encore dans la simulation (occlusion, rebonds) il faut avoir une géométrie simplifiée de l’univers dans lequel évoluent auditeur+sources et lancer des rayons un peu partout, pour calculer les décalages (et faire, de facto, une reverb réaliste).



Ca pour l’instant c’est de la SF, pas tant à cause de la puissance de calcul nécessaire que des ressources qu’il faudrait avoir : tout comme il faut des textures pour calculer l’effet du rebond d’un rayon lumineux, il faudrait des textures pour calculer l’effet du rebond d’un son sur un mur. Or on n’a pas ça et ce genre de choses est à un stade de recherche et très loin de pouvoir être utilisé dans les jeux, si ça l’est un jour. Et ce n’est pas non plus nécessaire, l’oreille humaine n’étant pas aussi exigeante que nos yeux.



Pour l’instant toutes ces approches simulationnistes de l’acoustique d’un environnement donnent des résultats moins convaincants que ceux obtenus via un profil acoustique mesurée en un point donné pour de la réverbération à convolution.







En revanche l’occlusion et la diffraction, oui, ça c’est réaliste et encore chaud pour le CPU. Et comme c’est analogue à un rendu 3D, il y a du sens à le faire sur le GPU, même si le CPU y a des avantages (il dispose déjà en mémoire d’octrees et autres pour du raytracing en basse résolution). Cela dit ça sera plutôt la cerise sur le gâteau, il y a d’autres étapes plus importantes avant ça, surtout pour la diffraction (le plus coûteux).





AMD dévoile ses Radeon R7 / R9, et déçoit



Nooooon, spaaaa vrai !?



Ca leur ressemble pas pourtant….



<img data-src=" />


De toutes façons, il y a eu, au niveau culturel, une telle régression des solutions sonores ( voir La forêt d’émeraude en dolby stéréo, par exemple ) de la part de ce que les majors refourguent comme os à ronger à leurs chiens public, écouter “ quand la musique est bonne ” l’original et vomir sur la platitude de la reprise, de toutes façons, que l’apparition d’une nouveauté dans ce domaine ne peut faire que regretter l’état actuel des choses.



L’holophonie fonctionnait parfaitement sur disque vinyle, hein, pas besoin de nouveautés de calcul à priori, suffit que les créateurs arrêtent de négliger la stéréophonie. Tout simplement. Maintenant, ils peuvent plus dire qu’ils peuvent pas faire ( même si c’était déjà faux ).