Boot kit et Ryzen de 3e génération : AMD fait machine arrière et propose des Athlon 200GE

Boot kit et Ryzen de 3e génération : AMD fait machine arrière et propose des Athlon 200GE

Mais il faut les rendre après !

Avatar de l'auteur
David Legrand

Publié dans

Hardware

16/07/2019 3 minutes
23

Boot kit et Ryzen de 3e génération : AMD fait machine arrière et propose des Athlon 200GE

Finalement, le « Boot kit » entre bien dans l'arsenal des solutions proposées par AMD pour résoudre les problèmes de compatibilité de ses clients ayant acheté un processeur Ryzen de 3e génération. La procédure reste néanmoins limitée à certains cas et ne sera pas toujours très simple.

Lors de notre rencontre avec AMD à Londres en amont du lancement des Ryzen de 3e génération, nous avions posé une question simple à ses équipes : un « Boot kit » est-il prévu, comme pour les APU de la série 2000 ? La réponse fut claire : « Non ».

Nous anticipions alors un problème connu : impossible d'initialiser un processeur sans carte mère mise à jour, malgré la grande compatibilité du socket AM4. Mais impossible également de la mettre à jour sans processeur présent (sauf en cas de présence d'une procédure de type USB BIOS Flashback).

Dès lors, comment doit faire un utilisateur qui reçoit un processeur nouvelle génération et une carte mère compatible mais pas mise à jour ? Heureusement, certains revendeurs proposent des solutions, et on peut faire appel à un ami. Mais cela ne permet de gérer qu'une partie des cas.

Que faire pour les autres ? Les pousser vers le (trop) coûteux X570 ? Les laisser sans solution ? Oui, nous répondait alors AMD, une position qui n'aura pas duré longtemps.

Sous réserve de justifier pleinement de votre problème, vous pourrez donc recevoir un boot kit prenant la forme d'un Athlon 200GE. Celui-ci pourra être placé sur la carte mère le temps de la mettre à jour, avant d'être renvoyé à AMD. La procédure est en revanche toujours aussi complexe.

Il faut en effet passer par un formulaire de support technique (RMA) en mentionnant « boot kit » clairement et échanger avec AMD (en anglais) qui acceptera ou non votre cas, selon vos factures et photo du processeur. Pour le moment, seuls les acheteurs d'une carte mère B450/X470 semblent concernés, bien que des modèles avec un chipset de série 300 soient aussi considérés comme compatibles, malgré le statut bêta des BIOS/UEFI.

Une étiquette de retour est directement fournie pour le renvoi de l'Athlon 200GE.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Commentaires (23)


Je sais que ma question n’a rien à voir avec cette actualité. Est-il prévu dans un avenir proche un benchmark des nouvelles cartes graphiques d’AMD 5700 et 5700XT?



Merci de votre réponse.



Shortstory a dit:





Quand AMD pourra nous en envoyer



David_L a dit:


Quand AMD pourra nous en envoyer
Il me semblait que vous les achetiez ou faisiez prêter par des marchands par soucis d’indépendance ?




Killerjeff a dit:




Tout dépend des produits et des possibilités. On a une grosse partie du matériel qui vient d’achat, une autre qui vient de prêts de revendeur ou des constructeurs. L’important pour nous c’est de préciser quand c’est le cas et d’être transparent là-dessus.



On ne peut pas tout acheter non plus, surtout sur les composants haut de gamme. Pour Navi, AMD n’avait pas assez d’exemplaires de tests en amont du lancement, on a pas encore pu en récupérer par eux et ça ne sera pas le cas tout de suite.



Si on trouve une autre solution d’ici là on fera autrement (mais de toutes façons je suis sur d’autres choses à court terme)


bonsoir,



Et dans votre futur test des carte 5700/5700xt pouvez-vous faire un comparitif AMD RIS (Radeon Image Sharpening) versus DLSS de nvidia ?
Apparemment le Amd RIS donne de bon résultats mais j aimerais en savoir un peu plus sur ce sujet ^^.



horrus a dit:





Il faut bien comprendre que les deux fonctionnalités n’ont rien à voir tant en terme d’objectif que d’impact sur les performances, même si AMD joue de l’ambiguité dans sa communication pour masquer son absence de réponse concrète à DLSS malgré les promesses ces derniers mois.



RIS est un simple filtre de sharpening de l’image, DLSS une solution d’AA. Comparer les deux n’a donc pas de sens. Cela n’empêche pas d’évoquer les différentes solutions de traitement de l’image ;)


Bonjour,




David_L a dit:


Il faut bien comprendre que les deux fonctionnalités n’ont rien à voir tant en terme d’objectif que d’impact sur les performances, même si AMD joue de l’ambiguité dans sa communication pour masquer son absence de réponse concrète à DLSS malgré les promesses ces derniers mois.RIS est un simple filtre de sharpening de l’image, DLSS une solution d’AA. Comparer les deux n’a donc pas de sens. Cela n’empêche pas d’évoquer les différentes solutions de traitement de l’image ;)




Si on se base sur les trois antialiasings les plus courants ca donne :




  • Faa antialiasing de “ base”
    -Msaa antialiasing “ moyen ”
    -Ssaa antialiasing Hq



Et d’après les screens que j ai vu dans différents test du Dlss l’image et tellement [ FLOUE ] que les résultats du Dlss je les place entre le Faa et le Msaa. donc faudrait mettre entre guillemets que le Dlss est une “ solution d’antialiasing ” parce que comme solution même le msaa fait mieux ^^



horrus a dit:





Les résultats de DLSS dépendent pas mal de l’intégration et du niveau d’itération. Après son objectif est de remplacer le TAA avec un bon rapport perf/résultat, au risque d’une zone de flou (mais on voit des intégrations où c’est peu le cas).



Oui le MSAA fait mieux, mais avec quel impact sur les performances ? Idem pour le SSAA. Dans tous le cas, cela ne change rien au fait que RIS n’a rien à voir avec une solution d’AA, donc n’est pas à comparer à DLSS (plutôt à d’autres systèmes de filtres).


Tu prends un écran HDPI et tu vires l’AA, gain de perfs assuré ! C’est ce que je vais sur mon 24” 4K (185ppp). Pas besoin d’AA pour qu’il n’y ait pas de crénelage !



Edtech a dit:





Du coup le souci ça vient de tout le reste du temps, quand tu dois te taper une interface 4K sur un écran de 24” :transpi:



Edtech a dit:


Tu prends un écran HDPI et tu vires l’AA, gain de perfs assuré ! C’est ce que je vais sur mon 24” 4K (185ppp). Pas besoin d’AA pour qu’il n’y ait pas de crénelage !




As-tu des chiffres pour comparer ? Je suis circonspect sur le fait que 1080p + MSAA 16x soit plus performant que 4k sans aucun AA.



Charly32 a dit:


As-tu des chiffres pour comparer ? Je suis circonspect sur le fait que 1080p + MSAA 16x soit plus performant que 4k sans aucun AA.




Actuellement, ça ne compense pas la perte de perfs liée au 4K. Mais ça permet d’être jouable pour la plupart des jeux (de toutes façons, en 4K, le 60IPS est encore un rêve dans beaucoup de jeux).



Mais au lieu de se démener à nous rendre aveugles en floutant les images, ils feraient mieux de démocratiser le HighDPI afin qu’on ait tous des images vraiment agréables à voir. Car en bureautique aussi ça apporte beaucoup. Moi qui développe, un texte net et clair ça fatigue beaucoup moins le yeux !



Edtech a dit:





Du coup tu entends quoi par jouable si < 60 ips en 4K ?



Pour le High DPI, j’ai du mal à comprendre en quoi c’est le rôle de NVIDIA que de le développer ? (contrairement à des solutions d’AA dans les jeux par exemple).



Edtech a dit:


Actuellement, ça ne compense pas la perte de perfs liée au 4K. Mais ça permet d’être jouable pour la plupart des jeux (de toutes façons, en 4K, le 60IPS est encore un rêve dans beaucoup de jeux).Mais au lieu de se démener à nous rendre aveugles en floutant les images, ils feraient mieux de démocratiser le HighDPI afin qu’on ait tous des images vraiment agréables à voir. Car en bureautique aussi ça apporte beaucoup. Moi qui développe, un texte net et clair ça fatigue beaucoup moins le yeux !




Je ne peux qu’aprouver, double uhd à la maison (un 24 et” un 27”), je peux rester des heures devant les écrans sans problèmes, alors qu’au boulot, le double 24” en 1920*1200 a tendance à me donner mal à la tête en fin de journée.




Charly32 a dit:


As-tu des chiffres pour comparer ? Je suis circonspect sur le fait que 1080p + MSAA 16x soit plus performant que 4k sans aucun AA.




En effet, ça ne consomme pas moins, mais je sais par expérience et comparaison que mes IPS son toujours supérieurs à ceux relevés dans les benchmarks dédiés aux cartes graphiques, simplement parce que dans la plupart des jeux l’anti crénelage n’apporte pratiquement rien visuellement sur un 24” en uhd, du coup, des jeux réputés “injouables” le sont en fait tout à fait. Dernier exemple, sur AC oddissey, je descend très rarement en dessous de 48 IPS, selon les tests, à config équivalente, c’est impossible.



David_L a dit:


Du coup tu entends quoi par jouable si < 60 ips en 4K ?Pour le High DPI, j’ai du mal à comprendre en quoi c’est le rôle de NVIDIA que de le développer ? (contrairement à des solutions d’AA dans les jeux par exemple).




Beaucoup de jeux sont parfaitement jouables à 30IPS (je joue à FFXIV par exemple), c’est d’ailleurs ce qu’on a aussi sur console.



Edtech a dit:


Beaucoup de jeux sont parfaitement jouables à 30IPS (je joue à FFXIV par exemple), c’est d’ailleurs ce qu’on a aussi sur console.




oui “jouables” comme tu dis, mais pas agréable à jouer.



Ton cerveau s’adapte à ce qu’il voit, si tu joue tout le temps à 30fps tu ne verras pas de différence, quand tu joue tout le temps à 60fps tu vois la différence.



Mais ça dépend aussi du jeu, dans Seo of thieves à 30 fps ça me donne mal au crane alors que dans d’autre jeu a la premier personne non.



neod a dit:


oui “jouables” comme tu dis, mais pas agréable à jouer.Ton cerveau s’adapte à ce qu’il voit, si tu joue tout le temps à 30fps tu ne verras pas de différence, quand tu joue tout le temps à 60fps tu vois la différence.Mais ça dépend aussi du jeu, dans Seo of thieves à 30 fps ça me donne mal au crane alors que dans d’autre jeu a la premier personne non.




C’est l’avantage du PC : chacun est libre de jouer comme il l’entend (dans la limite de ses finances toutefois :transpi:)



Edtech a dit:


Beaucoup de jeux sont parfaitement jouables à 30IPS (je joue à FFXIV par exemple), c’est d’ailleurs ce qu’on a aussi sur console.




Sur console c’est une limite acceptée par les constructeurs parce qu’ils n’ont pas le choix pour donner des billes à leur marketing (du genre : ohé regardez on sait faire de la 4K sur console oh yeah !). Après chacun met la limite de ce qu’il considère comme jouable là où il le souhaite, comme la limite de DPI qu’il considère acceptable pour ne pas se tuer les yeux à la tâche :transpi:



L’important c’est toujours de clarifier ces limites dans les argumentaires et d’accepter que notre règle, qui nous est propre, n’a aucune espèce d’universalité.



David_L a dit:


Sur console c’est une limite acceptée par les constructeurs parce qu’ils n’ont pas le choix pour donner des billes à leur marketing (du genre : ohé regardez on sait faire de la 4K sur console oh yeah !). Après chacun met la limite de ce qu’il considère comme jouable là où il le souhaite, comme la limite de DPI qu’il considère acceptable pour ne pas se tuer les yeux à la tâche :transpi:L’important c’est toujours de clarifier ces limites dans les argumentaires et d’accepter que notre règle, qui nous est propre, n’a aucune espèce d’universalité.




Après, en 4K, mieux vaut limiter à 30IPS très stable (c’est le cas sur mon PC avec une Vega 64 et FFXIV ou avec la Xbox One X pour le dernier Tomb Raider) que de chercher le 60IPS a tout pris.



Actuellement, je trouve plus agréable de jouer à 30 IPS sans une seule baisse qu’à 58 (oui, 60 c’est dur à atteindre) qui peu facilement descendre à 45 dès que ça charge un peu. Après, je n’ai pas Freesync qui peut permettre de jouer de manière plus agréable à un taux qui dépasse 30 mais n’atteint pas 60.



Dans tous les cas, en 30IPS, moi qui suit pourtant extrêmement sensible aux saccades et autre faibles fréquences, c’est confortable. Après, pour un FPS ou un jeu à la Mario Kart, je pense que c’est trop bas, effectivement, car ça va se ressentir dans les mouvements rapides. Mais bon, des mouvements rapides dans FFXIV ou même Tomb Raider, il n’y en a pas franchement !



Et du coup, à 30IPS, ça me permet de mettre tous les réglages à fond, en particulier les lumières qui jouent beaucoup sur le confort visuel, alors qu’en virant pas mal de réglages gourmands, c’est toujours très difficile de monter à 60IPS.



Edtech a dit:


Après, en 4K, mieux vaut limiter à 30IPS très stable (c’est le cas sur mon PC avec une Vega 64 et FFXIV ou avec la Xbox One X pour le dernier Tomb Raider) que de chercher le 60IPS a tout pris.




Sinon tu peux aussi éviter de vouloir jouer en 4K à tout prix :D



Après comme dit, si 30 ips te va, rien à redire. Surtout avec des technos comme G-Sync ou FreeSync (quand on est dans la bonne plage de fréquence côté écran). C’est juste que ce n’est pas ce que l’on considère en général comme “jouable” (sauf dans le marketing console).


Saleté, mon commentaire s’est perdu quand j’ai validé !



Je voulais préciser que je joue sur un 24”. Et donc, petite surface veut dire que la différence physique entre deux images lors d’un déplacement est forcément plus faible que sur un écran plus grand.



Donc, 30IPS sur un 24”, c’est suffisant, sur un 32”, sans doute pas, la différence entre deux images sera beaucoup plus importante. D’ailleurs, je vois plus facilement des saccades sur la Xbox One X (TV 42”) même si la TV apporte ses propres corrections.



Bref, actuellement, sous FFXIV, je ne me rends pas compte que je suis à 30IPS au lieu de 60. Mon frère qui a le même matos mais un écran 27”, a eu besoin de passer à 45IPS (ce qu’arrive à sortir la Vega 64 au max) et il compense à l’aide de Freesync le fait qu’il soit entre 30 et 60 IPS.


Et j’ajoute que repasser en 1080p sur un 4K (pour ne pas tomber sur des demi-pixels) est hors de question, ça rend pire que d’avoir un écran Full HD !



En plus, mon écran est vieux (Dell UP2414Q), DP 1.2a seulement, et double flux (deux demi-écrans). Ca pose plein de problème comme extinction de l’écran si la résolution change ! D’ailleurs, il ne sort plus de veille depuis un an suite à une modification d’AMD dans ses pilotes… Donc j’évite de toucher à la résolution.


Pour le 1080p sur un écran 4K, c’est flou à cause de l’interpolation bilinéaire.



On espère avoir un jour une option dans les pilotes (AMD et NVIDIA) pour faire de l’interpolation au plus proche voisin lorsque la résolution de l’écran est un multiple de celle du jeu. (Il suffirait que chaque pixel devienne un carré de 2x2, en gros).



En attendant, tu peux tester le logiciel IntegerScaler (fait par un développeur russe).