En mauvaise posture, AMD tente de rassurer en évoquant Carrizo

En mauvaise posture, AMD tente de rassurer en évoquant Carrizo

Espérons qu'Excavator n'est pas un nom prémonitoire

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

24/11/2014 6 minutes
93

En mauvaise posture, AMD tente de rassurer en évoquant Carrizo

Si AMD est une fois de plus dans une phase de troubles et de changements, la société veut rassurer, mais sans forcément trop en dire. Ainsi, alors que la fin de 2014 approche à grands pas, la roadmap 2015 n'est toujours pas dévoilée à une exception près : l'arrivée prochaine de Carrizo et Carrizo-L. Un nouvel APU promis comme révolutionnaire, mais toujours gravé en 28 nm.

Après avoir capitalisé sur l'intégration de ses produits dans les consoles de dernière génération, AMD doit faire à nouveau face à ses démons habituels : des soucis financiers, une restructuration, et un changement à sa tête. En effet, le précédent PDG Rory Read a quitté la société afin de laisser sa place à Lisa Su depuis le mois dernier. Un poste de premier rang pour une femme dans le secteur des nouvelles technologies, qui est un double symbole puisque celle-ci n'est pas issue du marketing, mais d'une formation d'ingénieur du MIT.

AMD change de tête, annonce un bénéfice, mais continue de licencier

Et si AMD préfère indiquer que c'est une nouvelle ère qui s'ouvre suite à une restructuration massive, tous les voyants ne sont pas pour autant au vert. La roadmap 2015 est encore assez floue, et la promesse de passer au 20 nm faite par Su il y a quelques mois à peine fait déjà face à des rumeurs d'abandon au profit du 16 nm, plus tard.

 

Du côté des équipes, on a récemment appris que 700 nouveaux licenciements allaient être mis en place d'ici la fin de l'année, soit 7 % de son équipe actuelle. Une mauvaise nouvelle qui tombe alors que la société a annoncé un léger bénéfice à l'occasion du troisième trimestre de l'année : 17 millions de dollars pour un chiffre d'affaires de 1,43 milliard. Le constructeur peut d'ailleurs remercier ses revenus tirés du marché de l'embarqué et ses SoC « custom », notamment ceux vendus au sein des dernières consoles, qui permettent d'éponger les pertes (en hausse) de la section « Compute and Graphics » : 17 millions de dollars.

 

AMD Licenciements

 

Cela ne devrait néanmoins pas sauver l'année puisque les deux trimestres précédents affichaient respectivement une perte de 20 et 36 millions de dollars, pour un chiffre d'affaires aux alentours de 140 millions. La marge est elle aussi d'un niveau assez stable, mais en baisse par rapport à l'année précédente : 35 %.

 

En réaction à ces chiffres, Lisa Su indique que « la performance de la section Compute and Graphics est plutôt mitigée du fait de conditions de marché très concurrentielles qui nous demandent de prendre de nouvelles mesures afin de renforcer nos résultats financiers dans ce secteur. Notre priorité est de fournir des technologies et des produits leaders sur leur marché alors que nous continuons de transformer AMD. »

La concurrence se porte comme un charme et déroule ses nouveautés

Il faut dire que la situation est problématique puisque ses deux principaux concurrents, Intel et NVIDIA, viennent de leur côté d'annoncer de très bonnes performances. Ils ont d'ailleurs à leur manière assuré leur présence sur le mobile en renfort de leurs solutions pour ordinateurs et serveurs, et visent de nouveaux marchés, le tout en ayant déjà évoqué de manière plus ou moins détaillée leurs produits à venir et leurs perspectives d'évolution. Résultat, si le cours d'AMD est en hausse ces derniers jours, il s'est effondré sur trois mois, passant d'un peu plus de 4 dollars à moins de 3 dollars. Ses deux concurrents, eux, sont en légère hausse sur la même période avec un cours respectivement aux alentours de 36 et 20 dollars.

Cours AMD 2014
Crédits : Google Finance

Roadmap 2015 : du 28 nm et du flou

C'est dans ce contexte que la société a décidé d'en dire un peu plus sur sa roadmap 2015, avec un nouveau document publié il y a quelques jours, accompagné d'une vidéo (voir ci-dessous). Ne vous attendez à rien du côté des CPU ou des GPU, alors que rien de vraiment nouveau n'est sorti depuis des mois, sans parler des processeurs FX qui continuent d'être gravés en 32 nm... Il faudra, au mieux, attendre le CES pour en savoir plus sur ce terrain.

 

En réalité, c'est sur un seul segment qu'AMD a décidé de communiquer : la nouvelle génération d'APU dédiée aux ordinateurs portables et aux machines de type tout-en-un, connue sous le petit nom de Carrizo et Carrizo-L. Comme annoncé par la société et comme indiqué dans les documents fournis, leur packaging sera identique : un FP4 de type BGA (soudé à la carte mère, donc) :

 

AMD Roadmap 2015 Mobile

 

Et si la version haut de gamme aura droit à une architecture CPU de nouvelle génération (Excavator) tout comme au niveau graphique (non détaillé), elle sera surtout la première à supporter pleinement HSA 1.0. Côté TDP, on reste dans le 15-35 watts, et pour cause : la finesse de gravure sera une fois de plus du 28 nm. Néanmoins, NVIDIA nous a montré avec Maxwell qu'il était possible d'améliorer grandement l'efficacité énergétique à gravure identique. De son côté, AMD indique que cette nouvelle série d'APU sera la plus performante et la plus efficace qu'elle a mise sur le marché. Reste à voir ce qui se cachera derrière ces promesses, tant les générations précédentes pouvaient parfois être décevantes malgré les annonces.

 

Pour la version « L », les évolutions seront bien plus légères. Car contrairement à ce que le nom peut laisser penser, il s'agit surtout d'une évolution des actuels Beema avec des cœurs Puma+ plutôt qu'une version allégée de Carrizo. Là aussi, ce sera d'ailleurs le 28 nm qui sera exploité, pour un TDP entre 10 et 25 watts.

« Tout va bien, nous sommes dans les temps »

Côté timing, John Byrne annonce dans sa vidéo que tout se passe bien et que ses équipes sont dans les temps. Les APU sont actuellement en phase de validation et l'on nous promet pour bientôt de nombreux designs exploitant ces nouvelles puces. Reste à voir si cela sera l'occasion d'une annonce dans le mois à venir ou s'il faudra attendre le CES. Quoi qu'il en soit, la période de lancement visée est la première moitié de 2015.

 

Partenaires, clients et même les acheteurs avec lesquels AMD dit échanger sur les réseaux sociaux seraient très enthousiastes à en croire le Vice-Président. Reste maintenant à voir ce qu'il en sera lorsque ces produits seront devenus une réalité, et ne seront plus que des promesses... et s'ils seront à même d'inverser la tendance du côté des ventes pour les trimestres à venir.

 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

AMD change de tête, annonce un bénéfice, mais continue de licencier

La concurrence se porte comme un charme et déroule ses nouveautés

Roadmap 2015 : du 28 nm et du flou

« Tout va bien, nous sommes dans les temps »

Fermer

Commentaires (93)


Courage AMD.








knos a écrit :



Courage AMD.





qu’ils crèvent, ça leur apprendra à faire des pilotes tout pourris (et leur appli de merde qui se lance avec les jeux)



C’est stupide de dire ca.

Qu’on aime ou pas les produits AMD, c’est une concurrence à INTEL.

AMD serait pas la tu payerais beaucoup plus cher ton matos….. il ne faut surtout pas qu’ils disparaissent.


T’aimes pas trop le lundi toi <img data-src=" />


Si il disparaisse, Intel risque de se faire découper.



L’idéal serait tout de même qu’ils perdent le droit exclusif sur les instructions x86. Cela empêche toute concurrence.



Ou alors, il faut un basculement sur ARM. Cela arrivera peut être avec l’arrivé des ARM 64 bits, si jamais un gros, vise la performance et pas seulement la consommation.








CryoGen a écrit :



T’aimes pas trop le lundi toi <img data-src=" />&nbsp;



&nbsp;

nan effectivement



&nbsp;





Stel a écrit :



C’est stupide de dire ca.

Qu’on aime ou pas les produits AMD, c’est une concurrence à INTEL.

AMD serait pas la tu payerais beaucoup plus cher ton matos….. il ne faut surtout pas qu’ils disparaissent.





“c’était” un concurrent, aujourd’hui ils valent peau de zob. S’il s’étaient sorti les doigts du cul plus tôt ils n’en seraient pas là. La vrai concurrence d’intel aujourd’hui ce sont les procs arm.









darkbeast a écrit :



S’il s’étaient sorti les doigts du cul plus tôt ils n’en seraient pas là.







Si Intel n’avait pas fausser le marché non plus…



<img data-src=" />

&nbsp;Courage, AMD… <img data-src=" />


On est tous avec toi ! (Depuis son ordinateur Intel/Nvidia)








cyrano2 a écrit :



Ou alors, il faut un basculement sur ARM. Cela arrivera peut être avec l’arrivé des ARM 64 bits, si jamais un gros, vise la performance et pas seulement la consommation.





J’espère bien que la performance au détriment de la consommation ne deviendra jamais la politique des constructeurs. On est déjà en surconsommation énergétique, avec les problèmes que ça entraîne. Avec les centaines de millions de machines dans le monde, une différence de quelques watts sur un processeur peut avoir de lourdes conséquences.



C’est toujours un concurrent. Faut pas exagérer non plus, sur le marché des GPU pour joueurs, Intel n’existe pas. Ya que nVidia et AMD. Et si nVidia propose des cartes plus puissantes, AMD propose des performances légèrement moins jolies mais à des prix largement plus contenus, donc toute la clientèle est visée.



Sur le marché du GPU multimédia, nVidia et AMD n’existent pas, c’est Intel qui empoche la mise (d’ailleurs 70% des GPU dans le monde sont des Intel, simplement parce que la majorité des GPU sont des chipsets graphiques, donc Intel (laptops, PC vendus tout fait, etc.)



Sur le marché des CPU, AMD n’est pas non plus méga à la traine. Certes ils sont un peu mou du genoux, mais ils ont quand même des processeurs dans les dernières générations.

Donc ton raccourci du lundi, il sentait la frustration intérieure non ? <img data-src=" />








TriEdge a écrit :



Si Intel n’avait pas fausser le marché non plus…





Mouais facile de cracher sur intel, plus que de faire des produits efficaces









Nozalys a écrit :



C’est toujours un concurrent. Faut pas exagérer non plus, sur le marché des GPU pour joueurs, Intel n’existe pas. Ya que nVidia et AMD. Et si nVidia propose des cartes plus puissantes, AMD propose des performances légèrement moins jolies mais à des prix largement plus contenus, donc toute la clientèle est visée.



Sur le marché du GPU multimédia, nVidia et AMD n’existent pas, c’est Intel qui empoche la mise (d’ailleurs 70% des GPU dans le monde sont des Intel, simplement parce que la majorité des GPU sont des chipsets graphiques, donc Intel (laptops, PC vendus tout fait, etc.)



Sur le marché des CPU, AMD n’est pas non plus méga à la traine. Certes ils sont un peu mou du genoux, mais ils ont quand même des processeurs dans les dernières générations.

Donc ton raccourci du lundi, il sentait la frustration intérieure non ? <img data-src=" />





le soucis d’amd c’est que leur pilotes graphiques sont nazes et que leur nouvelle appli qui se lance avec les jeux est une bouse.



+1



Surtout que depuis environ 8 ans, la course à la performance est devenue plus marketting que techniquement réelle, puisque c’est la course au nombre de cœurs plutôt qu’à la vitesse par cœur, alors même que les applications ne sont toujours pas massivement adaptées au multi threading…

Aujourd’hui on s’émerveille devant un CPU 2.5 GHz 16 cœurs, alors que hier, en dessous de 3.5 GHz on se plaignait…


une architecture CPU de nouvelle génération (Excavator)

&nbsp;Bulldozer, Excavator. Ces noms de code, c’est pour signifier qu’AMD creuse sa tombe avec sa division cpu?<img data-src=" />&nbsp;&nbsp;&nbsp;





darkbeast a écrit :



&nbsp;“c’était” un concurrent (…) S’il s’étaient sorti les doigts du cul plus tôt ils n’en seraient pas là. La vrai concurrence d’intel aujourd’hui ce sont les procs arm.



&nbsp;



 Certes ils ont pris certaines mauvaises décisions, mais faut pas oublier aussi comment Intel à utiliser sa tte puissance financière pour évincer AMD à l'époque où justement ils étaient un vrai concurrent.<img data-src=">


ça sent le sapin pour eux quand même…


En même temps ils n’ont pas les mêmes moyen en R&D. Dans un domaine hyper technique ça crains. Et l’écart ne pourra que ce creuser.








thorspark a écrit :



J’espère bien que la performance au détriment de la consommation ne deviendra jamais la politique des constructeurs. On est déjà en surconsommation énergétique, avec les problèmes que ça entraîne. Avec les centaines de millions de machines dans le monde, une différence de quelques watts sur un processeur peut avoir de lourdes conséquences.





http://fr.wikipedia.org/wiki/Postulat_de_Khazzoom-Brookes



Grrrr ça m’énerve quand je vois ce genre de news ! AMD reveillez vous ! sortez nous un putain de proc de la mort qui tue ! &nbsp;que je puisse rebasculer … Pour le moment, je ne voie pas d’alternative à mon i5 ! Pourquoi AMD néglige autant ce secteur …&nbsp;








darkbeast a écrit :



le soucis d’amd c’est que leur pilotes graphiques sont nazes et que leur nouvelle appli qui se lance avec les jeux est une bouse.





C’est quoi cette fameuse appli qui se lance??









darkbeast a écrit :



le soucis d’amd c’est que leur pilotes graphiques sont nazes et que leur nouvelle appli qui se lance avec les jeux est une bouse.





Ah bon, sur ce point là je connais pas, j’ai toujours pas vu ça chez moi. Pourtant il me semble avoir fait la M@J assez récement…



Mais de toutes façons, ya un autre problème de fond maintenant dont j’ai déjà parlé sur le topic de la taille des m@j de nvidia, c’est que les éditeurs de moteurs de jeux vidéos se foulent de moins en moins à optimiser leur code, et c’est au constructeur du hardware (cf AMD et nVidia) de développer des rustines pour que leurs moteurs de jeu pourri puissent tourner correctement sur les GPUs….

Si demain à chaque nouveau jeu qui sortira dans le monde, on nous propose une m@j, on a pas fini de télécharger…



Pour revenir à l’appli dont tu parle (que je ne connais donc pas encore), malheuresement c’est la tendance en ce moment de mettre en avant un client ou une plateforme dont on n’a rien à foutre… (Steam, Uplaie, Origin, blabla)



raptr il me semble. Mais moi elle ne me dérange pas.








maestro321 a écrit :



http://fr.wikipedia.org/wiki/Postulat_de_Khazzoom-Brookes



Je connaissait pas… sidérant <img data-src=" /> M’enfin faire le raisonnement inverse (on arrête d’améliorer comme ça on arrêtera de consommer plus) serait une erreur aussi je suppose



Oui mais non.



Une meilleure performance énergétique n’est pas la cause ou un incitateur à une plus grande consommation. Ce sont les hommes qui en sont la cause.

C’est bien pour cela qu’il faut travailler sur deux axes, à la fois la performance énergétique de manière générale (consommation des appareils, isolation/conservation) et l’éducation des peuples sur l’importance de l’énergie (comme l’importance de l’eau).

L’un ne va pas sans l’autre.



C’est d’ailleurs le principal problème aujourd’hui dans une société du “toujours plus”.








darkbeast a écrit :



Mouais facile de cracher sur intel, plus que de faire des produits efficaces







on est que lundi…



Oui, ce serait un sophisme.

La question n’est pas vraiment de savoir s’il faut continuer à améliorer les rendements (ça semble aller de soit).

Mais de savoir s’il faut continuer avec le modèle de croissance à tout prix (qui à pour effet de bord d’absorber ces améliorations de rendement d’un point de vu énergétique).








darkbeast a écrit :



“c’était” un concurrent, aujourd’hui ils valent peau de zob. S’il s’étaient sorti les doigts du cul plus tôt ils n’en seraient pas là.





Étant donné que HSA est la plus grosse (la seule*) innovation significative depuis longtemps (mais qui malheureusement demande de réécrire des bouts d’applis), c’est assez comique. S’il y a une leçon à tirer, c’est que les vraies innovations à long terme ne profitent pas, même si elles ont un très gros potentiel, et qu’il vaut mieux progresser de trois cacahouètes avec quelque chose d’immédiatement utile pour taper la première place dans les benchmarks.



(*) Dans un futur proche il y aura aussi la 2.5D et la mémoire directement sur la puce. Mais là aussi les véritables gains ne seront obtenus qu’en réécrivant certains algorithmes même si le bénéfice immédiat ne sera pas nul. Quant aux jeux d’extensions, inutile de m’en parler : leurs gains ne sont pas significatifs sur l’ensemble du temps CPU de l’ordinateur même en période de pointe. Sauf usage serveur très spécifique. Même dans les jeux ça ne pèse que 10% du temps CPU.







thorspark a écrit :



J’espère bien que la performance au détriment de la consommation ne deviendra jamais la politique des constructeurs.





De toute façon à terme performances et consommation iront peu ou prou de concert : la puissance des puces sera limitée par leur échauffement.







Nozalys a écrit :



Aujourd’hui on s’émerveille devant un CPU 2.5 GHz 16 cœurs, alors que hier, en dessous de 3.5 GHz on se plaignait…





Fréquence et performances n’ont pas grand chose à voir. Je te garantis que la vitesse par coeur aujourd’hui est bien plus grande que celle d’un CPU d’il y a dix ou quinze ans à la même fréquence. Par contre la progression est de plus en plus faible à chaque génération et il va bien falloir aller vers le parallélisme massif.









Alkore a écrit :



une architecture CPU de nouvelle génération (Excavator)

Bulldozer, Excavator. Ces noms de code, c’est pour signifier qu’AMD creuse sa tombe avec sa division cpu?<img data-src=" />



 Certes ils ont pris certaines mauvaises décisions, mais faut pas oublier aussi comment Intel à utiliser sa tte puissance financière pour évincer AMD à l'époque où justement ils étaient un vrai concurrent.<img data-src=">









Mauvaise décision, mais pas forcément sur le plan technique.



J’ai largement l’impression que AMD pousse plus vers l’innovation qu’Intel. Du moins, AMD tente des approches différentes de ce qui se fait habituellement. On le voit avec le HSA qui a d’énormes avantages et qui a de grandes chances de devenir la norme dans les années à venir.



Le gros du problème pour AMD, c’est de ne pas réussir à attirer suffisamment avec ce genre de technologies qui du coup ne sert à rien tant qu’on a pas les outils pour l’exploiter. A voir si leur main mise sur les consoles permette de pousser un peu plus dans ce sens, mais j’ai peu d’espoir…



Oui parfaitement, le problème est d’avantage économique (croissance à tout prix) qu’énergétique.



Je donnais le liens juste pour casser l’argument simpliste:

Réduction de consommation = consommation d’énergie réduite dans le futur

Qui ne tiens justement pas compte du contexte économique (qui est un facteur essentiel de l’équation).



C’est la même hypocrisie que la “croissance verte” qui est par définition antinomique.








TriEdge a écrit :



Si Intel n’avait pas fausser le marché non plus…





Intel n’a pas faussé le marché, il a prix le virage du SoC en l’incluant même dans son offre CPU “immobile”.

Et c’est pas AMD qui avait fait disparaître le contrôleur mémoire de la CM?



Non, ce qui est dommage, c’est qu’en plus nous sommes dans une stagnation complète de la performance côté CPU. Par exemple, un Core I5 2467m avec un HD3000 sera légèrement moins bon qu’un i5 4210Y avec un HD4200 en CPU, mais meilleur en GPU (exception faite des fonctionnalités).

Un Core 2 Duo à 2,16GHz est plus performant qu’un NUC N2820 en CPU, et son cache masque la différence du bus mémoire sauf sur l’encodage vidéo.

Un Core I5 3570K est à peine moins rapide que son remplaçant.



Et avec tout cela, AMD n’arrive pas à rattraper son retard en CPU, pendant que Intel le rettrape en GPU intégré.



L’initiative Mantle (qui permet de mieux exploiter des APU à CPU un peu faible) tarde à prendre.



Intel ne s’est pas pris une amende de 1 Milliard par hasard…


AMD cay nul <img data-src=" />








maestro321 a écrit :



http://fr.wikipedia.org/wiki/Postulat_de_Khazzoom-Brookes





Un plagiat du paradoxe de S. Jevons.



Qu’est ce qu’il reste à AMD ? Mantle, et des bons APU

&nbsp;

Le gros du marché des CPU est à Intel

Le gros du marché des GPU est à Nvidia



Et plus le temps passe plus il est difficile de combler l’écart

&nbsp;


Toi, t’es du genre à installer tous les crapwares qui te passent sous la main (genre Chrome en navigateur par défaut lors de la mise à jour de flash player)

&nbsp;

Avec 2 ronds de bon sens, tu n’installerais que ce qui est nécessaire.


deuxième ligne du wiki :&nbsp;

“&nbsp;Cette idée est une analyse plus moderne d’un phénomène connu sous le nom de&nbsp;paradoxe de Jevons.”

&nbsp;lire, tout ça tout ça&nbsp;<img data-src=" />








thorspark a écrit :



J’espère bien que la performance au détriment de la consommation ne deviendra jamais la politique des constructeurs. On est déjà en surconsommation énergétique, avec les problèmes que ça entraîne. Avec les centaines de millions de machines dans le monde, une différence de quelques watts sur un processeur peut avoir de lourdes conséquences.





Pas vraiment non. Surtout que les processeurs à 140W d’intel, on souvent de meilleurs performances par watt que ceux à 10W, voir 1W.



Je trouve que depuis que AMD ne fait plus grand chose, la puissance brute stagne (+40% en 5 ans ?). Si la mobilité marche si fort, c’est parce que les cpu mobiles rattrapent le différentiel, et que les cpu fixent évoluent plus lentement.



Un façon d’augmenter les performances monothreads, une fois que l’on a un SIMD super large (512 bits), ce sont les instructions spécials, comme l’AES. Mais ils peuvent faire pareil pour zip/bzip/7zip, pour TLS, les hash crypto,… Tout ce qui prends du temps dans les applications actuelles.









Firefly’ a écrit :



deuxième ligne du wiki : 

“ Cette idée est une analyse plus moderne d’un phénomène connu sous le nom de paradoxe de Jevons.”

 lire, tout ça tout ça <img data-src=" />





Je considère ce tripot comme la chambre à gaz de la connaissance ou la boucherie du savoir, au choix. Je ne le lis pas (il existe des sources d’information bien plus fiables).



Tu peux développer?








maestro321 a écrit :



Tu peux développer?





J’imagine que c’est un prof ou un truc approchant qui snob wikipedia par esprit de mouton sans rien comprendre de son fonctionnement.









cyrano2 a écrit :



Un façon d’augmenter les performances monothreads, une fois que l’on a un SIMD super large (512 bits), ce sont les instructions spécials, comme l’AES. Mais ils peuvent faire pareil pour zip/bzip/7zip, pour TLS, les hash crypto,… Tout ce qui prends du temps dans les applications actuelles.





Mais justement, le chiffrement AES c’est moins de un dix millième de ta conso CPU. Quant au dézippage c’est sans doute moins de un millionième. Même en période de pointe c’est trois fois rien. Ça sert pour certains serveurs très spécialisés mais pour le particulier c’est inutile (sauf le particulier qui fait du minage de BTC du soir au matin). On pourrait toutes les supprimer tu ne verrais pas la différence (allez, tu perdrais 5ips sur 60 dans les jeux).



Les instructions spécialisées ne sont pas une solution. Les solutions possibles sont :

1/ Le parallélisme.

2/ Le parallélisme.

3/ Le parallélisme.



Oui, c’est compliqué, tout ça (sauf le parallélisme créé par les CPU - au niveau de l’instruction - on peut encore beaucoup progresser). Mais y a pas le choix. Et oui on peut beaucoup plus paralléliser qu’aujourd’hui, il y a des solutions.



Et les opteron A1100 ?

Voilà quelque chose d’intéressant pour les datacenters. Et après ça, on verra arriver de l’ARM en desktop dans la mesure où on a déjà les smartphones et les tablettes sous ARM.



Mais bon, si des éditeurs sautaient le pas en terme d’architecture processeur, les procs ARM dernière génération pourraient très honorablement fournir le niveau de service requis dans les desktops.








darkbeast a écrit :



&nbsp;

nan effectivement



&nbsp;



“c’était” un concurrent, aujourd’hui ils valent peau de zob. S’il s’étaient sorti les doigts du cul plus tôt ils n’en seraient pas là. La vrai concurrence d’intel aujourd’hui ce sont les procs arm.





Élu commentaire crétin du jour ! T’es pas à prendre avec des pincettes le lundi matin toi !&nbsp;<img data-src=" />



Bon, sinon très heureux du changement de direction. Non pas pour le fait que ce soit une femme (rien à foutre) mais pour le fait que ce soit une ingénieure. Ça implique une forte probabilité d’avoir de nouveau un focus sur la technique ET mettre la bride aux crétins irresponsables qui servent d’équipe marketing chez AMD…



Franchement, je leur souhaite de réussir à relever la tête hors de l’eau durablement avec la prochaine génération. Ma prochaine config restera peut-être dans le giron du rouge finalement (j’espère ^^)…



+1 pour le sous-titre : depuis q’AMD utilise des noms d’engins de chantier pour ses architectures, on dirait qu’il creuse sa tombe….



SInon, le gros problème, c’est quand même la gravure à 28nm. Les performances des CPU d’AMD suffisent pour la plupart des gens, même s’ils sont moins rapides dans l’absolu que les Intel. Le problème, c’est la consommation et la chauffe, qui ne peuvent réellement s’améliorer qu’avec la passage à une gravure plus fine.



Du coup, n’est-ce pas les fondeurs qui risquent d’enterrer AMD, en repoussant (annulant) le 20nm ?








Strimy a écrit :



Mauvaise décision, mais pas forcément sur le plan technique.



J’ai largement l’impression que AMD pousse plus vers l’innovation qu’Intel. Du moins, AMD tente des approches différentes de ce qui se fait habituellement. On le voit avec le HSA qui a d’énormes avantages et qui a de grandes chances de devenir la norme dans les années à venir.



Le gros du problème pour AMD, c’est de ne pas réussir à attirer suffisamment avec ce genre de technologies qui du coup ne sert à rien tant qu’on a pas les outils pour l’exploiter. A voir si leur main mise sur les consoles permette de pousser un peu plus dans ce sens, mais j’ai peu d’espoir…





+10 AMD a quasiment toujours été le moteur de l’innovation dans les CPU… Les premiers à passer au 64bit, les premiers à passer au multi-coeur, les premiers à proposer une variation de fréquence en fonction des besoins pour limiter la conso… Le souci est qu’ils n’ont jamais eu la force de frappe à côté pour casser l’immobilisme (pas forcément infondé par ailleurs) des devs… Du coup, le temps que l’écosystème s’y mette à chaque fois Intel a largement eu le temps de rejoindre AMD…&nbsp;

Et c’est encore pire avec les choix d’architecture sur les dernières générations. J’ignore leur pertinence, mais j’ai cru comprendre que ça demandait un certain investissement aux développeurs pour vraiment en tirer parti. Or, la part de marché est minoritaire. &gt;&gt;&gt; Même problème que Linux : pourquoi engager des ressources pour être efficace sur une petite portion du parc ?



Évidemment, les problèmes de taille de die n’arrangent rien. D’ailleurs, je soupçonne une très bonne surprise le jour où AMD saura enfin produire ses procs au même niveau de miniaturisation qu’Intel…









maestro321 a écrit :



Tu peux développer?





Non.









tmtisfree a écrit :



Non.





LOL ça c’est constructif !&nbsp;<img data-src=" />









Nozalys a écrit :



LOL ça c’est constructif ! <img data-src=" />





C’est surtout HS.









darkbeast a écrit :



Mouais facile de cracher sur intel, plus que de faire des produits efficaces







Quand tu te fais enfler de plusieurs (dizaines ?) de milliards de $ à cause contrat fais sous le manteau pour t’empêcher de vendre…



AMD était aller jusqu’à offrir 2 millions de CPU à un OEM, pour démontrer qu’ya bien un truc qui cloche, qui a refusé l’offre pour garder intact son contrat avec Intel pour avoir des p4 tout merdique à 2530% du prix habituel.



Facile de cracher sur AMD quand on tente de réécrire l’histoire. Parler de produits efficaces quand on se souvient des Pentium IV qui avaient besoin d’une fréquence ~2x supérieur à leur équivalent AMD pour avoir des perfs similaires et qui était vendu avec une soufflerie à plusieurs milliers de tours parce qu’ils étaient aussi très mauvais sur l’enveloppe thermique…



Ils reflétaient parfaitement la critique qu’en avait fait apple quelques années plutôt avec sa pub où les cpu Intel étaient comparés à des radiateurs.









maestro321 a écrit :



Tu peux développer?





En général, quand quelqu’un commence une phrase par “Je considère que…”, il y a de fortes chances qu’il soit incapable d’argumenter, ayant basé son appréciation sur des rumeurs et des “on dit”. Ça relève de la croyance et de la foi, plutôt que de la réflexion rationnelle.



Ben HS ou pas, moi j’attendais aussi l’explication de ta supposée haine contre ladite encyclopédie pourtant bien reconnue dans le monde entier, et partant de a meilleure intention qui soit : “partager le savoir”.

C’est bien dommage d’en penser autant de mal. Je suis triste pour toi.


Je changerai peut-etre pour un futur proc AMD et une nouvelle CM, cependant aujourd’hui encore mon Phenom II x2 B550, GTX660 OC, 16Go mem, SSD, ne me posent aucun problèmes pour travailler et jouer a des jeux récents en étant en haut du classement :)


ce qu’il faut pas lire quand meme qu’il crevent mais espece d’idiot tu te rend compte au moins que de ce que tu dis si amd creve tu creve aussi car intel sera le kador et mettra des prix hors de ta bourse bordel que certain qui ont un QI de d’escargot la ferme et dégage de ce site








Nozalys a écrit :



Ben HS ou pas, moi j’attendais aussi l’explication de ta supposée haine contre ladite encyclopédie pourtant bien reconnue dans le monde entier, et partant de a meilleure intention qui soit : “partager le savoir”.

C’est bien dommage d’en penser autant de mal. Je suis triste pour toi.





Je peux t’offrir cette réflexion : le marché de l’information est mouvant, et Wikipedia (dont je salue la tentative d’y “remédier”) est épitémologiquement, et de manière prévisible, un échec, pour des raisons qui, plutôt que de t’en faire une argumentation qui passera fatalement pour de la condescendance voire l’arrogance chez certains esprits limités, sont exposées succinctement dans la 1ère section de ce document.



M’ouais, AMD ils sont forts pour prendre leurs clients pour des jambons avec leurs pilotes graphiques qui sent la bouse… Enfin, quand je dis “qui sent la bouse”, c’est quand ces pilotes existent !

Hé oui j’ai une machine avec une ATI (à l’époque) HD4850, une vieille bête :





  • sur Linux, les pilotes étaient juste exécrables, et dans les dernières versions (exemple Ubuntu), il ne sont plus disponibles ces pilotes. Ça c’est fait.

  • sur Windows, jusque 7, ça va, même si les pilotes ne sont plus mis à jour depuis environ 2 ans… Sauf que en passant sur Windows 8.1, les pilotes graphiques ne sont apparemment plus disponibles non plus. Il faut faire un hack pour installer le pilote en “forçant” son installation depuis le gestionnaire des pilotes, sauf que ça marche à moitié sur des jeux assez chiant à faire tourner/mal codé : lag + glitches. Et que Windows 7, début 2015, “a puuu” !



    Alors c’est bien, ils poussent à la conso, mais s’ils croient que les gens dans la même situation que moi retourneront chez eux pour la prochaine CG, ils se mettent un doigt dans… hum, allez, dans l’oeil, je suis gentil.



    Je suppose qu’il y a moins de problèmes côté CPU cela dit, même si en général ils consomment bien chez AMD… Mais cela est un autre débat !


Vision à court terme / hater simpliste



Intel ne pourra pas rester seul sur le marché. Cela a déjà été dit plus haut, il sera découpé pour des raisons de monopole (anti trust toussa …)


je me disais exactement la meme chose.

Qu’on aime ou qu’on aime pas, la concurrence, y a que du bon ! je veux surtout pas de Monopole sur les CG, sinon comme l’a dit Stel, on aura du matos identique, ils se fouleront plus et on paiera les yeux de la tete :)


Déjà ils sont la, et Intel ne se gène pas pour pratiquer des prix inhumains ! Imagine sans eux !!!



Faudrait qu’une grosse Boite genre Microsoft/Apple/Google ravale AMD et booste le schmilblick pour détrôner le roi&nbsp;<img data-src=" />


Mouai, là je vois surtout un pessimiste de base qui, bien que philosophe a juste fait un amalgame entre le modèle économique utilisé par Wikipedia et le service qui est fourni. Mais enfin, au moins, t’as développé. Quel que soit les manières de penser c’est toujours intéressant de comprendre pourquoi les autres ne pensent pas comme nous.


Heuu.. Je suis pas très a l’aise avec l’anglais et le traducteur Google à du mal transcrire.

J’ai bien compris que ça traitais de la définition du néolibéralisme mais je n’ai pas compris la critique qui en était faite.



Tu peux m’éclairer?


Sauf que voilà, AMD à fait DODO pendant la période merdique P4 pour Intel, et que depuis, Intel se remue le derrière (pour pas dire autre chose), et bouffe plus de parts de marché (légalement ou pas), et surtout, faut pas se voiler la face, actuellement les CPU Intel sont meilleurs.


Sont meilleurs en mono-thread et en consommation. Parce que sinon, ça tourne très bien AMD, voir parfois mieux qu’Intel !








maestro321 a écrit :



Heuu.. Je suis pas très a l’aise avec l’anglais et le traducteur Google à du mal transcrire.

J’ai bien compris que ça traitais de la définition du néolibéralisme mais je n’ai pas compris la critique qui en était faite.



Tu peux m’éclairer?





Ce n’est pas une critique, c’est juste une note de classe (un résumé) d’un article intitulé “Postface: Defining Neoliberalism” par un Pr qui critique l’essence même de Wikipédia.



Ce qu’il faut pas lire concernant les pilotes AMD…

&nbsp;

-Entre celui qui troll :&nbsp; “AMD crève, ça pue, c’est pourri !”, qui n’as pas compris que si AMD disparait il se retrouvera avec un i3 au prix d’un i5/i7, de toute façon l’archi x86 commence à s’essouffler, donc la guéguerre “Intel/AMD qui est le meilleur des benchmarks kikolol” ne sert plus à rien, AMD commence déjà à s’orienter vers d’autres options…

&nbsp;

&nbsp;-Entre celui qui râle parque les pilotes sont sois-disant moisis : déjà les pilotes des cartes mères sont nickels (bah oui ça parle de proco la news, non ?), et les pilotes GPU AMD sont pas moins/pas plus stable que ceux d’Nvidia…



&nbsp;C’est très très loin l’époque des pilotes des HD2xxx & consort… Sans compter que c’est souvent le gars avec sa carte Nvidia payé plein pot qui râle d’un pilote AMD instable d’il y a 10 ans…

&nbsp;

-Celui qui râle pour RaptR qui n’est maintenant plus installé d’office depuis un moment… (Ou alors il ne sais pas cocher une option ? <img data-src=" /> ). Et RaptR bouffe que dalle en ressources, évidemment pour les jeux tipiaks ça fait chier hein ? Alors faut arrêter de se payer une carte à 200 euros dans ces cas là si ont a pas le blé pour les jeux…



-Celui qui râle pour des pilotes d’une HD4870 sortie il y a… 6 ans ? Les pilotes des HD4870 ont déjà toute leurs optimisations depuis un moment, tu veut aussi que ta HD4870 soit compatible DX12 ?



Tu te plains aussi pour XP qui n’as plus de support&nbsp; ? Aussi parce que tu ne trouve plus de sacs pour ton aspirateur vieux de 6 ans ? Tu crois qu’ils vivent comment les boites comme Intel, Nvidia, AMD ? Avec leurs matos vendus il y a 5-10 ans ? Les HD4870 n’étaient pas prévu pour Windows 8.1 à la base, mais pour max Vista…



Effectivement il faut obligatoirement qu’AMD sortent des pilotes pour des cartes vendues maintenant d’occaz 20 euros (HD4870) pour une poignée d’utilisateurs qui veulent pas dépenser plus… Après sous Linux vu le peu de jeux, autant rester sur le GPU intégré au CPU, plus simple lol








darkandy a écrit :



Ce qu’il faut pas lire concernant les pilotes AMD…

Après sous Linux vu le peu de jeux, autant rester sur le GPU intégré au CPU, plus simple lol






Hooo le vilain <img data-src=">  



Y a des jeux maintenant sous Gnou/Linux mais on peu pas y jouer avec le pilote libre AMD <img data-src=" />









pentest a écrit :



Hooo le vilain <img data-src=" />



Y a des jeux maintenant sous Gnou/Linux mais on peu pas y jouer avec le pilote libre AMD <img data-src=">







Ah je dit pas le contraire, mais si le pilote libre donne moins de résultats, autant rester sur l’APU :p



Allez plein de code HSA dans le kernel et quelques bibliothèques majeures qu’on puisse y goûter et voir ce que ça donne vraiment…

Encore 2 ans pour y arriver? S’ils trainent trop ils vont encore se faire dépasser après avoir défriché un concept…


Je donne mon point de vue, je trouve cela intéressant, même si totalement HS :



Wikipedia ne fait que “rassembler” le savoir, de façon chaotique et sans objectif précis. On perd le concept d’un meta-savoir, d’un guide dans le voyage de l’information, ce que propose chaque marque d’encyclopédie. C’est ce qui faisait “la patte” des encyclopédies pré-internet. Et Wikipedia est en train de les tuer, autant financièrement que dans l’intérêt, car il annhilie le concept même de l’encyclopédiste, de celui qui est suffisament à l’aise dans la masse du savoir pour en faire une présentation/un point d’entrée aux non-initiés.



Autre point intéressant, Wikipedia est constamment en mouvance, ce qui empêche de connaitre l’état d’esprit d’une période. Grâce à Diderot, nous avons une biographie de la cartographie du savoir de l’époque. On sait qui l’a écrit et quand. Avec Wikipedia, cette cartographiqe est plus compliquée à faire voire insurmontable. Et si Wikipedia mets fin aux autres encyclopédie, je te laisse imaginer les dommages que cela pourrait créer que de confondre savoir/état d’esprit/coutume/moral d’une époque.








Delqvs a écrit :



Je donne mon point de vue, je trouve cela intéressant, même si totalement HS :



Wikipedia ne fait que “rassembler” le savoir, de façon chaotique et sans objectif précis. On perd le concept d’un meta-savoir, d’un guide dans le voyage de l’information, ce que propose chaque marque d’encyclopédie. C’est ce qui faisait “la patte” des encyclopédies pré-internet. Et Wikipedia est en train de les tuer, autant financièrement que dans l’intérêt, car il annhilie le concept même de l’encyclopédiste, de celui qui est suffisament à l’aise dans la masse du savoir pour en faire une présentation/un point d’entrée aux non-initiés.





Ok, donc si je comprend bien la perte se situerais sur l’aspect pédagogique de l’encyclopédie c’est bien ça?







Delqvs a écrit :



Autre point intéressant, Wikipedia est constamment en mouvance, ce qui empêche de connaitre l’état d’esprit d’une période. Grâce à Diderot, nous avons une biographie de la cartographie du savoir de l’époque. On sait qui l’a écrit et quand. Avec Wikipedia, cette cartographie est plus compliquée à faire voire insurmontable. Et si Wikipedia mets fin aux autres encyclopédie, je te laisse imaginer les dommages que cela pourrait créer que de confondre savoir/état d’esprit/coutume/moral d’une époque.





Sachant qu’il y des logs de tout les apports/modifications, je ne vois pas ce qu’il y a d’insurmontable, peut-être que l’outil en tant que tel n’existe pas encore, mais techniquement je ne vois pas ce qui empêcherais de faire revenir les articles à une date antérieur.

Si le soucis se situe sur la traçabilité de l’auteur (sa biographie) c’est effectivement plus complexe.



Cependant, pour l’encyclopédie de Diderot, le problème est le même, il n’est pas l’auteur directe de l’ensemble du contenu!?



<img data-src=" />

&nbsp;tu te trompes. Les pilotes Open source pour les cartes AMD sont de bonnes factures et permettent aujourd’hui de jouer à pas mal de jeux. Ils ne sont pas encore aussi performants que les pilotes proprio, certes, mais l’ecart ne cesse de diminuer (il arrive même dans certains cas que les pilotes Open source soient plus performants que les pilotes proprios).&nbsp;








Delqvs a écrit :



Je donne mon point de vue, je trouve cela intéressant, même si totalement HS :



Wikipedia ne fait que “rassembler” le savoir, de façon chaotique et sans objectif précis. On perd le concept d’un meta-savoir, d’un guide dans le voyage de l’information, ce que propose chaque marque d’encyclopédie. C’est ce qui faisait “la patte” des encyclopédies pré-internet. Et Wikipedia est en train de les tuer, autant financièrement que dans l’intérêt, car il annhilie le concept même de l’encyclopédiste, de celui qui est suffisament à l’aise dans la masse du savoir pour en faire une présentation/un point d’entrée aux non-initiés.



Autre point intéressant, Wikipedia est constamment en mouvance, ce qui empêche de connaitre l’état d’esprit d’une période. Grâce à Diderot, nous avons une biographie de la cartographie du savoir de l’époque. On sait qui l’a écrit et quand. Avec Wikipedia, cette cartographiqe est plus compliquée à faire voire insurmontable. Et si Wikipedia mets fin aux autres encyclopédie, je te laisse imaginer les dommages que cela pourrait créer que de confondre savoir/état d’esprit/coutume/moral d’une époque.





Je poursuis dans le HS car c’est un sujet très intéressant.&nbsp;




  1. Certes Wikipedia ne fait actuellement que “rassembler” le savoir sans vision générale… Sur le site principal. Cependant, l’association a également mis en place des sites à vocation plus didactique justement, pour fournir des cours et autres présentations sur différents sujets…

    &nbsp;On peut également s’interroger dans ce cas sur le deuxième point. Si Wikipédia est si chaotique, il ne correspond donc pas aux modèles préexistants d’encyclopédie que tu décris, et qui sont à la base un marché de niche. Dès lors il ne devrait pas empiéter sur leur modèle. S’il le fait, peut-être est-ce simplement parce que ces modèles existaient du fait des limites technologiques de l’époque, et n’ont plus de sens actuellement.



  2. Pour connaître l’état d’esprit d’une période, on pourra utilement se référer aux innombrables écrits des auteurs de l’époque. Par ailleurs, avec les technologies actuelles, il ne serait pas trop difficile d’adapter Wikipedia pour permettre la consultation du contenu en l’état à une date donnée, ce qui répondrait au problème. Enfin, rien n’empêche (c’est même conseillé) de référencer sur un sujet donné la littérature en traitant, au fur et à mesure des sorties…



    À mon sens, Wikipédia ne peut être utilisé comme source fiable d’informations (en tout cas unique), mais représente justement un excellent point d’entrée de la connaissance.

    Ce qui m’inquiète en revanche c’est que j’ai l’impression qu’on est arrivés aux limites du modèle contributif depuis un certain temps, maintenant que la hype des premières années est passée… Mais c’est un autre sujet.









tmtisfree a écrit :



Je peux t’offrir cette réflexion : le marché de l’information est mouvant, et Wikipedia (dont je salue la tentative d’y “remédier”) est épitémologiquement, et de manière prévisible, un échec, pour des raisons qui, plutôt que de t’en faire une argumentation qui passera fatalement pour de la condescendance voire l’arrogance chez certains esprits limités, sont exposées succinctement dans la 1ère section de ce document.





Bon, bah j’ai lu, et du coup je veux bien la version complète… Parce que l’argumentaire là, pour être succinct, il est succinct, au point d’en faire perdre toute supposition de réflexion chez son auteur…



&nbsp;

(424). How does Wikipedia keep growing w/o advertising?




  1. Any successful website will “attract or expropriate free information and repackage it in formats that allow for capitalization and the creation of ‘derivatives’ that can themselves be marketed” (424): e.g., YouTube, Facebook, Twitter users provide free content that can leveraged for targeted advertising, market research, surveillance.

    By insisting that claims on Wikipedia be sourced, it makes its users scour the web to rip off people who actually did some research.

    But easy access to Wikipedia is destroying economic viability of newspapers, journals, encyclopedias where real experts publish.

  2. Symbiosis of Wikipedia and Google: W articles show up on first page of most searches. So Google can make its money while using Wiki volunteers to do its first draft searches.



    Dans son premier point, l’auteur adopte un point de vue extrêmement limitatif et simpliste. D’une part, bon nombre de contributions constituent des contenus “nouveaux” au sens web (créés sur et pour Wikipédia).

    D’autre part, bien loin de “détruire la viabilité économique des journaux, magazines et encyclopédies ou les (soi-disant) vrais experts publient”, Wikipédia leur offre au contraire un canal de promotion gratuit (tout le monde peut modifier) et efficace : le principe de la source, c’est qu’on met le lien, les gens vont donc voir le contenu originel. Bref, raisonnement à côté de la plaque…

    D’autant plus que l’auteur fait exactement la même conclusion que moi dans son en visant Google. Or, Wikipédia remplit le même rôle que Google. Il est même préférable à Google dans le sens où il requiert une action de la part de l’éditeur, là où Google indexe agressivement le contenu, au mépris même des modèles commerciaux des éditeurs (coucou LeMonde avec ses articles protégés accessibles en version complète)…









Delqvs a écrit :



… Grâce à Diderot, nous avons, non pas une biographie mais la vision par Diderot, de la cartographie du savoir de l’époque. On sait qui l’a écrit et quand…



:FTFY:









Citan666 a écrit :



Il ne serait pas trop difficile d’adapter Wikipedia pour permettre la consultation du contenu en l’état à une date donnée, ce qui répondrait au problème.





Je viens de vérifier, via l’onglet historique on peut récupérer l’article à une date donnée, mais je n’ai pas trouvé le moyen de consulter l’ensemble des articles depuis une date donnée.



Oui, c’est ce que je sous-entends avec le “On sait qui l’a écrit et quand..”








HarmattanBlow a écrit :



Mais justement, le chiffrement AES c’est moins de un dix millième de ta conso CPU. Quant au dézippage c’est sans doute moins de un millionième. Même en période de pointe c’est trois fois rien. Ça sert pour certains serveurs très spécialisés mais pour le particulier c’est inutile (sauf le particulier qui fait du minage de BTC du soir au matin). On pourrait toutes les supprimer tu ne verrais pas la différence (allez, tu perdrais 5ips sur 60 dans les jeux).



Les instructions spécialisées ne sont pas une solution. Les solutions possibles sont :

1/ Le parallélisme.

2/ Le parallélisme.

3/ Le parallélisme.



Oui, c’est compliqué, tout ça (sauf le parallélisme créé par les CPU - au niveau de l’instruction - on peut encore beaucoup progresser). Mais y a pas le choix. Et oui on peut beaucoup plus paralléliser qu’aujourd’hui, il y a des solutions.





Sur de la navigation web par exemple, combien de temps perdu dans la compression/Decompression des requètes, idem avec le chiffrage/dechiffrage ?



Ton 1) 2) 3) est parfaitement ridicule. Combien d’applications sont capable d’accélération linéaire sur 4 coeurs voir même sur 2 ? A moins de sortir une lib balèze (genre openMP + mapReduce), l’humain n’est pas fait pour faire du parallélisme surtout pas qui ne soit pas “régulier”.









Citan666 a écrit :



Bon, bah j’ai lu, et du coup je veux bien la version complète… Parce que l’argumentaire là, pour être succinct, il est succinct, au point d’en faire perdre toute supposition de réflexion chez son auteur…



 

Dans son premier point, l’auteur adopte un point de vue extrêmement limitatif et simpliste. D’une part, bon nombre de contributions constituent des contenus “nouveaux” au sens web (créés sur et pour Wikipédia).

D’autre part, bien loin de “détruire la viabilité économique des journaux, magazines et encyclopédies ou les (soi-disant) vrais experts publient”, Wikipédia leur offre au contraire un canal de promotion gratuit (tout le monde peut modifier) et efficace : le principe de la source, c’est qu’on met le lien, les gens vont donc voir le contenu originel. Bref, raisonnement à côté de la plaque…

D’autant plus que l’auteur fait exactement la même conclusion que moi dans son en visant Google. Or, Wikipédia remplit le même rôle que Google. Il est même préférable à Google dans le sens où il requiert une action de la part de l’éditeur, là où Google indexe agressivement le contenu, au mépris même des modèles commerciaux des éditeurs (coucou LeMonde avec ses articles protégés accessibles en version complète)…





1/ J’ai donné le lien vers l’article d’origine ; ton commentaire n’est que sur une note de classe .

2/ Le point de l’article le plus intéressant est la critique du mode éditorial de Wikipedia, un mode quasi-dictatorial, alors qu’il est présenté comme libre.



PS : note que l’auteur expose une critique en règle du néolibéralisme et son influence néfaste en général, et sur la création de Wikipedia en particulier : on ne peut pas m’accuser d’être sectaire, et je trouve ironique que la faune collectiviste locale soit si prompte à défendre un bastion pareil du libertarianisme orthodoxe néo-ultra-néoliberal <img data-src=" />.









cyrano2 a écrit :



Sur de la navigation web par exemple, combien de temps perdu dans la compression/Decompression des requètes, idem avec le chiffrage/dechiffrage ?





Trois fois rien, et dix à mille fois moins que le temps perdu en téléchargement ou en chargement depuis le cache. Sans compter que c’est extrêmement parallélisable (et certains cas sont mêmes déportés vers le GPU - parallélisme extrême).



Ce qui bouffe du temps aujourd’hui c’est le recalcul permanent du layout et l’exécution du code JS.





Ton 1) 2) 3) est parfaitement ridicule. Combien d’applications sont capable d’accélération linéaire sur 4 coeurs voir même sur 2 ? A moins de sortir une lib balèze (genre openMP + mapReduce), l’humain n’est pas fait pour faire du parallélisme surtout pas qui ne soit pas “régulier”.



Je suis bien conscient du problème mais que ça te plaise ou pas, ce sera comme ça et pas autrement parce qu’il n’y a AUCUNE autre voie. Absolument a-u-c-u-n-e. Et ça ne changera pas à moins de trouver mieux que la technologie à base de silicium utilisée depuis six décennies. Donc pas la peine de se plaindre que c’est trop dur et mieux vaut s’y coller.



Deuxièmement de toute façon pour l’appli lambda 95% du temps CPU est passé dans le framework ou les biblios tierce parties. Et le mouvement continue à s’accentuer avec les UI réactives, les modules d’IA ou de traitements spécialisés, les moteurs graphiques, les services web, etc. La performance a toujours été l’affaire d’une poignée de gens, c’est encore plus vrai chaque année et nous nous savons faire. Pour les autres ils ont toujours galéré et ça continuera : hier ils se mettaient à l’assembleur, aujourd’hui ils se mettent au parallélisme. Je ne suis pas sûr qu’ils galèrent davantage.



Troisièmement les technos dispos aujourd’hui sont d’un très haut niveau, beaucoup plus simples à utiliser, et certaines offrent des modèles vérifiables et sans risque d’interblocage (avec des contraintes plus ou moins fortes : immutabilité ou mutabilité avec preuve d’accès exclusif - pas toujours gratuit mais ça convient très bien à la plupart des besoins).



Quatrièmement, toutes les applications pourraient profiter du parallélisme et la plupart de celles que j’utilise en profitent déjà (IDE, navigateur, explorateur de fichiers, principaux modules de l’OS, suite bureautique, lecteurs audio/vidéo). Et elles le font de mieux en mieux.



Enfin je faisais référence aux techniques ILP (instruction-level parallelism) qui ne réclament aucun effort de la part du programmeur (ou très peu dans certains modèles). Comme je le disais on peut encore beaucoup progresser au niveau matériel pour accélérer les perfs par coeur mais c’est quand même grâce au parallélisme intrinsèque du CPU.









tmtisfree a écrit :



PS : note que l’auteur expose une critique en règle du néolibéralisme et son influence néfaste en général, et sur la création de Wikipedia en particulier : on ne peut pas m’accuser d’être sectaire, et je trouve ironique que la faune collectiviste locale soit si prompte à défendre un bastion pareil du libertarianisme orthodoxe néo-ultra-néoliberal <img data-src=" />.





S’il est évident que wikipédia n’est pas parfait, employer un terme dictatorial me parait bien disproportionné.

Je n’ai pas encore jamais entendu parlé d’une dictature qui autorise et diffuse (publiquement) des critiques d’elle-même et de ses fondements.<img data-src=" />

http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Critiques_de_Wikip%C3%A9dia

http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Espace_de_libre_critique









HarmattanBlow a écrit :



Trois fois rien, et dix à mille fois moins que le temps perdu en téléchargement ou en chargement depuis le cache. Sans compter que c’est extrêmement parallélisable (et certains cas sont mêmes déportés vers le GPU - parallélisme extrême).



Ce qui bouffe du temps aujourd’hui c’est le recalcul permanent du layout et l’exécution du code JS.





Je suis bien conscient du problème mais que ça te plaise ou pas, ce sera comme ça et pas autrement parce qu’il n’y a AUCUNE autre voie. Absolument a-u-c-u-n-e. Et ça ne changera pas à moins de trouver mieux que la technologie à base de silicium utilisée depuis six décennies. Donc pas la peine de se plaindre que c’est trop dur et mieux vaut s’y coller.







L’ILP n’a pas besoin d’être connu du logiciel pour bien fonctionner. Je parlais de celui-là. C’est un effort de la part des fondeurs, cela implique moins de monde que pour le logiciel.



Et concernant le multitache, les navigateurs ne sont pas vraiment multicore. Firefox dispose d’un thread gui, un thread normal, et un processus par plugin. Chrome dispose d’un processus par onglet. De fait, cela n’accélère

pas grand chose, sachant qu’il doit y avoir seulement un core qui a besoin de bosser à la fois.



&nbsp;Les applications dont tu parles sont souvent multihreadé pour des raisons de fluidité de l’interface, mais rarement pour des raisons de performances (à par la vidéo, 7zip et les rendu 3D).









maestro321 a écrit :



S’il est évident que wikipédia n’est pas parfait, employer un terme dictatorial me parait bien disproportionné.

Je n’ai pas encore jamais entendu parlé d’une dictature qui autorise et diffuse (publiquement) des critiques d’elle-même et de ses fondements.<img data-src=" />

http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Critiques_de_Wikip%C3%A9dia

http://fr.wikipedia.org/wiki/Wikip%C3%A9dia:Espace_de_libre_critique





1/ Note le “quasi”.

2/ Mais si. On l’appelle généralement “propagande”.



Je ne pense pas que ça existe actuellement parce que c’est quand même pas trivial comme fonctionnalité (notamment sur la manière dont tu gères les versions et durées de vie des contenus dans la base de données), et je ne crois pas que la manière dont mediawiki gère actuellement soit adaptée. Cela étant du peu que j’en connais il n’y a pas d’obstacle technique particulier…


Ahem… Au temps pour moi… Je lirai donc volontiers l’article en entier (mais pas tout de suite je suis presque en rush ;)). <img data-src=" />








cyrano2 a écrit :



Et concernant le multitache, les navigateurs ne sont pas vraiment multicore. Firefox dispose d’un thread gui, un thread normal, et un processus par plugin. Chrome dispose d’un processus par onglet. De fait, cela n’accélère pas grand chose, sachant qu’il doit y avoir seulement un core qui a besoin de bosser à la fois.





Et je parie que toutes les opérations réseau et le décodage d’images et de vidéos sont aussi balancées vers d’autres threads. Le contraire serait très surprenant.



En revanche, oui, ils font le layout et le code JS sur un même thread parce que JS n’avait pas de support pour le multithread. Mais c’est désormais le cas et Mozilla a par ailleurs prévenu que les dévs JS devraient s’attendre à ce qu’à l’avenir le layout soit asynchrone.



Quant au rendu s’il n’est pas parallélisé c’est soit que ce n’est pas nécessaire, soit que c’est pour supporter les vieilles API qui ne supportaient pas le rendu concurrent (anciennes versions de dx par ex).





Les applications dont tu parles sont souvent multihreadé pour des raisons de fluidité de l’interface, mais rarement pour des raisons de performances (à par la vidéo, 7zip et les rendu 3D).



Le parallélisme dans le compilateur c’est pour des raisons de performances. Le parallélisme dans le navigateur c’est pour des raisons de performances. Le parallélisme dans excel c’est pour des raisons de performances avec les grosses feuilles de calcul.



S’il s’agissait simplement de garder l’UI réactive (au sens capable de continuer à recevoir des entrées) deux threads et un 486 suffiraient.









tmtisfree a écrit :



1/ Note le “quasi”.





Bha justement, le problème c’est que la notion de “dictature” à une connotation essentiellement négative.

En employant “quasi” ça ne change rien, la notion négative ne disparait pas, ça ne rééquilibre pas le propos.

Bref, c’est quasi-démago d’utiliser ce terme pour parler de la modération de wikipédia.<img data-src=" />







tmtisfree a écrit :



2/ Mais si. On l’appelle généralement “propagande”.





La propagande ne fait pas d’auto-critique (ou seulement par apologie).









maestro321 a écrit :



Bha justement, le problème c’est que la notion de “dictature” à une connotation essentiellement négative.

En employant “quasi” ça ne change rien, la notion négative ne disparait pas, ça ne rééquilibre pas le propos.

Bref, c’est quasi-démago d’utiliser ce terme pour parler de la modération de wikipédia.<img data-src=" />





La propagande ne fait pas d’auto-critique (ou seulement par apologie).





1/ Ce qui reflète bien mon appréciation de la chose.

2/ Elle peut faire semblant, ne pas s’en apercevoir, etc. On maquille en surface, mais le fond reste inchangé.









tmtisfree a écrit :



2/ Elle peut faire semblant, ne pas s’en apercevoir, etc. On maquille en surface, mais le fond reste inchangé.





Je pense que tu surestimes les capacités de la propagande, elle ne s’aventure pas sur des terrains qu’elle risquerai de ne pas maitriser (surtout sur internet..), elle les passe sous silence tout simplement (<img data-src=" /> Figaro affaire Dassault).

Là on est face aux principales critiques (viables et recevables) faites à wikipédia, “maquiller en surface” serait extrêmement risqué et finalement contre-productif pour l’organisation.



Aha, c’est drôle, ce vieil argument ancestral des drivers graphiques. Cela fais 4 ans que je tourne sous les drivers amd, je n’ai jamais eu aucun problème, de plus j’ai eu en son temps des gains notables dans pas mal de jeux, donc ton argument du début de millénaire, à revoir. Et la fameuse appli dont tu parles, huuum, bah tu dois probablement faire partie des gens qui spam le bouton suivant dans les install ;)








maestro321 a écrit :



Je pense que tu surestimes les capacités de la propagande, elle ne s’aventure pas sur des terrains qu’elle risquerai de ne pas maitriser (surtout sur internet..), elle les passe sous silence tout simplement (<img data-src=" /> Figaro affaire Dassault).

Là on est face aux principales critiques (viables et recevables) faites à wikipédia, “maquiller en surface” serait extrêmement risqué et finalement contre-productif pour l’organisation.





Il ne suffit pas d’exposer ses points faibles pour qu’ils disparaissent comme par magie. L’auteur l’explique d’ailleurs :



ln the first place, Wikipedia in action is not some democratic libertarian paradise in cyberspace, but rather is predicated on a strict hierarchy, in which higher levels exist to frustrate and undo the activities of participants at lower levels.⁵ The notion that “everyone can edit” is simply not true: many controversial pages would not even exist were interventions from those lower down in the hierarchy not blocked. But more to the point, by the criteria of the Wiki-workers themselves, ~99.8 percent of all articles were neither deemed to merit “featured” nor “good” evaluations in 2006. The small proportion that was deemed superior often did not manage to maintain that ranking, however, since it is admitted that “featured” articles experience a 20 percent annual decay rate. In other words, high-quality articles tend to experience entropic degradation and backslide from the category as various Wiki-workers feel compelled to tinker with them. Although most Wikipedia activity is indeed volunteer work, the great bulk of that work is devoted to either (a) correcting ongoing vandalism, or (b) vicious infighting over the “correct” way to implement deletion policies. In other words, most Wiki-work is a huge Sisyphean waste of time, since the vandalism never stops, almost no entry converges to anything in particular (much less “truth”), and many “deleted” components have the vexing habit of recurring. As Scott (2006) puts it with poignant ruefulness, “There is no vacuum of politics. People who join Wikipedia because they are attracted to a space where it is uncouth to appeal to technicalities to lord over others and grab for power will then proceed to invoke technicalities and usurp power.”⁶









stroovolt a écrit :



Hé oui j’ai une machine avec une ATI (à l’époque) HD4850, une vieille bête :

[list][*]sur Linux, les pilotes étaient juste exécrables, et dans les dernières versions (exemple Ubuntu), il ne sont plus disponibles ces pilotes. Ça c’est fait.





Sur les ancienne carte ati/amd les pilotes libres fonctionnent bien, et même mieux que les propriétaires.



On a compris ta frustration tu veux pas changer de disque et sortir d’autres arguments ?


Je suis sous AMD/ATI et j’ai ce qu’il se fait de mieux en terme de rapport prix/perf, même si AMD ne fait pas dans le haut de gamme, leur haut de gamme sont monstrueux en moyenne gamme.

Un simple 8320E que j’ai monté à 4.9ghz stable sur les 8 cores pour 130e … monstrueux quoi, et il ne dépasse pas 50° en charge de longue durée.


Hum , je t’avouerai que dernièrement, je n’ai pas testé en profondeur de lourdes tâches avec les pilotes libres (genre du jeu, personnellement). Mais il y a de ça encore quelques petits mois, les pilotes propriétaires restaient largement meilleurs. Seulement je devais down la version de Xorg car les dernières n’étaient plus supportées (je ne sais plus trop pourquoi), et maintenant même avec ce hack, ce n’est même plus possible de le faire apparemment…

Bref, je retesterai quand même, mais bon… Je reste sceptique. <img data-src=" />