SoC Apple Silicon : les résultats de l'A12Z Bionic du DTK 2020 sous Cinebench R23 et Handbrake

SoC Apple Silicon : les résultats de l’A12Z Bionic du DTK 2020 sous Cinebench R23 et Handbrake

Et ce que cela nous dit du M1

Avatar de l'auteur
David Legrand

Publié dans

Hardware

16/11/2020 7 minutes
34

SoC Apple Silicon : les résultats de l'A12Z Bionic du DTK 2020 sous Cinebench R23 et Handbrake

On commence à avoir une vision plus claire des performances auxquelles s'attendre avec les SoC Apple Silicon intégrés aux prochains Mac. De premiers résultats sont en effet publiés ici ou là. On peut ainsi les recouper avec des essais que nous avons effectués sur le Developer Transition Kit (DTK).

La semaine prochaine, Apple va mettre sur le marché ses premières machines exploitant son SoC ARM64 : le M1. Gravé en 5 nm, il intègre des cœurs CPU, GPU et accélérateurs maison, ainsi que 8 ou 16 Go de mémoire dans son packaging. Il s'agit d'une puce à pas moins de 16 milliards de transistors, contre 9,8 milliards pour un Renoir d'AMD à huit cœurs.

Désormais intégrée à des produits, on pourra mesurer ses performances et les comparer à celles des Mac exploitant un processeur x86 d'Intel. De premiers outils sont compatibles avec macOS 11 (Big Sur) pour ARM64, comme Cinebench R23, Geekbench ou Handbrake. D'autres se préparent.

  • Apple M1
  • Apple M1
  • Apple M1
  • Apple M1
  • Apple M1

De quoi permettre d'avoir une idée concrète de ce que ces puces ont dans le ventre, avec ou sans accélérateurs. Espérons aussi pouvoir en finir avec des analyses mettant au même plan ces SoC et des Ryzen 9 sur la base de scores single thread. Nous avons pu mettre la main sur un DTK 2020 d'Apple, exploitant un processeur A12Z Bionic, afin de lui faire subir quelques tests en prévision de l'arrivée de machines à base de M1. Qu'en retenir ?

Geekbench : gare aux scores globaux

En amont des tests, il est de plus en plus courant de voir de nouveaux composants testés sur Geekbench 5. On voit alors fleurir des comparaisons en tous genres sur la base de résultats globaux. Il faut dire qu'il est tentant de hiérarchiser selon de gros chiffres sans trop regarder dans le détail. C'est pourtant là que le bât blesse.

Car Geekbench est certes un outil multiplateforme, mais on ne peut pas pour autant comparer les performances sous macOS à celles sous Windows et autres systèmes mobiles, qui n'ont pas les mêmes comportements, ni droit aux mêmes optimisations. Surtout, ce sont les scores de chaque test qui sont intéressants à opposer, rien de plus.

Car il suffit qu'un CPU soit suroptimisé pour tel ou tel score pour que le résultat global soit revu à la hausse alors que les écarts sur d'autres résultats sont plus faibles. Pour s'en convaincre, il suffit de comparer le résultat d'un M1 avec un MacBook Pro de mi-2020 (i5-1038NG7, 4C/8T). Les écarts varient fortement selon les tests :

Geekbench 5 Apple M1 Core i5-1038NG7

Ainsi, la machine Intel est bien meilleure en chiffrement AES, mais le M1 va deux fois plus vite pour la reconnaissance faciale. Est-ce que toutes les optimisations pour l'IA, notamment les nombreuses intégrées aux Core de 10e génération d'Intel (Ice Lake), sont bien mises en place des deux côtés ? Impossible à dire.

D'autant que dans les tests Machine Learning, les deux processeurs font presque jeu égal, alors que dans nombre de cas, la puce d'Apple est 50 % plus performante. Disposant de plus de cœurs physiques (4+4), elle s'en tire également mieux en multicœur. Mais que les fans d'AMD se rassurent, un 5950X reste 2x à 5x plus performant.

Il faudra aussi voir dans quelle mesure le fait que ces tests soient courts impacte le niveau de performance relevé. Car on obtient les mêmes résultats pour le Mac Mini, le MacBook Air et le MacBook Pro, ce qui n'est pas logique. Leurs systèmes de refroidissement étant actifs ou passif selon les cas, on devrait noter des écarts du fait de TDP différents.

Des analyses complémentaires sont donc nécessaires avant de tirer la moindre conclusion.

Un DTK sous Cinebench R23, ça vaut quoi ?

Pour le moment, nous avons simplement pu nous rabattre sur le DTK 2020 d'Apple exploitant une puce A12Z Bionic. Il s'agit là aussi d'une puce 4+4 cœurs, mais avec une architecture plus ancienne et une fréquence réduite : entre 2,3 et 2,5 GHz selon Cinebench R23, contre 3 à 3,2 GHz relevés par Geekbench sur les M1. 

Le résultat obtenu est de 976 points sur un seul cœur et 4390 points lorsque tous sont actifs. Le ratio est ainsi de 4,5x. Ce résultat place cette puce légèrement sous le Core i7-1165G7 d'Intel (4C/8T et 2,81 GHz) avec ses 4 904 points. En single thread, on obtient le niveau d'efficacité de l'architecture Zen de première génération.

Mac Mini 2014 Cinebench R23DTK 2020 Cinebench R23
6 ans d'écart, un gouffre en termes de performances

C'est un gain important par rapport à notre vieux Mac Mini 2014 (Core i5-4278U, 2C/4T) qui obtient selon nos relevés sur Big Sur ce matin 673 points (1T) et 1 706 points (nT). Qui a dit que les performances de nos machines n'avaient pas évolué ces dernières années ? Il sera d'ailleurs intéressant de voir à quelle puissance consommée on obtient ces scores.

Nos confrères de Canard PC Hardware ont eux aussi pu tester un DTK 2020 dans leur numéro d'octobre/novembre. Ils relevaient (en émulation) des performances du niveau d'un CPU Skylake sous Cinebench R20. Avec une consommation à la prise de seulement 14 watts (5 watts au repos).

Quant aux résultats du M1, l'attente ne devrait pas être longue avant que de premiers tests soient effectués avec Cinebench R23. Espérons aussi pouvoir faire de même avec Blender dans les semaines qui viennent sur CPU, et pourquoi pas à terme sur GPU, l'accélération du ray tracing étant de mise chez Apple.

Selon nos relevés via Geekbench, le M1 est en multicœur 20 à 60 % plus performant que l'A12Z Bionic selon les cas. Si cela se confirme sur Cinebench R23, le score nT devrait être situé entre 5 300 et 7 000 points. C'est à peu près le positionnement d'un Core i7-7700K (4C/8T, 6 302 points). Pas mal si le TDP est réellement peu élevé.

Handbrake : l'accélération matérielle à la rescousse

Il y a un autre usage très friand de puces multi-cœurs : la compression vidéo. Hanbrake est désormais disponible sous la forme d'une application universelle gérant nativement les SoC Apple sur architecture ARM.

Il s'agit d'une première bêta (1.4.0) qui va évoluer et sans doute être optimisée avec le temps, mais cela nous permet de disposer de premiers chiffres, comparables avec d'autres tests que nous effectuons lors de nos analyses sur les performances de processeurs x86. Le protocole est simple : prendre la version 4K de Tears of Steel (6,3 Go) et la compresser en MKV dans une définition 1080p30 via H.264 puis H.265. Nous effectuons un relevé à 20 % :

Handbrake 1.4.0 A12Z Bionic DTK 2020 H.264Handbrake 1.4.0 A12Z Bionic DTK 2020 H.265

On obtient des résultats de 23,48 ips et 7,4 ips, que l'on ne retrouve que sur des CPU d'entrée de gamme. Ils se situent entre les scores que nous avions relevés sur une précédente version de l'outil lors de nos tests des Ryzen 3 2200G (6,6 et 16,7 ips) et Ryzen 5 2400G (8,1 et 22,4 ips).

En partant du principe que le M1 sera entre 20 et 60 % plus rapide que l'A12Z Bionic là encore, on devrait arriver sur des scores situés entre 28,2/8,9 ips et 37,6/11,8 ips. Soit à peu près entre des Ryzen 3 3100 et 3300X. Si cela se confirme, Apple devrait sans doute appuyer l'utilisation de son accélérateur matériel dans de tels outils.

Selon nos relevés, ses scores sont de 42 ips pour l'A12z Bionic, ce qui est bien plus rapide que sur CPU, au prix comme toujours d'une réduction de la qualité d'image. Nous reviendrons sur ce point une fois dès que Handbrake sera finalisé et que nous aurons un Mac avec Apple M1 sous la main.

Handbrake 1.4.0 A12Z Bionic DTK 2020 Matériel H.264Handbrake 1.4.0 A12Z Bionic DTK 2020 Matériel H.265

Ce score place le SoC du DTK 2020 au niveau de ce que propose un processeur Intel Core i3-8100 via Quick Sync Video (QSV) : 40 ips environ. Il est plus difficile à prédire les performances du M1 dans ce cas, l'accélérateur ayant pu évoluer différemment du reste du CPU. Nous ferons donc le point d'ici quelques jours.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Geekbench : gare aux scores globaux

Un DTK sous Cinebench R23, ça vaut quoi ?

Handbrake : l'accélération matérielle à la rescousse

Fermer

Commentaires (34)


Je ne suis pas leur plus grand fan, mais si je ne dis pas de bêtises, Apple n’est pas connu pour sur-évaluer les perfs de leurs matos.


Non, ils ont une méthode différentes : des chiffres flous, peu de caractéristiques techniques et quelques promesses bien calibrées (pas trompeuses mais pas réalistes pour autant). De toutes façons, qu’importe les promesses du marketing, ce qui fera foi, ce sont les tests (au-delà de geekbench)


Je trouve l’affirmation “disposant de plus de coeurs physiques” un peu trompeuse: il y a bien 4 coeurs rapides et 4 coeurs lents …



N’empêche, là c’est “juste” un A12Z, la RAM n’est pas sur le CPU sur ce kit, si?


Même si c’est un 4+4, ça reste plus de cœurs physiques qu’un 4+0. Pour la mémoire embarquée, je ne sais pas trop comment ça a été fait dans le DTK 2020, mais sur le fond, ça change quoi ? (parce que l’on on-package, c’est surtout une histoire d’économie de PCB plus que de performances). C’est d’ailleurs ce qui coûte à Apple des possibilités d’évolution (8 ou 16 Go seulement).



David_L a dit:


Non, ils ont une méthode différentes : des chiffres flous, peu de caractéristiques techniques et quelques promesses bien calibrées (pas trompeuses mais pas réalistes pour autant). De toutes façons, qu’importe les promesses du marketing, ce qui fera foi, ce sont les tests (au-delà de geekbench)




Tout le monde essaie de vendre sa camelote au meilleur prix. C’est çà le commerce.
Mais tu as raison, seul les tests nous montreront que la progression est bien là mais qu’il reste encore certains aspects à peaufiner pour l’année prochaine (qui a dit l’optimisation des Apps…).



(quote:52744:brice.wernet)
N’empêche, là c’est “juste” un A12Z, la RAM n’est pas sur le CPU sur ce kit, si?




D’après la photo, la RAM est à côté du CPU, mais sur 2 puces séparées. En tous cas pas “dans” le CPU et faisant partie du CPU en tant que “puce” d’un seul tenant (sinon le CPU ferait beaucoup plus que les déjà énormes 16 G transistors).




David_L a dit:


Pour la mémoire embarquée, je ne sais pas trop comment ça a été fait dans le DTK 2020, mais sur le fond, ça change quoi ? (parce que l’on on-package, c’est surtout une histoire d’économie de PCB plus que de performances)




J’aurais pensé qu’il y avait peut-être une meilleure latence quand la RAM tout contre le CPU comme ici.


Si le M1 tient ses promesses, ca risque de bousculer Intel et AMD, ce qui est toujours bon a prendre.
ils vont peut etre etre obliger de repenser le X86 plus en profondeur. Ca risque d’etre bénéfique pour tout le monde



et en fin de compte, Intel commençait peut etre a craindre AMD, et il a surement pas vus arriver Apple sur leur terrain de jeu



Z_cool a dit:


Si le M1 tient ses promesses, ca risque de bousculer Intel et AMD, ce qui est toujours bon a prendre. ils vont peut etre etre obliger de repenser le X86 plus en profondeur. Ca risque d’etre bénéfique pour tout le monde



et en fin de compte, Intel commençait peut etre a craindre AMD, et il a surement pas vus arriver Apple sur leur terrain de jeu




Euh si … Ils ont dû le voir arriver quand Apple a annoncé son intention de ne plus mettre de CPU Intel dans leurs bécanes … :D
Et puis ce n’est pas le même terrain de jeu, hein … Apple fait des SoC pour ses machines livrées avec ses logiciels, avant tout. C’est un segment extrêmement restreint vis à vis des marchés où Intel fait son CA (data, network, etc. en plus des CPUs pour PC).



Enfin bref, la comparaison M1 vs x86 n’intéresse que le particulier / freelance CSP+ qui se demande par quoi remplacer sa station de travail ou son laptop haut de gamme qui commence à vieillir (surtout s’il possède un iPhone :roll:).



D’ici à ce que la stratégie d’Apple soit de venir concurrencer Intel, AMD ou Qualcomm sur leurs marchés, on sera au 14ème reconfinement :D



Z_cool a dit:


Si le M1 tient ses promesses, ca risque de bousculer Intel et AMD, ce qui est toujours bon a prendre. ils vont peut etre etre obliger de repenser le X86 plus en profondeur. Ca risque d’etre bénéfique pour tout le monde



et en fin de compte, Intel commençait peut etre a craindre AMD, et il a surement pas vus arriver Apple sur leur terrain de jeu




Peut être qu’ils se feront un peu secouer au niveau image mais Apple n’est pas du tout sur le même marché donc Intel n’a rien à craindre



Z_cool a dit:


Si le M1 tient ses promesses, ca risque de bousculer Intel et AMD, ce qui est toujours bon a prendre. ils vont peut etre etre obliger de repenser le X86 plus en profondeur. Ca risque d’être bénéfique pour tout le monde




x86 est et restera x86, pour le reste les architectures évoluent. Au niveau de la perf, AMD et Intel auront sans doute encore l’avantage, modulo l’intégration et l’exploitation des accélérateurs (ce qui est déjà le cas chez Intel, pas encore chez AMD excepté pour la vidéo).



Mais ça permettra de voir un peu autre chose et d’avoir des architectures ARM à la fois performantes et optimisées pour la conso, même si les limites d’ARM restent là aussi d’actualité. On le verra moins dans l’écosystème en circuit fermé d’Apple néanmoins.



Ce sera intéressant par contre de voir comment Microsoft va réagir. Surtout après plusieurs générations à l’ouest en partenariat exclusif avec Qualcomm et ses Snapdragon. Il sera peut être temps de changer de crèmerie ou de les pousser à passer la seconde.



Mais il ne faut pas oublier que macOS c’est un pouillème du marché grand public, rien sur les serveurs. Cela ne changera pas du jour au lendemain. Et les produits avec M1 ne sont pas franchement de nature à changer cet équilibre.



David_L a dit:


Non, ils ont une méthode différentes : des chiffres flous, peu de caractéristiques techniques et quelques promesses bien calibrées (pas trompeuses mais pas réalistes pour autant). De toutes façons, qu’importe les promesses du marketing, ce qui fera foi, ce sont les tests (au-delà de geekbench)




Sur le côté flou des chiffres, on est tous là à dire que les scores GB&co sont à prendre avec des pincettes et que c’est pas fiable parce que la réalité est bien plus complexe ceci cela donc on va pas leur reprocher de ne pas rentrer là dedans, si ?
C’est flou mais ils cherchent justement pas à faire des comparaisons précises qui seront de toute façon foireuses…
Et de toute façon, ils disent jamais tout dans la conf mais les infos sont dispo dans les docs techniques donc pareil, je vois pourquoi on leur reprocherait ça…


Disons que déjà détailler les fréquences, TDP & co ce serait une bonne chose. Ensuite, soit tu annonces des trucs précis soit tu ne dis rien.



S’ils veulent annoncer un leadership de perfs, qu’ils explicitent. Et il n’y a pas que Geekbench dans la vie ;) Le souci d’Apple c’est justement qu’ils veulent vanter de gros chiffes sans jamais rien dire de précis. Ce n’est pas une question de GB ou pas. Ils ne rentrent pas dans ce jeu, ils font pire.



Quant au fait que ce soit une habitude, il y a un proverbe que j’aime bien “Ce n’est pas parce qu’une mauvaise habitude est une habitude qu’il faut la garder”.


J’étais sceptique à l’annonce du passage sous ARM (j’étais déjà sceptique à l’annonce du passage sous Intel), mais il faut avouer que j’ai sûrement sous-estimé les performances des puces ARM.
Mais bon je suis toujours sceptique quand aux usages : je comprends bien qu’Apple gagne à être plus autonome sur les CPU, mais que gagne le consommateur ?



Parce que la vitesse CPU pour moi ce n’est plus trop le facteur limitant (sauf pour les tours de montage et ce n’est pas l’appli visée), mais plutôt le GPU. Et là c’est un peu la régression…
Les applis iPad sur Mac, je ne suis pas fan non plus mais ça aurait été une très bonne idée en combinaison d’un écran tactile, non ?



Bref, j’applaudis la performance mais je n’achèterais pas ces machines pour le moment.


Suis-je le seul à être fortement déçu par l’évolution du CPU en termes de puissance brute depuis la dernière décennie ?
car si je compare mon ancien i7 3370k avec une version équivalente d’aujourd’hui (i7 10700K), je vois SEULEMENT +50% de puissance brute en plus (here)



contrairement au GPU qui sont a +400% (here)



Donc soit je ne comprends pas et il y a vraiment une grande différence entre 3370k et 10700k, soit ce n’est pas le cas et dans ce cas la loi de Moore est morte.



je vois que mon CPU est à 100% dans les nouveaux jeux comme Watch Dogs Legion, mais quand je vois ces 50% de plus, je n’ai pas envie d’acheter un nouveau PC pour si peu.



David_L a dit:


Disons que déjà détailler les fréquences, TDP & co ce serait une bonne chose. Ensuite, soit tu annonces des trucs précis soit tu ne dis rien.




Ces infos n’apportent rien à une conf et ça n’apporte rien pour l’estimation des perfs
Ensuite, ça sera dispo dans les docs techniques…




S’ils veulent annoncer un leadership de perfs, qu’ils explicitent. Et il n’y a pas que Geekbench dans la vie ;)




Déjà, ils n’ont donné que des comparaisons avec des macs et ne se sont pas aventurés à dire qu’ils étaient les meilleurs toute catégorie.
Quand à Geekbench, justement, ils ont donné sur le site des infos avec des softs divers…




Le souci d’Apple c’est justement qu’ils veulent vanter de gros chiffes sans jamais rien dire de précis. Ce n’est pas une question de GB ou pas. Ils ne rentrent pas dans ce jeu, ils font pire.




Ben d’un coté, on reconnait qu’ils sont quand même très en décalage avec le reste du marché et d’un autre il faudrait qu’ils rentrent dans le moule avec des comparaisons que l’ont sait tous qu’elles sont impossibles…
Je trouve ça assez paradoxal comme reproches



Leurs gros chiffres, ils les donnent par rapport à leur propres machines. Ils ne se sont pas amusés à aller au dela. Après, on en extrapole ce qu’on veut mais c’est de notre responsabilité, pas de la leur…




Quant au fait que ce soit une habitude, il y a un proverbe que j’aime bien “Ce n’est pas parce qu’une mauvaise habitude est une habitude qu’il faut la garder”.




C’est une conf grand public ! Ils donnent déjà trop de détails des fois d’après moi…
A la WWDC, je veux bien qu’ils rentrent dans les détails, pas dans leur pub grand public d’1h



S8N a dit:


Suis-je le seul à être fortement déçu par l’évolution du CPU en termes de puissance brute depuis la dernière décennie ? car si je compare mon ancien i7 3370k avec une version équivalente d’aujourd’hui (i7 10700K), je vois SEULEMENT +50% de puissance brute en plus (here)



contrairement au GPU qui sont a +400% (here)



Donc soit je ne comprends pas et il y a vraiment une grande différence entre 3370k et 10700k, soit ce n’est pas le cas et dans ce cas la loi de Moore est morte.



je vois que mon CPU est à 100% dans les nouveaux jeux comme Watch Dogs Legion, mais quand je vois ces 50% de plus, je n’ai pas envie d’acheter un nouveau PC pour si peu.




Franchement, je sais pas… Quand tu discutes avec David_L, il va te dire qu’il ne faut rien y connaitre ou d’être mauvaise foi pour dire que les perfs CPU stagnent.
Moi, je veux bien le croire car je me situerais dans la 1ere catégorie mais y’a quand même un truc au fond de moi (et de mon expérience) qui me titille…
D’un autre coté, faut pas non plus oublier qu’un CPU ne se résume pas à sa puissance de calcul et que les fonctionnalités jouent aussi.



Quant à la loi de Moore, je ne crois pas qu’elle prenne en compte une architecture donnée… Et je ne crois pas non plus qu’elle parle directement des perfs mais plutot du nb de transistors (ce qui n’est pas pareil).
Donc peut-être que l’archi x86 est en bout de course ? Mais peut-être que celle-ci se fera supplanter par une archi ARM ou autre qui restera sur le path de Moore ?
Ou peut-être que l’archi x86 en a encore sous la pédale et que c’est juste Intel qui patauge un peu ?



S8N a dit:


Suis-je le seul à être fortement déçu par l’évolution du CPU en termes de puissance brute depuis la dernière décennie ? […]
Donc soit je ne comprends pas et il y a vraiment une grande différence entre 3370k et 10700k, soit ce n’est pas le cas et dans ce cas la loi de Moore est morte.



KP2 a dit:


Franchement, je sais pas… Quand tu discutes avec David_L, il va te dire qu’il ne faut rien y connaitre ou d’être mauvaise foi pour dire que les perfs CPU stagnent. [..]



Quant à la loi de Moore, je ne crois pas qu’elle prenne en compte une architecture donnée… Et je ne crois pas non plus qu’elle parle directement des perfs mais plutot du nb de transistors




En effet, la loi de Moore porte sur l’amélioration de la finesse de gravure, qui a pendant des années a entraîné le doublement du nombre de transistors tous les 18 mois puis 2 ans (sauf erreur).



Quant à la puissance CPU, en effet si on parle de mono-coeur (ce qu’étaient les CPU pendant très longtemps, surtout en grand public), comme la montée en fréquence importante et régulière a cessé il y a près de 10 ans, le gain de puissance est devenu assez faible à chaque génération ; et il est dû à l’amélioration de l’IPC (nombre d’instructions par cycle d’horloge), via la conception et l’architecture (ajout de pipelines, améliorations comme le OutOfOrder, caches plus grands permis par une meilleure finesse de gravure).



Du coup on a vu la multiplication des coeurs remplacer la montée en fréquence, mais ça ne permet d’augmenter que la puissance totale, pour laquelle il faut des tâches parallélisables. Tout un tas d’usages étant mono-coeur (et le restant), on n’a plus d’augmentation très sensible de la puissance ressentie à la simple utilisation (lancer un programme par ex).



S8N a dit:


Suis-je le seul à être fortement déçu par l’évolution du CPU en termes de puissance brute depuis la dernière décennie ? car si je compare mon ancien i7 3370k avec une version équivalente d’aujourd’hui (i7 10700K), je vois SEULEMENT +50% de puissance brute en plus (here)



contrairement au GPU qui sont a +400% (here)



Donc soit je ne comprends pas et il y a vraiment une grande différence entre 3370k et 10700k, soit ce n’est pas le cas et dans ce cas la loi de Moore est morte.



je vois que mon CPU est à 100% dans les nouveaux jeux comme Watch Dogs Legion, mais quand je vois ces 50% de plus, je n’ai pas envie d’acheter un nouveau PC pour si peu.




Tes benchs utilisent-ils toutes les instructions améliorées? Je ne pense pas.
Les performances ont grandement évolué, mais les programmeurs ne font plus que du web, alors les besoins eux, ont stagnés. Ceux qui font pas du web avaient déjà des machines très performantes avant (car les core i sont très bons de base) , les autres ont bénéficié de l’apport en GPU qui est effectivement excellent.



Les benchs donnent une idée, mais il faut en confronter plusieurs ;)



Autre exemple de bench: https://www.cpubenchmark.net/compare/Intel-i7-3770K-vs-Intel-i7-10700K/2vs3733


Apple fait effectivement des comparaisons foireuses. Toutes les comparaisons non chiffrées sont un peu plus détaillées en bas dans les notes de bas de page de leur site.



Pour le macbook mini, ils comparent avec un i3 quadricoeur (pas trop de détail), c’est plus performant. Pour le macbook pro je crois que c’est un i5 quadri coeur (là encore, pas trop de détail, ça doit etre par rapport à des coeurs cadencés relativement bas quand même).



Pour le benchmark “Rize of tomb raider”, il est réalisé en 1290x900 il me semble, ce qui n’est pas la résolution de l’écran full hd qu’ils vendent. Donc c’est un peu un aveux d’échec de leur part. C’est plus de fps, mais ça aurait fait mal de dire que leur GPU n’est pas capable de faire tourner un jeu en 1080 p convenablement ?



coco74 a dit:


Apple fait effectivement des comparaisons foireuses. Toutes les comparaisons non chiffrées sont un peu plus détaillées en bas dans les notes de bas de page de leur site.



Pour le macbook mini, ils comparent avec un i3 quadricoeur (pas trop de détail), c’est plus performant. Pour le macbook pro je crois que c’est un i5 quadri coeur (là encore, pas trop de détail, ça doit etre par rapport à des coeurs cadencés relativement bas quand même).



Pour le benchmark “Rize of tomb raider”, il est réalisé en 1290x900 il me semble, ce qui n’est pas la résolution de l’écran full hd qu’ils vendent. Donc c’est un peu un aveux d’échec de leur part. C’est plus de fps, mais ça aurait fait mal de dire que leur GPU n’est pas capable de faire tourner un jeu en 1080 p convenablement ?




Ils comparent avec les modèles qu’ils remplacent



KP2 a dit:


Quant à la loi de Moore, je ne crois pas qu’elle prenne en compte une architecture donnée… Et je ne crois pas non plus qu’elle parle directement des perfs mais plutot du nb de transistors (ce qui n’est pas pareil)




Je suis d’accord, j’ai fait une erreur.



Merci beaucoup pour votre réponse, en regardant le lien vers passmark, le 10700k sera plus puissant que mon 3770k oc de 258% dans ce cas ok je n’ai rien à dire parce que 258% comparé à un cpu de Q2’12 je trouve cela correct.
Que me conseillez-vous en tant que processeur ? Intel ou AMD ? attendez un futur modèle ?



ps: je ne connais absolument pas AMD (la nomenclature, fiabilité, perf dans les jeux video etc..)



S8N a dit:


Que me conseillez-vous en tant que processeur ? Intel ou AMD ? attendez un futur modèle ?




Si tu attends, tu n’achèteras jamais.



Personnellement, je suis pro intel et n’ai pas de connaissance en AMD également.
Je trouve que le 10600K est parfait. Mais je t’invite à te renseigner dans le forum de nextinpact / inpacthardware pour avoir des réponses variées y compris avec de l’amd dedans (et occulte les réponses genre “intel c’est pourri” et “amd caca prout”)


Il semble qu’il n’y ait que la MAO à très basse latence où les AMD pêchent encore face aux Intel (et un peu le calcul exécutant certaines instructions spécifiques) donc il n’y a pas vraiment de mauvais choix aujourd’hui



OlivierJ a dit:


D’après la photo, la RAM est à côté du CPU, mais sur 2 puces séparées.




Sauf erreur de ma part, c’est une illustration du M1, pas du A12Z qui semble être un A12 “classique” un peu boosté.




David_L a dit:


Pour la mémoire embarquée, je ne sais pas trop comment ça a été fait dans le DTK 2020, mais sur le fond, ça change quoi ? C’est d’ailleurs ce qui coûte à Apple des possibilités d’évolution (8 ou 16 Go seulement).




D’où je pense qu’il y a un gain - peut-être ont-ils simplifié/optimisé le contrôleur mémoire. en tout cas les projections de Anandtech montrent une latence digne des Intel. Et actuellement ce qui freine les perfs, c’est la mémoire - d’où les 12Mo de cache du M1 pour les coeurs rapide, plus que chez Intel.



D’ailleurs l’énorme capacité de réorganisation des instructions me fait penser que finalement, cette architecture RISC se rapproche de ce qu’on attendrait d’un VLIW. (Transmetta renaît? :-) )
Des articles (bien vieux - j’étais à l’école donc je dirais 1998-2000) imaginaient qu’un CPU remanier un flux d’instructions “random” en morceaux de flux bien connus ultra optimisés au niveau du pipeline de traitement.



coco74 a dit:


Pour le benchmark “Rize of tomb raider”, il est réalisé en 1290x900 il me semble, ce qui n’est pas la résolution de l’écran full hd qu’ils vendent. Donc c’est un peu un aveux d’échec de leur part. C’est plus de fps, mais ça aurait fait mal de dire que leur GPU n’est pas capable de faire tourner un jeu en 1080 p convenablement ?




Il ne faut pas oublier que la comparaison est fait avec une Intel HD… Par conséquent il est certain que l’Intel HD n’arrivera pas a tourner en Full HD donc comparer “ça marche pas” avec “ça marche” ça limite l’intérêt.



Ensuite les jeux sur un Mac Retina vont soit tourné en Full soit dans une résolution intermédiaire et multiple de la résolution réelle adaptée à la taille en pouces de l’écran. Ainsi les jeux par défaut vont choisir des résolutions “basses” plus performantes et si tu pousses au max de l’écran tu aura droit a une UI minuscule et illisible. C’est un peu comme le % de zoom dans Windows 10 qui est souvent a 125 ou 150% sur PC portable.


Je ne suis pas expert et je débarque peut-être mais plutôt que ces benchs, la question n’est-elle pas de savoir comment va se comporter ce processeur quand il va devoir gérer des applis pas prévues pour ?


On poussera un peu plus sur Rosetta quand ce sera dispo, comme ça peut être spécifique à telle ou telle architecture.



seboquoi a dit:


Je ne suis pas expert et je débarque peut-être mais plutôt que ces benchs, la question n’est-elle pas de savoir comment va se comporter ce processeur quand il va devoir gérer des applis pas prévues pour ?




Oui, mais on peut s’attendre à un résultat convaincant. Effectivement, un test sur un gros tableau Excel peut être intéressant à voir.
Mais le mac ayant encore un gros public dans la création, ces benchs création sont très pertinents.



Ce M1 semble rattraper le “retard” (très relatif) des A12X sur les NVidia Xavier (qui sont encore plus bourrins pour l’apprentissage, mais ont une partie CPU qui laminait les Intel basse conso de l’époque sur plein de benchs “création” et compression) (j’ai mis l’époque, mais c’était à peine un hier à peine lointain)


Attention quand même en perf théorique (à voir en pratique) NVIDIA reste quand même largement au-dessus en TOPS. Même si Apple réduit effectivement l’écart. Mais bon les deux puces ne sont pas tout à fait comparables, dans leur conception et leur objectif.



David_L a dit:


Mais bon les deux puces ne sont pas tout à fait comparables, dans leur conception et leur objectif.




Ca reste un autre point de référence. Apple se compare au X86, avec Intel HD, ou on compare à du Ryzen 5800X et + donc je trouvais que la comparaison restait intéressante.


Apple a t’elle vraiment un intérêt à communiquer des chiffres qu’on ne pourra comparer à rien ?



Leur pari semble être que la puissance de calcul pour des instructions génériques est suffisante depuis des années. En revanche là où ils sont bien placés avec leur positionnement, c’est de tenter d’aller grappiller de la vitesse en embarquant de l’accélération matérielle pour un maximum de cas d’utilisation.



C’est totalement cohérent avec leur stratégie de plateforme fermée et ça me semble vraiment difficile de comparer ça avec l’existant. Pourquoi alors iraient ils communiquer des chiffres que le premier site d’actualité-poubelle comparera avec un i3 ?



Évidemment Intel et AMD on aussi de l’accélération matérielle pour des tas de scénarios. Mais Apple a surtout l’avantage d’avoir une plateforme qui exposer facilement ces possibilités via ses APIs habituelles.



Si ils arrivent, via leur plateforme propre et leurs APIs à amener les développeurs à utiliser l’accélération matérielle pour un tas de tâches sans même que ceux ci s’en rendent compte là où en face il faut un bac+12 ou utiliser des APIs qui ne fonctionnent que sur une marque de processeur, alors c’est gagné.



C’est un peu la leçon qu’a souvent fait l’iPhone à Android : à matos équivalent, les iPhone sont bien plus fluides et rapides que les Android d’en face. La raison c’est qu’Apple s’est débrouillée d’une part pour rendre le développement natif attirant (ObjC puis Swift), et d’autre part à faciliter à l’extrême l’accès aux capacités de son matériel via des SDK simples et adaptés.



Parce que à la fin de la journée de travail, si ton appli de production tournait plus vite parce qu’elle a réussi à faire faire un tas de tâches à, mettons, CoreML ou Métal, finalement, la fréquence du proc n’avait que peu d’intérêt et Apple a tout à perdre a communiquer dessus.



Attention, je dis pas que c’est bien ou qu’on s’en fiche, j’ai hâte d’avoir plus de détails sur ces puces M1. Juste que ne pas en parler me semble cohérent sur le plan marketing.



En tout cas je crois qu’on vit là une bifurcation bien plus importante qu’on ne l’imagine de la part d’Apple. Je pense qu’elle va toute seule dans cette direction et finira totalement isolée dans le sens où ses outils de développement deviendront « obligatoires » pour avoir des performances décentes. Ça ressemble vraiment à la naissance d’une informatique « parallèle » qui assume totalement son incompatibilité avec le reste du monde.



jpaul a dit:


Apple a t’elle vraiment un intérêt à communiquer des chiffres qu’on ne pourra comparer à rien ?




D’expérience, la transparence dans l’information technique est toujours une bonne chose. Qu’elle ne soit pas diffusée lors d’une keynote soit. Mais détailler une archi, ses capacités réelles est toujours une phase importante pour les produits d’un constructeur. Tout cacher ne sert à rien.



BTW, justifier ce manque de transparence par la débilité ambiante de la presse “tech” (qu’elle soit réellement technique ou non) est assez étonnant. C’est notamment le manque d’information technique qui rend ces comparaisons débiles possibles.



Et comme dit, ce n’est pas comme si Apple ne disait rien. Ils font ce qu’il y a de pire pour un fabricant : ne dire que ce qui les arrange (ce qui est souvent mauvais signe).




Évidemment Intel et AMD on aussi de l’accélération matérielle pour des tas de scénarios. Mais Apple a surtout l’avantage d’avoir une plateforme qui exposer facilement ces possibilités via ses APIs habituelles.




Que ce soit l’accélération matérielle pour la vidéo, la 3D ou tout ce qui touche à l’IA c’est aussi exposé par les constructeurs, via DirectML chez MS. Le souci c’est plutôt côté de la couche Linux pour l’IA où il n’y a rien de vraiment unifié (même si Khronos essaie de s’y mettre). Mais c’est dans tous les cas exploitables depuis longtemps.



Après oui, en prison on a pas à se faire à manger. Mais bon, on ne va pas refaire l’histoire de l’informatique et ses cages dorées ici ;) Au passage, on aurait tort de se réjouir de voir Apple introduire ce qu’il y a de pire dans le marché des smartphones avec ARM/M1. Mais bon, on verra avec le temps les effets de ces choix.




En tout cas je crois qu’on vit là une bifurcation bien plus importante qu’on ne l’imagine de la part d’Apple. Je pense qu’elle va toute seule dans cette direction et finira totalement isolée dans le sens où ses outils de développement deviendront « obligatoires » pour avoir des performances décentes. Ça ressemble vraiment à la naissance d’une informatique « parallèle » qui assume totalement son incompatibilité avec le reste du monde.




Voir ce que je viens de dire plus haut ;)


Merci pour ta réponse. Je pense qu’ au fond on est d’accord : je ne cherche pas à justifier le manque de transparence d’Apple dans l’absolu, mais simplement de me mettre à la place de leur service marketing.



Si ils annoncent que leur processeur tourne à 900mHz, tu as toute la presse putaclick qui titrera «  Pourquoi il ne faut surtout pas encore acheter les nouveaux Macs », quand bien même ils auraient trouvé la recette miracle rendant les applis java sveltes et gracieuses, et Électron aussi rapide qu’une fusée grâce à un interpréter JavaScript materiel (je suis sûr que Google est sur le coup).



Dans l’absolu je déplore tout autant que toi le manque d’information : je n’ assouvis pas mon addiction technologique chez Journal du Geek mais chez INpact-Hardware :chinois:



Pour ta partie sur la cuisine en prison, on est totalement d’accord : je profite de mon dernier Mac (Intel) et après ce sera fini. Je suis profondément convaincu qu’une informatique ouverte est une nécessité sociale, écologique et démocratique.



Je n’ai rien contre les outils fermés gérés par autrui (comme mon mac actuel) à partir du moment où l’on peut en reprendre le contrôle à tout moment (avec un bon vieux Linux par exemple). Autrement dit : la prison dorée c’est ok tant que les clés sont sur la porte. Là ils viennent très discrètement de les enlever. Sans moi.



jpaul a dit:


Merci pour ta réponse. Je pense qu’ au fond on est d’accord : je ne cherche pas à justifier le manque de transparence d’Apple dans l’absolu, mais simplement de me mettre à la place de leur service marketing.



Si ils annoncent que leur processeur tourne à 900mHz, tu as toute la presse putaclick qui titrera «  Pourquoi il ne faut surtout pas encore acheter les nouveaux Macs », quand bien même ils auraient trouvé la recette miracle rendant les applis java sveltes et gracieuses, et Électron aussi rapide qu’une fusée grâce à un interpréter JavaScript materiel (je suis sûr que Google est sur le coup).



Dans l’absolu je déplore tout autant que toi le manque d’information : je n’ assouvis pas mon addiction technologique chez Journal du Geek mais chez INpact-Hardware :chinois:



Pour ta partie sur la cuisine en prison, on est totalement d’accord : je profite de mon dernier Mac (Intel) et après ce sera fini. Je suis profondément convaincu qu’une informatique ouverte est une nécessité sociale, écologique et démocratique.



Je n’ai rien contre les outils fermés gérés par autrui (comme mon mac actuel) à partir du moment où l’on peut en reprendre le contrôle à tout moment (avec un bon vieux Linux par exemple). Autrement dit : la prison dorée c’est ok tant que les clés sont sur la porte. Là ils viennent très discrètement de les enlever. Sans moi.




C’est vraiment pertinent de mon point de vue ! :)