[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Tant qu'ils ne descendent pas en-dessous de 60% de marge, ça ne les fera pas grincer les dents. Ils en sont encore loin.
Et ils ne sont pas encore au point de faire une guerre des prix, un simple réajustement leur suffit ... pour le moment.
Je ne pense pas que le problème vienne de l'architecture, mais plus de Samsung et de son 8nm, bien moins efficient que le 7nm de TSMC. Nvidia a fait la connerie d'aller voir le fondeur coréen quasiment au dernier moment (fin 2019 les rumeurs tablaient encore sur TSMC), ce qui a probablement laissé peu de temps pour faire mieux sans parler de la pandémie qui n'a pas dû aider. Pour moi il est là le problème plus que du côté d'une architecture arrivée au max. Difficile de savoir ce qu'aurait donné Ampere chez TSMC au niveau énergétique quand on voit ce qu'ils ont réussi à faire avec du 14nm optimisé (12nm, mais pas vraiment) sur Turing.

D'ailleurs, à défaut d'avoir mieux en performances, c'est très probablement sur l'efficience énergétique que les 6000 d'AMD seront au-dessus d'Ampere, justement grâce au 7nm de TSMC.

Dernière modification par Lianai ; 08/10/2020 à 21h48.
Citation :
Publié par Miuw
Ched a bien expliqué en quoi les gains de perf d'ampere sont loin d'être oufs. Après il y a aussi le fait qu'ampere n'est pas vraiment une architecture faite pour jouer, d'où les perfs décevantes en 1440p, où sa puissance brute est moins bien exploitée qu'en 4K.
https://www.techpowerup.com/review/n...dition/34.html

Les différences de performances moyennes sont assez proches entre 1440p et 4K. C'est plus faible en 1080p pour des raisons évidentes de bottleneck sur le CPU et c'est d'ailleurs encore un peu le cas en 1440p. Donc je ne saisis pas trop l'histoire de l'architecture pas faite pour jouer. Elle est faite pour ça, mais à haute résolution (1440p mini, 4K dans l'idéal).

Le gain de perf est bon, c'est le comment qui ne l'est pas, mais là encore, pour moi le souci vient plus de la gravure par Samsung que de l'architecture en elle-même. Nvidia a merdé son coup, le 8nm de Samsung n'est pas top et le pire, c'est qu'ils ont du retard sur le 5nm, donc pire choix possible.
Je met ci dessous un tableau récapitulatif du live :

les dernières cartes mère sont adaptées a ces nouveaux procs mais des discussions disent qu'il faudra peut être une mise a jour du bios.

rfs7.png

lqbj.png

m8sx.png


Je met également les specs par rapport au i9 10900 k ( Attention c'est une résolution en 1920 x 1080 ):

vmz0.png

Dernière modification par Anngelle Silverstar ; 08/10/2020 à 22h31.
Citation :
Publié par Anngelle Silverstar
Je met ci dessous un tableau récapitulatif du live :

les dernières cartes mère sont adaptées a ces nouveaux procs avec simplement une mise a jour du bios ( X570 et B550 )

rfs7.png

lqbj.png
What ? Les x570 et b550 ont besoin d'une MàJ du Bios aussi ?
La version minimum de l'AGESA pour boot sur un 5000 est 1.0.8.0 et elle date de fin août, donc aucune carte mère sur chipset 500 n'en est équipée d'office pour le moment.

Donc oui, update du bios obligatoire, mais le mieux sera de directement passer par une update vers l'AGESA 1.1.0.0 qui est déjà dispo pour pas mal de modèles. Ma MSI B550M Mortar Wifi est déjà sous cette version du bios (sortie le 29 septembre).
Citation :
Publié par Lianai
La version minimum de l'AGESA pour boot sur un 5000 est 1.0.8.0 et elle date de fin août, donc aucune carte mère sur chipset 500 n'en est équipée d'office pour le moment.

Donc oui, update du bios obligatoire, mais le mieux sera de directement passer par une update vers l'AGESA 1.1.0.0 qui est déjà dispo pour pas mal de modèles. Ma MSI B550M Mortar Wifi est déjà sous cette version du bios (sortie le 29 septembre).
Nan mais ça me fait juste chier parce que j'ai acheté une X570 d'avance. Je savais que j'aurai dû vérifier avant.
Citation :
Publié par Lianai
Nvidia a merdé son coup, le 8nm de Samsung n'est pas top et le pire, c'est qu'ils ont du retard sur le 5nm, donc pire choix possible.
Pas trop d'accord sur "le pire". En sortant Ampère chez Samsung (GA10x) et TSMC (A100), Nvidia a montré qu'ils pouvaient faire graver chez l'un ou l'autre.
Citation :
Publié par Lianai
Pas un problème normalement. Vérifie sur le manuel de ta carte mère, mais sur une X570 je mets ma main à couper que tu peux update le bios sans CPU.
C'est ce que je suis en train de regarder pour la ASRock X570M Pro4. Mais ça n'a pas l'air engageant.
Citation :
Publié par Eyce Karmina
Pas trop d'accord sur "le pire". En sortant Ampère chez Samsung (GA10x) et TSMC (A100), Nvidia a montré qu'ils pouvaient faire graver chez l'un ou l'autre.
Je pense surtout que c'est l'architecture des ampères qui pose le problème , pas des fondeurs.
Citation :
Publié par Anngelle Silverstar
Je pense surtout que c'est l'architecture des ampères qui pose le problème , pas des fondeurs.
Le choix du fondeur joue pas mal sur l'efficacité énergétique. Ce que je soulevais, c'est que le fait que le retard du 5nm de Samsung n'est pas un réel problème pour Nvidia.
Citation :
Publié par Anngelle Silverstar
Je pense surtout que c'est l'architecture des ampères qui pose le problème , pas des fondeurs.
Bah tu vois, je pense l'inverse (même si c'est probablement un peu des deux)

Le 8nm de Samsung a une densité proche du 7nm de TSMC, sauf que pour atteindre les mêmes performances, il a besoin de quoi ? Plus de puissance et des fréquences plus élevées parce qu'il est moins efficient. Le 8nm de Samsung n'est pas mauvais, il n'est juste pas fait pour une telle application. D'ailleurs, le process date de 2017 pour du laptop et de 2018 pour des chips haute fréquences, mais ce n'est clairement pas adapté pour du gros GPU. Dans ce domaine, TSMC est loin devant.

@Eyce_Karmina C'est vrai, mais l'A100 a une production ridicule vu le domaine ciblé et revenir avec une énorme production chez TSMC ne sera pas forcément évident et pourrait s'avérer coûteux pour Nvidia si le taïwanais décide de lui faire payer son côté girouette.

Dernière modification par Lianai ; 08/10/2020 à 22h52.
Citation :
Publié par Lianai
https://www.techpowerup.com/review/n...dition/34.html

Les différences de performances moyennes sont assez proches entre 1440p et 4K. C'est plus faible en 1080p pour des raisons évidentes de bottleneck sur le CPU et c'est d'ailleurs encore un peu le cas en 1440p. Donc je ne saisis pas trop l'histoire de l'architecture pas faite pour jouer. Elle est faite pour ça, mais à haute résolution (1440p mini, 4K dans l'idéal).

Le gain de perf est bon, c'est le comment qui ne l'est pas, mais là encore, pour moi le souci vient plus de la gravure par Samsung que de l'architecture en elle-même. Nvidia a merdé son coup, le 8nm de Samsung n'est pas top et le pire, c'est qu'ils ont du retard sur le 5nm, donc pire choix possible.
131% des perfs d'une 2080ti en 4K, contre 123% seulement en 1440p c'est pas si proche que ça. En comparaison la 2080ti a 143% des perfs d'une 1080ti en 4K contre 137% en 1440p, nettement plus proche. Oui c'est sûr que le bottleneck CPU joue aussi un peu, mais y'a pas que ça.

Steve de Hardware Unboxed / Techspot a publié une vidéo / article intéressant là dessus où il donne ceci comme possible explication, suivi de tests détaillés et une analyse des résultats :
Citation :
We noted part of the reason for the weaker than expected 1440p performance was down to the Ampere architecture and the change to the SM configuration. The two times FP32 design can only be fully utilized at 4K and beyond. This is because at 4K the portion of the render time per frame is heavier on FP32 shaders. At lower resolutions like 1440p, the vertice and triangle load is identical to what we see at 4K, but at the higher resolution pixel shaders and compute effect shaders are more intensive, so take longer and therefore can fill the SMs FP32 ALUs better.

[...]

With the RTX 3080 we saw a 21% advantage over the 2080 Ti at 1440p and then a much larger 32% margin at 4K. We suggested this could be explained by the Ampere architecture's nature which is more compute heavy, datacenter and AI oriented than gaming-first.
https://www.techspot.com/review/2110...ng-bottleneck/
https://www.youtube.com/watch?v=c7npXXyXJzI


Citation :
Publié par Lianai
Le 8nm de Samsung a une densité proche du 7nm de TSMC, sauf que pour atteindre les mêmes performances, il a besoin de quoi ? Plus de puissance et des fréquences plus élevées parce qu'il est moins efficient.
Pas trop de sens ce que dis là, un process moins efficient a besoin de plus d'énergie pour atteindre une fréquence donnée. Pas de fréquences plus élevées pour atteindre les mêmes performances. À moins que je me trompe quelque part ?
Citation :
Publié par Ched
Plus que la fréquence il faut surtout regarder la conso.
2080 = 220w = 100%
3080 = 320w = 145% de conso pour 165% de perfs

Donc oui le gain d'efficacité énergétique apporté par Ampere est loin d'être enthousiasmant, en fait il est inférieur au passage de Pascal à Turing, pourtant si décrié.
Et il est encore moins enthousiasmant quand on fait la comparaison à GPU égal càd avec la 2080TI, les deux ayant le gros GPU xx102 (d'où l'absence de 3080TI, d'où le peu de gains qu'apporte une 3090).
2080TI = 250w = 100%
3080 = 320w = 128% de conso pour 135% de perfs
Je parlais surtout de ça.

Le truc c'est que jusque maintenant Nvidia tentait de mettre le plus de transistors possible sur leur die pour améliorer les perfs (grosso modo) en améliorant l'architecture qu'ils avaient développés depuis Maxwell. Il n'est pas certain qu'un die shrink suffirait à améliorer significativement les perfs encore une fois et ce que semble avoir développé AMD où ils pourraient avoir plus de latitude sur plusieurs éléments pour améliorer les performances : le bus, la taille du die, le fonctionnement/la taille du cache (et bien sûr l'augmentation de la fréquence et/ou de la consommation).
Citation :
Publié par Miuw
131% des perfs d'une 2080ti en 4K, contre 123% seulement en 1440p c'est pas si proche que ça. En comparaison la 2080ti a 143% des perfs d'une 1080ti en 4K contre 137% en 1440p, nettement plus proche. Oui c'est sûr que le bottleneck CPU joue aussi un peu, mais y'a pas que ça.
L'architecture est clairement optimisée pour le 4K, c'est tout le message marketing derrière, donc en soi ce n'est pas étonnant. D'ailleurs, je ne crois pas que ce soit la première fois qu'une telle situation arrive, où une nouvelle génération est optimisée pour une résolution supérieure, quitte à faire moins bien sur les inférieures. Je peux me planter, ma mémoire me joue des tours.

De là à dire que c'est une architecture dédiée aux datacenter et à l'IA, ça me laisse perplexe. En fait, non, je comprends ce qu'il veut dire, mais techniquement c'est aussi vrai pour tout un tas d'autres architectures partagées entre les Quadro et les modèles grand public vu que tout ce qui les sépare, au delà de la mémoire, c'est une liste de capacités supplémentaires activées et d'optimisations au niveau des drivers. C'est exactement la même chose dans le cas présent. D'ailleurs, dans les applications professionnelles demandant autre chose que de la puissance brute, la Titan RTX et les Quadro font mieux que la 3090, mais c'est comme ça depuis plusieurs années.

Ils en parlent dans la vidéo du test de la 3090 par Linus : https://www.youtube.com/watch?v=YjcxrfEVhc8

A 10 minutes pile poil, tu as un message d'un représentant de Nvidia qui explique justement que la 3090 n'est pas faite pour certaines applications professionnelles, dont l'IA justement pour les raisons données au-dessus : ce n'est pas activé comme ça ne l'était pas davantage pour les RTX 2000 face à la Titan RTX malgré l'utilisation de la même architecture. Entre modèles pro et gaming, ils n'y a pratiquement plus aucune différence hardware notable, quasiment tout se joue sur les drivers, donc rien de surprenant à ce que ce soit aussi le cas des 3000, mais ça n'enlève rien à leur optimisation pour le jeu comme ce fut le cas pour les 2000 etc. Ce qui diffère ici, c'est que Nvidia a privilégié le 4K potentiellement au détriment des résolutions plus faibles.

Citation :
Pas trop de sens ce que dis là, un process moins efficient a besoin de plus d'énergie pour atteindre une fréquence donnée. Pas de fréquences plus élevées pour atteindre les mêmes performances. À moins que je me trompe quelque part ?
Je vois ce que tu veux dire. Tu pars du principe que pour une architecture identique, il suffit d'atteindre la même fréquence sur deux process de gravure différents pour avoir les mêmes performances et ce qui différenciera les deux, c'est l'énergie nécessaire pour y arriver. C'est vrai, mais il y a tout un tas de facteurs supplémentaires qui jouent aussi et qui peuvent casser ce rapport 1:1 sur la fréquence comme la densité de transistors plus faible chez Samsung etc. D'ailleurs, si je ne m'abuse, le 8nm de Samsung est en fait une évolution de leur 10nm, donc une techno assez ancienne un peu comme le 14nm++ d'Intel.

@Anthodev un point sur lequel je te rejoins totalement, c'est sur la marge de progression possible d'AMD avec sa nouvelle architecture et l'avance de TSMC sur les process de gravure.

Dernière modification par Lianai ; 09/10/2020 à 00h34.
Ce que je voulais dire c'est que c'est une architecture qui reste polyvalente, mais avec une plus grande importance donnée aux perfs pour datacenters et IA, par rapport aux générations précédentes. Et que c'est probablement au moins en partie à cause de ça que les performances en jeu sont relativement décevante (surtout en dessous de la 4K), par rapport à ce qu'elles auraient pu être avec une architecture qui aurait accordé une plus grande importance aux perfs pour du jeu.

Citation :
Publié par Lianai
Ce que je veux dire, c'est que pour avoir les mêmes performances qu'un chip gravé en 7nm chez TSMC à une fréquence X, un chip gravé en 8nm Samsung nécessitera une fréquence plus élevée et plus d'énergie. C'est pour ça que je parle des deux, car cela aurait pu se limiter à seulement une fréquence plus élevée, mais une puissance identique si l'efficience énergétique était très bonne (ce qui n'est pas le cas).
D'après la compréhension limitée que j'en ai, une puce 7nm TSMC de X transistors à une fréquence Y et une puce 8nm Samsung de X transistors à une fréquence Y devraient avoir les mêmes performances. Simplement la puce Samsung sera plus grande vu que la densité est plus faible, et consommera plus d'énergie pour atteindre la fréquence Y, parce que moins efficiente.
Citation :
Publié par Miuw
Ce que je voulais dire c'est que c'est une architecture qui reste polyvalente, mais avec une plus grande importance donnée aux perfs pour datacenters et IA, par rapport aux générations précédentes. Et que c'est probablement au moins en partie à cause de ça que les performances en jeu sont relativement décevante (surtout en dessous de la 4K), par rapport à ce qu'elles auraient pu être avec une architecture qui aurait accordé une plus grande importance aux perfs pour du jeu.
Je n'ai pas l'impression que l'architecture soit si différente que ça de la série RTX 2000, mais pourquoi pas. On est sur une situation un peu étrange entre le CPU limited, la gravure, l'architecture...

Quant à la différence Samsung 8nm et TSMC 7nm, je pensais comme toi et ça me paraissait extrêmement logique, mais j'avais lu que d'autres facteurs entraient en jeu et que c'était plus complexe que ça. Mais au final, je me plante possiblement à fond les manettes

Ce qui est sûr et certain, c'est que le 8nm de Samsung est mouif face au 7nm de TSMC, qu'il repose sur un vieux process et qu'il consomme bien plus et donc produit plus de chaleur, ce qui doit expliquer la limitation de la puissance sur les 3080 et 3090 (très rares sont les modèles qui passent au-dessus de 105%). Samsung fait aussi du 7nm, mais seulement pour du chip basse consommation et le 5nm prend du retard, donc faut se contenter d'un 8nm déjà vieillissant.

Sur un registre 3615 my life sans intérêt, je viens de me rendre compte qu'après 26 ans sur PC, j'avais eu exactement autant d'ATI/AMD que de Nvidia. Première ATI la Rage Pro et première Nvidia la TNT2 Ultra. Oui, on s'en fout, mais pas grave

Dernière modification par Lianai ; 09/10/2020 à 06h41.
Citation :
Publié par Anngelle Silverstar
Je met ci dessous un tableau récapitulatif du live :

les dernières cartes mère sont adaptées a ces nouveaux procs mais des discussions disent qu'il faudra peut être une mise a jour du bios.

rfs7.png

lqbj.png

m8sx.png


Je met également les specs par rapport au i9 10900 k ( Attention c'est une résolution en 1920 x 1080 ):

vmz0.png
Ca fait que 100MHz de plus pour le 5900X comparé au 3900X.
Si les gains en perfs prétendus sont réels, ça doit venir d'autre chose que la fréquence. Peut-être le contrôleur mémoire ?
Un point sur lequel ils ont insisté pour expliquer le gain en single core, c'est l'unification du cache mémoire L3, qui fait que lorsqu'un coeur unique travail davantage, comme c'est le cas dans les jeux, il a accès à un cache 2x plus important avec une latence plus faible.

zen3.png
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés