[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Hello ,

Ptite question :
Je compte me prendre une 3070 , je joue sur une ecran 1440p 144hz et de temps en temps je me branche sur la tv pour jouer en 4k.

J ai vu une rumeur que potentiellement il y aurait en decembre des cartes avec plus de memoire , la 3080 avec 20go et la 3070 avec 16 go.

Ca vaut le coup pour mon cas de prendre cette derniere ? Ou 8 go c est suffisant ?


Merci
Citation :
Publié par Ryu Seiken
Ouais, j'ai vu ça. Ils ont expliqué, il y a un peu moins d'une semaine, qu'ils voulaient faire une séparation nette avec les séries d'APU. C'est con puisque les versions mobiles sont des Ryzen 4XXX H/HS/U. Bref, ça va être aussi déroutant que le Zen+ à un moment.
Ce n'est pas ce que j'ai compris. C'est même tout l'inverse.

En fait ils veulent que les APU et le reste aient le même n° de base en fonction de la génération des coeurs.
Actuellement c'est le foutoir avec les APU 4xxx qui sont en fait des coeurs Zen2 comme les 3xxx alors que les APU 3xxx sont de la même gén que les 2xxx.

Et comme les APU en 4xxx existent déjà ils n'ont pas d'autre choix que de sauter la désignation 4xxx.
C'est parti !

Et la hype est bien présente

112148-1602173845-6248.png
3900X VS 5900X (même PC)

Quelques screens de la conférence. Désolé de la qualité mais bon, capture d'écran Youtube !

Un graphique à prendre avec des pincettes :

112148-1602173918-1041.png

Spécifications :

112148-1602174101-9549.png

Les prix :

112148-1602174122-6231.png

Le 5950X:

112148-1602174169-5326.png


Maintenant, il y a plus qu'a attendre les benchmarks.
Sinon disponibilité le 5 novembre.

Et pas de 10 cores et de 5Ghz (mais presque) !

Dernière modification par Crowzer ; 08/10/2020 à 18h40.
Bon ben pour moi ce sera un 5600X.
Reste à voir pour le GPU. Pour l'instant je vise la RTX 3070 (ca devrait suffire pour jouer en 1440p/144Hz) mais faut voir ce que va sortir AMD.
Ca sent le 5900X à 600€, mais ça va dépoter !

Pour la petite preview de la 6900 XT + 5900X, on a donc :

ryzen-bignavi.png

- Borderlands 3 à 61 fps en 4K.
- COD Modern Warfare à 88 FPS en 4K.
- Gears of Wars 5 à 73 FPS en 4K.

J'ai cherché un peu la correspondance parmi les benchmarks de 3080 et on arrive à des performances assez similaires pour les mêmes settings.

- Borderlands 3 à 65 FPS en 4K.
- COD Modern Warfare à 101 FPS en 4K.
- Gears of Wars 5 à 80 FPS en 4K.

Pour Borderlands 3 et Gears 5, c'est avec un Intel 10900K alors que pour COD c'est avec un Ryzen 3900X lock à 4,3GHz. Donc en toute logique, en sachant que Lisa a très certainement montré parmi les meilleurs résultats, la 3080 devrait conserver le lead niveau performances, surtout quand on imagine que le 5900X doit un poil aider. Par contre, AMD semble réellement très proche, le plus proche depuis très longtemps.
Citation :
Publié par Lianai
Ca sent le 5900X à 600€, mais ça va dépoter !

Pour la petite preview de la 6900 XT + 5900X, on a donc :

- Borderlands 3 à 61 fps en 4K.
- COD Modern Warfare à 88 FPS en 4K.
- Gears of Wars 5 à 73 FPS en 4K.

J'ai cherche un peu la correspondance parmi les benchmarks de 3080 et on arrive à des performances similaires pour les mêmes settings.

- Borderlands 3 à 65 FPS en 4K.
- COD Modern Warfare à 101 FPS en 4K.
- Gears of Wars 5 à 80 FPS en 4K.

Pour Borderlands 3 et Gears 5, c'est avec un Intel 10900K alors que pour COD c'est avec un Ryzen 3900X lock à 4,3GHz. Donc en toute logique, en sachant que Lisa a très certainement montré parmi les meilleurs résultats, la 3080 devrait conserver le lead niveau performances, surtout quand on imagine que le 5900X doit un poil aider. Par contre, AMD semble réellement très proche, le plus proche depuis très longtemps.
Punaise, je voyais pas le 5900X aussi bas en tarif. A voir les vrais tarif France, une fois stabilisés. Déjà qu'un 5800X est pas loin d'un 3950X, c'est une belle génération qui s'annonce.
Citation :
Publié par Anngelle Silverstar
Les tarifs sont dingues , des prix super bas pour des puissances supérieures aux i9 ....la ça va encore faire très mal a intel !
C'est quand même 10% plus cher que le 3900X à son lancement, qui lui était proposé à 499$. Et ce n'est pas vraiment moins cher qu'Intel, puisque le 10900K se trouve à moins de 600€ aujourd'hui, ce qui fera du 5900X un CPU probablement plus cher à sa sortie. Perso, je le vois entre 640 et 650€ chez nous.
Citation :
Publié par Lianai
Pour la petite preview de la 6900 XT + 5900X, on a donc :

- Borderlands 3 à 61 fps en 4K.
- COD Modern Warfare à 88 FPS en 4K.
- Gears of Wars 5 à 73 FPS en 4K.

J'ai cherché un peu la correspondance parmi les benchmarks de 3080 et on arrive à des performances assez similaires pour les mêmes settings.

- Borderlands 3 à 65 FPS en 4K.
- COD Modern Warfare à 101 FPS en 4K.
- Gears of Wars 5 à 80 FPS en 4K.
Ça confirmerait les rumeurs/leaks qui annonçaient que la plus puissante RX serait au niveau de la 3080 (pas forcément partout mais au moins compétitive). Dire que certains n'espéraient pas mieux qu'une 2080Ti

En tout cas ce serait une bonne nouvelle le retour d'AMD dans le segment haut de gamme en GPU.
Citation :
Publié par Lianai
C'est quand même 10% plus cher que le 3900X à son lancement, qui lui était proposé à 499$. Et ce n'est pas vraiment moins cher qu'Intel, puisque le 10900K se trouve à moins de 600€ aujourd'hui, ce qui fera du 5900X un CPU probablement plus cher à sa sortie. Perso, je le vois entre 640 et 650€ chez nous.
Si on a la même parité (TTC) qu'avec nVidia, ouais, ça va tourner autour de 650, mais ça reste super intéressant. On aura des perfs de TR mis dans la gamme Ryzen 9.

Et si j'en crois ce graphique, les i7 gen 11 d'Intel vont avoir mal, puisque au taquet avec les 5800X en single et multi.
Citation :
Publié par Anthodev
Ça confirmerait les rumeurs/leaks qui annonçaient que la plus puissante RX serait au niveau de la 3080 (pas forcément partout mais au moins compétitive). Dire que certains n'espéraient pas mieux qu'une 2080Ti

En tout cas ce serait une bonne nouvelle le retour d'AMD dans le segment haut de gamme en GPU.
Oui, c'est une excellente nouvelle. Par contre, ça rend la revente de ma 3080 moins pertinente. La 6900 XT sera sûrement moins onéreuse, mais encore faut-il réussir à en avoir une avant l'envolée des prix.

Du coup, je vais surtout attendre le 5800X ou 5900X, même si je sens que ça va encore être l'angoisse pour en avoir un.
Citation :
Publié par Lianai
Oui, c'est une excellente nouvelle. Par contre, ça rend la revente de ma 3080 moins pertinente. La 6900 XT sera sûrement moins onéreuse, mais encore faut-il réussir à en avoir une avant l'envolée des prix.

Du coup, je vais surtout attendre le 5800X ou 5900X, même si je sens que ça va encore être l'angoisse pour en avoir un.
Arrête d'acheter Day One aussi. Au pire, je te rachèterai le 5900X pour l'euro symbolique !
D'ailleurs cela peut accréditer la thèse que le lancement des RTX 3000 a été rushé (avec un prix bien plus contenu que Turing) parce qu'ils avaient eu vent des performance target d'AMD. Je me demande même si Nvidia n'arrive pas devant un mur quand on voit ce qu'ils ont fait avec Ampère, c'est à dire essentiellement augmenter les fréquences à la limite en augmentant la consommation en faisant croire à une amélioration des performances (alors qu'ils semblent plutôt arriver aux limites de leur architecture).

À voir si leur prochaine architecture va aller plus loin qu'un die shrink, mais il semble qu'AMD soit sur une piste plus prometteuse de leur côté (attendre les performances d'une 3080 sur un bus 256-bit en exploitant un cache, ça leur laisse plus de marges de manoeuvre pour l'avenir).

En tout cas ça laisse à croire que Nvidia ai un peu rushé les choses essentiellement pour une question de perception et ça peut se comprendre (en terme de communication), il suffit de s'imaginer la scène :
- AMD présente une carte sensiblement plus puissante que la 2080Ti en premier, ce qui serait vu comme un tour de force incroyable après avoir "abandonné" le haut de gamme depuis une demi-douzaine d'années, choppant la couronne de meilleure CG pour gamer. En terme d'image ça aurait fait mal à Nvidia.
- Nvidia annonce Ampère peu après avec des performances un poil meilleures, ça deviendrait bien moins impressionnant à côté parce que les attentes auraient été plus importantes, laissant la lumière du côté d'AMD tout de même pour ce retour impressionnant.

Reste à voir comment ça se confirmera dans les tests indépendants et surtout sur les performances RT, les rumeurs pointent actuellement sur des performances meilleures que Turing mais moindre qu'Ampère, ce serait tout de même un très bon résultat pour une première CG exploitant le raytracing.
Citation :
Publié par Ryu Seiken
Arrête d'acheter Day One aussi. Au pire, je te rachèterai le 5900X pour l'euro symbolique !
Bah pour le coup, acheter day one fut une bonne idée pour la 3080. Je l'ai payée moins de 800€ frais de port compris quand aujourd'hui il n'y a rien de dispo et quand bien même ce serait le cas, les prix s'étaleraient entre 850 et 1000 balles pendant encore quelques temps. Actuellement, si j'en ai envie, je peux revendre ma 3080 entre 100 et 200 balles de plus que son coût d'achat. En plus je n'ai pas utilisé mes codes pour Wtach Dogs Legion et l'année de Geforce Now, ce qui ajoute un petit bonus.

Bref, acheter day one, ça n'a pas que du mauvais

Citation :
Publié par Anthodev
D'ailleurs cela peut accréditer la thèse que le lancement des RTX 3000 a été rushé (avec un prix bien plus contenu que Turing) parce qu'ils avaient eu vent des performance target d'AMD. Je me demande même si Nvidia n'arrive pas devant un mur quand on voit ce qu'ils ont fait avec Ampère, c'est à dire essentiellement augmenter les fréquences à la limite en augmentant la consommation en faisant croire à une amélioration des performances (alors qu'ils semblent plutôt arriver aux limites de leur architecture).
Quand on compare la 3080 aux 2080 (je rappelle que ça remplace ce modèle, pas la 2080 Ti), le boost de performances est quand même énorme. Ce n'est pas à toutes les générations que l'on a un gain de 50% et plus entre deux cartes d'un même segment et ce n'est pas simplement en poussant la fréquence qu'on y arrive. D'ailleurs, je te rappelle que la fréquence boost de la 2080 est exactement la même que la 3080 à savoir 1710MHz et pas mal de modèles custom ont un boost plus élevé que les meilleures 3080. Faut savoir rester objectif Antho

Quant à Nvidia qui aurait précipité la sortie des 3080 et 3090, c'est fort possible afin de rester sur le devant de la scène. Et le plus dommageable dans cette histoire, c'est que les AIB comme EVGA, MSI, Gigabyte et consorts ont payé le prix cher avec des specs annoncées trop tard et un retour en usine pour changer ces fameux modèles qui n'étaient pas équipés de grappe MLCC. Ca c'est un vrai problème et ça montre que Nvidia avait les jambes fébriles et craignait les fuites sur son architecture.

Dernière modification par Lianai ; 08/10/2020 à 20h21.
On sait si AMD va sortir des déclinaisons inférieures des 6 et 8c ?
Le 5600X est déjà en 65W donc j'en doute, mais un 5700(X) à 65W trouverait sa place sans trop de problème dans la gamme vu le gap de 150$ dans la gamme.

Le fait qu'on soit sur un complexe de 8c laisse espérer un gain vraiment sympa en jeu sur un cpu n'en contenant qu'un.
Citation :
Publié par Eyce Karmina
On sait si AMD va sortir des déclinaisons inférieures des 6 et 8c ?
Le 5600X est déjà en 65W donc j'en doute, mais un 5700(X) à 65W trouverait sa place sans trop de problème dans la gamme vu le gap de 150$ dans la gamme.

Le fait qu'on soit sur un complexe de 8c laisse espérer un gain vraiment sympa en jeu sur un cpu n'en contenant qu'un.
Pas tout de suite d'après AMD. Mais il y a aura certainement d'autres proco qui sortiront. Mais à priori, d'abord des Ryzen 3, genre 5500 ou 5300.
Citation :
Publié par Lianai
Quand on compare la 3080 aux 2080 (je rappelle que ça remplace ce modèle, pas la 2080 Ti), le boost de performances est quand même énorme. Ce n'est pas à toutes les générations que l'on a un gain de 50% et plus entre deux cartes d'un même segment et ce n'est pas simplement en poussant la fréquence qu'on y arrive. D'ailleurs, je te rappelle que la fréquence boost de la 2080 est exactement la même que la 3080 à savoir 1710MHz et pas mal de modèles custom ont un boost plus élevé que les meilleures 3080. Faut savoir rester objectif Antho
Plus que la fréquence il faut surtout regarder la conso.
2080 = 220w = 100%
3080 = 320w = 145% de conso pour 165% de perfs

Donc oui le gain d'efficacité énergétique apporté par Ampere est loin d'être enthousiasmant, en fait il est inférieur au passage de Pascal à Turing, pourtant si décrié.
Et il est encore moins enthousiasmant quand on fait la comparaison à GPU égal càd avec la 2080TI, les deux ayant le gros GPU xx102 (d'où l'absence de 3080TI, d'où le peu de gains qu'apporte une 3090).
2080TI = 250w = 100%
3080 = 320w = 128% de conso pour 135% de perfs

Bref je suis d'accord avec Anthodev. Autant sur les gen précédentes on avait l'impression que nvidia avait de la marge, là on a l'impression qu'ils ont donné le max.
Et le fait de mettre le gros GPU 102 sur une xx80 n'est imo pas anodin, ce n'est pas arrivé depuis Fermi. Certes l'acheteur s'en fout, mais le fait que nvidia ait monté d'un cran ses cartes en terme de GPU (3070 sur GA104 et 3080 sur GA102 vs 2070 sur TU106 et 2080 sur TU104) tout en baissant les prix signifie moins de marges et je ne pense pas qu'ils rognent sur leurs marges pour faire plaisir aux gamers.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés