[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Borh
Ah.
Perso, je vais attendre que GamerNexus en parle. Je ne donne plus du tout le moindre crédit à Linus.
Ridicule qu'il fasse une vidéo "I'm done covering NVidia" après avoir fait une vidéo de pub complètement bidon pour le gaming en 8k avec la 3090
Oh, le pire c'est qu'il en dit du bien de la carte et incite les gens à l'acheter.

Non, il parle de la politique de nvidia vis à vis des partenaires industriels. Je ne sais pas si GN ou HU aborderont le sujet ou se concentreront sur les benchs.
Citation :
Publié par Aloïsius
Oh, le pire c'est qu'il en dit du bien de la carte et incite les gens à l'acheter.

Non, il parle de la politique de nvidia vis à vis des partenaires industriels. Je ne sais pas si GN ou HU aborderont le sujet ou se concentreront sur les benchs.
Ils ont déjà fait le coup en effet sur les premières 30XX.

Non seulement ils donnent les blueprint assez tard aux autres fabricants, mais en plus leur NDA saute quelques jours après celui de Nvidia.
Résultat, quand la carte sort, les seules reviews disponibles sont celles de la Founders Edition, donc si tu achètes une autre marque, tu achètes à l'aveugle.
Mais en plus, à part coup de génie, les premières cartes des autres fabricants seront moins optimisées car manque de temps en R&D pour sortir quelque chose de très intéressant.

Forcément en favorisant leur propre build, ils gagnent en marge, mais c'est vrai un bon coup de putes.

Reste à espérer que les nouvelles AMD soient compétitives avec les RTX 30XX, auquel cas les fabricants se feront une joie de mettre le paquet dessus pour faire un bon doigt aux p'tis hommes verts.
A priori, sur les 3080 et 3090, la majorité des modèles custom, en tout cas des marques genre Asus, MSI, EVGA, sont meilleures que les FE, donc la stratégie marche pas super.
Citation :
Publié par Borh
A priori, sur les 3080 et 3090, la majorité des modèles custom, en tout cas des marques genre Asus, MSI, EVGA, sont meilleures que les FE.
Mais à quel prix ?
Si ces cartes sont vendues bien plus chères que les FE, ça peut aussi être parce qu'ils sont obligés de "blinder" à l'aveugle les caractéristiques.

Après, je ne sais pas si AMD va faire mieux de ce côté : jusqu'au dernier moment ils ont filé des drivers "bidons" aux customs par exemple, ce qui n'est pas forcément l'idéal pour calibrer le refroidissement ou l'électronique d'une carte.
Citation :
Publié par Aloïsius
Mais à quel prix ?
Si ces cartes sont vendues bien plus chères que les FE, ça peut aussi être parce qu'ils sont obligés de "blinder" à l'aveugle les caractéristiques.

Après, je ne sais pas si AMD va faire mieux de ce côté : jusqu'au dernier moment ils ont filé des drivers "bidons" aux customs par exemple, ce qui n'est pas forcément l'idéal pour calibrer le refroidissement ou l'électronique d'une carte.
Oui d'ailleurs coté hardware pour les cartes Big Navi je me fais pas de soucis, je pense qu'AMD va taper fort.

La crainte que j'ai se situe habituellement plus au niveau des drivers chez AMD.
Citation :
Publié par Anthodev
Nvidia serait en train de préparer deux nouveaux modèles en urgence, une 3070Ti (basé sur l'archi de la 3080) et une 3080Ti (ce qui est différent de la dernière rumeur qui parlait juste d'une déclinaison 16Go pour la 3070 et 20Go pour la 3080) :

(6800XL = Navi21 XL = RX 6800, pas la XT)


Bref Nvidia en panic mode face à AMD il semblerait.
Ben s'ils pouvaient surtout produire les modèles soit disant existants ça serait un bon début en fait.

J'ai vu quelques revues de la 3070:

  • Equivalent à une 2080Ti pour les jeux
  • Plus puissant qu'une 2080Ti pour l'applicatif
  • Deux fois moins chère
Du coup c'est quand même une super carte. Et visiblement la FE, que personne n'aura, est très très bien niveau ventilation.

Du coup j'envisagerais presque de prendre une 3070 mais la 3080 donne quand même 50% de perfs en plus dans flight simulator ce qui est important pour moi vu que les produits qui m'intéressent (pmdg, majestic, fsl) vont faire chuter les dites perfos.

En tous cas maintenant j'ai tout mon temps, je me suis mis à jouer à Dead Cells et il tourne sans aucun problème juste sur mon CPU.

Sinon Linus est revenu sur la politique de Nvidia envers ses partenaires et il ne mâche pas ses mots:

Il n'est toujours pas possible de publier des revues sur les cartes des partenaires, ceux - ci n'ont pratiquement eu aucun temps pour préparer leurs cartes, ils ont généralement les drivers après les YT ... c'est comme si nvidia était en compétition ouverte avec ses propres partenaires alors qu'il s'agit de leurs cartes. Je ne sais pas ce qu'il se passe exactement au niveau du management mais c'est comme si nvidia faisait tout pour se tirer une balle dans le pied avec ce lancement. Avec AMD en embuscade ça risque juste de les pousser dans les bras du concurent.
Citation :
Publié par Aloïsius
Mais à quel prix ?
Si ces cartes sont vendues bien plus chères que les FE, ça peut aussi être parce qu'ils sont obligés de "blinder" à l'aveugle les caractéristiques.
Hors explosion à cause de la pénurie, la différence de prix entre custom et FE est du même ordre que pour les précédentes générations, donc entre 0 et 25% de plus environ avec quelques exceptions genre les Kingpin qui sont dans une catégorie clairement à part. Du moins, ce fut le cas au lancement avant que tout ne parte.

Alors il est vrai qu'on avait aussi quelques modèles d'entrée de gamme un poil moins onéreux que les FE sur les 1080+ et peut-être 2080+, mais je n'ai pas vraiment l'impression que l'on a ce genre de cas ici. Même les 3080 les moins chères ont de gros systèmes de refroidissement alors que c'est souvent la partie délaissée sur les entrées de gamme.

Dernière modification par Lianai ; 27/10/2020 à 16h28.
Avis d'un propriétaire de CG AMD depuis plusieurs années (j'en suis a ma 3eme d’affilée) : Nvidia est trop bien ancré chez les gamers et les boites de JVs pour qu'AMD fasse le même holdup qu'avec Intel.

En plus y'a bien trop de jeux optimisés avec le cul chez AMD alors que chez Nvidia çà tourne impec.
J'ai reinstall Witcher 3 : Pas de hairworks, tourne moins bien sur une RX 5700 XT que sur une 2060S.
J'ai voulu retester Guild Wars 2 : impossible de dépasser les 40 FPS, après recherche sur forums divers -> drivers AMD merdiques.
On m'a offert Fallout 76 () comme il était en promo et que je suis fan de Fallout, çà tourne pas terrible et encore une fois il semble que ce soit lié aux drivers AMD.
Dota Underlords fait monter la CG en température et le ventilo aussi haut que si j'essayais de faire tourner Crysis en 4K/ultra...

Bref, j'en ai ma claque de leurs conneries, je vais RMA la CG a la seconde ou je mets la main sur une 3070 et je prends plus jamais de CG AMD.
Citation :
Publié par Matharl
Avis d'un propriétaire de CG AMD depuis plusieurs années (j'en suis a ma 3eme d’affilée) : Nvidia est trop bien ancré chez les gamers et les boites de JVs pour qu'AMD fasse le même holdup qu'avec Intel.

En plus y'a bien trop de jeux optimisés avec le cul chez AMD alors que chez Nvidia çà tourne impec.
J'ai reinstall Witcher 3 : Pas de hairworks, tourne moins bien sur une RX 5700 XT que sur une 2060S.
J'ai voulu retester Guild Wars 2 : impossible de dépasser les 40 FPS, après recherche sur forums divers -> drivers AMD merdiques.
On m'a offert Fallout 76 () comme il était en promo et que je suis fan de Fallout, çà tourne pas terrible et encore une fois il semble que ce soit lié aux drivers AMD.
Dota Underlords fait monter la CG en température et le ventilo aussi haut que si j'essayais de faire tourner Crysis en 4K/ultra...

Bref, j'en ai ma claque de leurs conneries, je vais RMA la CG a la seconde ou je mets la main sur une 3070 et je prends plus jamais de CG AMD.
Le point faible d'AMD, c'est le software. Y a les drivers mais aussi toutes les collaborations avec les développeurs, NVidia est vraiment très impliqué, mais pas AMD. Et sur les CPU, je pense que c'est moins grave que sur les GPU si y a pas de bons ingénieurs softwares.
Encore on parle des jeux vidéos, mais les programmeurs de jeux vidéos sont capables de se démerder même sans un soutien software de la part d'AMD.
Mais dans mon domaine pro, c'est NVidia ou rien, tout simplement parce que NVidia aide les développeurs ils vont pas s'emmerder à optimiser AMD tous seuls. Parce que soit c'est du logiciel libre, et vu qu'il y a aucun intérêt commercial, les développeurs s'emmerdent pas à optimiser pour toutes les machines, soit c'est commercial et propriétaire, et le software est souvent vendu avec la machine.
Je ne vois pas l'intérêt pour Linus de faire une vidéo pour défendre ces pauvres constructeurs de cartes custom.

Avant, il y avait une période où seules les cartes standards étaient dispo et les customs n'arrivaient que plus tard.
Puis il y a eu l'arrivée des FE et les cartes standard ont été de moins en moins présentes.
Maintenant, on se retrouve avec les cartes customs qui arrivent en même temps que (ou très peu de temps après) les FE.
Et je suspecte très fortement qu'il y a un important rôle des constructeurs pour en être arrivé là.

L'intérêt d'avoir les tests des cartes de base en premier, c'est qu'on a les perf "nominales" de la puce. Une base de référence pour comparer aux modèles customs ET aux autres cartes.
L'intérêt d'avoir les tests des autres cartes ensuite, c'est que finalement la seule info importante est les gains (perf, temp, silence, OC) par rapport à la carte de base. Ce qui est beaucoup plus facile à digérer qd il faut multiplier ça par le nombre de modèles.

On va me dire que c'est possible d'avoir toutes ces info d'un coup, pas besoin de les avoir en décalé.
SAUF que :
- trop d'info d'un coup réduit la lisibilité des tests (comparer la nouvelle génération avec la précédente et les concurrents est déjà suffisamment à digérer sans multiplier à l'excès les variations pour un même modèle)
- beaucoup de testeurs n'arriveront jamais à tester correctement plus de cartes en même temps (beaucoup n'arrivent pas à terminer le test des FE pour la levée des NDA, alors avoir plus de références à tester...)

Du coup, si c'est pour avoir des info plus confuses, issues de tests bâclés, je trouve que ça ne vaut clairement pas le coup.
Si on veut s'assurer d'avoir les tests des customs pour leur sortie, j'aime autant un retour à une sortie plus décalée dans le temps des customs plutôt qu'une levée de NDA commune. En plus ça réglerait l'autre problème du manque de temps pour la conception.
Mais je doute que les constructeurs fassent tout ça pour une évolution dans ce sens.
Citation :
Publié par Matharl
Avis d'un propriétaire de CG AMD depuis plusieurs années (j'en suis a ma 3eme d’affilée) : Nvidia est trop bien ancré chez les gamers et les boites de JVs pour qu'AMD fasse le même holdup qu'avec Intel.

En plus y'a bien trop de jeux optimisés avec le cul chez AMD alors que chez Nvidia çà tourne impec.
J'ai reinstall Witcher 3 : Pas de hairworks, tourne moins bien sur une RX 5700 XT que sur une 2060S.
J'ai voulu retester Guild Wars 2 : impossible de dépasser les 40 FPS, après recherche sur forums divers -> drivers AMD merdiques.
On m'a offert Fallout 76 () comme il était en promo et que je suis fan de Fallout, çà tourne pas terrible et encore une fois il semble que ce soit lié aux drivers AMD.
Dota Underlords fait monter la CG en température et le ventilo aussi haut que si j'essayais de faire tourner Crysis en 4K/ultra...

Bref, j'en ai ma claque de leurs conneries, je vais RMA la CG a la seconde ou je mets la main sur une 3070 et je prends plus jamais de CG AMD.
The Witcher 3 et Guild Wars 2 viennent d'une époque où c'était Nvidia ou rien en CG, la plupart des jeux favorisaient fortement Nvidia, ce qui est devenu moins vrai ces dernières années (l'un des derniers cas flagrant est FF XV). De même que les collab de studio avec AMD sont de plus en plus nombreux (Ubisoft, Take-Two, Capcom, ID Sotware, EA).

Concernant Fallout 76, il est juste codé avec le cul, quelque soit la plateforme/matos.

Même en regardant les review des 3070, quand tu regarde les scores de la 5700XT aujourd'hui, elle est en moyenne au niveau de la 2070S sur une très grande partie des titres (et quelques fois un peu en-dessous, parfois au niveau d'une 2080).

En tout cas la situation s'est pas mal améliorée quand même, de plus il faut prendre en compte que les archis des consoles nextgen sont très proches de l'archi desktop, ce qui pourrait jouer pour lisser les différences de performance entre Nvidia et AMD.

Perso j'hésite encore, ça dépendra de ce que présentera AMD et du MSRP (et la disponibilité).
Citation :
Publié par Lianai
3DMark 1080 Ti 3080 Gain
Time Spy 10 220 15880 55%
Port Royal / 11111 /
Bon, j'ai enfin pu m'installer ma 3080 et mon alim.

Résultats
Time Spy : 11717 (GPU : 11579)
Port Royal : 11603

Donc j'ai clairement un truc qui va pas et c'est confirmé quand je regarde les capteurs de HW Info.
Sur Port Royal, ma température max monte à 72° et ma consommation à 367W ce qui me paraît normal.
Sur Time Spy, ma température max monte à 60° et ma consommation à 242W ce qui est totalement anormal sur cette carte, en dessous de ce que ça devrait être en charge...
Pourtant la fréquence GPU est à 1965MHz sous Time Spy donc je comprends pas trop ce qui se passe.

Une idée d'où pourrait venir le problème ?
J'ai bien les derniers drivers...

Edit : RDR2 1440p ultra (première barre poussé au max sans rien toucher d'autre) : 87fps de moyenne. Température max : 64°, conso max : 378W, ce qui me paraît normal.
Au moins, j'ai l'impression qu'en jeu ça va. Mais j'aimerais bien piger pourquoi ce soucis sur Time Spy...

Dernière modification par Borh ; 27/10/2020 à 22h27.
Citation :
Publié par Borh
Edit : RDR2 1440p ultra (première barre poussé au max sans rien toucher d'autre) : 87fps de moyenne. Température max : 64°, conso max : 378W, ce qui me paraît normal.
Au moins, j'ai l'impression qu'en jeu ça va. Mais j'aimerais bien piger pourquoi ce soucis sur Time Spy...
Résultat normal pour RDR2. J'ai 85 fps, mais avec une limitation dans les 320W par MSI (vivement que je trouve un bios qui débloque le power limit).

Pour Time Spy, je t'avoue que je ne comprends pas. Tu as bien la fréquence du mode 3D, mais c'est comme si le power limit était énormément diminué, ce qui n'a pas de sens. Au cas où, tu as le gsync d'activé dans les drivers ? Si c'est le cas, tu peux toujours tester sans, même si je doute fortement que cela aide.
Citation :
Publié par Lianai
Résultat normal pour RDR2. J'ai 85 fps, mais avec une limitation dans les 320W par MSI (vivement que je trouve un bios qui débloque le power limit).

Pour Time Spy, je t'avoue que je ne comprends pas. Tu as bien la fréquence du mode 3D, mais c'est comme si le power limit était énormément diminué, ce qui n'a pas de sens. Au cas où, tu as le gsync d'activé dans les drivers ? Si c'est le cas, tu peux toujours tester sans, même si je doute fortement que cela aide.
Oui, j'ai désactivé GSync, ça change rien.
J'ai essayé Shadow of the Tomb Raider, je suis à 125fps. Tu étais à 126, donc ça me paraît normal.
En settings, j'ai juste mis en préréglage très haut (le max), rien touché d'autre (pas de RTX, pas de DLSS, TAA), c'est comme toi ?

Je vais me prendre Control. C'était quoi tes réglages ?
Citation :
Publié par Borh
Oui, j'ai désactivé GSync, ça change rien.
J'ai essayé Shadow of the Tomb Raider, je suis à 125fps. Tu étais à 126, donc ça me paraît normal.
En settings, j'ai juste mis en préréglage très haut (le max), rien touché d'autre (pas de RTX, pas de DLSS, TAA), c'est comme toi ?

Je vais me prendre Control. C'était quoi tes réglages ?
Je viens de refaire un coup de Tomb Raider et j'ai la même chose que toi :

SOTTR.png

Pour Control, il n'y a pas de benchmark intégré au jeu. J'ai juste cherché où je pouvais passer du mode avec ou sans RTX et que cela ait un impact assez tôt au début du jeu. Par chance, à l'extérieur du bureau où l'on récupère notre arme, il y a des vitres avec un éclairage important. En passant les deux trois cinématiques, ça prend à peine 10 minutes.

Pour t'aider à te repérer sur l'endroit et pour que tu puisses comparer :

Tout à fond
Control3080.jpg

Tout à fond RTX max
Control3080-RTXMAX.jpg

Tout à fond RTX max + DLSS 720p (ce qui explique pourquoi c'est un peu crade)
Control3080-RTXMAX+DLSS720.jpg.png
Bon, au moins en jeu, ça a l'air d'aller donc c'est le principal. J'aimerais juste comprendre pourquoi Time Spy me fait ça.
Tu as essayé Time Spy Extreme ? Quel est ton score ?
Alors effectivement, j'ai 8679 sous Time Spy Extreme avec un Graphic score à 9006. La conso monte à 380W.

D'ailleurs j'entends très bien les ventilos de la carte graphique sous Time Spy Extreme, mais à peine sous Time Spy.

Bon, c'est pas grave, je laisse tomber, je vais partir du principe que c'est Time Spy qui a un soucis et pas ma carte graphique.
Je réessaierai quand il y aura de nouveaux drivers.
Je parlais juste des 1000 points de plus sur le score global et là je comprends mieux la différence.

Pour les 9000 du GPU score, c'était ce que je prévoyais vu ton modèle, donc tu es pile poil dans la normale. Par contre, 60W de plus dans les gencives pour même pas 400 points en plus sur Time Spy Extreme, c'est violent quand même. 20% de conso en plus pour 5% de gain sur le score, ça pique
Je vais faire des essais d'overclocking et d'undervolting plus tard. Malheureusement je reprends le boulot demain, donc je vais avoir moins de temps. Frustrant d''avoir reçu mon alim au soir de mon dernier jour de congé.

Edit : en fait plus que les 400 points sur Time Spy Extreme, c'est plutôt les fps identiques sur RDR2 et Tomb Raider qui me font penser que ça vaut le coup d' undervolter.

Dernière modification par Borh ; 28/10/2020 à 00h31.
1er test d'OC ce matin, j'ai mis +147MHz (au pif). Je passe à 9035 sur Time Spy Extreme avec un Graphic score à 9445.
La conso passe à 436W mais étrangement, la température est bien contenue à 66°.


Bon, je compte pas du tout rester sur consommation aussi délirante en temps normal, mais c'est par curiosité. Pas le temps d'aller plus loin ce matin... Curieux de voir jusqu'où ça peut monter.

J'ai testé aussi Time Spy tout court, je suis à 11748, c'est à dire pas le moindre gain et la conso reste bloquée à 250W malgré mon OC. Donc y a un truc qui bride ma carte graphique sur Time Spy.

Dernière modification par Borh ; 28/10/2020 à 08h01.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés