[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
La mauvaise blague, c'est que le premier quote publié sur la page dédiée au DLSS sur le site de Nvidia, c'est celui de Hardware Unboxed "Extremely impressive".

Pièce jointe 664808

C'est quand même cocasse d'accuser un youtuber de ne pas se concentrer sur ses nouvelles technos, mais d'avoir un quote venant de lui sur justement une de ces dernières technos.

Linus a vu les vidéos de HU sur la 3080 et les résultats de ses benchmarks pour les 6900XT. Effectivement, il ne parle pas de RTX dans son test des 3080, mais précise en conclusion qu'une vidéo spéciale lui sera dédiée, et c'est effectivement ce qu'il a fait avec un retour globalement très positif de sa part. Et pour encore plus prouver qu'il ne délaisse pas les nouvelles technos de Nvidia, il a mis les résultats sous DLSS des nvidia avec ceux des 6900XT en résolution native, ce qui se traduit forcément par une victoire écrasante des nvidia. Pour le coup, c'est AMD qui devrait envoyer un mail pour parler de test "unfair".

Mais au-delà de tout ça, comme tu le dis @Aloïsius, ces youtubers n'avaient pas d'autre choix que de réagir. Déjà parce que ce mail les fait effectivement passer pour des vendus, mais aussi parce qu'en tant que que "créateurs de contenus", voir un entreprise tenter de briser la carrière d'un "collègue", ça ne passe pas. Parce qu'en refusant d'envoyer une Founder Edition à HU, c'est la même chose que lui dire "tu ne feras pas de vues sur la sortie de nos nouvelles cartes." Car s'il est vrai que Nvidia l'autorisait à recevoir les cartes des partenaires AIB (EVGA, MSI, Asus etc.), il faut garder à l'esprit qu'elles sont envoyées plusieurs jours après avec un embargo plus lointain, donc même si c'est intéressant, c'est déjà trop tard, les vues sont parties ailleurs. C'est aussi ça qui a foutu Linus en colère, parce qu'en agissant comme des mafieux Nvidia voulait porter atteinte à la vie personnelle de HU, en lui sucrant indirectement, mais volontairement, une partie de ses revenus. Du coup, le "t'inquiète pas, on te laisse la possibilité de tester les cartes customs et puis tu auras accès aux drivers pre release comme avant" pour jouer le bon samaritain alors qu'il sait très bien que ça va lui sucrer des milliers de vues, ça fait très clan mafieux. Que Nvidia blacklist des youtubers, c'est son droit, mais la manière dont il fait ça est à gerber.

Je crois que Jayz2cents explique dans sa vidéo que dans un cas précédent, c'est carrément un partenaire genre EVGA qui avait contacté Nvidia pour dire qu'ils étaient allés trop loin.

Tant mieux si tout cela se termine bien pour HU, mais il va falloir qu'ils soient tous vigilants, parce que d'après Jayz2cents et Linus, Nvidia est devenu bien moins réglo avec les youtubers techno ces dernières années. Jayz2cents explique d'ailleurs dans sa vidéo que Nvidia l'a blacklisté pour la 3090 parce qu'il avait osé critiquer ce dernier sur le classement de la Titan en tant que carte gamer alors que c'était clairement une carte pro. Fait comique, Nvidia a bien changé sa manière de présenter la Titan par la suite en ne faisant plus référence aux joueurs.

Va vraiment falloir un coup de pied dans la fourmilière chez Nvidia avant que ça ne parte en cacahuètes.

Dernière modification par Lianai ; 13/12/2020 à 04h31.
Citation :
Publié par Metalovichinkov
C'est pas la première fois, pourquoi ça fait tout un foin maintenant?

La dernière fois pour les RTX 2000 (ou GTX 1000? ça sort tellement vite...) c'était déjà le cas mais j'sais plus quel site, HardOCP p'tetre?
NVidia avait en gros envoyé un protocole de test en plus des cartes et le site banni des petits papiers ne voulait pas s'y plier. Résultat des courses ils ont fait un édito pour expliquer pourquoi le test ne serait pas dispo le jour de la sortie et qu'ils se procureraient des cartes du commerce.

EDIT : En fait c'était un problème de NDA et c'est bien HardOCP qu'a refusé de signer et s'est fourni ailleurs Source
Je me rappelle pas ce que j'ai posté deux heures avant mais je me rappelle de ce genre de conneries, mémoire à selection aléatoire à la con
Oui mais du coup, ils avaient sorti avant tout le monde les problèmes de fiabilité des 2080Ti, car les 2 premiers modèles qu'ils ont acheté étaient défectueux.
Honnêtement, je ne pense pas que ce genre de ban soit très malin. Et je ne pense pas que ça va nuire à HU.
De toute façon, les tests de HE, ce n'est qu'une toute petite minorité de vidéo, certes ils feront moins de vues là dessus, mais il y a tout le reste.
Citation :
Publié par Anthodev
Perso j'ai gagné 6-8 FPS avec mon 3700X. C'est quand même abusé ce type d'oversight.
J'ai testé, vu que j'ai le même CPU que toi, et s'il est vrai que j'ai un gain, il est plus faible que chez toi. Je dois avoir un gain moyen de 4 ou 5 fps max, ce qui est déjà bon à prendre quoi qu'il arrive. Possible que ce soit dû fait que j'active le ray tracing et qu'il a un impact tel que ça rend le gain sur le CPU plus marginal.
Sinon cyberpunk démontre que le DLSS est vraiment impressionnant on peut doubler les fps sans perdre en qualité, c'est pour moi le plus gros gain de perf depuis bien longtemps sur les cartes graphiques. Rien qu'avec çà Nvidia est très loin devant AMD.

J'ai testé, je joue en 1440 avec une 2080 tout en ultra et ray tracing on. Sans DLSS j'ai 10/15 fps et avec je suis à 50.
Les temps changent énormément. C'est dingue le nombre de gens qui veulent claquer des thunes.
Même sur un ordinateur portable, uniquement sur l'iGPU, ça me saoûlerait vite de jouer à 10-15 fps alors que je le supportait il y a à peine une dizaine d'années.
Maintenant on trouve normal de claquer 800-1000€ pour une technologie qu'il faut activer manuellement pour dépasser ça.
J'ai l'impression qu'il n'y a plus de bons jeux qui fonctionnent avec des cartes à moins de 400€.
Citation :
Publié par Christobale
Sinon cyberpunk démontre que le DLSS est vraiment impressionnant on peut doubler les fps sans perdre en qualité, c'est pour moi le plus gros gain de perf depuis bien longtemps sur les cartes graphiques. Rien qu'avec çà Nvidia est très loin devant AMD.

J'ai testé, je joue en 1440 avec une 2080 tout en ultra et ray tracing on. Sans DLSS j'ai 10/15 fps et avec je suis à 50.
Alors perso, en laissant le DLSS en auto, je trouve assez laid (bon j'imagine que la qualité change en fonction des fps). Faut que je mette le DLSS en qualité pour que ce soit équivalent à sans DLSS mais c'est vrai que rien qu'avec ça, les gains sont très importants.
En gros, sur une scène d'intérieur, les moins gourmandes, tout à fond en 1440p, avec ma 3080, je suis à 30-35fps sans DLSS, 60-70fps avec DLSS qualité. C'est le double. Et à l'oeil, je ne vois pas de différence.


Sinon, pour ceux qui ont Cyberpunk, est-ce que vous avez essayé d'y jouer en fenêtré en faisant tourner une vidéo à côté sur le même écran ? Perso, non seulement le jeu se met à avoir des micro freezes, mais la vidéo est super saccadée...
Citation :
Publié par Ryu Seiken
J'ai l'impression qu'il n'y a plus de bons jeux qui fonctionnent avec des cartes à moins de 400€.
Une 5700 XT fait tourner le jeu en ultra en 1080p, donc probablement en High en 1440p. Une 2060 peut faire tourner le jeu en ultra en 1440p avec le DLSS activé sur équilibré (perte qualitative faible), donc tu perds juste le ray tracing et même sans le jeu reste franchement beau.

Par contre accepter de jouer à 10 ou 15 fps, je crois que j'ai abandonné l'idée il y a plus de 20 ans de ça

Il y a 20 ans, j'acceptais de jouer à 25 fps, mais pas moins.
Idem, enfin j'ai jamais accepté de jouer à un framerate plus bas que sur console sauf certains passages sur certains jeux (genre le pvp à 80 vs 80 vs 80 sur Guild Wars 2, comme tout le monde balance des papillons de lumière j'accepte de voir mon pc décéder) mais sinon je vois pas l'intérêt de jouer à 20 fps, autant jouer sur console ça revient moins cher.
Citation :
Publié par Ryu Seiken
Les temps changent énormément. C'est dingue le nombre de gens qui veulent claquer des thunes.
Même sur un ordinateur portable, uniquement sur l'iGPU, ça me saoûlerait vite de jouer à 10-15 fps alors que je le supportait il y a à peine une dizaine d'années.
Maintenant on trouve normal de claquer 800-1000€ pour une technologie qu'il faut activer manuellement pour dépasser ça.
J'ai l'impression qu'il n'y a plus de bons jeux qui fonctionnent avec des cartes à moins de 400€.
Va falloir s'y habituer, ce n'est pas comme si on le rabâchait régulièrement qu'on n'avait pas de ressources illimités.
C'est plutôt le comportement de consommateurs digne d'enfants pourris gâtés à vouloir tout, tout de suite et pour pas cher qui est inquiétant.

Et effectivement, même le marché de l'occasion a bien grimpé sur d'anciens modèles.
60 fps en 1440 sur une 3080, qui est supposée pouvoir sortir ça (sans DLSS ni RT) en 4K, c'est quand même un gros problème d'optimisation. Enfin clairement le jeu il est pas fini, j'espère juste que les reviewers attendront quelques mois avant de l'ajouter à leurs benchmarks parce que là ça n'aurait aucun sens.
Citation :
Publié par Ryu Seiken
Nan mais ce que je comprends pas, c'est mettre 1000-2000€ pour un jeu. Bon après, si t'as trop de sous et que tu sais pas quoi en faire, effectivement ...
C'est rarement pour un jeu. Le jeu n'est qu'un facteur déclencheur, pas une fin en soi puisque le PC sera utilisé pour d'autres jeux par la suite. J'ai claqué pas loin de 800 balles sur ma 3080, elle va être mise à contribution sur tous les jeux à venir, pas que sur Cyberpunk 2077 et c'est pareil pour quasiment tout le monde.
Citation :
Publié par Ryu Seiken
Nan mais ce que je comprends pas, c'est mettre 1000-2000€ pour un jeu. Bon après, si t'as trop de sous et que tu sais pas quoi en faire, effectivement ...
C'est ce que je conseille aux gens perso. Faire une upgrade "au cas où" c'est un bon moyen pour perdre des thunes. Récemment, le mec qu'a acheté une RTX 2080Ti à 1300€ "pour les jeux futurs" bah il l'a bien profond, même aujourd'hui avec les prix délirants du moment il aurait économisé 300€ à acheter une 3080.
Ou encore tous les mecs qui ont fait une config de ouf pour Star Citizen, d'ici à ce que le jeu sorte la config sera moins puissante qu'un smartphone.

Du coup ouais, je conseille aux gens de changer quand ils en ont vraiment besoin, et faire tourner un jeu en particulier c'est s'assurer d'être satisfait du résultat.
Amusant ce débat sur les fps, fut un temps, c'était l'exact inverse, c'étaient les consoles qui étaient à 60fps (enfin 50fps sur nos télés PAL/SECAM) et les ordinateurs qui étaient à 30fps voire moins.
Perso, j'ai connu les jeux vidéos en colonie de vacances, y avait une Sega Master System et un Atari ST. A l'époque, j'avais pas la moindre culture de ce qu'étaient de beaux graphismes ou une animation fluide. Mais sur Atari ST, les jeux étaient beaucoup plus beaux, plus fins, plus colorés, et sur Master System les graphismes étaient beaucoup plus simples mais ça tournait à 50fps. Bah je passais tout mon temps à jouer à la Master System, je trouvais ça beaucoup plus agréable à jouer, à mon retour chez moi, j'en voulais une et je voulais pas un Atari ST.

En fait, maintenant ça me dérange un peu de jouer en 30fps, mais pas tant que ça. Mais il me semble qu'à l'époque de l'Amiga ou de l'Atari ST, les jeux d'arcade tournaient à moins. Quand je vois des vidéos de Xenon 2 qui était sensé être le nec plus ultra du shoot'em up sur ordinateur, je sais pas à combien ça tourne, mais je dirais 20fps maximum, peut-être 15fps. Comparé aux contemporains sur console comme Gunhed sur PC Engine, ça fait mal. Et pourtant c'était considéré comme le top, ça ne dérangeait pas les joueurs Amiga ou ST..
Citation :
Publié par Borh
Amusant ce débat sur les fps, fut un temps, c'était l'exact inverse, c'étaient les consoles qui étaient à 60fps (enfin 50fps sur nos télés PAL/SECAM) et les ordinateurs qui étaient à 30fps voire moins.
Perso, j'ai connu les jeux vidéos en colonie de vacances, y avait une Sega Master System et un Atari ST. A l'époque, j'avais pas la moindre culture de ce qu'étaient de beaux graphismes ou une animation fluide. Mais sur Atari ST, les jeux étaient beaucoup plus beaux, plus fins, plus colorés, et sur Master System les graphismes étaient beaucoup plus simples mais ça tournait à 50fps. Bah je passais tout mon temps à jouer à la Master System, je trouvais ça beaucoup plus agréable à jouer, à mon retour chez moi, j'en voulais une et je voulais pas un Atari ST.
La suite de l'histoire est que Sega a continué à croître alors que Atari existe encore à peine en mode ombre d'une ombre. Maintenant, je sais à cause de qui !
Citation :
Publié par Anthodev
C'était évident que ça allait se passer de cette manière.

Ils n'avaient pas vraiment le choix, reste que le mal est fait. Là ça a fonctionné parce que HU est un reviewer assez connu, mais du coup ils l'ont fait combien de fois à des reviewers moins importants ?

Sinon sur un autre sujet, un autre élément montrant que Cyberpunk 2077 a été rushé, le jeu n'est pas optimisé pour les CPU AMD, en fait c'est même pire, les coeurs logiques des CPU sont ignorés, forçant les coeurs physiques à faire tout le boulot. Chose encore plus con, ça se règle facilement en éditant simplement une valeur hexa sur l'exe :

Perso j'ai gagné 6-8 FPS avec mon 3700X. C'est quand même abusé ce type d'oversight.
J'ai testé, avec un 3700x et une 6800 je n'ai absolument rien gagné bizarrement, ça reste à ~40-50fps (en 4k).
Citation :
Publié par Anthodev
C'était évident que ça allait se passer de cette manière.

Ils n'avaient pas vraiment le choix, reste que le mal est fait. Là ça a fonctionné parce que HU est un reviewer assez connu, mais du coup ils l'ont fait combien de fois à des reviewers moins importants ?

Sinon sur un autre sujet, un autre élément montrant que Cyberpunk 2077 a été rushé, le jeu n'est pas optimisé pour les CPU AMD, en fait c'est même pire, les coeurs logiques des CPU sont ignorés, forçant les coeurs physiques à faire tout le boulot. Chose encore plus con, ça se règle facilement en éditant simplement une valeur hexa sur l'exe :

Perso j'ai gagné 6-8 FPS avec mon 3700X. C'est quand même abusé ce type d'oversight.
Comme dit dans l'autre sujet sur Reddit, je n'ai vu aucune différence sur mon 5900X
Mais c'est aussi stipulé que cela marche mieux sur les CPUs avec un CCX.
Citation :
Publié par Von
60 fps en 1440 sur une 3080, qui est supposée pouvoir sortir ça (sans DLSS ni RT) en 4K, c'est quand même un gros problème d'optimisation. Enfin clairement le jeu il est pas fini, j'espère juste que les reviewers attendront quelques mois avant de l'ajouter à leurs benchmarks parce que là ça n'aurait aucun sens.
Si j'inactive le RT, je suis à 80fps sans DLSS. En gros, c'est le RT à fond qui provoque une perte de 63% de performances.
Je crois qu'il faut se faire une raison, la 3080 est peut-être supposée sortir du 60fps en 4k, mais certainement pas avec le RTX à fond et sans DLSS.
Je ne crois pas que la 3080 soit faite pour de la 4k et du RTX à fond. Sur Control, en 4k + RTX sans DLSS, le jeu n'atteint pas les 30fps, et il y a beaucoup moins de choses à l'écran que dans Cyberpunk. Watchdog Legion qui utilise également fortement le ray tracing tournera pas non plus à 60fps en 4k sans DLSS si on active le RTX à fond.

On peut toujours gagné avec plus d'optimisation, mais faudra pas en attendre de miracles.

Par ailleurs faut aussi se méfier de la com de NVidia. La 3090 est sensée être pour la 8k, mais en réalité, sans DLSS, ça n'ira pas.

Dernière modification par Borh ; 13/12/2020 à 13h39.
Citation :
Publié par Suho
J'ai testé, avec un 3700x et une 6800 je n'ai absolument rien gagné bizarrement, ça reste à ~40-50fps (en 4k).
C'est normal.

En 4K, le facteur limitant, c'est ta carte graphique, donc peu importe ce que tu peux gagner avec ton CPU, tes performances seront limitées par les capacités de ton GPU.

Si tu veux voir une différence, c'est plus en 1080p et 1440p qu'il faut jouer, puisque c'est dans ces résolutions que le CPU est le plus facilement mis à mal.
Rhaa, j'ai trouvé une (voir deux) 3060 ti mais elle sont OC. Comme je suis plutôt parti pour refaire 2 config "long terme" et pas trop énergivore, j'me tâte fortement à la prendre ou pas.
Citation :
Publié par Talu
Rhaa, j'ai trouvé une (voir deux) 3060 ti mais elle sont OC. Comme je suis plutôt parti pour refaire 2 config "long terme" et pas trop énergivore, j'me tâte fortement à la prendre ou pas.
Toutes les cartes custom sont plus ou moins OC, tu peux au pire régler ça dans le software du fabricant si besoin.
Citation :
Publié par Talu
J'me tate du coup, en plus il m'en faut deux et ils refusent les commandes de plus d'une.
Utilise ton compte pour en commander une, et fais un compte à ta femme pour commander l'autre. Pour plus de surêté, utilise le tethering d'un smartphone sur la 2e commande pour que l'IP soit différente ^^
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés