[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par Anngelle Silverstar
Elle est légèrement plus grosse que la 3090 pour les founders , ensuite le problème vient des customs ou la c'est la démesure.
Eh bien même pas, elle est plus petite de 9 mm en longueur (304 mm contre 313) et 1 mm en largeur (137 mm contre 138) pour une hauteur identique (61 mm) et fait le même poids que la 3090 à 3 grammes près (2186g contre 2189).

Pour ce qui est de la faible consommation, ça a du sens vu que la carte se tourne les pouces dans les résolutions inférieures à la 4K. Ce serait un peu comme jouer en 720p avec une 3080. Je viens de tester avec la mienne, sur Cyberpunk 2077 tout à fond sans DLSS et avec le ray tracing en mode psycho, la CG reste autour de 190W. Ce qui est fou, c'est que la 4090 a exactement le même comportement, mais en 1440p.

Par contre, ce qui étonne, c'est l'utilisation du display port 1.4 au lieu du 2.0 avec comme excuse que le 1.4 peut déjà aller jusqu'à 8K 60Hz, mais en oubliant de mentionner que cela limite la 4K à 120Hz alors qu'avec le DLSS3 - et même sans sur certains jeux -, on peut déjà voir la 4090 monter bien au delà. Donc pour ceux qui veulent acheter une 4090 FE, n'achetez pas à côté un écran 4K 240Hz, ce serait du gâchis. Limitez-vous à un écran 4K 120Hz vu que la sortie vidéo ne peut pas proposer plus. Avoir les moyens de mettre 2000 balles dans une carte graphique, mais devoir se restreindre sur l'écran, c'est triste

Il en va de même avec l'utilisation du PCI-E Gen 4 au lieu de Gen 5. Alors oui, la bande passante est suffisante, mais c'est assez étonnant quand toutes les nouvelles plateformes proposent le pci-e gen 5. De plus, cela aurait permis de réduire le nombre de pci-e lanes utilisées pour en laisser davantage à d'autres périphériques, genre le stockage nvme.

À croire, comme suggéré par le test de LTT, que les 4090 sont en réalité produites depuis un petit moment (bien avant juillet) et qu'ils ont juste attendu soit pour liquider les stocks de RTX 3000, soit pour prendre le temps de réduire la consommation, soit pour créer suffisamment de stock à la sortie, voire un peu des trois à la fois.

J'attends de voir ce que AMD va nous sortir dans les prochaines semaines.
Oh bordel... on se croirait revenus à il y a peu quand les scalpers faisaient flamber les prix... mais en pire...
__________________

Dernière modification par Drys Kaine ; 12/10/2022 à 15h50.
La baisse de l'euro est dramatique pour nous. Parce qu'autant on peut critiquer le placement tarifaire des 4080, qui s'offre une belle envolée par rapport aux 3080, autant la 4090 reste assez proche avec juste une hausse de 100$, qui reste en réalité moins élevée que l'effet de l'inflation si on compare aux 3090 (prix de départ à 1499$ ce qui ferait environ 1700$ aujourd'hui). L'euro qui perd 20%, ça se répercute sur les prix et ça fait mal. Pour une 3090 FE vendue 1499$ HT aux US, on l'avait à 1599 TTC en France, mais aujourd'hui, la 4090 FE vendue à 1599$ HT est dispo à 1949 TTC en France, ça pique.
Blague du jour : les 4090 des partenaires ne semblent pas profiter de la limitation à 600W, ce qui rend encore plus débile cette démesure dans le système de refroidissement.


Les résultats sont quasi identiques entre l'Asus Strix et le Founder Edition pour une consommation similaire puisque l'overclocking se limite à 80 MHz au mieux et 65 en moyenne (ridicule quand la fréquence boost atteint 2740 MHz). Payer plusieurs centaines d'€ de plus pour une carte qui n'apporte strictement rien, c'est la lose vu qu'en plus il faut trouver le boîtier compatible.
Vous pigez pourquoi EVGA s'est cassé ?
Nvidia garde les specs de ses GPU secrètes jusqu'au dernier moment, ne filant que des infos partiels et susceptibles de révision à tout instant.
Les AIB ont été abreuvés de rumeurs, voire de mensonges, qui ont du reste fuité dans la presse. Au final, ils vont se retrouver avec des stocks délirants de cartes ridicules et invendables pendant que Nvidia va les défoncer.

Jansen se trouve certainement génial, et on sait que la "team vert" rêve de devenir l'Apple du GPU et de ne plus laisser le moindre cents de plus-value à MSI, Asus et les autres. Je ne suis pas certain que ce soit une bonne idée. On a vu lors de la tentative de rachat d'ARM ce que cette stratégie du "je suis le plus gros enfoiré du secteur" pouvait provoquer.

A voir si les AIB vont pouvoir refaire du gras avec AMD ou pas. Là, ils ne vont avoir que leurs yeux pour pleurer.
Citation :
Publié par Crowzer
Autant acheter une 3090 pour le prix d'une 4080 12 GB.
Une 4080 FE 12 Go qui fait juste entre 10 et 25% de plus que la 3080 alors qu'elle est vendue 1099€. Cela rend ma 3080 encore plus rentable vu que je l'ai payée moins de 800€ il y a 2 ans. Entre la baisse de l'euro et Nvdia qui se fait plaisir, cette génération est à éviter autant que possible.

Par contre, ça va devenir de plus en plus compliqué de trouver des 3090, encore plus à bon prix et Nvidia le sait très bien. Il reste le marché de l'occasion, mais pour une CG à ce prix là, ça reste un risque qu'il faut bien peser.
Citation :
Publié par Lianai
Une 4080 FE 12 Go qui fait juste entre 10 et 25% de plus que la 3080 alors qu'elle est vendue 1099€. Cela rend ma 3080 encore plus rentable vu que je l'ai payée moins de 800€ il y a 2 ans. Entre la baisse de l'euro et Nvdia qui se fait plaisir, cette génération est à éviter autant que possible.

Par contre, ça va devenir de plus en plus compliqué de trouver des 3090, encore plus à bon prix et Nvidia le sait très bien. Il reste le marché de l'occasion, mais pour une CG à ce prix là, ça reste un risque qu'il faut bien peser.
DLSS3, la main feature des RTX 4000, peut éventuellement (désolé du pléonasme mais c'est à prendre avec des pincettes) marcher sur les anciennes cartes de type RTX 2000. Enfin selon un utilisateur de Reddit même si pour l'instant c'est pas stable ça promet :

112148-1665659531-8043.png

Mais comme ce dit utilisateur n'a rien montré, c'est possible que cela soit des salades.
Citation :
Publié par Crowzer
Mais comme ce dit utilisateur n'a rien montré, c'est possible que cela soit des salades.
En fait, au niveau hardware, les RTX 2000 et 3000 sont tout à fait capables de faire de l'injection de frames générées par le gpu, mais d'après le vice président du département de recherche dédié au deep learning de Nvidia, le gain en performance serait marginal, voire inférieur au DLSS 2, que cela entraînerait des ralentissements et surtout, le rendu ne serait pas aussi qualitatif. Difficile de savoir si c'est vrai ou si c'est du bullshit pour pousser à l'achat des RTX 4000, sauf si un hack prouve justement que c'est faisable, que c'est visuellement identique et que le gain en perfs est significatif.

Du coup, cela ne m'étonnerait pas que quelqu'un ait réussi à faire fonctionner le DLSS 3 sur une RTX 2070. Les prochaines semaines seront à suivre pour les possesseurs de RTX 2000 et 3000 parce que si on peut facilement profiter du DLSS 3, cela va rendre les RTX 4000 encore plus inintéressantes financièrement.
Citation :
Publié par Von
De ce que j'ai vu des tests, le DLSS 3.0, là où il est supporté, apporte un gain de performances extraordinaire (double voire plus qu'en DLSS 2.0), pour une perte de qualité minime et quasiment imperceptible sur des images animées.

Après est-ce que les développeurs se donneront la peine de supporter cette technologie alors que le FSR a l'air beaucoup plus simple à implémenter, en plus d'être ouvert à infiniment plus de cartes ? Nvidia pousse à fond en ce sens, mais pas sûr que ça suffise. En plus des coûts d'entrainement dont on ne parle quasiment jamais mais qui doivent augmenter de façon non négligeable le coût de revient de ces cartes... et donc participer à cette hyperinflation.
La vidéo de Hardware Unboxed m'a bien refroidie.
Oui le gain de performance (virtuel) est important, mais ça se fait au prix d'artefacts gênants. Pour que ces artefacts soient imperceptibles, il faut que les fps soient déjà au dessus de 100fps (ce qui explique peut-être que la techno soit reservée aux RTX 4000), et bon l'intérêt de monter encore les fps quand on est déjà à ce niveau est discutable.
Ensuite même sur des fps > 100fps, les artefacts demeurent bien visibles sur l'UI ce qui selon certains jeux peuvent être gênants.
Enfin le DLSS3 rajoute de la latence et ça donne une impression bizarre, totalement inverse de ce dont on a l'habitude avec des fps qui augmentent mais une latence qui augmente aussi.

Bref... connaissant NVidia, je suis un peu étonné. On peut toujours leur reprocher leur politique commerciale, mais quand ils introduisent de nouvelles technologies, Gsync, RT, DLSS 1 & 2, généralement ça donne vraiment envie et AMD les copie généralement ensuite. Là franchement, ça me donne pas du tout envie.


Ce genre de vidéo est vraiment importante, car je suis certain que la majorité des tests seront superficiels et se contenteront d'activité le DLSS3, mesurer les FPS et s'arrêter là. Et si on s'arrête, là oui, y a ~50% de gain, c'est impressionnant sur le papier. Mais derrière, j'y vois plus d'inconvénients en pratique que d'avantages.

Dernière modification par Borh ; 14/10/2022 à 13h34.
Citation :
Publié par Borh
Mais derrière, j'y vois plus d'inconvénients en pratique que d'avantages.
Les artéfacts sont minuscules et imperceptibles. J'ai du regarder plusieurs fois sa vidéo en ralenti 25% pour trouver où ils étaient.
C'est un peu comme les vidéos de Digitalfoudries d'une heure où il te montre les diff entre ultra et high et disant "wow amazing" sur le peu de différence et toi t'es là, à scruter pour comprendre où est c'est alors que tu as 50 fps de plus pour juste un truc presque inexistant.
De toute manière je reste convaincu que c'est compatible RTX2070 minimum le DLSS 3. C'est juste du foutage de gueule commercial saupoudré de bullshit. On va quand même pas donner 15-20% de FPS gratos à des cartes vendus il y a 3 ans ?
Citation :
Publié par Leydjin
Les artéfacts sont minuscules et imperceptibles. J'ai du regarder plusieurs fois sa vidéo en ralenti 25% pour trouver où ils étaient.
C'est un peu comme les vidéos de Digitalfoudries d'une heure où il te montre les diff entre ultra et high et disant "wow amazing" sur le peu de différence et toi t'es là, à scruter pour comprendre où est alors alors que tu as 50 fps de plus pour juste un truc presque inexistant.
De toute manière je reste convaincu que c'est compatible RTX2070 minimum le DLSS 3. C'est juste du foutage de gueule commercial saupoudré de bullshit. On va quand même pas donner 15-20% de FPS gratos à des cartes vendus il y a 3 ans ?
C'est bizarre, pour moi, les artefacts de l'UI sautent aux yeux, par exemple sur Flight Simulator et c'est un bloubi boulga atroce.

Pour le reste, oui, il doit faire des ralentis mais parce qu'on est déjà sur des FPS très hauts. C'est sûr que si tu es à 150fps et qu'une image sur 3 est artefactée, tu auras du mal à la voir sans ralenti. Mais d'un autre côté est-ce vraiment important de passer de 100 à 150fps, sachant que la latence ne diminuera pas mais au contraire augmentera.
Citation :
Publié par Borh
C'est bizarre, pour moi, les artefacts de l'UI sautent aux yeux, par exemple sur Flight Simulator et c'est un bloubi boulga atroce.

Pour le reste, oui, il doit faire des ralentis mais parce qu'on est déjà sur des FPS très hauts.
C'est clairement immonde sur FS, et dans une moindre mesure sur F1. Les ui ça semble galère à gérer globalement. Sur le reste il faut ralentir par deux ou quatre fois pour les voir.
C'est une ou deux frame sur plus d'une centaine.
Citation :
Publié par Linou
C'est clairement immonde sur FS, et dans une moindre mesure sur F1. Les ui ça semble galère à gérer globalement. Sur le reste il faut ralentir par deux ou quatre fois pour les voir.
C'est une ou deux frame sur plus d'une centaine.
Quand il fait le tour de l'avion sur Flight Simulator, il y en a tout le temps des artefacts, en particulier dès qu'on commence à regarder les bords des objets.
Perso je trouve ça atroce, mais chacun sa sensibilité.
Ca n'a rien de nouveau quoi, c'est le même problème que les compensations de mouvement sur les télé; ça marche super bien quand les mouvements sont lents, mais dès que tu bouges vite tu vois des distorsions/artefacts, avec un ajout de latence un peu mieux maitrisé dans le cas des RTX.
Citation :
Publié par Sir BiBu
Ca n'a rien de nouveau quoi, c'est le même problème que les compensations de mouvement sur les télé; ça marche super bien quand les mouvements sont lents, mais dès que tu bouges vite tu vois des distorsions/artefacts, avec un ajout de latence un peu mieux maitrisé dans le cas des RTX.
Ma télé ayant 15 ans je connaissais pas. Mais je vois que c'était déjà une option assez contreversée quand je lis les articles dessus. Et plutôt markétée pour des vidéos que pour des jeux vidéo.
Et puis les constructeurs communiquaient beaucoup dessus dans les années 2015, j'ai l'impression que maintenant tout le monde s'en fout.
Citation :
Publié par Borh
Ma télé ayant 15 ans je connaissais pas. Mais je vois que c'était déjà une option assez contreversée quand je lis les articles dessus. Et plutôt markétée pour des vidéos que pour des jeux vidéo.
Et puis les constructeurs communiquaient beaucoup dessus dans les années 2015, j'ai l'impression que maintenant tout le monde s'en fout.
Pour avoir fait plusieurs marques de télé Oled récentes, c'est très dépendant de celle-ci et de l'algorithme de compensation propriétaire. Sur LG c'était juste injouable par exemple (en 2018 en tout cas).
Sur Panasonic c'est déjà mieux, sur un FPS ça reste très désagréable à jouer, par contre sur des TPS genre God of War ou FF7:Remake, je l'activais légèrement pour passer d'un rendu ~30 fps à 50 fps. La latence rajoutée se sentait pas trop et les artefacts sont relativement peu visibles à moins de faire des 360 rapides sur soi-même.
j attend de voire le DSLL ( RSR , Radeon Super Resolution ( RIS , Radeon Image Sharpening ) d AMD pour voire la vrais différence ! ( sa deviens compliquer toute se formulation )
Nouvelle blague du jour : Nvidia repousse la sortie de la 4080 12 GB afin de lui changer de nom, concédant enfin qu'avoir deux 4080 n'avait pas de sens (elle a déjà été supprimée de la page officielle de la 4080). La 4080 16 GB reste prévue pour le 16 novembre.

https://www.nvidia.com/en-us/geforce...4080-unlaunch/

Je me demande d'où vient ce changement de dernière minute alors qu'ils vont devoir modifier des milliers de cartes déjà produites, mais cela ne m'étonnerait pas que les critiques autour des annonces et leaks des derniers jours concernant les performances de la 4080 12 GB aient légèrement bousculé Nvidia.

Maintenant, cela risque de poser un autre problème à Nvidia : la grille tarifaire. Autant ils pouvaient peut-être se permettre de vendre une 4080 à 899$ (plus de 1000€), autant s'ils changent le nom pour disons la 4070 (ce qui aurait dû être le cas dès le départ), j'ai comme le sentiment que cela va encore plus gueuler. Pire encore, cela signifiera que le haut de gamme sera inaccessible à moins de 1199$ / 1469€ alors que la 3080 était lancée à 699$ / 719€.
Citation :
Publié par Lianai
Nouvelle blague du jour : Nvidia repousse la sortie de la 4080 12 GB afin de lui changer de nom, concédant enfin qu'avoir deux 4080 n'avait pas de sens (elle a déjà été supprimée de la page officielle de la 4080). La 4080 16 GB reste prévue pour le 16 novembre.

https://www.nvidia.com/en-us/geforce...4080-unlaunch/

Je me demande d'où vient ce changement de dernière minute alors qu'ils vont devoir modifier des milliers de cartes déjà produites, mais cela ne m'étonnerait pas que les critiques autour des annonces et leaks des derniers jours concernant les performances de la 4080 12 GB aient légèrement bousculé Nvidia.

Maintenant, cela risque de poser un autre problème à Nvidia : la grille tarifaire. Autant ils pouvaient peut-être se permettre de vendre une 4080 à 899$ (plus de 1000€), autant s'ils changent le nom pour disons la 4070 (ce qui aurait dû être le cas dès le départ), j'ai comme le sentiment que cela va encore plus gueuler. Pire encore, cela signifiera que le haut de gamme sera inaccessible à moins de 1199$ / 1469€ alors que la 3080 était lancée à 699$ / 719€.
A mon avis, c'est à cause des AMD qui doivent sortir à 3 semaines d'écart et prévues sur le créneaux des 4080.
Citation :
Publié par Ryu Seiken
A mon avis, c'est à cause des AMD qui doivent sortir à 3 semaines d'écart et prévues sur le créneaux des 4080.
Cela fait un moment que l'on connait la période de sortie des RDN3 (et quasiment un mois pour la date exacte de sortie) et Nvidia sûrement bien avant nous. Vu que la 4080 12 GB est reportée, cela signifie que AMD aura un boulevard sur le haut de gamme vu que Nvidia n'aura rien sous les 1000$. Du coup, je n'arrive pas trop à comprendre en quoi la sortie des RDNA3 pourrait avoir entrainé cette décision de dernière minute. Si encore la 4080 16 GB changeait de prix et s'alignait sur celui du modèle 12 GB, je pourrais comprendre en prévision d'un modèle AMD quasi équivalent, mais pas au prix actuel et pour le moment, Nvidia n'a pas changé le tarif.

Dernière modification par Lianai ; 14/10/2022 à 19h21.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés