[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Quelques leaks sur les perfs de la RTX 5090 dans des benchmarks synthétiques
https://www.techspot.com/news/106419...ce-uplift.html

Entre 15 et 36% de mieux que la 4090 pour 32% de cores en plus. Y a vraiment 0 amélioration architecturale sur Broadwell alors qu'il aura fallu plus de 2 ans à Nvidia pour la sortir. L'augmentation des perfs ne vient que de l'augmentation du nombre de cores et de la conso qui va avec.
Heureusement qu'il y a le multi-framegen pour faire croire à quelque chose.
Citation :
Publié par smonk
Voici les jeux qui profiteront du DLSS 4 à la sortie des RTX 5000 - Actu - Gamekult

J'ai quand même hâte de voir si ma petite 4070 va pouvoir bien profiter de cette nouvelle technologie.
Citation :
Cela ne signifie pas que le DLSS 4 sera accessible uniquement aux possesseurs d'une carte RTX 5000 : en réalité, outre la génération multi-images, il sera possible de profiter des diverses améliorations côté super résolution et Ray Reconstruction.
C'est "hormis" qu'il aurait fallu dire. Mais j'imagine que c'est une faute de français vu qu'ils disent que le multi frame sera exclusif aux 50 juste avant.

En tout cas à voir les améliorations de ce DLSS4 en dehors du multi frame, parce qu'ils ont vraiment accès leur communication la dessus (enfin logique vu qu'ils l'ont artificiellement réservés aux 50 pour avoir un argument marketing) mais ça sera peut être une bonne surprise (il devrait y avoir à minima une baisse de la conso de mémoire, c'est déjà ça de pris).
Test de la 5090 dispo sur H&Co :
Test de la GeForce RTX 5090 : Blackwell et son neural rendering sont-ils révolutionnaires ? - Hardware & Co

+20-30% par rapport à la 4090 en jeu sans FG (+77% avec)
Bruit et température légèrement en retrait (mais on passe d'une carte 3 slots à une carte 2 slots, donc belle perf)
Par contre, ça ne brille pas côté conso (surtout au repos)
La 5090 a été renommé "4090 ti" par différents testeurs... Manifestement, pour une carte de nouvelle génération, elle est décevante.
Mais c'est pas bien grave pour Nvidia puisqu'il n'y a pas de concurrence.
Citation :
Publié par Aloïsius
La 5090 a été renommé "4090 ti" par différents testeurs... Manifestement, pour une carte de nouvelle génération, elle est décevante.
Mais c'est pas bien grave pour Nvidia puisqu'il n'y a pas de concurrence y aura toujours bien assez de pigeons pour en acheter quel que soit le prix.
Voilà c'est plus juste
Citation :
Publié par Aloïsius
Si AMD avait une carte aux perfs équivalente vendue à la moitié du prix...
Et pourquoi ils la vendraient la moitié du prix ? Juste pour tes beaux yeux ?

Si AMD avait une carte équivalente aux 4090/5090, ils la vendraient à tout casser 10% moins cher, exactement comme ce qu'ils ont fait avec toutes les autre cartes.
Citation :
Publié par Aloïsius
La 5090 a été renommé "4090 ti" par différents testeurs... Manifestement, pour une carte de nouvelle génération, elle est décevante.
Mais c'est pas bien grave pour Nvidia puisqu'il n'y a pas de concurrence.
Disons qu'on peut comprendre pourquoi y a pas eu de 4090 Ti avec le recul, ça aurait rendu cette 5090 encore moins impressionnante qu'elle ne l'est.
Si on prend les specs de la 4090 Ti qui avaient fuité, la 5090 n'aurait été que 12% plus performante...

Citation :
Publié par Stoe Orkeo
Et pourquoi ils la vendraient la moitié du prix ? Juste pour tes beaux yeux ?

Si AMD avait une carte équivalente aux 4090/5090, ils la vendraient à tout casser 10% moins cher, exactement comme ce qu'ils ont fait avec toutes les autre cartes.
Oui c'est la stratégie habituelle d'AMD.
Mais quand on voit les chiffres de vente, on peut pas dire que ce soit couronné de succès.
Bon après y a probablement une entente tacite entre AMD et Nvidia sur les prix. Si AMD cassait ses prix, probablement que NVidia le ferait aussi. Nous on y serait gagnant mais tant AMD que NVidia y seraient perdant.

Dernière modification par Borh ; 24/01/2025 à 17h22. Motif: Auto-fusion
Je pense que c'est une erreur de ne considérer la 5090 uniquement du point de vue de joueurs.
Bien sûr, c'est la carte la plus puissante pour jouer. Et ce assez largement.
Mais ce n'est pas une carte dont le design a été optimisé pour le jeu.
Du coup, en l'achetant uniquement pour le jeu, on paye cher et il y a toute une partie de ce que la carte a à offrir qu'on ne mettra jamais en oeuvre.
Par contre, ca veut aussi dire que tous ceux qui l'acheteront n'y trouveront pas leur compte. Si on recherche de la puissance de calcul pour l'IA, on devrait en avoir pour son argent.
Les Titan puis xx90 sont des cartes "semi pro" assumées.
Citation :
Publié par smonk
Voici les jeux qui profiteront du DLSS 4 à la sortie des RTX 5000 - Actu - Gamekult

J'ai quand même hâte de voir si ma petite 4070 va pouvoir bien profiter de cette nouvelle technologie.
Il commence à y avoir des retours sur le DLSS 4 après une update de CP77.

Je ne me suis pas fadé le fil entier mais on peut retenir que ça a l'air d'avoir été pas mal amélioré, même en dehors du fameux multiframe :
Citation :
The new 1440p DLSS performance looks better than old 1440p DLSS Quality lol.
https://www.reddit.com/r/nvidia/comm...077_patch_221/
Citation :
Publié par Peredur
Je pense que c'est une erreur de ne considérer la 5090 uniquement du point de vue de joueurs.
Bien sûr, c'est la carte la plus puissante pour jouer. Et ce assez largement.
Mais ce n'est pas une carte dont le design a été optimisé pour le jeu.
Du coup, en l'achetant uniquement pour le jeu, on paye cher et il y a toute une partie de ce que la carte a à offrir qu'on ne mettra jamais en oeuvre.
Par contre, ca veut aussi dire que tous ceux qui l'acheteront n'y trouveront pas leur compte. Si on recherche de la puissance de calcul pour l'IA, on devrait en avoir pour son argent.
Les Titan puis xx90 sont des cartes "semi pro" assumées.
On peut dire ça. C'est la carte gamer du riche et la carte pro du pauvre.

Après, le problème de 5090, c'est pas son prix dans l'absolu, c'est surtout le peu de gain efficacité par rapport à la gen précédente.
Nvidia me déçoit sur les gains architecturaux des RTX 50 mais si on prend spécifiquement le prix de la 5090 il est plutôt logique en fait si on rapporte ça à la taille de la puce. En fait, les prix des RTX 50 sont quasi strictement proportionnels au nombre de cores.
Nvidia a mis ce prix là; 2 fois plus cher qu'une 5080, parce que la puce leur coûte probablement 2 fois plus cher à produire.



Citation :
Publié par Dr. Troy
Il commence à y avoir des retours sur le DLSS 4 après une update de CP77.

Je ne me suis pas fadé le fil entier mais on peut retenir que ça a l'air d'avoir été pas mal amélioré, même en dehors du fameux multiframe :

https://www.reddit.com/r/nvidia/comm...077_patch_221/
Je joue à Cyberpunk en ce moment, ça tombe bien. Je vais tester ça.
Je viens de tester l'upscaling DLSS4 (modèle transformer). Faut pas s'attendre à un truc révolutionnaire par rapport au DLSS3 mais c'est mieux clairement. L'image a moins d'artefact et est plus stable.

Je joins 2 captures, je vous laisse deviner laquelle utilise le modèle transformer et lequel utilise le modèle CNN. La différence se voit surtout au niveau de l'hélipad à droite, avec le modèle CNN c'est instable.

Côté performance, j'ai fait tourner le benchmark Cyberpunk, je passe de 63.7 fps à 62.1 fps. Il y avait une crainte que les RTX non 50 aient des problèmes de perfs avec le DLSS4, mais visiblement c'est pas le cas.

Capture d'écran 2025-01-24 213142.jpg
Capture d'écran 2025-01-24 213200.jpg
Citation :
Publié par Borh
La différence se voit surtout au niveau de l'hélipad à droite, avec le modèle CNN c'est instable.
Franchement, je dirai pas "surtout" mais "uniquement". Je suis presbyte, sur une des deux images on voit des rayures et pas sur l'autre. Mais est-ce que la première est artificiellement floutée, faisant disparaître les rayures, ou bien est-ce que ces rayures sont des artefacts ?

A propos de vieillir, je pense avoir compris pourquoi je trouve cyberpunk moche, quelque soit la résolution ou la carte graphique : c'est parce que les CBD avec des néon flashy, du béton et des flaques d'eau, ça me faisait peut être "wahoou !" quand j'avais 18 ans mais aujourd'hui je préfère les Pyrénées ou le Morvan.

Entre ça et la course au 240 hz alors que je ne vois plus la différence au delà de 100 hz, je peux faire vachement d'économies. Le jour où je me fais greffer des yeux bioniques ou changer le cristallin, on en reparlera peut-être.
Oui y a des bandes mais en jeu, elles sont instables.
Globalement en DLSS3, il peut y avoir des artefacts instables sur ce type de lignes obliques et c'est corrigé avec le DLSS4.
Citation :
Publié par Borh
Je viens de tester l'upscaling DLSS4 (modèle transformer). Faut pas s'attendre à un truc révolutionnaire par rapport au DLSS3 mais c'est mieux clairement. L'image a moins d'artefact et est plus stable.
Si tu veux vraiment voir la différence, cherche un panneau avec du texte défilant rapidement. Tu en as en ville avec un texte à l'esthétique cyberpunk, donc du faux texte informatique, qui défile de haut en bas ou de bas en haut. Le DLSS 3 est incapable de gérer ces textes fidèlement sans artefacts alors que le DLSS 4 s'en sort beaucoup mieux. Digital Foundry avait justement fait un retour sur les améliorations du DLSS 4 et elles sont vraiment positives, corrigeant une bonne partie des défauts du DLSS 3.

Pour ma part, je le teste actuellement sur FFVII Rebirth (dont je vais faire le retour technique pour JOL même si je n'ai reçu le jeu qu'hier...) via DLSS Swapper et le résultat est vraiment chouette, un cran au dessus de la version de base (DLSS 3.7.10.0). Le truc rigolo, c'est que la version actuelle du DLSS 4 utilisée dans Cyberpunk n'est pas 4.X.X.X, mais 3.10.1.0., donc il est possible que ce soit encore en test avant une version 4.0 à venir.
J'avais voulu comparer sur du texte défilant sur une voiture de police et ça m'avait pas sauté aux yeux. Mais peut-être que le texte ne défilait pas assez vite.
Si le principal bénéfice est là, c'est très situationnel.

Mais bon, en réalité je la vois la différence, surtout en mouvement. C'est surtout que l'image est plus stable et avec moins de microartefacts.
C'est comme comparer le FSR à l'ancien DLSS mais avec tout de même moins de différence car l'ancien DLSS était déjà très stable.
Le gain va plus loin que ça, mais c'est celui qui est le plus important, puisqu'il supprime les soucis de ghosting et d'artéfacts sur les objets en mouvement à distance. Genre dans la vidéo prise de cyberpunk, tu as des passants qui se déplacent à distance et ils sont tous touchés par du ghosting avec le DLSS 3, mais avec le DLSS 4, le rendu est propre et quasi parfait.

Il améliore aussi les textures mesh, comme les grillages, qui sont beaucoup plus nets alors qu'auparavant il pouvait y avoir des artefacts comme des dédoublements de lignes ou au contraire des lignes qui disparaissent. Globalement, le DLSS 4 permet d'obtenir une image plus propre, plus authentique tout en supprimant les défauts visuels encore présents avec le DLSS 3.

C'est un vrai bon en avant et rend le choix du DLSS encore plus indiscutable comme solution d'amélioration de l'image quand on a une nvidia et ce au-delà même du gain en performance. Aucune autre solution, comme le TAA, n'arrive à la cheville du DLSS 4 alors même que ce dernier offre un gain substantiel de performance.

Et AMD n'est pas à plaindre, avec un FSR 4 qui semble très impressionnant par rapport au 3.1 actuel. Lui aussi ayant profité d'un gros travail d'amélioration sur les objets en mouvement à distance. Le problème viendra plus de la compatibilité, puisque contrairement au FSR 3 qui était disponible pour tous, le FSR 4 utilisera bien des coeurs dédiés à l'IA, tout comme nvidia et ça va fortement réduire le catalogue de cartes graphiques compatibles. Si j'ai bien compris, cela devrait concerner uniquement la série RX 9000 en RDN4 et laisser tous les autres sur le carreau.
Je l'ai vue la vidéo de DF, c'est même moi qui l'avait postée. Donc je les ai cherchées les différences qu'ils avaient mis en évidence

Mais pour retrouver les problèmes de ghosting qu'ils ont mis en évidence, faut vraiment que je me colle à l'écran et que je fixe des objets qui sont à très à distance. C'est difficile à remarquer.
Les grillages, oui, enfin c'est les améliorations globales sur les lignes obliques et ça se remarque surtout en mouvement. Mais globalement le DLSS3 était déjà bien stable sur les lignes obliques, déjà mieux qu'en natif et évidemment beaucoup mieux que le FSR, donc la différence n'est pas si évidente même si elle se voit.

Pour moi, c'est une évolution, avec des améliorations dans des situations spécifiques mais je n'appellerais pas ça un bon en avant. Ça n'a rien à voir avec le bond en avant qu'on avait remarqué en passant du DLSS1 au DLSS2.1. Et ça n'a rien à voir non plus avec la différence qu'on peut voir entre le FSR et le DLSS.

Si AMD arrive à rattraper, même le DLSS 2.1 avec son FSR 4, y aura beaucoup moins de différences visibles entre FSR 4 et DLSS4 qu'on a entre le FSR 3 et le DLSS 3.

En fait j'ai l'impression que NVidia commence à atteindre un plateau sur les améliorations de l'upscaling. Y a du mieux, mais moins visible que les précédentes évolutions.
D'où probablement l'idée des neural shaders, mais on verra les bénéfices probablement pas avant un moment.
Je pense aussi que l'on va bientôt atteindre le plafond de verre en terme de qualité. C'était déjà le cas pour le FSR avant de passer sur des coeurs dédiés et ce sera la même chose pour le DLSS et le nouveau FSR d'ici peu. La suite, ce sera probablement un gain sur les performances en optimisant davantage l'upscaling pour, par exemple, avoir une image du niveau du mode "qualité" avec le mode "performance" ou au moins "équilibré". Donc pouvoir descendre plus bas dans la résolution de départ tout en conservant la qualité des niveaux supérieurs des précédentes versions. Le reste de l'évolution, on sait très bien que ça se fera du côté de la génération d'images avec d'ici moins de 5 ans un x10 convaincant, qui permettra à tous de jouer en 4K et même au-delà dans d'excellentes conditions.

Mais pour moi, si le DLSS 4 est un bon en avant, c'est surtout parce qu'il comble les derniers défauts visibles du DLSS 3 pour le rendre quasi irréprochable. On pouvait encore chipoter sur les artéfacts du DLSS 3, les dernières traces de ghosting etc., mais là ce n'est même plus possible, c'est juste propre. Pas encore parfait, je crois qu'il reste encore de très très légers défauts, mais on en arrive au point où il faut les chercher avec une loupe sur un écran de 100"

C'était pour moi une évolution nécessaire, la dernière qui importait vraiment.
Citation :
Publié par Borh
Si AMD arrive à rattraper, même le DLSS 2.1 avec son FSR 4, y aura beaucoup moins de différences visibles entre FSR 4 et DLSS4 qu'on a entre le FSR 3 et le DLSS 3.
Avant de penser au FSR 4, faudrait déjà que les jeux gèrent le FSR 3... Même dans les jeux récents ça s'arrête souvent au FSR 2.
Citation :
Publié par Jyharl
Avant de penser au FSR 4, faudrait déjà que les jeux gèrent le FSR 3... Même dans les jeux récents ça s'arrête souvent au FSR 2.
Ça, je n'arrive vraiment pas à l'expliquer, surtout que le FSR 3 ne demande rien de particulier aux développeurs pour l'intégrer par rapport au FSR 2, ne demande pas un matériel spécifique et est même compatible avec les consoles portables type Steam Deck.

Du coup :

1) AMD ne donne pas de fric aux studios donc f*ck AMD (je n'y crois pas trop).
2) Nvidia fait pression pour que les devs n'intègrent pas la dernière version du FSR (je n'y crois pas trop).
3) Les stats d'utilisation du FSR sont tellement faibles que les devs ne s'emmerdent pas à mettre pas à jour (le plus probable).
4) Le FSR 3 est un nid à ennuis (je n'y crois pas trop vu qu'on en aurait entendu parler).
5) Un peu des trois premiers à la fois ?
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés