[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Quand Jensen Huang dit que sa nouvelle carte "prédit le futur", je vous laisse imaginer ce que ça peut impliquer sur la latence... Après, à part les Doom, qui n'auront jamais besoin de ces technos parce qu'ils ne sont pas codés avec les pieds, je ne joue pas à des FPS. Du coup, les "fake frames", ça ne me gène pas.
J'attends surtout de voir les résultat en réèl sur des jeux, pour voir si ça implique des problèmes d'artefact et autres quand 75% des images sont des fausses.

Mais de toute façon je m'en fou perso d'avoir 240 fps+, je limite toujours mes jeux à 100 fps max pour réduire la conso.


Pour moi le vrai problème de l'IA pour les GPU, c'est que çà devrait servir à réduire la conso et puissance des gpu, au lieu de çà çà sert à réduire les coûts d'optimisation. Parce que bon un jeu qui tourne à 25 fps en natif, c'est tout sauf normal.
Tu oublie une chose, c’est que le raytracing et le pathtracing c’est pas juste de la mauvaise optimisation, ce sont des techno hyper gourmande surtout que nos standard ont évolués.

Entre du Full HD en 60hz d’il y a 15 ans et le QHD ou l’UHD en 144Hz minimum c’est un gap de puissance énorme dont peu de personnes ont réellement conscience, encore plus avec les nouvelles techno cités ci-dessus.
Clairement sans IA il aurait fallu attendre encore pas mal de générations pour avoir du 4K natif avec du Pathtracing en 144 images par secondes sans broncher.

Maintenant le DLSS chez moi m’offre une plus belle image qu’avec des techno d’anti aliasing mal implanté qui rends l’image des jeux flou et degueulasse.
Citation :
Publié par Aloïsius
Quand Jensen Huang dit que sa nouvelle carte "prédit le futur", je vous laisse imaginer ce que ça peut impliquer sur la latence... Après, à part les Doom, qui n'auront jamais besoin de ces technos parce qu'ils ne sont pas codés avec les pieds, je ne joue pas à des FPS. Du coup, les "fake frames", ça ne me gène pas.
Perso j'ai jamais ressenti le besoin de jouer à des jeux à plus de 100fps et d'une façon générale, quand je joue à 60fps stables, je considère que ce sont de bonnes conditions.

Par contre la différence entre 30fps (le standard console) et 60fps, je la ressens fortement. Et c'est pas l'impression visuelle de défilement des images qui me pose problème, c'est la latence.
Entre un jeu à 30fps et un jeu à 60fps, il y a 17ms de temps d'image supplémentaire donc cette latence entre l'input et l'affichage, ce qui donne cette impression de contrôles mous quand on joue sur console en mode qualité.

Le truc c'est qu'avec ces fake frames, le jeu à 30fps qui en affiche 100fps, il a toujours la latence d'un jeu à 30fps, et même pire puisque le GPU retient l'image le temps de générer la suivante pour calculer les frames intermédiaires. Donc ça ne rend pas le jeu plus jouable, et y a une dissociation entre ce que voient les yeux, un jeu fluide, et ce qu'on ressent manette en main, un jeu mou et peu réactif. Personnellement je n'apprécie absolument pas cette sensation.

Bon après plus les fps de base sont élevés et moins on sentira ce problème de latence, mais d'un autre côté, à l'oeil, le bénéfice devient bien moindre.

Globalement c'est pour ça que le frame gen marche mieux quand les fps sont élevés de base, mais du coup, le bénéfice en terme de fluidité n'est pas évident. Je ne crois pas que NVidia se soit exprimé sur le sujet, mais AMD recommande 60fps de base minimum pour activer le frame gen. Et perso, quand un jeu tourne déjà à 60fps minimum, je suis déjà dans de très bonnes conditions, j'ai pas vraiment besoin de frames en plus.
Citation :
Publié par aziraphale
C'est pour aller avec ces nouveaux écrans 500Hz, voire 800Hz il me semble avoir lu.
https://www.cowcotland.com/news/9434...programme.html

Quand est-ce qu'on arrête les conneries ?
DLSS5 va devoir ajouter un frame generator x10 au lieu de x3 pour aller avec ces écrans ridicules.
Le x10 va évidemment arriver assez vite puis le x100. Ce que j'ai bien compris, le gap technologique était de générer une première image, mais pour les suivantes c'est beaucoup plus simple.
C'est clair qu'il va falloir trouver une autre méthode de mesures des performances des cartes que les fps affichés. Enfin en réalité, je crois que la majorité des sites sérieux de hardware ne prennent pas en compte le frame gen dans leurs tests. Et ça ne changera pas probablement.
Citation :
Publié par Borh
Enfin en réalité, je crois que la majorité des sites sérieux de hardware ne prennent pas en compte le frame gen dans leurs tests. Et ça ne changera pas probablement.
Ni même le DLSS de base d'ailleurs (la partie Super Sampling). C'est étudié dans une catégorie à part ou en comparaison On/Off ou FSR/DLSS, mais pas activé de base. Du moins, pas dans la presse spécialisée sérieuse.

Pour ce qui est du multi frame gen de la série RTX 5000, plus le multiplicateur monte, plus il y a d'artéfacts visibles, ce qui est normal. Si vous voulez tester un équivalent, Lossless Scaling (7€ sur Steam) le propose déjà grâce à son LSFG 3.0 en X2/3/4 et custom jusqu'à x20. Je n'ai pas eu l'occasion de tester, mais x2 et x3 semblent très bien fonctionner, x4 commence à laisser des traces et x10 (via custom) est une catastrophe et je ne parle pas du reste qui transforme votre jeu en trip sous acide. Alors oui, l'algorithme utilisé par le LSFG 3.0 est différent et forcément moins performant que celui de Nvidia, mais ça donne un avant goût assez convaincant de ce que cela donne en jeu.
Haaa je vais enfin pouvoir upgrade de ma 2080ti. finalement. bon, j'ai besoin d'une nouvelle tour aussi. ah. comment changer tout cela sans que madame ne s'en rende compte pour cacher ces dépenses
Citation :
Publié par Jenmir
Tu oublie une chose, c’est que le raytracing et le pathtracing c’est pas juste de la mauvaise optimisation, ce sont des techno hyper gourmande surtout que nos standard ont évolués.
Mouais, ça reste surévalué. On a le PBR qui fait largement le taff et dans beaucoup de cas son ne voit pas ou très peu la différence. Et c'est beaucoup plus optimisé que le RT ou PT.
Citation :
Publié par Christobale
Mouais, ça reste surévalué. On a le PBR qui fait largement le taff et dans beaucoup de cas son ne voit pas ou très peu la différence. Et c'est beaucoup plus optimisé que le RT ou PT.
Dire qu’on ne voit pas la différence entre une scène PBR et Pathtracing c’est de la malhonnêteté.

Et forcément que c’est mieux optimisé vu que le RT ou le PT demande beaucoup plus d’efforts de calcul, ce n’est même pas comparable.
La 5090 FE utilise du métal liquide comme composant thermique.
D'un côté ça change vraiment des pâtes thermiques cheap qu'on trouve souvent sur les cartes graphiques.
De l'autre, ça m'inquiète un peu, car le métal liquide est connu pour se dégrader plus vite que la pâte classique...

Citation :
Publié par Borh
De l'autre, ça m'inquiète un peu, car le métal liquide est connu pour se dégrader plus vite que la pâte classique...
En même temps, les acheteurs de 5090 achèteront la 6090 dès qu'elle sortira en 2027, en disant qu'elles ne permettent pas de jouer à Crysis en 16k @300hz. Faut juste que ça tienne deux ans, et éviter les occases par la suite je suppose.
Citation :
Publié par Jenmir
Ca fait un moment que le métal liquide est utilisé sur les consoles de salon.
Oui et il semble que la PS5 chauffe de plus en plus en vieillissant.
Il y a plein de guides pour changer le métal liquide de la PS5, dont ifixit, et j'ai pas souvenir d'avoir vu ça sur les consoles précédentes.


Sinon, les vraies perfs des RTX 50 sans multi-framegen (c'est officiel NVidia)
https://wccftech.com/nvidia-confirms...-4070-ti-4070/

RTX 5090 vs RTX 4090 = +30%
RTX 5080 vs RTX 4080 = +15%
RTX 5070 Ti vs RTX 4070 Ti = +20%
RTX 5070 vs RTX 4070 = +20%

Hônnetement, je me demande s'il y a pas une erreur et que la comparaison ne se fait pas avec les "Super". Parce que sinon, le gain est super faible. Quasi aucun gain architectural, c'est quasi uniquement l'augmentation du nombre de cores (et de la conso probablement) qui boostent les perfs.
Plus de 2 ans pour arriver à ce résultat, NVidia ne nous avait pas vraiment habitué à ça.

Et le rapport perf/prix de 5090 n'est pas meilleur que celui de la 4090. J'ai pas souvenir d'une nouvelle gen dans ce cas là. J'ai payé ma 4090 1700€ y a 2 ans, et à l'époque c'était un prix normal. La 5090 est 40% plus chère pour 30% de perfs en plus...

On comprend mieux pourquoi Nvidia a tellement insisté sur le multi-framegen.

Dommage pour AMD qui s'est merdé sur RDNA4 parce qu'ils avaient une occasion comme jamais de combler leur retard.

Dernière modification par Borh ; 15/01/2025 à 20h04.
Citation :
Publié par Borh
Dommage pour AMD qui s'est merdé sur RDNA4 parce qu'ils avaient une occasion comme jamais de combler leur retard.
Comme à chaque fois qu'ils ont une occasion depuis 15 ans quoi. Bon, ils ont fini par y arriver dans les CPU, peut-être qu'un jour ils y parviendront dans les GPU...
C'est aussi ce que dit Moore's law is dead dans sa dernière vidéo. En gros, comme AMD n'aura rien en face des 5080 et 5090, Nvidia va donner la priorité à ses clients pro. Si en plus les scalpers font monter les prix "acceptables" par les joueurs à fortunés à 3000$, c'est bonus.

Par contre, plus bas en gamme (5070 en gros), la concurrence d'AMD pourrait pousser Nvidia à assurer prix et disponibilité plus raisonnables.
Citation :
Publié par Borh
Il y a plein de guides pour changer le métal liquide de la PS5, dont ifixit, et j'ai pas souvenir d'avoir vu ça sur les consoles précédentes.
Changer le métal liquide non forcément puisque la PS5 est la seule (je sais, je taquine)
Mais changer la pâte et les pads thermiques, je l'ai déjà fait sur ma PS4.

En tout cas moi j'ai une vieille 3070 mais je suis pas près de la changer OK elle n'a pas de RT de fifou m'enfin vu le tarif des CG, ça revient cher à changer tout le temps...
Du coups prendre une carte dans les 500€ (style 7800xt) aujourd'hui n'est pas un mauvaise affaire budget max pour une CG pour moi, je viens de voir que les 5060 n'auraient que8 a 12GO de mémoire.
Citation :
Publié par Borh
RTX 5090 vs RTX 4090 = +30%
RTX 5080 vs RTX 4080 = +15%
RTX 5070 Ti vs RTX 4070 Ti = +20%
RTX 5070 vs RTX 4070 = +20%

Hônnetement, je me demande s'il y a pas une erreur et que la comparaison ne se fait pas avec les "Super". Parce que sinon, le gain est super faible. Quasi aucun gain architectural, c'est quasi uniquement l'augmentation du nombre de cores (et de la conso probablement) qui boostent les perfs.
Plus de 2 ans pour arriver à ce résultat, NVidia ne nous avait pas vraiment habitué à ça.
Concernant les 80, les SUPER n'ont fait que 3-4% de mieux, c'était surtout la baisse du prix (-$200) qui les ont rendues intéressantes. Et effectivement le gain des 5080 sur les 4080 (SUPER) correspond +/- à la montée du TDP (320 à 360W). Et y'a le même - petit - pourcentage d'augmentation de cores CUDA qu'entre la 4080 et la SUPER, +5%. Le MSRP a le mérite de rester le même que les SUPER, mais si la dispo est faible, ça risque de monter (et m'est avis qu'on sera plus proche des 1200-1400€ que des 1000).
T'as 4090 était définitivement d'un très bon rapport qualité/prix. Je l'amènerais au bout à ta place
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés