[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Pour le coup je suis d'accord avec Von, on entre dans le domaine de l'over-engineering car il y a aucun gain à une généralisation des écrans 8K :
  • La différence est imperceptible avec la 4K sur une taille d'écran "normale" (qui sera utilisé/utilisable par 99% de la population)
  • C'est inutilisable/inutile pour du desktop (parce qu'à moins d'1m et les prérequis en perf sont innateignable pour jouer dans des conditions correctes, que ce soit en natif ou en upscale) et ce ne sera pas le cas avant 3-4-5 ans facile (et encore si ce sera possible "aussi tôt", ce ne sera que sur l'ultra haut de gamme)
  • La course à la fréquence est assez débile également, le 165/170Hz est largement suffisant, je ne comprends pas trop le délire de vouloir monter à 360/500+ Hz
Bref ils feraient mieux de s'arrêter au 4K/144-165Hz. Même l'OLED n'est pas d'avoir (vu que ce sont des cellules organiques, elles ont une date d'expiration pré-déterminée). Au final ils devraient se limiter au Mini/Micro-LED (au moins ça a le potentiel de tenir plus longtemps que l'OLED), le reste c'est du gâchis de ressources.
Citation :
Publié par Anthodev
Pour le coup je suis d'accord avec Von, on entre dans le domaine de l'over-engineering car il y a aucun gain à une généralisation des écrans 8K :
  • La différence est imperceptible avec la 4K sur une taille d'écran "normale" (qui sera utilisé/utilisable par 99% de la population)
  • C'est inutilisable/inutile pour du desktop (parce qu'à moins d'1m et les prérequis en perf sont innateignable pour jouer dans des conditions correctes, que ce soit en natif ou en upscale) et ce ne sera pas le cas avant 3-4-5 ans facile (et encore si ce sera possible "aussi tôt", ce ne sera que sur l'ultra haut de gamme)
  • La course à la fréquence est assez débile également, le 165/170Hz est largement suffisant, je ne comprends pas trop le délire de vouloir monter à 360/500+ Hz
Bref ils feraient mieux de s'arrêter au 4K/144-165Hz. Même l'OLED n'est pas d'avoir (vu que ce sont des cellules organiques, elles ont une date d'expiration pré-déterminée). Au final ils devraient se limiter au Mini/Micro-LED (au moins ça a le potentiel de tenir plus longtemps que l'OLED), le reste c'est du gâchis de ressources.
Tu oublies les gens qui "VOIENT" la différence entre 150 et 149 fps à l'oeil nu !
Ah oui pour le coup la 8k j'en vois vraiment pas l'utilité c'est semblable aux gens qui veulent changer de PC pour passer de 80 à 120 fps mdr. Sauf usage compétitif spécifique y'a strictement aucune différence en termes de qualité d'utilisation.
Citation :
Publié par Von
Je ne pige vraiment pas cette course à l'échalotte sur la résolution, les fabricants de TV devraient surtout se focaliser sur la puissance de leurs algorithmes d'interpolation, qui sont environ indispensables sur de l'OLED du fait de l'absence de rémanence, mais qui sont encore très perfectibles.
C'est un chiffre facilement marketable et compréhensible par le grand public. Si tu enlèves du parc cible tous les gens ne sachant pas ce que veut dire "interpolation" tu vas pas en vendre beaucoup des TVs.
C'est plus faciel et bien plus rentable que d'aller communiquer sur des facteurs subjectifs qui tournent au foutage de gueule à force de superlatifs et qui peuvent être sabotés par des téléviseurs réglés selon les objectifs de vente du gérant de rayon du magasin X.
Citation :
Publié par Touful Khan
C'est un chiffre facilement marketable et compréhensible par le grand public. Si tu enlèves du parc cible tous les gens ne sachant pas ce que veut dire "interpolation" tu vas pas en vendre beaucoup des TVs.
C'est plus faciel et bien plus rentable que d'aller communiquer sur des facteurs subjectifs qui tournent au foutage de gueule à force de superlatifs et qui peuvent être sabotés par des téléviseurs réglés selon les objectifs de vente du gérant de rayon du magasin X.
Musk a racheté un chaîne de magasins ?
Pourquoi vous vous obstinez à parler de 8K ?

L'écran link par Aloïsius n'est pas un écran 8k mais un écran 2160p en 32:9, donc 7680 x 2160. C'est la même chose qu'un écran 5120 x 1440 (ce qui est le cas de mon écran actuel) version 2160p. Donc on est sur un rapport x2 face à de la "4K" (ce sont en gros deux dalles 2160p 16:9 collées sur la largeur) alors que de la 8K, c'est un rapport x4. Rien n'empêche de jouer en 3840 x 2160 ou diffuser un film comme n'importe quel écran 4K classique, ça donnera juste des bandes noires sur les côtés sans aucune perte de qualité (contrairement à un écran 8K qui imposera de l'upscale).
Personne ne parle d'écran 5K pour du 5120 x 1440p ou d'un écran 4K pour du 3840 x 1080p. C'est juste du 1440p et 1080p en 32:9 et il en va de même avec l'écran link par Aloïsius. Le seul but de ces écrans, c'est de remplacer les setup à deux écrans avec un seul.

Le 4320p, on en parlera d'ici quelques années et pour le coup, je suis d'accord pour dire que ça n'aura que très peu d'intérêt, même chez les professionnels, mais l'équivalent du double écran 2160p, ça a du sens. Par exemple, pouvoir gérer deux flux vidéo 16:9 en 2160p, je conçois tout à fait que cela puisse intéresser des gens, même si ce n'est pas mon cas. Pour le 240Hz, il faut aussi comprendre qu'un écran 32:9 peut faire du 16:9, donc en tant qu'écran haut de gamme un poil gamer, il se doit de proposer le 240Hz peu importe le format d'image (le fameux sweet spot d'après les tests).

Ce que propose ce nouvel écran, c'est à mes yeux le maximum réellement utile actuellement et pour les quelques années à venir.
Citation :
Publié par Anngelle Silverstar
Sauf que le 8K et interdis par l'union Européenne.

On est bien partis avec eux pour les avancées technologiques...
Elles ne sont pas interdites.
Quand elles ont été annoncées, il y a eu un mouvement de panique car certains constructeurs de dalle (le groupe TCL en tête) annoncaient plus de 400W (en gros 3 fois la conso d'une télé standard).
L'Europe a simplement collé des limites max de conso, et les modèles présents sur le marché le respecte sans souci.
Mesurée à la prise, ma Samsung 8K 65 pouces est à 120W / 130W (les tests montreraient des pics à 170W, jamais vu pour ma part).
Et dire que dans mon enfance, on était subjugué par ça

ltf_resizeimg.png

Pour l'heure mes 2 écrans sont toujours en 1080p / 60Hz et ça me suffit largement. Mon PC actuel a environ 10 ans et aurait besoin d'être changé pour faire tourner les gros titres du moment mais en dehors de ça, il tourne toujours très bien !

Ce qui m'embête le plus avec l'idée de changer de matériel, c'est "que faire de l'ancien ?". J'ai toujours mon ancien PC stocké dans un carton avec ses 2 écrans 17", et j'arrive pas à me résoudre à les jeter parce qu'ils fonctionnent encore. Et quand on voit les reportages sur ces écrans mis en centre de recyclage au US qui finissent dans une décharge à ciel ouvert en Afrique ou en Asie, ça ne donne pas trop confiance dans le recyclage.

Bref tout ça pour dire que je ne suis pas près d'investir dans la 8K, vu que je ne vois toujours pas l'intérêt de passer à la 4K dans mon cas.
Citation :
Publié par Borh
Si on a le budget et qu'on joue en 4k, je trouve que la 4090 vaut clairement le coup, c'est la seule qui permet de jouer en 4k dans les meilleures conditions aux jeux les plus gourmands. Elle est super chère, mais aussi beaucoup plus performante que toutes les
Pas d'accord avec toi. J'ai eu le choix entre une 4090 et une 7900 XTX. J'ai pris la XTX pour 800 balles de moins et je joue en 4k dans de bonnes conditions sur tous les jeux récents.

Je ne pense pas que le Ray Tracing vaille les 800 balles de différence. Puis tu dis toi même que la technologie est bof.

Après qu'on soit clairs hein. La 4090 est un monstre. Mais ce n'est pas la seule carte qui te permette de jouer en 4k dans de bonnes conditions comme tu le dis.

Et en termes de performance/coût la 7900XTX a un meilleur ratio que la 4090.

Quant aux tests comparatifs oubliez pas que c'est souvent avec Ray Tracing activé. Sans Ray Tracing l'écart se ressert. Et, pour moi, cet écart ne justifie pas 800 boules de différence.

77859-1695627404-2956.png
Pour moi c'est pas encore la bonne génération pour exploiter le Ray Tracing. On est dans un entre-deux où souvent bah c'est pas non plus dingue le rendu, par exemple RDR2 en full rasterization a des lumières souvent plus belles que beaucoup de jeux avec RT activé. C'est du ray tracing partiel qui en plus n'est soit pas complètement maîtrisé soit le plus souvent la direction artistique et les graphismes du jeu sont encore conçus en se basant sur la rasterization.

C'est sûr que quand tu vois Cyberpunk en path tracing ça claque. Mais c'est une vitrine technologique, un aperçu du futur, comme un concept car. On n'y est pas encore, c'est trop gourmand, c'est pas maîtrisé...

Donc dans cette optique je considère en effet qu'il vaut mieux une 7900 XTX, c'est sans doute un biais de confirmation de ma part vu que j'en ai une certes mais je trouve que ça a un meilleur ratio perf prix pour profiter de cette génération de jeux en 4K car pour moi le RT reste encore pas vraiment intéressant à viser.

Ceci dit la 4090 reste vraiment une bonne carte, même meilleure que la 4070 ou 4080 parce que l'écart de puissance est juste absolument monstrueux et que c'est la seule à vraiment occuper son segment.

Après va quand-même falloir que AMD rattrape son retard sur le RT et l'IA car d'ici deux/trois générations de cartes ça ne pardonnera plus. Il arrivera un moment où les jeux jouables en path tracing en 4K, vraiment conçus au départ pour être développés ainsi, vont apparaître. Et sans doute que ça vaudra d'autant plus le coût aussi d'avoir une technologie de mise à l'échelle performante notamment pour les cartes de milieu et entrée de gamme pour que tout le monde puisse profiter de ça.

Pour l'instant moi le FSR je trouve ça souvent vraiment dégueulasse.
Le RT sur la lumière j'ai du mal à voir le gain pour l'instant en qualité (alors que la perte en FPS elle est très sensible). Là par exemple je recommence Cyberpunk 2077 (comme beaucoup de gens je suppose), au niveau ombrage et lumière en général, j'ai pas noté de réelle différence avec le RT ou non. Par contre sur les reflets là oui et ça fait une énorme différence sur l'immersion.

Avec ma 7900XT et mon 7800X3D j'arrive à avoir entre 60 et 80 fps stable (c'est à dire qui ne descendent jamais sous les 60), en 5120*1440 (donc en gros équivalent 4K niveau nombre de pixels), avec le RT sur les reflets, et le FSR2 en équilibré. Mon écran (Odyssey G9) fait le reste pour améliorer la fluidité. Et j'ai du mal à imaginer jouer dans de meilleures conditions.

Donc oui pour jouer en 4K, pas forcément besoin d'une 4090 (ou même d'une 7900XTX), monter plus haut va juste permettre d'augmenter d'un cran la qualité de l'upscaling, mais celui-ci restera de toute façon obligatoire, et pour un gain de qualité visuelle minime voire imperceptible.

Et je parle même pas de quand le FSR3 sera activé.
Citation :
Publié par Jyharl
Pas d'accord avec toi. J'ai eu le choix entre une 4090 et une 7900 XTX. J'ai pris la XTX pour 800 balles de moins et je joue en 4k dans de bonnes conditions sur tous les jeux récents.

Je ne pense pas que le Ray Tracing vaille les 800 balles de différence. Puis tu dis toi même que la technologie est bof.

Après qu'on soit clairs hein. La 4090 est un monstre. Mais ce n'est pas la seule carte qui te permette de jouer en 4k dans de bonnes conditions comme tu le dis.

Et en termes de performance/coût la 7900XTX a un meilleur ratio que la 4090.

Quant aux tests comparatifs oubliez pas que c'est souvent avec Ray Tracing activé. Sans Ray Tracing l'écart se ressert. Et, pour moi, cet écart ne justifie pas 800 boules de différence.

77859-1695627404-2956.png
Ce qui est bof et décevant, c'est le DLSS 3.5 et le ray reconstruction pour le moment.
Mais le ray tracing en général, je trouve que ça apporte beaucoup.
Pour moi ça devient incontournable, même la Switch 2 est annoncée supportant le ray tracing.

C'est vrai que le coût est très élevé et je comprends ceux qui font l'impasse. Et il y a encore une grande marge de progression.
Mais perso je trouve que ça vaut le coût si on a le budget.

Dernière modification par Borh ; 25/09/2023 à 10h46.
Citation :
Publié par Borh
Ce qui est bof et décevant, c'est le DLSS 3.5 et le ray reconstruction pour le moment.
Mais le ray tracing en général, je trouve que ça apporte beaucoup.
Pour moi ça devient incontournable, même la Switch 2 est annoncée supportant le ray tracing.
Absolument tout et n'importe quoi est annoncé supportant le ray-tracing, y compris les nouveaux téléphones.
C'est devenu un argument marketing et je suis sur que ça doit marcher sur 99% des utilisateurs qui n'ont strictement aucune idée de ce que ça peut bien être.
Le 1% restant connait la techno et sait que soit ça ne sert à rien sur l'appareil concerné, soit qu'activer cette option rendra le jeu totalement injouable.

Raytracing sur une switch2 qui aura au mieux la puissance d'une PS4 alors que même sur la PS5 c'est du RT très light
Mais ce n'est pas un mensonge, elle pourra effectivement faire du RT, si on accepte de jouer à 5 ips.
Citation :
Publié par aziraphale
Absolument tout et n'importe quoi est annoncé supportant le ray-tracing, y compris les nouveaux téléphones.
C'est devenu un argument marketing et je suis sur que ça doit marcher sur 99% des utilisateurs qui n'ont strictement aucune idée de ce que ça peut bien être.
Le 1% restant connait la techno et sait que soit ça ne sert à rien sur l'appareil concerné, soit qu'activer cette option rendra le jeu totalement injouable.

Raytracing sur une switch2 qui aura au mieux la puissance d'une PS4 alors que même sur la PS5 c'est du RT très light
Mais ce n'est pas un mensonge, elle pourra effectivement faire du RT, si on accepte de jouer à 5 ips.
Faut prendre en compte plusieurs choses. Déjà la "puissance" faut voir ce que c'est. Le mieux pour le RT, c'est pas de la puissance brute, mais des core spécialisés (RT core).
Deuxièmement, la Switch 2 aura petit écran, donc jouer en plus faible résolution ne posera pas les mêmes problèmes que sur une télé.
Enfin, la Switch 2 supportera l'upscaling DLSS ce qui permet de diminuer encore la résolution de rendu et libérer les ressources disponibles pour autre chose.

La Switch 2 va être basée sur la génération Ampere, c'est à dire des GPU qui s'en sortait bien en DLSS et RT. L'architecture Rage 6 de la PS4 date elle d'une époque où personne ne parlait de RT ou d'upscaling par deep learning. Même à puissance équivalente ces 2 générations sont très différentes.

Globalement, à puissance équivalente à la PS4, la Switch 2 devrait être capable de gérer des moteurs plus poussés en échange d'une baisse de résolution et sera en plus épaulée par des cores spécialisés RT core et tensor core pour gérer ray tracing et DLSS.

Même la PS5 et la XBox Series X n'ont pas de RT core, ce sont les shadings units qui s'occupent du RT, ils en sont capables dans une certaine mesure mais beaucoup moins efficaces.

Dernière modification par Borh ; 25/09/2023 à 11h19.
Citation :
Publié par Borh
Faut prendre en compte plusieurs choses. Déjà la "puissance" faut voir ce que c'est. Le mieux pour le RT, c'est pas de la puissance brute, mais des core spécialisés (RT core).
Deuxièmement, la Switch 2 aura petit écran, donc jouer en plus faible résolution ne posera pas les mêmes problèmes que sur une télé.
Enfin, la Switch 2 supportera l'upscaling DLSS ce qui permet de diminuer encore la résolution de rendu et libérer les ressources disponibles pour autre chose.

La Switch 2 va être basée sur la génération Ampere, c'est à dire des GPU qui s'en sortait bien en DLSS et RT. L'architecture Rage 6 de la PS4 date elle d'une époque où personne ne parlait de RT ou d'upscaling par deep learning. Même à puissance équivalente ces 2 générations sont très différentes.

Globalement, à puissance équivalente à la PS4, la Switch 2 devrait être capable de gérer des moteurs plus poussés en échange d'une baisse de résolution et sera en plus épaulée par des cores spécialisés RT core et tensor core pour gérer ray tracing et DLSS.

Même la PS5 et la XBox Series X n'ont pas de RT core, ce sont les shadings units qui s'occupent du RT, ils en sont capables dans une certaine mesure mais beaucoup moins efficaces.
J'ai envie de demander tes sources là parce que tout ce que j'ai pu lire c'est que la puissance serait comparable à une PS4 ou Xbox One, mais j'ai vu aucune info concernant son architecture
Citation :
Publié par Von
J'ai envie de demander tes sources là parce que tout ce que j'ai pu lire c'est que la puissance serait comparable à une PS4 ou Xbox One, mais j'ai vu aucune info concernant son architecture
https://wccftech.com/nintendo-switch...a78-cpu-cores/

Ce sont encore des rumeurs, mais elles commencent à devenir de plus en plus solides.
Citation :
Publié par Von
J'ai envie de demander tes sources là parce que tout ce que j'ai pu lire c'est que la puissance serait comparable à une PS4 ou Xbox One, mais j'ai vu aucune info concernant son architecture
Globalement c'est ce qui se dit un peu partout
https://www.ginjfo.com/actualites/mu...andes-20230913

Je ne remets pas en cause le fait que la "puissance" serait la même que la PS4 ou la XBox One. Mais les performances d'une console ou d'un GPU, c'est pas que la puissance brute.

En termes de TFlops, une 7900 XTX est plus puissante qu'une RTX 4090 (122 Tflops vs 82 Tflops). La puissance brute est utile pour comparer différents GPU au sein d'une même architecture mais ça va pas vraiment plus loin.
Citation :
Publié par Borh
C'est vrai que le coût est très élevé et je comprends ceux qui font l'impasse. Et il y a encore une grande marge de progression.
Mais perso je trouve que ça vaut le coût si on a le budget.
Chacun ses sensibilités du coup. Perso je trouve le RT totalement dispensable, à tel point que je n'ai jamais vu la différence On ou Off sauf à la limite avec les réflections que de toutes les manières tu ne calcule pas quand t'es en plein dans ton jeu.

J'avais le budget pour prendre la 4090 c'est juste que je n'en voyait pas l'intérêt. Mon écran est de plus limité à 120Hz.

Et puis je préfère prendre un GPU à 1000€ et me laisser la possibilité de le vendre et d'upgrade à la prochaine génération.

C'est ce que j'ai fais avec la 3080.
Citation :
Publié par Daynos de Nory
Et dire que dans mon enfance, on était subjugué par ça

ltf_resizeimg.png

Pour l'heure mes 2 écrans sont toujours en 1080p / 60Hz et ça me suffit largement. Mon PC actuel a environ 10 ans et aurait besoin d'être changé pour faire tourner les gros titres du moment mais en dehors de ça, il tourne toujours très bien !

Ce qui m'embête le plus avec l'idée de changer de matériel, c'est "que faire de l'ancien ?". J'ai toujours mon ancien PC stocké dans un carton avec ses 2 écrans 17", et j'arrive pas à me résoudre à les jeter parce qu'ils fonctionnent encore. Et quand on voit les reportages sur ces écrans mis en centre de recyclage au US qui finissent dans une décharge à ciel ouvert en Afrique ou en Asie, ça ne donne pas trop confiance dans le recyclage.

Bref tout ça pour dire que je ne suis pas près d'investir dans la 8K, vu que je ne vois toujours pas l'intérêt de passer à la 4K dans mon cas.
Ton Avatar de " Powermonger " c'est mon adolescence j'en ai passé des nuits blanche dessus...

Pourquoi tu ne donne pas tes vieux écrans ? vieux PC , chez emmaus ? ou autre , de toute façon il sauront quoi en faire , recyclage ou vente a petit prix .
Citation :
Publié par Anngelle Silverstar
Ton Avatar de " Powermonger " c'est mon adolescence j'en ai passé des nuits blanche dessus...

Pourquoi tu ne donne pas tes vieux écrans ? vieux PC , chez emmaus ? ou autre , de toute façon il sauront quoi en faire , recyclage ou vente a petit prix .
Powermonger, j'en ai passé du temps là-dessus. Avec une carte en 3D, la révolution

C'est mon côté "on sait jamais ça peut encore servir".
Je devrais me donner un délai : stocké plus de 5 ans, s'en débarrasser. Le matériel informatique/audiovisuel n'est clairement pas un bon placement
T'imagine même pas comment je te comprends... J'ai encore mon disque dur de 250mo qui allait dans mon 486 SX 33Mhz parce que ON SAIT JAMAIS.

J'ai toujours ma GTX 970 quelque part aussi, histoire de dépanner si la mienne tombe en panne.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés