[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Des diapos Microsoft on leaké sur la future XBox Scarlett. Équipée d'un GPU Navi à 12TFlops, et prête au ray tracing. Donc ça confirme que la prochaine gen fera du ray tracing, et qu'AMD bosse sur le ray tracing pour ses futures Navi (sauf si les consoles auraient du puce dédiée RT, mais le plus probable imo c'est que ce soit Navi qui gère).
Citation :
Publié par Borh
Des diapos Microsoft on leaké sur la future XBox Scarlett. Équipée d'un GPU Navi à 12TFlops, et prête au ray tracing. Donc ça confirme que la prochaine gen fera du ray tracing, et qu'AMD bosse sur le ray tracing pour ses futures Navi (sauf si les consoles auraient du puce dédiée RT, mais le plus probable imo c'est que ce soit Navi qui gère).
Etonnant le raytracing, mais ça me surprend pas pour le GPU. S'ils équipent la ps5/xbox de puces navi, c'est un des moyens de réduire les coûts de productions en augmentant les volumes, et donc de proposer des gpu pas chers pour le pc.
C'était une de mes théories.

40406-1548397043-4307.png
On m'a pas pris au sérieux
Citation :
Publié par Rishnu / Bouffye
Etonnant le raytracing, mais ça me surprend pas pour le GPU. S'ils équipent la ps5/xbox de puces navi, c'est un des moyens de réduire les coûts de productions en augmentant les volumes, et donc de proposer des gpu pas chers pour le pc.
C'était une de mes théories.

40406-1548397043-4307.png
On m'a pas pris au sérieux
La Xbox scarlett étant prévue pour 2020, y aura peut-être pas de RT dans les premières gen de Navi qui devraient sortir dans quelques mois. On verra bien. En tout cas, à partir de 2020, le RT devrait se démocratiser.


Perso, c'est ce que je disais quelques pages précédemment, les futures consoles auront besoin de RT pour se différencier de la gen précédente. Quand je vois la XBox One X, les jeux récents tournent dessus très correctement, on a pas l'impression d'une fin de gen, qui nécessite impérativement un renouvellement proche. C'est le problème d'avoir sorti des refresh One X et PS5. Donc il faudra un facteur différenciant important, et ce sera le RT.
Comme déjà dit, le ray tracing est déjà disponible sur les Vega destinées aux professionnels. Il n'y a donc rien d'étonnant à ce qu'AMD déporte la techno sur sa nouvelle génération de CG grand public si elle est suffisamment maîtrisée au point que son intégration ne fait pas exploser les coûts. D'ailleurs, il est fort possible que Nvidia ait sorti ses RTX aussi précipitamment justement parce qu'AMD avançait bien sur la techno. Et puis cela donne le sentiment au grand public que le ray tracing est une technologie Nvidia alors que pas du tout.

En tout cas j'ai hâte de voir cette nouvelle gen AMD. On n'a pas vu d'AMD compétitives sur le très haut de gamme depuis quoi ? Les Radeon HD7970 ? Cela fait 7 ans quand même.

Citation :
Publié par Jerau
Ça semble se concrétiser pour les prochaines GTX
https://www.cowcotland.com/amp/65789...9-dollars.html
Si ça se concrétise, j'aurais eu en partie raison sur le prix
Le père noël il oublie méchamment un critère qui peut contrebalancer aisément ce qu'il avance : la pénurie induite, le marché console trustant les composants. C'est pas comme si on avait jamais connu le cas de figure (pour la mémoire surtout... ). Le mining a suffit a faire exploser les prix GPU par le passé. Si en prime les consoles s'en mêlent, on est dans la merde plus qu'autre chose si vous voulez mon avis.

Mais bon... elles embarqueront pas les mêmes GPU. Pas possible, et ce d'autant plus que la 4K risque d'impacter le minima nécessaire dans la conception des futures consoles. L'écart se réduira certes un peu entre les deux mondes, parce que les marges seront réduites dans le monde console (en prenant en compte que le volume compense), mais pas suffisamment pour dire "euh, pourquoi déjà j'achète une carte si chère sur PC alors qu'une console ferait pareil?".
Bon, les consoleux diront le contraire. Mais ça fait déjà des lustres qu'ils chantent ce refrain, oublieux des upscaling, des post-process différents, voir même des rendus clairement pas à niveau. Ça ne les empêchait en rien, alors dans le futur la rengaine n'est pas prête de se taire, effectivement.

Ah j'oubliais...

Citation :
Puissance = Productivité, c'est un peu simpliste.
Non, ça ne l'est pas dans tout un tas de secteurs d'activité. Comme l'édition vidéo, pour l'exemple. Au passage je ne l'ai pas formulé comme toi, puisque je fais bien, moi, la distinction entre les différents besoins. Pour certains, c'est inutile. Mais pas pour tous. Et tant que parmi ce "tous", une portion a justement besoin de renouveler son équipement, que ce soit parce qu'il date (eh ouai, on fait pas tous ça de manière synchrone comme je le disais, une évidence que beaucoup semblent oublier) ou parce qu'un investissement minime (à l'échelle d'une société) peut apporter un plus significatif selon les cas. Mais bon. Oui, c'est simpliste. Mes propos le sont toujours d'ailleurs.

*Drys de mauvais poil*
Citation :
Publié par Lianai
Comme déjà dit, le ray tracing est déjà disponible sur les Vega destinées aux professionnels. Il n'y a donc rien d'étonnant à ce qu'AMD déporte la techno sur sa nouvelle génération de CG grand public si elle est suffisamment maîtrisée au point que son intégration ne fait pas exploser les coûts. D'ailleurs, il est fort possible que Nvidia ait sorti ses RTX aussi précipitamment justement parce qu'AMD avançait bien sur la techno. Et puis cela donne le sentiment au grand public que le ray tracing est une technologie Nvidia alors que pas du tout.

En tout cas j'ai hâte de voir cette nouvelle gen AMD. On n'a pas vu d'AMD compétitives sur le très haut de gamme depuis quoi ? Les Radeon HD7970 ? Cela fait 7 ans quand même.


Si ça se concrétise, j'aurais eu en partie raison sur le prix
Avec les conversions €/$ folkloriques qu'on se tape en permanence on va probablement avoir droit à :

179$ = 200€ GTX 1650
229$ = 250€ GTX 1660 (mais laquelle ? 3 ou 6 Go ?)
279$ = 300€ GTX 1660 Ti

Ce qui serait assez logique vu les prix des 10xx de même puissance



Edit pour en dessous : ne t'inquiète pas, ça restera toujours pareil.
Tout simplement parce que les fabricants de consoles ne risquent pas de mettre un GPU à 300€ dans une console qu'ils vont vendre 600€, et que de toute façon il est totalement impossible de dissiper correctement la chaleur d'un GPU gamer dans un boitier de console.
Les prochaines consoles vont certainement, comme d'habitude, embarquer les Navi les moins performantes de la gamme, avec peut-être moins de VRAM que le modèle gamer et downclocké.
On est pas près de voir une console sortir avec une qualité graphique supérieure à un PC moyenne gamme sorti 2 ou 3 ans avant.

Dernière modification par aziraphale ; 25/01/2019 à 09h15.
Faut tout de meme admettre que depuis la PS2 et la PS3 (et leur homologue Xbox respectif) j'ai rarement vu une console au launch me faire dire : La vache c'est beau faudrait que le PC se sorte les doigts du cul la on est un peu a la traine (Sauf a depenser 3k€)

La PS4 pour moi quand elle est sortie bah la qualité graphique c'etait deja : meh !
Citation :
Publié par Drys Kaine
Le père noël il oublie méchamment un critère qui peut contrebalancer aisément ce qu'il avance : la pénurie induite, le marché console trustant les composants. C'est pas comme si on avait jamais connu le cas de figure (pour la mémoire surtout... ). Le mining a suffit a faire exploser les prix GPU par le passé. Si en prime les consoles s'en mêlent, on est dans la merde plus qu'autre chose si vous voulez mon avis.

Mais bon... elles embarqueront pas les mêmes GPU. Pas possible, et ce d'autant plus que la 4K risque d'impacter le minima nécessaire dans la conception des futures consoles. L'écart se réduira certes un peu entre les deux mondes, parce que les marges seront réduites dans le monde console (en prenant en compte que le volume compense), mais pas suffisamment pour dire "euh, pourquoi déjà j'achète une carte si chère sur PC alors qu'une console ferait pareil?".
Bon, les consoleux diront le contraire. Mais ça fait déjà des lustres qu'ils chantent ce refrain, oublieux des upscaling, des post-process différents, voir même des rendus clairement pas à niveau. Ça ne les empêchait en rien, alors dans le futur la rengaine n'est pas prête de se taire, effectivement.
Tu compares les pommes et les poires. AMD ne voulait pas produire trop de carte car le mining pouvait s'écrouler à tout moment et ils ne voulaient pas reproduire ce qu'ils s'est passé avec les 2xx, à savoir avoir des stocks d'invendus lors d'un crack des cryptos avec des cartes de 2nd main qui inondent le marché.

Ici, microsoft et sony ils achètent chaque puce produite par AMD pour chaque console produite, avec un contrat le garantissant. La production de carte PC n'en sera pas impacté vu que ce sont des prévisions / stocks à part (sauf si TSMC ne peut pas suivre, mais ça doit être sous contrat ça aussi).

Et si, ils proposeront un GPU similaire (Navi 12). Pourquoi ça sera pas possible ? Je vois pas d'argument contre, que des arguments pour (pas de design spécial à faire à part pour la puce GPU, diminution des coûts, support multi plateforme). Comme la xbox qui sera équipé de proc Zen2 8 cores...
Ça c'est directement lié à la production massive d'autres marchés, dont les volumes ont explosé par le passé > la pénurie induite [...] pour la mémoire surtout...
Et là c'est un facteur aggravant, ce n'est pas provoqué par un marché tiers, mais ça n'arrange rien > "Le mining a suffit a faire exploser les prix GPU par le passé."

Enfin bref... Non, on a jamais connu de tels phénomènes, autant sur la mémoire vive que sur la flash NAND, non, c'est sûr. Je dois avoir de faux souvenirs! Sûrement l'effet Mandela à la ... qui a fait fureur chez les simples d'esprit. D'ailleurs moi-même je le suis, simpliste, et je mélange pommes et poires. Mea culpa. Enseignez moi.

Quelqu'un au secours?...? j'en peux plus... Aran? Sinju? quelqu'un? non?
Citation :
Publié par Drys Kaine
Ça c'est directement lié à la production massive d'autres marchés, dont les volumes ont explosé par le passé > la pénurie induite [...] pour la mémoire surtout...
Et là c'est un facteur aggravant, ce n'est pas provoqué par un marché tiers, mais ça n'arrange rien > "Le mining a suffit a faire exploser les prix GPU par le passé."

Enfin bref... Non, on a jamais connu de tels phénomènes, autant sur la mémoire vive que sur la flash NAND, non, c'est sûr. Je dois avoir de faux souvenirs! Sûrement l'effet Mandela à la ... qui a fait fureur chez les simples d'esprit. D'ailleurs moi-même je le suis, simpliste, et je mélange pommes et poires. Mea culpa. Enseignez moi.

Quelqu'un au secours?...? j'en peux plus... Aran? Sinju? quelqu'un? non?
Bah ouais c'est complètement différent. La ram, c'est un quartel organisé d'entente sur les prix/production...
Et la ram, ce n'est pas les GPU. Samsung Hynix et autres ont leurs propres fabriques.

TSMC, ils ont un contrat avec AMD sur les volumes de production. AMD prend 0 risque avec le marché des consoles, vu que c'est un gpu produit = un gpu vendu... Donc aucune chance d'avoir des l'invendus de leur côté, c'est sony et microsoft qui se démerdent avec... Donc absolument rien à voir...

Ils ont voulu éviter la situation qui est arrivé à nvidia, et n'ont pas voulu augmenté leur production à cause du risque d'un crack du mining. Ca n'avait rien à avoir avec la possibilité de produire plus de GPU.

Je dis pas qu'il y a pas de risque qu'une situation arrive, (un tremblement de terre qui détruit les usines, ou un autre soucis). Mais c'est un facteur mineur et improbable. Je dis juste que l'argument que tu as utilisé ne tient pas seul.

Tu sais qu'AMD produit déjà les GPU/CPU des consoles depuis 10 ans ? Et que ça a jamais impacté le marché du PC ?

Dernière modification par Rishnu / Bouffye ; 25/01/2019 à 09h47.
Non mais qu'est-ce que tu comprends pas dans facteur aggravant? L'utilisateur final, il se fout bien que ce soit un choix de politique interne ou des limites de production. Une carte graphique plus chère, c'est ça sa problématique au consommateur. Donc, oui, le phénomène du data mining a été un facteur aggravant pour le consommateur. Clairement. Quant à "l'entente"... *tousse*... oui, d'accord. Toutes les pénuries qui ont pu avoir lieu par le passé ont toujours été dû à un complot ourdi entre les sociétés contre nous. L'explosion du marché des smartphones, des consoles, tout ça... ça n'a jamais eu d'impact. Oh et je sais bien que la mémoire n'entre pas en compte dans le GPU lui-même. Seulement ton GPU tout seul, tu peux te le souder sur le front il sera au moins aussi utile que sans mémoire. Une fois encore, tous mes propos s'attardent sur la problématique du consommateur. De même que le glissement tarifaire des gammes est un problème avant tout pour lui.

Par ailleurs... C'était pourtant évident, mais bon... Aziraphale a signalé ce que je n'estimais pas nécessaire d'être énoncé : les consoles ont un placement tarifaire particulier. Et elles ne peuvent pas devenir soudainement des PC-like (ce qu'elles sont déjà, je précise parce que je vois venir la contradiction avec ses gros sabots d'ici) vendus à prix similaires. Ajoutes à cela la prévision de la 4K que j'évoquais, et là où ça va coincer, c'est donc nécessairement sur la puissance brute que pourra fournir le GPU inclus. Tout simplement parce que la viabilité commerciale et le placement tarifaire ne sont pas étrangers à la conception technique d'une console. Et qu'inclure des GPU hors de prix est donc exclu. L'architecture, c'est une chose, mais ça ne signifie pas que les cartes seront les mêmes. Elles seront d'une même famille, oui... et? Un peu comme le sont les GTX 1080 Ti et les GTX 1060. Mettons.

Edit : *soupire*

Oui je sais... seulement s'ils doivent prendre des die des même wafers, ce n'est pas pareil.

Citation :
Je dis pas qu'il y a pas de risque qu'une situation arrive, (un tremblement de terre qui détruit les usines, ou un autre soucis). Mais c'est un facteur mineur et improbable.
Improbable comme les incidents survenus dans les usines des fabricants de disques durs par le passé tu veux dire (Thaïlande 2011 pour l'exemple)?

Dernière modification par Drys Kaine ; 25/01/2019 à 09h53.
Citation :
Publié par Drys Kaine
Par ailleurs... C'était pourtant évident, mais bon... Aziraphale a signalé ce que je n'estimais pas nécessaire d'être énoncé : les consoles ont un placement tarifaire particulier. Et elles ne peuvent pas devenir soudainement des PC-like (ce qu'elles sont déjà, je précise parce que je vois venir la contradiction avec ses gros sabots d'ici) vendus à prix similaires. Ajoutes à cela la prévision de la 4K que j'évoquais, et là où ça va coincer, c'est donc nécessairement sur la puissance brute que pourra fournir le GPU inclus. Tout simplement parce que la viabilité commerciale et le placement tarifaire ne sont pas étrangers à la conception technique d'une console. Et qu'inclure des GPU hors de prix est donc exclu. L'architecture, c'est une chose, mais ça ne signifie pas que les cartes seront les mêmes. Elles seront d'une même famille, oui... et? Un peu comme le sont les GTX 1080 Ti et les GTX 1060. Mettons.
Tu sais qu'actuellement, un R5 + une carte mid range, t'as un PC vers les 600 euros ? Une console c'est +/-400 euros au lancement.
Si AMD utilise les même composants pour les PC et les consoles, et arrive à faire des économies d'échelle grâce à ça, on peut facilement arriver à une console qui équivaut à un PC.
Le soucis actuellement, c'est que la PS5 et la Xbox ont des composants spéciaux (processeur jaguar).

C'est pour ça que navi avec des cartes comprises entre 130 et 250 euros avec des grosses perfs est pas si délirant aux vues des dernières informations.

Citation :
Improbable comme les incidents survenus dans les usines des fabricants de disques durs par le passé tu veux dire (Thaïlande 2011 pour l'exemple)?
Bah oui, ça arrive pas tous les ans...
Tu prends en compte le risque de guerre nucléaire ou de crash d'astéroïdes aussi ? J'exagère, mais les éléments incontrôlables/improbables ne sont pas à prendre en compte si on veut spéculer.
Le propos se tiendrait si la 4K était totalement étrangère à l'équation. Et personnellement, je ne peux pas croire qu'un des acteurs du marché sorte une console pour la prochaine génération n'étant pas capable d'y répondre. Ça me semblerait du suicide. Ni plus ni moins. Mais, oui, dans l'absolu, c'est possible. On a vu tout un tas d'actes crétins faits dans le monde du numérique depuis qu'il a émergé. Ça n'en fait pas pour autant quelque chose de hautement probable. Juste possible.

Non parce que les ressources graphiques de la 4K, le Ray Tracing... et une carte à moins de 200€ de prix de revient? J'ai un doute pour ma part.

P.S : une console à 600€ me semblerait casse-gueule en terme de placement tarifaire déjà. Cf. mes propos plus haut. Deux mondes, deux philosophies, et surtout, deux prix. Qui voudrait d'une console au prix d'un PC, qui ne ferait pourtant pas mieux? A part des consommateurs typés Apple, qui se foutent des considérations de qualité.perfs/prix, et ne voient que la possible facilité d'utilisation dans le cas présent, d'une station de jeu unifiée en comparaison de "l'usine à gaz" (j'exagère à dessein) d'un PC.

Edit : pour les disques durs et la Thaïlande, je ne faisais que répondre. Je n'inclue pas ce risque minime (en probabilité, pas en conséquences), à ma réflexion. Je signalais juste que c'est possible, et que c'est arrivé plusieurs fois.
Citation :
Publié par Drys Kaine
Le propos se tiendrait si la 4K était totalement étrangère à l'équation. Et personnellement, je ne peux pas croire qu'un des acteurs du marché sorte une console pour la prochaine génération n'étant pas capable d'y répondre. Ça me semblerait du suicide. Ni plus ni moins. Mais, oui, dans l'absolu, c'est possible. On a vu tout un tas d'actes crétins faits dans le monde du numérique depuis qu'il a émergé. Ça n'en fait pas pour autant quelque chose de hautement probable. Juste possible.

Non parce que les ressources graphiques de la 4K, le Ray Tracing... et une carte à moins de 200€ de prix de revient? J'ai un doute pour ma part.

P.S : une console à 600€ me semblerait casse-gueule en terme de placement tarifaire déjà. Cf. mes propos plus haut. Deux mondes, deux philosophies, et surtout, deux prix. Qui voudrait d'une console au prix d'un PC, qui ne ferait pourtant pas mieux? A part des consommateurs typés Apple, qui se foutent des considérations de qualité.perfs/prix, et ne voient que la possible facilité d'utilisation dans le cas présent, d'une station de jeu unifiée en comparaison de "l'usine à gaz" (j'exagère à dessein) d'un PC.
C'est pour ça qu'avec les économies d'échelles, et sans passer par des acteurs comme les marques de CM/cartes qui doivent faire leur marge, on peut arriver à 400 euros au lieu de 600, et donc proposer une console au prix normal.

Et la Xbox one a été lancée à 499 dollars aussi.

Et puis on avait du 50% de performances à chaque génération de CG avant. On a déjà eu +70%. Ca s'est calmé récemment, car AMD était dans les choux et nvidia devait faire le strict minimum. Si amd s'est sorti les doigts du cul, c'est possible.

J'ai aussi un doute pour le Raytracing + 4k pour pas cher... C'est pour ça que toutes les infos qu'on a sont a prendre avec précaution.

C'est pas parce que je ne suis pas d'accord avec un argument contre AMD et Navi pas cher que je valide forcément l'idée diamétralement opposée hein. Je suis pas en train de dire que je suis certain que AMD va sortir des cartes équivalentes aux 1080ti pour 150 euros.
Juste que les informations disponibles avec lesquelles on peut spéculer ne rendent pas ça impossible.

Sinon concernant le raytracing, l'architecture console est différente. La puce graphique a un accès directe à la ram (qui est partagée entre le cpu et le gpu) et au CPU. Si le raytracing est géré par la proc, c'est complètement différent. Si c'est 2/3/4 cores du Zen2 qui gère le raytracing a la place des RT cores, c'est une solution pour que la CG soit moins puissante.

Dernière modification par Rishnu / Bouffye ; 25/01/2019 à 10h22.
Citation :
Publié par Lianai
Pour les joueurs (je ne vais pas parler pour les pros) la 4K apporte réellement quelque chose.
Pas d'accords, il y a eu déjà plusieurs test de fait à ce sujet, les gens ne voient pas la différence entre un jeux en 1440p, et un jeux en 4K. Ah si, les gens préfèrent bien sur un jeu en 144hz qu'un jeu en 60hz (4k).
Je parle bien entendu face à du 1080p.

Après, c'est toujours dépendant de la diagonale d'écran. Sur du 24", le 4K n'a que très peu d'intérêt. Sur du 27, ça commence à se voir (même face à du 1440p) et sur du 32" c'est bien visible. Du coup, c'est situationnel, mais il y a un vrai gain en fonction de ton écran. Et encore une fois, de plus en plus de PC se déportent vers la TV du salon et là ça grimpe vite en terme de diagonale et la 4K devient vraiment un atout (le post processing pour l'upscale c'est cool, mais ce n'est pas super efficace sur tous les modèles et parfois ça en fait trop et ça flingue l'image sans parler du lag supplémentaire).

Mais comme je le dis dans mon message, cela dépend aussi des jeux. Jouer à Binding of Isaac en 4K n'apportera aucune valeur ajoutée face au 1080p

Dernière modification par Lianai ; 25/01/2019 à 15h05.
Les consoles et le mining, c'est 2 marchés éloignés.
Le mining, ça concerne les ventes de GPU au détail, et les prix des consoles n'a pas du tout impacté le prix des consoles.
Les rares fois où j'ai vu des gens qui voyaient une différence de fluidité au-delà de 60/80 fps, c'est quand le jeu est très mal programmé ou quand c'est affiché sur l'écran. Et tout ceux que je connais qui râlent pour une différence de 5-10fps après 100fps, ont tous le nombre de fps affiché en permanence.
Donc 4K, console, PC, 1080, 1440, ... si je jeu est bien conçu, la majorité des joueurs devraient être plus que satisfait et s'en foutent probablement du GPU.
Déjà même sur JoL, on n'est pas si nombreux que ça à focaliser sur un bon GPU, tant en rapport Q/P, qu'en puissance brute.
Citation :
Publié par Ryu Seiken
Les rares fois où j'ai vu des gens qui voyaient une différence de fluidité au-delà de 60/80 fps, c'est quand le jeu est très mal programmé ou quand c'est affiché sur l'écran. Et tout ceux que je connais qui râlent pour une différence de 5-10fps après 100fps, ont tous le nombre de fps affiché en permanence.
Donc 4K, console, PC, 1080, 1440, ... si je jeu est bien conçu, la majorité des joueurs devraient être plus que satisfait et s'en foutent probablement du GPU.
Déjà même sur JoL, on n'est pas si nombreux que ça à focaliser sur un bon GPU, tant en rapport Q/P, qu'en puissance brute.
Franchement, au delà de 90fps, j'ai du mal à voir la différence...
Il y a des gens qui voient la différence entre 144 vs 240, mais il y a clairement une diminution des gains.
Le seul truc que tu gagnes vraiment, c'est l'input lag qui diminue.
Citation :
Publié par Ryu Seiken
Les rares fois où j'ai vu des gens qui voyaient une différence de fluidité au-delà de 60/80 fps, c'est quand le jeu est très mal programmé ou quand c'est affiché sur l'écran. Et tout ceux que je connais qui râlent pour une différence de 5-10fps après 100fps, ont tous le nombre de fps affiché en permanence.
Oui pour un petit écart <20 au delà de 100 mais entre 80 et 144 ca se sens bien quand-même, je dis pas ça sans m'être amusé a switch entre les deux.
C'est pas qu'on ne perçois plus la différence au dela 90/100, c'est qu'il nous en faut exponentiellement plus pour en percevoir une, nuance.
La différence entre 60 et 90 est peut être aussi frappante que celle entre 90 et 240 par exemple.
Le point crucial est là. Voir et percevoir, ce n'est pas la même chose. Et effectivement, je suis d'accord et c'est pour ça que je pointais le fait que certains t'assure voir la différence quand il y a 5 ou 10 fps d'écart au-delà de 100fps. Même pour un œil sensible, ça doit être à peine perceptible à ce niveau. Et pour une personne normale, je pense qu'il faudrait -10% ou +20% pour qu'elle perçoive ou voit la différence.

PS : mais c'est toujours amusant de lire des gens qui disent voir une différence entre 180 et 200fps et râler que leur GPU est à ch***.
Citation :
Publié par aziraphale
On est pas près de voir une console sortir avec une qualité graphique supérieure à un PC moyenne gamme sorti 2 ou 3 ans avant.
Franchement, quand je vois God of War 4 sur PS4 Pro ou Forza Horizon 4 ou Red Dead Redemption 2 sur Xbox One X, je trouve pas qu'il y ait à rougir par rapport à des jeux sur PC.

Forza Horizon 4, d'après Digital Foundry, les graphismes sur One Xsont équivalents aux réglages ultra sur PC. Certes c'est du 1080p 60fps ou du 4k 30fps, mais la grande majorité des foyers ne sont équipés que de télés 1080p donc même en branchant un gros PC sur leur télé, ils n'auraient pas mieux
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés