[Intel, Nvidia, AMD] Etat du marché et évolution.

Répondre
Partager Rechercher
Citation :
Publié par .Sash
Qu'ils n'aient pas pris le temps nécessaire, c'est à dire plus que prévu étant donné l'imprévu ne veut pas dire qu'ils en ont rushé la sortie à l'origine.

On fait tous des erreurs mais pas forcément parce qu'on a été trop vite.
Oui mais là y a pas que ça. Il y a plein d'autres indices montrant que NVidia a rushé. Le fait que les sites qui ont testé les cartes les ont reçus à la dernière minute et ont eu très peu de temps pour faire leurs tests avant de les renvoyer. Le fait que la sortie des cartes a été décalées au moins 3 fois. Le fait que la plupart des premières commandes des 2080 Ti Founder's Edition ont été livrées avec plusieurs semaines de retard...
Je ne pense pas qu'il y ait une volonté d'Nvidia de "rusher" le projet, je pense qu'Nvidia a éprouvé/éprouve et éprouvera encore certainement des difficultés à le mener à bien/le finaliser par rapport à ce qui est prévu.

Il s'agit tout de même d'une revue très ambitieuse de l'architecture, ça n'a pas l'air aussi simple. Après peut-être qu'on ne s'entend pas sur les termes mais qu'on veut dire la même chose.

Dernière modification par Compte #238807 ; 15/11/2018 à 22h37.
Test du ray tracing de BFV par Hardware Unboxed

Avec une 2080Ti, en Ultra, et DXR Ultra, le jeu tourne à 30fps, avec chutes à 25fps... (125fps avec DXR off)
Et encore, le ray tracing ne concerne que les réflexions, pas les ombres, pas l'occlusion.

Bon bah je crois que j'attendrais la prochaine gen pour profiter du ray tracing. Je vais pas mettre 1200€ si c'est pas pour jouer tout à fond. La 2080 Ti est juste sous dimensionnée pour le ray tracing, ce qui pour une carte à ce prix n'est pas acceptable.
Citation :
Publié par Borh
Avec une 2080Ti, en Ultra, et DXR Ultra, le jeu tourne à 30fps, avec chutes à 25fps... (125fps avec DXR off)
Et encore, le ray tracing ne concerne que les réflexions, pas les ombres, pas l'occlusion.

Bon bah je crois que j'attendrais la prochaine gen pour profiter du ray tracing. Je vais pas mettre 1200€ si c'est pas pour jouer tout à fond.
Citation :
Publié par .Sash
le RTX sur BF5 donc c'est uniquement des effets de réflexion et rien d'autres... Il n'y a pas d'effets sur les ombres ni sur l'occlusion ambiante.

En gros tu perds 50% de perf pour voir l’environnement se refléter sur les flaques d'eau, les sols marbrés, les bagnoles et les vitrines qui deviennent limite des miroirs...

Sur la ligne réflexion des options graphiques tu met ultra+++ et tu perds 50% de perf. Worth it ?
Je te confirme que dans le fond on veut dire la même chose... ^^
Presque. Si on ne perdait "que" 50%, on serait encore autour de 50fps, ce qui est jouable pour moi sur écran Gsync.
Mais les 50% en moins, c'est avec le DXR réglé en low, et c'est nettement moins beau que le DXR Ultra. Payer une carte 1200€ pour jouer à 50fps en DXR low, au secours.
En DXR Ultra, on passe de 125fps à 35fps, -72% de perfs dans la gueule.
De Low à Ultra DXR, j'ai vu peu de différence de mon côté...

Par contre, pour en revenir à la réflexion, il me semble sans être spécialiste que d'usage les calculs de l'occlusion ambiante mais surtout des ombres et de la lumière sont beaucoup plus gourmands en terme de perf (ou pas).

C'est étonnant qu'il y ait cette distinction, car sur SotT par exemple il y a bien la gestion des ombres... Est-ce que pour le moment ils choisissent des petites portions de gestion du ray tracing selon les jeux et les capacités du moteur ?

Dernière modification par Compte #238807 ; 15/11/2018 à 23h13.
En low, les réflexions n'ont lieu que sur l'eau. En ultra tu les as sur le reste comme la boue ou le métal des fusil. Question réalisme visuel ça fait une grosse différence.
La vidéo que j'ai posté est vraiment bien faite pour montrer les différences et l'auteur le dit lui même que les différences entre low et ultra sont très importantes, c'est pas que moi. .
Par contre il n'y a bizarrement aucune différence entre les modes DXR ultra, high et medium, ni en termes visuels ni en termes de performances.
Est-ce que tu aurais une frame de la vidéo où l'on remarque bien la différence ?

Edit : ok j'ai trouvé. Je pense que tu parles de la séquence à 2:50 min que j'avais zappée alors que j'étais plutôt fixé sur tout ce qui commence à partir de 4min - 5min.

En effet, sur certains plans la différence est très importante alors que sur d'autres beaucoup moins.

Dernière modification par Compte #238807 ; 15/11/2018 à 23h29.
On peut aussi se demander l'intérêt d'avoir mis des RT cores dans la 2080 et surtout la 2070. Ça rend les cartes plus chères à produire, ça augmente la consommation, et les jeux sont injouables avec RT activé...
15 fps, BF V avec la 2070...
Démocratiser la tech dans les esprits et la rendre incontournable.
J'ai envie de dire, sans surprise concernant le RayTracing.

En tous cas je disais plus tot :
"On nous pompe avec le raytracing, mais une 2080Ti est a genou pour lâcher 30 fps en 1080p sur Tomb Raider.
Du coup les 2080 et 2070 qui nous sont vendu comme des GPU raytracing, ça donne quoi au juste ?
En clair les gpu ne sont pas prêt pour offrir une expérience de jeu satisfaisante, même au prix fort."



Madame irma quoi !

C'était prévisible, il y a déjà eu de nombreux signaux d'alarme.
La feature "Raytracing" a été beaucoup trop mise en avant.
Cette génération de GPU c'est du bullshit marketing.
Hors de prix avec des technos inutilisable.

Il n'y a aucun intérêt à acheter l'une de ces cartes.
Citation :
Publié par Qyoon
Il n'y a aucun intérêt à acheter l'une de ces cartes.
Quand les 10xx seront out of stock, t'auras simplement pas le choix et il faut bien commencer par quelque chose.
Citation :
Publié par .Sash
Quand les 10xx seront out of stock, t'auras simplement pas le choix et il faut bien commencer par quelque chose.
Oui vers le marché de l'occasion en priorité.
Ca ne sera pas le cas de la grande majorité.
Citation :
Publié par Qyoon
Faudrait savoir un jour elle sont trop cher.
Le lendemain , "la grande majorité" peu se les offrir.
Perso même en ayant les moyens c'est non.
https://www.overclockingmadeinfrance...rtx-2060-2019/
Citation :
Publié par .Sash
Démocratiser la tech dans les esprits et la rendre incontournable.
Tu ne peux démocratiser une techno que si elle est utilisable par le commun des mortels et là ça pose problème vu que même la 2080 Ti a du mal à la gérer (du moins pour le moment), ce qui exclu direct les 2080/2070 et je n'ose même pas parler des 2060. D'ailleurs, les premières rumeurs concernant les 2060 parlaient d'une non prise en charge de la techno par cette puce (la CG serait nommée GTX et non RTX), ce qui serait logique vu qu'elle serait sûrement incapable de sortir plus de 15 fps en 1080p.

Pour info, le ray tracing est déjà dispo chez AMD depuis quelques temps déjà avec les modèles pro des puces Vega. Alors pourquoi AMD ne compte pas intégrer la prise en charge du ray tracing sur ses futurs modèles destinés au grand public ? Peut-être justement parce qu'entre le coût de production et les performances réelles en jeu, l'intérêt était encore bien trop limité et qu'il fallait encore attendre.

Tant qu'il n'y aura pas un ticket d'entrée aux alentours de 300 balles pour des performances stables et acceptables, ça ne fonctionnera pas. Et quand je dis performances acceptables, il faut qu'en activant le ray tracing les performances ne soient pas plus faibles que la génération précédente sans. Le grand public n'activera jamais une option qui leur fait perdre des performances en comparison de leur ancienne CG (tu ne lâches pas la liasse de billets pour avoir moins bien qu'avant juste pour une option, ça n'a pas de sens aux yeux du simple mortel).

Pour l'instant, cela titille les technophiles, mais les joueurs en général, va falloir beaucoup mieux pour les convaincre et d'ici là AMD aura intégré la techno dans ses nouvelles CG et Nvidia aura mieux à proposer. Nvidia et ses RTX, c'est un peu Nintendo et son Virtual Boy. Le truc qui a des années d'avance, mais qui ne sert à rien.
Citation :
Publié par Lianai
Tu ne peux démocratiser une techno que si elle est utilisable par le commun des mortels et là ça pose problème vu que même la 2080 Ti a du mal à la gérer (du moins pour le moment), ce qui exclu direct les 2080/2070 et je n'ose même pas parler des 2060. D'ailleurs, les premières rumeurs concernant les 2060 parlaient d'une non prise en charge de la techno par cette puce (la CG serait nommée GTX et non RTX), ce qui serait logique vu qu'elle serait sûrement incapable de sortir plus de 15 fps en 1080p.
C'est pas une rumeur, Nvidia a annoncé qu'il y aurait des 2060 et 2050 GTX et non pas RTX.
Citation :
Publié par Rishnu / Bouffye
C'est pas une rumeur, Nvidia a annoncé qu'il y aurait des 2060 et 2050 GTX et non pas RTX.
Tu aurais une source ?

Au delà de l'appellation, ça me parait difficile de concevoir que les 2050-60 ne soient pas architecturées Turing.
Citation :
Publié par .Sash
Tu aurais une source ?

Au delà de l'appellation, ça me parait difficile de concevoir que les 2050-60 ne soient pas architecturées Turing.
Cela peut très bien être du turing.

Au fond, le terme RTX n'est pas en lien direct avec l'architecture Turing dans son ensemble, mais avec RayTracing (non de la techno ray tracing chez Nvidia) et les RT cores, donc ils peuvent très bien conserver les tensor cores pour le DLSS et virer les RT cores qui gèrent normalement le ray tracing.
Citation :
Publié par .Sash
Tu aurais une source ?

Au delà de l'appellation, ça me parait difficile de concevoir que les 2050-60 ne soient pas architecturées Turing.
Désolé, je viens d'aller chercher une source, et c'était un leak d'Adore TV (qui avait prédit l'appellation des RTX dans la même vidéo). Donc c'est pas officiel.

Sinon serait la même architecture, sauf qu'elles n'auront pas les tensor cores pour le DLSS et le RT (qui sont à part sur la puce du GPU).
Citation :
Publié par Rishnu / Bouffye
Sinon serait la même architecture, sauf qu'elles n'auront pas les tensor cores pour le DLSS et le RT (qui sont à part sur la puce du GPU).
Autant les RT cores, ils peuvent les virer vu que c'est dédié au ray tracing, mais les tensor, c'est pour l'IA du DLSS, donc ce serait dommage de les amputer alors que c'est bénéfique aux performances. Après, je sais qu'il y a la limitation du coût, mais rien qu'en virant les RT cores, ça devrait pas mal aider en comparaison des 2070.
Citation :
Publié par Lianai
Autant les RT cores, ils peuvent les virer vu que c'est dédié au ray tracing, mais les tensor, c'est pour l'IA du DLSS, donc ça reste utile vu que cela est bénéfique aux performances.
Franchement, pour des cartes dédiées au 1080p, est-ce que c'est vraiment utile ? Ca gonfle le prix des cartes pour un truc dont elles vont pas vraiment bénéficier. Ca ne serait pas surprenant.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés