Cyberpunk 2077 (Jeux vidéo)

[Vidéo] Les GeForce RTX 30 démontrent leurs capacités techniques avec Cyberpunk 2077

Répondre
Partager Rechercher
Mind a publié le 1 septembre 2020 cette vidéo sur JeuxOnLine :

Citation :
A l'occasion de l'annonce de sa nouvelle série de cartes graphiques, les GeForce RTX 30, NVIDIA publie cette vidéo exclusive de Cyberpunk 2077 pour mettre en avant les fonctionnalités de ray tracing et de DLSS de ses cartes.
Une réaction ? Une analyse ? Une question ? Ce fil de discussion est à votre disposition.
Je suis pas trop sensible aux graphismes quand je joue (contrairement aux animations).

Après j'avoue que s'arrêter sur un beau paysage, c'est sympa, mais sur 50h de jeux, ça me prend 2 minutes.
Ça fait cher de la minute.

Bref, le raytracing, ça me vend pas du rêve. (mais c'est un avis perso, et c'est parce que j'ai pas 1000€ en trop sur mon compte)

Par contre, objectivement, il manque le retour haptique, c'est indéniable. Et ça, c'est pas next gen.

Dernière modification par Oopsrongchan ; 01/09/2020 à 22h24.
si la next gen se contente juste d'effets de lumieres en plus je vois pas le gap perso,espérons une avancée sur l'IA ou autre ,il est loin l'epoque ps1 ,les avancées ne sont pas majeures ces dernières années...
perso je préfère une vraie ia qu'une gadget graphique useless.

sans compter que sur des nouveaux jeux au final on ne remarquera aucune différence d'avant ou après sauf si y'a une option à cocher à la limite, ce qui me ne me surprendra pas qu'ils ajoutent car c'est kikoo
Citation :
Publié par Omegaton
perso je préfère une vraie ia qu'une gadget graphique useless.

sans compter que sur des nouveaux jeux au final on ne remarquera aucune différence d'avant ou après sauf si y'a une option à cocher à la limite, ce qui me ne me surprendra pas qu'ils ajoutent car c'est kikoo
C'est quoi une vraie IA ?
Citation :
Publié par Borh
C'est quoi une vraie IA ?
Aucune idée en 40 ans de jeux vidéos je n'en ai jamais rencontré juste du bullshit artificiel qui n'a absolument rien d'intelligent...

Apres oui c'est beau mais on est pas sur une rupture technologique quand meme... la dernière vraie claque graphique dont je me souvienne c'était la 1ere fois que j'ai vu Quake 1 sous 3DFX avec de la 3D lissée sans le moindre effet de pixelisation, ca c'était une claque !
Citation :
Publié par MasT3R
Apres oui c'est beau mais on est pas sur une rupture technologique quand meme... la dernière vraie claque graphique dont je me souvienne c'était la 1ere fois que j'ai vu Quake 1 sous 3DFX avec de la 3D lissée sans le moindre effet de pixelisation, ca c'était une claque !
POD avec la Voodoo1 que je venais d'acheter.
La giga claque. Je sautais partout.


J'ai passé mes cours de conduite juste après (à 22ans il était temps, mais j'avais rien d'autre à faire) :

-tu prends les rond points un peu vite quand même.
-sur POD, ça passe, mais y'a pas de bagnoles en face....

Dernière modification par Oopsrongchan ; 01/09/2020 à 22h49.
Plutot que juger ou plutot penser juste en voyant sur une vidéo (Cyberpunk) je vous conseille de voir la Conférence Nvidia pour vous y faire une idée.
https://youtu.be/X1HKQ0426XE
J'aime pas les beaux graphismes. Je suis aveugle.

Sinon sans déconner, les graphs de fou avec des nouvelles CG de fou. Gling ! Dans la poche à la sortie.
MOUAIS, je préfère payé du full ultra + rayT 350euro chez du NAVI amd que me re-ruiné pour gagné 10-20 fps superflue sur une base de 800euro minimum chez Nvidia.
Citation :
Publié par Oopsrongchan
Je suis pas trop sensible aux graphismes quand je joue (contrairement aux animations).

Après j'avoue que s'arrêter sur un beau paysage, c'est sympa, mais sur 50h de jeux, ça me prend 2 minutes.
Ça fait cher de la minute.

Bref, le raytracing, ça me vend pas du rêve. (mais c'est un avis perso, et c'est parce que j'ai pas 1000€ en trop sur mon compte)

Par contre, objectivement, il manque le retour haptique, c'est indéniable. Et ça, c'est pas next gen.
Euuuuh, on ne doit pas jouer aux mêmes jeux. Les rpg ou open world tu profites bien du paysage, même en mouvement ou en combat... Mais il n'y pas que la beauté des paysages, les gains en fps avec leur système de calcul, et leur nouvelle technologie le RTX IO qui permet de transférer directement les données du ssd dans ma mémoire vie du GPU vont beaucoup aider. Les temps de chargement en théorie on sera même au dessus des nouvelles consoles si cela se confirme, alors qu'il y a peu les gens pensaient que ce serait exclusif aux consoles cette avancée car les jeux sont très bien optimisés contrairement aux pc avec plein de combo différents niveau matériel qui auraient rendu impossible tout ça même avec des ssd plus performant que sur les consoles...


Citation :
Publié par Omegaton
perso je préfère une vraie ia qu'une gadget graphique useless.

sans compter que sur des nouveaux jeux au final on ne remarquera aucune différence d'avant ou après sauf si y'a une option à cocher à la limite, ce qui me ne me surprendra pas qu'ils ajoutent car c'est kikoo
Ce type d'options, on verra beaucoup la différence sur les jeux à faible budget. Et ensuite ouais c'est sur que l'on ne fait pas la différence à moins de repartir sur des jeux plus ancien, on a tendance à idéaliser les graphismes des vieux jeux.

Pour l'ia ce n'est pas prêt d'arriver, ils ne vont pas se faire chier et attendront qu'elle soit développé dans d'autres secteurs. Ils n'ont pas d'intérêt à investir d'eux même dedans, aujourd'hui cela me parait être un énorme coût même pour un énorme studio
Perso je suis fan du RTX et du DLSS.
S'il y a bien un bon à faire dans les graphismes, c'est sur la gestion des lumières, de l'occlusion ambiante, des particules et tout le reste.
Suffit de voir comment ça change certains jeux comme Minecraft, Zelda botw, Red Dead 2, Skyrim, Metro et pleins d'autres.
Après c'est tellement gourmand.. mais voilà les nouvelles cartes et le DLSS, que du bon en perspective !
Ça doit être sympa toutes ces petites avancées graphiques, mais sincèrement, leur vidéo, on est d'accord qu'elle est pas tenable ?
C'est encore plus cut que le pire des blockbusters d'action ultra cut d'Hollywood...
Qui a fait ce trailer horrible ? C'est sensé représenter une feature graphique qui en met plein la vue, non ? Bah laissez nous le temps d'ADMIRER un peu les choses, non ?
Genre je regardais les reflets dans une flaque d'eau à un moment, j'ai à peine eu le temps de me dire "ah ouais, joli" que ça passait au plan suivant !
T'as à peine le temps de comprendre un plan que ça cut et enchaîne. Alors comment veux-tu voir quoi que ce soit sans mettre pause à chaque plan limite ? (ce qui soit-dit en passant ruine tout l'intérêt du "reflets en temps réel uber classe !" vu qu'on doit ARRÊTER la vidéo !)
Sans compter les 20 coupures fondu au noir avec du texte...
Infect.

En l'état, c'est joli, mais j'arrive pas à trouver ça transcendant.
A force de voir des vidéos partout sur le net et des tonnes d'articles sur CyberPunk depuis 1 an j'ai presque l'impression qu'il est déjà sortie depuis 6 mois qu'on parle de patch du jeu ...
Vivement qu'il y ai plus de concurrence dans le domaine des cartes graphiques, car honnêtement avec des cartes à 520 Euros la moins cher (RTX3070) et le triple pour le plus haut de gamme (RTX2090) ça devient délirant. Je vais reste un moment avec ma GTX1660 Super, au moins jusqu'à la mort de Guild Wars 2.
Tant qu'on a pas de moniteur 4K, je trouve que la différence de rendu ressenti visuellement ne vaut pas la dépense (on est quand même très loin du saut technologique que représentait la 3DFX à son époque).
Citation :
Publié par Pandark
Vivement qu'il y ai plus de concurrence dans le domaine des cartes graphiques, car honnêtement avec des cartes à 520 Euros la moins cher (RTX3070)
Ce n'est pas la moins chère. C'est la moins chère parmi celles présentées hier.
Et il n'y a eu que le haut de gamme de présenté. L'entrée et le milieu de gamme arriveront plus tard.

Puis, à 520€, on a le bas du haut de gamme qui est plus puissant que le haut du haut de gamme de la génération précédente pour moins de la moitié du prix.
En soi, c'est plutôt accessible. Et surtout ça laisse de l'espoir pour un moyen de gamme très intéressant (en terme de prix et de perf si on tourne sur du FHD voire éventuellement du QHD).

A l'autre bout de la gamme, la 3090 est à 1550€ mais permet de jouer à 60fps et plus en 8K (pour rappel, la 8K c'est 4 fois plus de pixels que la 4K). Hors un écran 8K, c'est pas évident à trouver. Sur LDLC par exemple, il y a 3 écrans TV (entre 4000 et 5000€) et 0 moniteurs qui ont de telles résolutions.
La 3090, c'est cher, mais ça réponds aux besoins que pas grand monde a.

Quand les 3070 et 3080 sont du haut de gamme "tout public" (c'est puissant, pas donné mais ça reste "accessible" pour tous ceux qui veulent et peuvent - se permettre de - jouer en UHD), la 3090 a un tarif excessif mais aussi une puissance excessive, qui en font avant tout une vitrine technologique.
Mais aucune n'est destinée à être le coeur de la gamme, à devenir les cartes qui attireront le plus de mondes. Et les stats Steam le montrent assez bien.
Citation :
Publié par Peredur
Ce n'est pas la moins chère. C'est la moins chère parmi celles présentées hier.
Et il n'y a eu que le haut de gamme de présenté. L'entrée et le milieu de gamme arriveront plus tard.

Puis, à 520€, on a le bas du haut de gamme qui est plus puissant que le haut du haut de gamme de la génération précédente pour moins de la moitié du prix.
En soi, c'est plutôt accessible. Et surtout ça laisse de l'espoir pour un moyen de gamme très intéressant (en terme de prix et de perf si on tourne sur du FHD voire éventuellement du QHD).

A l'autre bout de la gamme, la 3090 est à 1550€ mais permet de jouer à 60fps et plus en 8K (pour rappel, la 8K c'est 4 fois plus de pixels que la 4K). Hors un écran 8K, c'est pas évident à trouver. Sur LDLC par exemple, il y a 3 écrans TV (entre 4000 et 5000€) et 0 moniteurs qui ont de telles résolutions.
La 3090, c'est cher, mais ça réponds aux besoins que pas grand monde a.

Quand les 3070 et 3080 sont du haut de gamme "tout public" (c'est puissant, pas donné mais ça reste "accessible" pour tous ceux qui veulent et peuvent - se permettre de - jouer en UHD), la 3090 a un tarif excessif mais aussi une puissance excessive, qui en font avant tout une vitrine technologique.
Mais aucune n'est destinée à être le coeur de la gamme, à devenir les cartes qui attireront le plus de mondes. Et les stats Steam le montrent assez bien.
Suis d'accord avec toi, j'ai une 1080Ti qui fait le taf certe et un écran 4k IIyama, j"envisagé renouvelé' certain composant de mon pc par une CG 2080 super pour l'arriver des jeux de fin d'année , n'ayant pas le RTX (qui est devenue le standard ) et ayant suivi la conférence hier de NVIDIA, mon chois iras pour une 3080 , au prix sa équivaut et j'y gagne mieux en puissance que 2080TI, il y a des moment il faut savoir sauté le pas.
Donc je pense pour ceux qui envisage de booster leur PC une série 30xx est le meilleur compromis.
Je vais refaire mon vieux setup qui date quand même de 2013 et ma 1060 montre ses limites, CP 2077 ne tournera qu'en low/mid et encore donc le changement est nécessaire même si la série 30xx est pour le moment hors de prix, mis à part la 3070 qui semble "honnête" mais seulement mise en perspective de la 2080Ti à plus de 2 fois son prix.
Pour une base 1440p je crois que la 3070 est largement suffisante. C'est encore cher mais ça fait un moment que j'ai envie de passer au 1440p.
Outre le RT et la gestion ombre lumière, c'est le DLSS qui me paraît prometteur même si c'est "tricher" en upscale c'est quand même une bonne économie de ressources pour un résultat semblable à du calcul en direct.
Après c'est vrai que le trailer de CP2077 est épileptique et laisse peu apprécier les features.
Pour le moment pas de précipitation, on attend les tests et la réponse des rouges, niveau CPU surtout et puis CP n'est pas encore sorti...

La 3090 pour moi ça reste une vitrine technologique avec des besoins ultra spécifiques et donc réservé à quelques personnes.
Citation :
Publié par Borh
C'est quoi une vraie IA ?
une feature dans laquelle on investie réellement plutôt que de dépenser toute les ressources dans les graphismes
J'ai une 1080ti moi aussi. Et je joue sur une tv4k, ce qui veut pas dire que j'arrive à jouer en 4k ^^. Je me contente d'un déja assez bon 1440p.

Par contre pour les prochains jeux, je pense me prendre une 3080 et voir si ça passera tout en 4k. Dans le cas contraire, si les jeux seront trop gourmands, je lancerai en 1440p en espérant une bonne fluidité et pourquoi pas tout à fond. Un jeu du type Cyberpunk 2077 mérite qu'on mette la main dans le portefeuille, quitte à ne pas sortir au "ciné, bistro ou que sais-je" pendant quelque temps.
Citation :
Publié par egos
une feature dans laquelle on investie réellement plutôt que de dépenser toute les ressources dans les graphismes
On en a déjà parlé. Si tu mets une IA "une vrai", l'humain ne pourra plus gagner... Il perdra systématiquement... Donc pas fun, donc on investie pas dedans. Une IA n'a pas besoin de beaucoup de temps pour analyser ta façon de jouer et trouver la faille...

Donc a la place, on fait de l'IA pas cher/script qui "fait le taf" dans le sens, être fun pour le joueur (la grosse majorité des joueurs).

Beaucoup de joueurs aiment les "IA" prédictible, ca donne un sentiment de contrôle sur le jeu. "j'ai géré". Avec une "vrai IA", tu ne pourras plus avoir cette "prédiction" / ce contrôle.

Après certains studio se débrouille mieux que d'autres mais ca reste basique.

D'ailleurs, dans tous les AAA, il y a de l'IA un peu partout... Mais pas pour gérer la strategie des NPC... Mais pour l'animation des persos par exemples. Que les pieds collent au sol tout en respectant les contraintes du corps humains tout en jouant les anims necessaire, gérant les impacts etc...
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés