Le développement de Camelot Unchained

Répondre
Partager Rechercher
Message supprimé par son auteur.
Estime toi heureux, j'arrive pas a l'installer moi ce foutu jeu
Message supprimé par son auteur.
En vrac :
MJ a déjà dis que le jeu n'était pas encore optimisé (normal) et que la différence entre les PC pouvaient être importante de ce fait.
Accessoirement quelqu'un avec un PC de 5 ans (comme moi) pourra jouer mais devra faire des concessions graphiques à la release malgré tout (normal encore une fois). Durant les tests je tourne toujours entre 10 et 30 fps actuellement perso. (GTX 580)
Pour ma part je suis avec

  • CPU : A6-3650 2.2Ghz (architecture minimum recommandé par Andrew). Il hurle à la mort (le ventilo) quand je met tout à fond et je tournait à 90%+ d'utilité.
  • GPU : GTX 1060 sous express 2.0, dut à la carte mère de la A6. Sous Vsync je bloquais à 30fps, sans (avec la commande /vsync off) , je remontais à 60+ fps (pics à 80 parfois).
Il est important pour ceux qui ont plus ou bloques à 30 fps de désactiver le vsync pour voir la maximum de fps possible avec sa machine. Mais avec peut ou presque pas de fps, cela ne changera pas énormément. Je vois que mon CPU galère énormément sur CU, pour l'instant, mais je suis avec toutes les fonctions à fond... je n'ai pas l'expertise IT pour savoir ce qui mobilise autant mon petit processeur. Je vais essayer avec tout au milieu en gardant tout activé .
Citation :
Publié par Sleepy Fitzcairn
Je pense surtout que les performances de ta carte graphique sont CPU limited par ton processeur.

En gros tu as une bonne carte graphique mais ton vieux processeur arrive pas à suivre. C'est comme si tu avais un moteur de ferrari dans une 2 chevaux.
Oui, mais j'avais besoin de changer la carte graphique en premier...suivant dans les achat, un meilleur CPU et une carte mère en express 3.0. Ça bride ma CG c'est sûr, mais ça tourne tranquille sur le jeu pour l'instant. Je vais voir ce que vont faire les prix cet été. ^^
Tu as tout à fait raison ; d'ailleurs, dans l'idéal, CPU et GPU devraient être scalés de concert. Ça a toujours été le cas, mais c'est encore plus vrai maintenant que les cartes puissantes se démocratisent et ont un gros sex-appeal commercial.

Par exemple, CU utilise DX11 et en particulier un certain nombres de nouveaux algorithmes (nouvelles APIs) qui viennent avec, qui sont très sympas, mais aussi potentiellement assez coûteux en RAM. Genre, l'OIT dont vous avez entendu parler récemment dans les newsletters. Cette montée en capacité software n'est pas toujours suivie d'une montée en puissance hardware (on n'est pas tous des Crésus !). Pour bien en profiter, il vaut mieux privilégier une config homogène, même si à la base DX11 c'est coté carte graphique.

En effet, pour des raisons architecturales (utilisation de listes chaînées de fragments par pixels, notamment), nombre de ces nouveaux algorithmes sont fortement capés en mémoire à cause de leur empreinte quadratique (O(n^2) : 2x plus de pixels => 4x plus d'empreinte RAM ; 4x plus de pixels => 16x plus d'empreinte RAM). La montée en charge peut venir d'une augmentation de la résolution d'écran (en général, c'est ce qu'on fait quand on s'offre une nouvelle carte graphique : moar pixels! ), mais aussi simplement d'une « résolution de calcul » accrue. Car qui dit nouvelle carte graphique, dit augmentation des réglages de qualités : anti-aliasing +++ / distance d'affichage +++ / résolution des meshs & textures +++, etc. En plus de ça, on attaque des jeux récents, qui utilisent tous ces nouveaux algos dispensieux. Au final, on augmente massivement la charge sur la VRAM parce qu'on veut faire plein de calculs graphiques parallélisables, et ça passe : le duo GPU/VRAM et le bus entre les deux sont conçus pour. Sauf que quand la carte est utilisée à sa pleine capacité, et ça arrive d'autant plus vite que l'intégrateur (le revendeur de GPU) a sous-dimensionné la VRAM de la carte pour afficher un prix attractif, tout l'aspect non-parallélisable qui est à traiter en CPU prend un sacré coup. Le CPU gère la boucle d'état du jeu (update de coordonées, de stats, de tout un tas de données à propos des entités rendues ou pas à l'écran, code réseau éventuel, son, etc. plus l'OS et tout le tintouin), donc s'il n'arrive pas à suivre le rythme, le jeu va se « déphaser » entre son état interne et son état visuel, avec pour résultat, soit de bons fps bruts mais un rendu imparfait voire franchement dégradé (présence d'artifacts types lag en jeu : sauts de coordonnées, apparitions fantômes ou retardées, etc.), soit des fps réduits. Dans le cas des artifacts, ils sont perçus comme des glitchs visuels, mais en fait ils n'ont pas une origine proprement GPU, ils résultent d'un problème de mise à l'échelle CPU/GPU. Dans tous le cas, le CPU va tourner à fond pour essayer de suivre le clocking GPU. Surchauffe, baisse des performances du CPU, cercle vicieux. Pour les MMOs, PvP de surcroît, ça peut être assez ennuyeux.

Je doute que CSE s'amuse à implémenter les toutes dernières optimisations mémoire coté client qu'il serait possible d'amener au-dessus des APIs standards de DX11 (du type Adaptive Buffer et leurs variantes, pour l'OIT, par exemple) — certes, elles permettraient de casser l'emprunte mémoire quadratique et de mieux synchroniser des CPU/GPU disparates, mais ils sont déjà assez en retard comme ça… Et ça reste de l'optimisation, l'archi de fond restera la même, les problèmes de scaling qui vont avec aussi.

Donc bref, attention aux cartes graphiques puissantes montées en parallèles de CPU (+RAM dédiée) trop justes. Dans le cas particulier de CU, l'arrivée du cluster dédié aux calculs physiques pour alléger le travail des CPUs coté client devrait un peu aider, mais alors les joueurs sont d'autant plus dépendants du lag et de la vitesse réseau. Pas forcément plus « démocratique ».

En résumé : CPU et GPU (et leurs RAMs respectives) à scaler en même temps dans l'idéal.

Dernière modification par Ademe ; 13/03/2017 à 04h14.
I5 2500K 3.7GHz / HD 7970 / 8Go DDR3 / Win10(x64) je tourne a 50-60 Fps

Citation :
Publié par Ademe

En effet, pour des raisons architecturales (utilisation de listes chaînées de fragments par pixels, notamment), nombre de ces nouveaux algorithmes sont fortement capés en mémoire à cause de leur empreinte quadratique (O(n^2) : 2x plus de pixels => 4x plus d'empreinte RAM ; 4x plus de pixels => 16x plus d'empreinte RAM). La montée en charge peut venir d'une augmentation de la résolution d'écran (en général, c'est ce qu'on fait quand on s'offre une nouvelle carte graphique : moar pixels! ), mais aussi simplement d'une « résolution de calcul » accrue. Car qui dit nouvelle carte graphique, dit augmentation des réglages de qualités : anti-aliasing +++ / distance d'affichage +++ / résolution des meshs & textures +++, etc. En plus de ça, on attaque des jeux récents, qui utilisent tous ces nouveaux algos dispensieux. Au final, on augmente massivement la charge sur la VRAM parce qu'on veut faire plein de calculs graphiques parallélisables, et ça passe : le duo GPU/VRAM et le bus entre les deux sont conçus pour. Sauf que quand la carte est utilisée à sa pleine capacité, et ça arrive d'autant plus vite que l'intégrateur (le revendeur de GPU) a sous-dimensionné la VRAM de la carte pour afficher un prix attractif, tout l'aspect non-parallélisable qui est à traiter en CPU prend un sacré coup. Le CPU gère la boucle d'état du jeu (update de coordonées, de stats, de tout un tas de données à propos des entités rendues ou pas à l'écran, code réseau éventuel, son, etc. plus l'OS et tout le tintouin), donc s'il n'arrive pas à suivre le rythme, le jeu va se « déphaser » entre son état interne et son état visuel, avec pour résultat, soit de bons fps bruts mais un rendu imparfait voire franchement dégradé (présence d'artifacts types lag en jeu : sauts de coordonnées, apparitions fantômes ou retardées, etc.), soit des fps réduits. Dans le cas des artifacts, ils sont perçus comme des glitchs visuels, mais en fait ils n'ont pas une origine proprement GPU, ils résultent d'un problème de mise à l'échelle CPU/GPU. Dans tous le cas, le CPU va tourner à fond pour essayer de suivre le clocking GPU. Surchauffe, baisse des performances du CPU, cercle vicieux. Pour les MMOs, PvP de surcroît, ça peut être assez ennuyeux.
Merci pour ces infos c'est intéressant!

Dernière modification par Scoubee ; 13/03/2017 à 17h33.
Extrait de la newsletter de mars 2017 : (Pour les fans de CC)

Citation :
Camelot Unchained will certainly have mechanics that mitigate and counteract Crowd Control effects. Some will be built into the abilities of each class, while others may use a baseline system similar to the way other games have used diminishing returns. At the present stage of development, however, systems for reducing the severity of Crowd Control effects have not been finalized, because we have yet to determine how influential Crowd Control effects will be in the game in general, and whether or not additional layers of mitigation will be necessary.

Once we have a well-tested baseline for basic Crowd Control with our starting classes, we can use this basis for experimenting with more elaborate Crowd Control mechanics in our future classes. Depending on how things shape up over time, we will evaluate whether or not the core mechanics of the combat system, and the ability-based counters to Crowd Control are sufficient, or if we need to develop additional systemic rules to help keep the cumulative disabling power of Crowd Control under control.

Ultimately, the goal is to go as far as we need to with Crowd Control in order to ensure that combat in Camelot Unchained is tactically challenging in engagements from small to large scale, and also making sure that the frustration factor of being the target of Crowd Control effects is as low as it can reasonably be

Contexte : il s'agit de l'animation-test utilisant le nouveau système, qui apporte le découplage entre membres supérieurs et membres inférieurs ainsi qu'un système de tags (donc Shikaru, il y aura probablement des variantes à terme, en fonction de paramètres extérieurs et/ou aléatoires contrôlés par des tags).

Dernière modification par Ademe ; 08/04/2017 à 11h53.
Ce que je trouverais vraiment sympa, c'est de pouvoir choisir entre plusieurs manières de sortir ses armes 3 voir 4 différentes pour un peu de diversité dans les engagements .

Edit: Super, tout ça n'augure que du bon pour la suite.
Merci pour les infos Ademe.

Dernière modification par Shikaru ; 08/04/2017 à 11h54.
Sur l environnement
Bonjour,
Sur les forums et les News letters, je ne vois qu'un seul type d environnement: des forêts, des arbres, des plaines. Pas de montagnes, par ex et tres peu de variétés ou de lieux originaux ( hors Ile du pouvoir je crois ). Le jeu est encore loin d être fini mais qu en est il de la variété graphique du jeu ?

Je vous remercie,
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés