[Biz] Industrie du jeu vidéo, d'où viens-tu, où en es-tu, où vas-tu ? (#6)

Répondre
Partager Rechercher
Pour la marge d'erreur je ne pense pas qu'elle vienne des profils privés (probablement moins d'1%). Ça doit être lié au fait qu'il n'est pas capable de crawler tous les comptes.

@yggdrahsil : Dans ce cas ce n'est pas impossible, il faut juste se passer de l'API. Mais pour 2 ou 3 jeux sur l'ensemble oui on s'en fout un peu de ces jeux.
Citation :
Publié par Harest
@yggdrahsil : Dans ce cas ce n'est pas impossible, il faut juste se passer de l'API. Mais pour 2 ou 3 jeux sur l'ensemble oui on s'en fout un peu de ces jeux.
Difficile de se passer de l'API vu que Steam Spy est basé dessus.
Citation :
Publié par Harest
Pour la marge d'erreur je ne pense pas qu'elle vienne des profils privés (probablement moins d'1%). Ça doit être lié au fait qu'il n'est pas capable de crawler tous les comptes.
Les profils sont privé par défaut il me semble
Citation :
Publié par Kuldar
Difficile de se passer de l'API vu que Steam Spy est basé dessus.
Non mais crawler des pages y'a pas besoin de l'API de Steam pour ça à la base.

Les profils par défaut y'en a aucun. Tout du moins c'était comme ça à l'époque. Faudrait vérifier en créant un compte Steam. Je ne sais pas s'il est privé après par défaut ou non.
même si on avait des bécanes capables de faire tourner ça sans problème accessibles au grand public, on aura aucun jeu de ce genre avant au moins 7 ans.

[Modéré par Bardiel Wyld : ]

Dernière modification par Bardiel Wyld ; 02/05/2015 à 12h37.
Citation :
Publié par blaes
même si on avait des bécanes capables de faire tourner ça sans problème accessibles au grand public, on aura aucun jeu de ce genre avant au moins 7 ans.

[Modéré par Bardiel Wyld : ]
Au bout d'un moment, aussi, faudra voir l’intérêt... Au bout d'un moment (déjà le cas pour moi, mais bon, c'est moi) la "patte" graphique va devenir plus mise en avant que la "simple" optimisation graphique, non ?
Citation :
Publié par Eskaman
Au bout d'un moment, aussi, faudra voir l’intérêt... Au bout d'un moment (déjà le cas pour moi, mais bon, c'est moi) la "patte" graphique va devenir plus mise en avant que la "simple" optimisation graphique, non ?
Euh non ça a rien a voir, l'augmentation de puissance permet de rajouter du détail, ça empêche pas de faire un monde fluo, en noir et blanc, en cell shading ou autre et par derrière t'as toujours le design qui apporte beaucoup

Sinon niveau puissance des cartes graphique risque d'il y avoir un gros boom l'année prochaine avec pascal, donc d'ici 5ans je pense qu'on pourra avoir ce genre de rendu sur une machine mainstream (surtout si on considére l'optimisation des moteurs et des API)
Les démonstrations techniques ont toujours existé et elles n'ont pas pour ambition de dire "avec ça on va faire un jeu auquel personne ne pourra jouer sans acheter 4 Titan" mais plutôt "voilà ce que l'on peut faire aujourd'hui avec nos moyens techniques à disposition" .

C'est un moyen de mettre en avant leur expertise aussi bien au niveau technique avec les nouveaux effets mais aussi artistique au niveau du réalisme des émotions qui prennent de plus en plus d'importance. Le but, pour Square Enix et n'importe quel autre studio produisant des moteurs graphiques, c'est de continuer à faire évoluer le monde de la 3D soit pour vendre leur moteur sur plusieurs années, soit simplement pour continuer à avoir une place dans le monde de l'innovation technique.

Faut voir ça comme de la démo de R&D un peu comme les constructeurs de TV qui vont présenter une dalle complètement folle inaccessible à la vente pendant plusieurs années. Leur but, sur le moment, ce n'est pas de vendre des TV avec cette technologie mais bien de rester parmi les leaders de l'innovation pour que, le moment venu, ils soient leader au niveau des ventes. C'est exactement pareil avec les moteurs graphiques qui ne peuvent être utilisés tel que présentés avant plusieurs générations de hardware mais ce n'est pas grave, l'investissement sera rentabilisé si le moteur est utilisé dans les jeux lorsque ce sera possible.

Par contre, j'ai pas mal souri devant certains commentaires d'autres sites. Du genre "mouais, pas si impressionnant, les textures du sol sont bof" etc. Les mecs n'ont pas du comprendre le but de la démo qui est là pour mettre en avant la gestion du visage (larmes / transpirations / poussière / réflexion de la peau) plus que tout le reste. C'est forcément moins impressionnant qu'une démo qui se concentre bien plus sur les décors et les effets de particules qui attirent le regard.

En tout cas, je trouve la démo très intéressante.
Citation :
Publié par Jo le jolien
Cette démo va aussi indirectement faire vendre du Windows 10 . Sans DirectX 12, je ne sais pas si cette démo aurait été possible avec le même nombre de cartes graphiques.
La réponse est tout simplement non, sans DX12 le scaling du multi-gpu est dégueulasse a partir de 2 carte
Citation :
Publié par Lianai
Par contre, j'ai pas mal souri devant certains commentaires d'autres sites. Du genre "mouais, pas si impressionnant, les textures du sol sont bof" etc. Les mecs n'ont pas du comprendre le but de la démo qui est là pour mettre en avant la gestion du visage (larmes / transpirations / poussière / réflexion de la peau) plus que tout le reste. C'est forcément moins impressionnant qu'une démo qui se concentre bien plus sur les décors et les effets de particules qui attirent le regard.
Ouais, j'ai un peu rigolé aussi devant ce genre de commentaires.
Les gens n'ont pas compris que le décor autour n'est pas du tout finalisé et n'a aucun intérêt.

Le mec de la démo met pause et montre qu'il peut interagir en direct avec l'environnement (changer l'heure par exemple), et le personnage, pour prouver que c'est du temps réel et pas une cinématique en CGI.

Mais à la base, c'est ce qu'on appelle une "cut-scene". Et durant la cut-scene, jamais on ne voit vraiment le décor en arrière-plan. Il est donc normal que les développeurs n'ai mis des éléments qu'à des endroits stratégiques qui apparaitront durant la cut-scene pour ne pas surcharger le tout. (c'est pareil dans beaucoup de jeux vidéo, par exemple si on se met en no-clip sur une map quelconque d'un FPS on se rend compte que par endroit le décor est très pauvre voire absent, car théoriquement ça ne doit pas être visible quand on se déplace normalement)
C'est comme si sur un tournage on s'étonnait de voir des fond vert durant le making-of. ^^

Même si c'est un peu dommage au final, car justement ça aurait été sympa que personnage soit dans un décor à la hauteur. Mais je pense que comme tu dis, c'est pour que notre regard puisse se concentrer sur le personnage.
Citation :
Publié par Von Stan Barnne
La réponse est tout simplement non, sans DX12 le scaling du multi-gpu est dégueulasse a partir de 2 carte
Direct3D, ce n'est qu'une API graphique. Rien n'empêche de coder ses propres extensions, d'utiliser d'autres API, ou de coder directement un/des shader(s)/fonctionnalités soi-même. Comme toute API graphiques, DirectX implémente et standardise des fonctionnalités graphiques et simplifie leur utilisation, libre au développeur de les utiliser et/ou des les améliorer.

Bref, la réponse est oui, c'est juste qu'il faut faire le boulot soi-même à la place de Microsoft. La limitation est plus d'ordre financière que technique: rien n'empêche techniquement d'optimiser soi-même l'utilisation de multiples cartes graphiques tout en continuant d'utiliser DirectX 11.
Citation :
Publié par Adau - Vagdish
Direct3D, ce n'est qu'une API graphique.
Direct X ce n'est pas que direct3D.

Et l'amélioration que DX12 apporte au niveau du multi gpu n'est possible que sur des API de bas niveau.
Citation :
Publié par Von Stan Barnne
Euh non ça a rien a voir, l'augmentation de puissance permet de rajouter du détail, ça empêche pas de faire un monde fluo, en noir et blanc, en cell shading ou autre et par derrière t'as toujours le design qui apporte beaucoup
Je me suis mal exprimé, pardon. Ce que je voulais dire, c'est que le gain en augmentation de puissance, quand on passe de 4K à 8K, puis à 16K, est ce que la différence sera encore flagrante ?

Un peu comme la compression audio, sauf à avoir le meilleur matériel et la bonne oreille, il y a un plafond, du non pas au matériel, mais à l'utilisateur.

D'où mon post, au bout d'un moment, on en parlera peut être plus de ces détails là, non ? Enfin, si, comme pour l'audio, il y aura des afficionado qui diront que bon, quand même, entre 64 et 128K, c'est la nuit et le jour, mais pour le commun des mortels j'entends.
Ça dépends sur quoi tu joue, 4k a 8k sur un moniteur <36"? Non, sur une télé de 80"? oui clairement

Mais la résolution c'est qu'un seul des aspect du gain de puissance, tu va aussi avoir le droit a plus de densité dans le jeu, de meilleur texture, une meilleure physique, des meilleurs effets de lumière

Tu regarde la demo technique ce qui est impressionnant c'est pas la résolution mais d'avoir chaque cheveu de modélisé, un peau plus réaliste (qui reste encore un peu plastique), une modélisation plus fine, ansi que les effets du vent et des mouvement retranscrit, et ça peut encore être perfectionner

Puis bon:
url.jpg

Dernière modification par Compte #65221 ; 02/05/2015 à 21h26.
Citation :
Publié par Von Stan Barnne
Direct X ce n'est pas que direct3D.
Oui, et alors ? En l'occurence on ne parle que de la partie graphique de DirectX. C'est quoi l'intérêt de cette remarque ?

Citation :
Et l'amélioration que DX12 apporte au niveau du multi gpu n'est possible que sur des API de bas niveau.
Tout à fait. Donc on tombe bien d'accord sur le fait qu'une telle démo technique aurait pu être obtenue sans DX12
Citation :
Publié par Adau - Vagdish
Tout à fait. Donc on tombe bien d'accord sur le fait qu'une telle démo technique aurait pu être obtenue sans DX12
Etant donné que l'autre api de bas niveau (et disponible) c'est mantle qui a des effet en moins et qui n'est pas gérer par les cartes nvidia, non.


Citation :
Publié par Adau - Vagdish
Oui, et alors ? En l'occurence on ne parle que de la partie graphique de DirectX. C'est quoi l'intérêt de cette remarque ?
Y a pas que la partie graphique en tant que tel, y a aussi la gestion des gpu et leur interaction ce qui est tout nouveau avec DX12, avant le multi gpu c'était gérer par le SLI et le crossfire, maintenant c'est DX12 qui gère ça ce qui libère d'énormément de contraintes (dont au passage celle de devoir mettre des gpu quasi-identique, maintenant tu pourra mettre une 970 avec une 7770)
Vulkan vient a peine d'être annoncer donc je doute que ça rentre dans le "disponible" (mais oui c'est quelque chose qui sera certainement possible dessus) et les autres je pense qu'il y a de bonnes raisons qui font qu'elles ne soit pas connus
On est pas non plus obligé de passer par des API du tout hein . Alors ok, c'est débile et contre-productif, et très certainement ruineux. Mais si un développeur avait besoin de faire des effets "waouh" pré-DX12, c'était tout à fait possible. D'ailleurs, la plupart des moteurs de jeux (dont Unity) proposent de bypasser certaines fonctionnalités pour y inclure les siennes sous formes de shaders.

Citation :
Vulkan vient a peine d'être annoncer donc je doute que ça rentre dans le "disponible" (mais oui c'est quelque chose qui sera certainement possible dessus) et les autres je pense qu'il y a de bonnes raisons qui font qu'elles ne soit pas connus
Bouaf, Vulkan n'est qu'un nom marketing pour désigner OpenGL 5.0. L'idée est de suivre le même mouvement vers le "bas niveau" emprunté par Mantle et DX12. Il sera tout aussi disponible et rapidement utilisable que DX12.
Citation :
Publié par Adau - Vagdish
On est pas non plus obligé de passer par des API du tout hein . Alors ok, c'est débile et contre-productif, et très certainement ruineux. Mais si un développeur avait besoin de faire des effets "waouh" pré-DX12, c'était tout à fait possible. D'ailleurs, la plupart des moteurs de jeux (dont Unity) proposent de bypasser certaines fonctionnalités pour y inclure les siennes sous formes de shaders.
Non mais je te parle de l'utilisation du multi-gpu, parceque bon les effet kikoo faut les faire tourner derrière, et en DX11 avec les problème actuelle du SLI ça passerait pas.

Citation :
Publié par Adau - Vagdish
Bouaf, Vulkan n'est qu'un nom marketing pour désigner OpenGL 5.0. L'idée est de suivre le même mouvement vers le "bas niveau" emprunté par Mantle et DX12. Il sera tout aussi disponible et rapidement utilisable que DX12.
Euh DX12 il sort dans même pas 3mois pour le grand public et il y a déjà les drivers de dispo, vulkan à coté est juste annoncé.
Citation :
Publié par Von Stan Barnne
Non mais je te parle de l'utilisation du multi-gpu, parceque bon les effet kikoo faut les faire tourner derrière, et en DX11 avec les problème actuelle du SLI ça passerait pas.
Encore une fois, DX12 simplifie l'utilisation du multi-GPU: c'est Microsoft qui fait le gros boulot. Mais techniquement, rien n'empêche de faire l'optimisation soi-même: DirectX n'est qu'une API, c'est à dire une interface simplifiée de communication avec le matériel: rien n'empêche de ne pas l'utiliser.

Une API, ce n'est qu'une interface, un middleware comme pourrait l'être un moteur de jeu (mais en plus bas niveau): c'est pratique et tout le boulot est déjà mâché, mais n'est aucunement obligatoire, et est extensible avec ses propres extensions.

Tout ça pour dire que cette démo met en avant les nouvelles fonctionnalités de Directx12, mais que ces fonctionnalités pouvaient déjà être implémentée soi-même. Une API n'est pas censé enfermer le développeur dans ses possibilités (sinon c'est une très mauvaise API).

Citation :
Publié par Von Stan Barnne
Euh DX12 il sort dans même pas 3mois pour le grand public et il y a déjà les drivers de dispo, vulkan à coté est juste annoncé.
Comme je le disais, Vulkan n'est que OpenGL 5.0, il n'y a pas de raison qu'il ne puisse pas sortir dans les prochains mois. D'ailleurs, sa sortie est prévue pour 2015. Donc non, à moins d'être à 2 mois près, Vulkan sort en même temps que DX12.

Sinon, Source 2 utilise Vulkan pour être totalement cross-platform. Ce n'est pas comme si personne ne l'utilisait encore...
Citation :
Publié par Adau - Vagdish
Encore une fois, DX12 simplifie l'utilisation du multi-GPU: c'est Microsoft qui fait le gros boulot. Mais techniquement, rien n'empêche de faire l'optimisation soi-même: DirectX n'est qu'une API, c'est à dire une interface simplifiée de communication avec le matériel: rien n'empêche de ne pas l'utiliser.

Une API, ce n'est qu'une interface, un middleware comme pourrait l'être un moteur de jeu (mais en plus bas niveau): c'est pratique et tout le boulot est déjà mâché, mais n'est aucunement obligatoire, et est extensible avec ses propres extensions.

Tout ça pour dire que cette démo met en avant les nouvelles fonctionnalités de Directx12, mais que ces fonctionnalités pouvaient déjà être implémentée soi-même. Une API n'est pas censé enfermer le développeur dans ses possibilités (sinon c'est une très mauvaise API).
Non.

Tu comprends bien que si c'était si simple de faire une extension qui améliore grandement le sli/crossfire ça ferait 10 ans que Nvidia et Amd l'aurait créer? D'ailleurs c'est même plus de l'optimisation ça change complètement le fonctionnement et c'est rendu possible que parce que c'est une API de bas niveau, donc impossible sur DX11


Et merci, je sais que vulkan c'est la suite d'opengl, je ne voit pas l'intéret de le répéter a tout bout de champs, ça va pas accélérer sa sortie, et source 2 n'est toujours pas finalisé.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés