[Vidéo] GDC 2019 : Démo "Rebirth", le photoréalisme avec l'Unreal Engine 4

Répondre
Partager Rechercher
Uther a publié le 22 mars 2019 cette vidéo sur JeuxOnLine :

Citation :
On constate de plus en plus de convergences entre le jeu et le cinéma (ou assimilés), notamment en termes de production de contenu : de plus en plus, les outils utilisés pour produire des univers de jeux vidéo sont les mêmes que ceux utilisés pour le cinéma et inversement, et le studio Quixel (en coopération avec Epic Games) en fait de nouveau la démonstration avec sa démo "Rebirth" -- diffusée dans le cadre de la GDC 2019.
Réalisé par seulement trois créateurs, cette démo "Rebirth" a été intégralement réalisée avec une version non modifiée de l'Unreal Engine 4, couplée à des scans de paysages islandais, et affiche des résultats photo-réalistes devant illustrer les univers numériques qui seront communément générés à l'avenir. Ou quand les univers de jeux apparaissent semblables à des univers de films.
Une réaction ? Une analyse ? Une question ? Ce fil de discussion est à votre disposition.
Message supprimé par son auteur.
Citation :
Publié par PetitCoeuReD
C'est jolie mais a pars en film je vois pas l'utilisation pour du jeuxvidéo, faudrait une machine démentielle !
Oui mais pas besoin de la posséder.
Avec des technologies comme Shadow ou Stadia, un jeu avec un tel réalisme même en version MMO est envisageable.
Et pourquoi pas le tout en VR
Je ne suis pas sur pour la VR:
Soit tu additionne les latences qui sont déjà importante avec le casque pour n'avoir que le flux vidéo dans l'orientation du casque, ce qui risque de faire trop. soit tu envoi le flux vidéo à 360 ce qui représente beaucoup plus de donné, peut être trop aussi.
Mais la question de sa faisabilité est intéressante.
Houdini, Quixel, Unreal Engine : le trio de rêve.

Si c'est chez quixel qu'a été fait cette scène, détrompez vous, des machine normales pourraient la faire tourner (ou très bientôt si ce n'est pas le cas dès aujourd'hui)

Parce que connaissant la qualité des scans de chez Quixel, c'est juste un soin particulier apporté aux détails qui fait la qualité de la vidéo, pas une technologie gourmande en ressources.

Des scans, des textures HD, des meshs mid-poly (au lieu de low-poly) et hop, voilà à quoi peuvent ressembler les jeux vidéos dès demain matin si les devs se tirent les doigts pour faire des scènes un peu plus HD.

Vu qu'il y a aussi le logo, d'Houdini, il y a des chances que le tout a été capturé en temps réel...
Après vérification pour voir si je m'emballais pas trop, en fait oui, on peut bien voir cette scène dans un jeu vidéo en temps reel dès demain:


Citation :
“Our goal at Quixel is to democratize high-end 3D assets so that everyone can create captivating photorealistic content and experiences. With advancements in real-time rendering technology powered by Unreal, we set out to see if we could leverage Unreal and Megascans to create a cinematic with inherent photorealism in real-time, rivaling the results from traditional offline rendering,” said Teddy Bergsman, CEO, Quixel.

Dernière modification par DaalZ ; 23/03/2019 à 11h33.
Message supprimé par son auteur.
Message supprimé par son auteur.
Citation :
Publié par SNIPERtusog
Je ne suis pas sur pour la VR:
Soit tu additionne les latences qui sont déjà importante avec le casque pour n'avoir que le flux vidéo dans l'orientation du casque, ce qui risque de faire trop. soit tu envoi le flux vidéo à 360 ce qui représente beaucoup plus de donné, peut être trop aussi.
Mais la question de sa faisabilité est intéressante.
Au jour d'aujourd'hui de toute façon les gens n'ont pas encore une assez bonne connexion.
Mais à l'avenir avec une bonne connexion, en streaming, tout est possible.
Message supprimé par son auteur.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés