[Wiki] La PlayStation 4 (PS4)

Répondre
Partager Rechercher
Citation :
Publié par Pugz
Mais l'upscaling à 4k coûte quasi rien, je vois pas pourquoi ils fileraient un choix entre upscale 4k et passer de 30fps à 60, ça n'a aucun sens
Il parle de jouer en 4k natif.
Citation :
Publié par Von Stan Barnne
Maintenant on peut parler des jeux multiplateformes (aka ceux qu'on peut comparer) qui se font devancer par une 750 ti et on voit que l'optimisation miracle n'est pas de mise.
Ce que tu dis est contradictoire. L'optimisation se voit par définition davantage dans les jeux exclusifs ; quand tu dois bosser simultanément sur trois machines (voire plus), c'est plus compliqué de tirer le meilleur de chacune d'entre elles.
Citation :
Publié par Alandring
L'optimisation se voit par définition davantage dans les jeux exclusifs
Par définition non vue que t'as rien pour les comparer. Suffit de prendre ton exemple, uncharted 4 qui est un jeu assez fermé, tu le compare avec quoi? Des opens world comme witcher 3? (qui au passage lui met la fessé)
Woot, avec la PS4 PRO ils changent la puce pour le streaming. Du coup le RemotePlay/SharePlay sera en 1080p et 60 fps. De même pour le stream sur Youtube et Dailymotion. Sur Twitch ça sera au max 1080p et 30fps.

Pour ce qu'apportera le mode PRO pour les jeux ça va varier. Par exemple les mecs de Tomb Raider ont dit qu'il y aura trois possibilité sur leur jeu sur la PS4 PRO:
-checkerboard upscale 4K en 30 fps.
-1080p avec framerate unlock (45 à 60 fps).
-1080p 30 fps avec les graphismes à fond.
Ca va quand même être un sacré bordel ces multiples options sur console.
Je suis curieux de voir l'impact que ça va avoir sur le marché, aussi bien en terme de choix des joueurs qu'en terme d'évolution des parts de marché entre PC et consoles.
Citation :
Publié par Falith
Ca va quand même être un sacré bordel ces multiples options sur console.
Bouaf, pour l'instant il n'y a que trois options, et elles sont assez claires.
Les joueurs PC ont plus de curseurs à déplacer pour bien adapter leur désir d'expérience de jeu à leur machine. Ici, tout le monde à la même machine, donc rien n'empêche de simplifier la chose en ne proposant que des presets de réglages
Citation :
Publié par Adau
Je comprends toujours pas
Si on regarde en niveau de gris, une dynamique plus large ne s'obtient que par l'augmentation du contraste, vers les noirs d'un coté et les blancs de l'autre. Mais la source peut continuer d'envoyer les mêmes données; la dynamique sera plus importante grâce à un écran avec un contraste plus élevé.

J'ai l'impression qu'en fait, il y a un énorme cafouillage entre les termes dynamique et quantification. Je suis d'accord qu'avec une plus grande dynamique, l'augmentation de la quantification est importante (passer de 8 bits à 10 ou 12 bits), et que dans ce cas la source doit effectivement envoyer un signal avec la bonne quantification. Mais rien n'empêche d'avoir une dynamique monstrueuse avec une quantification faible (genre un écran Oled avec un contraste infini et une luminance très élevée qui diffuse un source 8 bits), et vice-versa...

Est-ce qu'en fait, le HDR n'est tout simplement pas juste une augmentation de la quantification (ce qui expliquerait pourquoi il faut adapter les sources) ? Dans ce cas, le terme HDR est totalement erroné car la dynamique et la quantification sont deux éléments totalement différents et indépendants.
En effet, la dynamique et la quantification sont séparés. Par contre, c'est bien de dynamique dont il s'agit pour le HDR.

La façon naïve de capturer des images ne permet pas une dynamique bien grande, on ne peut pas capturer des zones sombres ET des zones lumineuses en même temps avec une bonne fidélité. C'est un sujet important de la photographie via l' "exposition". Considère par exemple une photo à contre-jour : si tu la prends avec une forte exposition, on verra nettement les couleurs du sujet mais le fond sera fortement saturé en luminosité, alors que si tu la prends avec une faible exposition, le sujet sera presque noir mais et le fond sera "normalement" coloré.

Les méthodes de capture (i.e. la création de source) HDR visent à contrer ce problème en prenant plusieurs prises différentes qui vont favoriser tantôt le sombre, tantôt le lumineux, de façon à se rapprocher de la quantité d'informations que l'oeil humain peut capturer.
A partir de là, on peut très bien créer une image avec les espaces de couleur / contrastes standards (SDR), mais combinant à la fois les détails des zones sombres et ceux des zones lumineuses : c'est ce qu'on appelle le i]tone mapping[/i] (concrètement, c'est ce que feront à peu près toutes les images "HDR" en démonstration quand vous faites du google, parce que ni les formats d'image classiques ni les écrans ne vont détecter / supporter le HDR).
Concrètement, sur une photo à contre-jour prise en HDR mais passée en SDR via tone mapping, le contraste entre les zones lumineuses (le fond) et les zones sombres (le sujet) sera plus faible que ce que l'oeil humain verrait, mais tu pourras distinguer plus clairement à la fois les couleurs du sujet et du fond.

Mais puisqu'on a une source HDR qui contient tellement plus d'info que ce que le SDR peut représenter, ce serait dommage de se contenter d'une SDR "tone mappé" pour sa représentation. C'est là qu'interviennent les écrans HDR, qui peuvent représenter une gamme de couleurs (par couleur j'entend surtout la luminosité en fait) bien plus grande que les écrans classiques. Dans la pratique, ça nous a aussi amené de nouveaux espaces de couleur et de traitements d'image, en particulier de luminosité, pour passer d'une image sous forme de data à l'image affichée (actuellement, ce genre de traitement existe déjà pour le SDR sous la forme de la correction gamma, mais ça perd trop en efficacité pour une représentation HDR donc il a fallu changer de traitements).
Concrètement, la photo à contre-jour prise en HDR et affichée en HDR aura un contraste en luminosité assez important pour contracter ou dilater tes pupilles selon si tu te concentres sur les zones lumineuses ou sombres. C'est ce côté qui rend le HDR "réaliste" à l'oeil humain, comparé au SDR qui a au final une luminosité assez "plate".

Enfin bref, tout ça pour dire que le HDR, c'est surtout une histoire de traitements d'image. Techniquement, rien n'empêche de dire à un écran d'afficher une image en utilisant toute sa gamme de luminosité disponible ou pas, mais rien n'assure que l'écran utilisera les bons paramètres pour passer des données de l'image reçue à une image réelle affichée : il faut donc faire passer toute une panoplie d'information et de metadatas, ce qui nécessite d'avoir du matériel compatible HDR pour toute la ligne.

La bonne nouvelle, c'est que pour faire du HDR dans les jeux vidéo, il n'y a presque rien à faire : comme l'imagerie est générée (et non pas filmée), on connait déjà ses "vraies" informations, donc il n'y a pas à bricoler avec des questions d'exposition et autres paramètres de prise de vue réelle, mais juste à appliquer les bons paramètres et les envoyer via metadatas avec l'image. Du coup, les sources HDR qui affichent les couleurs telles que les créateurs le veulent, c'est pas un problème on les aura (un peu comme on a déjà des jeux genre Dark Souls qui demandent à l'utilisateur de régler la correction gamma pour avoir la bonne ambiance lumineuse, sauf que ce sera réglé via metadatas).
Toute la première partie de ton message porte sur l'acquisition d'une image HDR dont l'exposition est variable en fonction du champ. Sur cette partie là, je comprend bien la notion d'augmentation de la dynamique via la variation de l'exposition.

Mais pour afficher une image acquise ou générée via HDR, il n'y a pas besoin spécifiquement d'un écran HDR. C'est là d'où vient mon interrogation: Qu'est-ce qui empêche, sans écran griffé "HDR", d'afficher des images générée avec une large dynamique, issue des moteurs de jeux ? Pour moi, rien du tout.

La dynamique d'un système numérique, c'est la plage de valeurs physiques qu'il peut acquérir/traiter/représenter. Dans le cas d'un écran, sa dynamique est la différence de luminance entre le pixel le plus blanc et le plus sombre.
Autrement dit, un écran qui n'est pas griffé par le signe marketing "HDR" dont cette différence est plus grande qu'un écran griffé HDR a, finalement, une dynamique plus large.

Franchement, plus j'y pense, plus je me dis que le sigle HDR n'est qu'un raccourci marketing (et erroné) pour l'augmentation de la quantification. C'est la seule raison pour laquelle un sigle particulier "HDR" sur les écrans a un intérêt (montrer qu'il peut afficher des images avec 10 bits/canal par exemple) et pour laquelle il faut des sources adaptées pour en profiter (c'est à dire codées sur 10 bits/canal).

Parce que sinon, avec l'augmentation du contraste et de la luminance maximale, ça fait depuis bien longtemps que la dynamique des écrans augmentent, et ils n'ont pas attendus d'être griffés "HDR".
Et c'est là d'où vient l'intérêt de l'augmentation de la quantification: on fabrique des écrans avec des dynamiques toujours plus larges, ce qui fait que la différence entre deux niveaux de gris codés sur 8 bits commence à se voir, d'où l'utilité de commencer à coder les images sur 10 bits/canal.
Citation :
Publié par Adau
Toute la première partie de ton message porte sur l'acquisition d'une image HDR dont l'exposition est variable en fonction du champ. Sur cette partie là, je comprend bien la notion d'augmentation de la dynamique via la variation de l'exposition.

Mais pour afficher une image acquise ou générée via HDR, il n'y a pas besoin spécifiquement d'un écran HDR. C'est là d'où vient mon interrogation: Qu'est-ce qui empêche, sans écran griffé "HDR", d'afficher des images générée avec une large dynamique, issue des moteurs de jeux ? Pour moi, rien du tout.
Ah ça, tu peux toujours afficher une image dont tu as les données (i.e. les pixels). L'afficher comme ses créateurs voulaient qu'elle soit, là c'est une autre question. Par exemple, va jouer avec les réglages de ton écran : change le contraste, la luminosité, les couleurs RGB (parfois réglables que via des presets de genre jeu / film / text / chaud / froid) : ça va te changer totalement le rendu, sans que le signal n'ait bougé d'un poil. Prendre une image HDR et l'afficher en SDR sans aucun traitement, ça va être pareil : tu vas essayer d'afficher une image sans avoir le bon espace de couleur, les bons niveaux de contrastes, etc.

Citation :
La dynamique d'un système numérique, c'est la plage de valeurs physiques qu'il peut acquérir/traiter/représenter. Dans le cas d'un écran, sa dynamique est la différence de luminance entre le pixel le plus blanc et le plus sombre.
Autrement dit, un écran qui n'est pas griffé par le signe marketing "HDR" dont cette différence est plus grande qu'un écran griffé HDR a, finalement, une dynamique plus large.
Pas seulement. La "plage", c'est le "R" (range) de SDR/HDR. La où ça devient dynamique, c'est que l'on ne traite pas cette plage linéairement.

Je reviens sur la correction gamma pour illustrer cette non-linéarité. La lumière et l'obscurité sont traités de façon asymétriques par l'oeil humain, qui tend à favoriser la lumière. Du coup, si on prend trois pixels en échelle de gris avec des valeurs de 0 (noir), 0.5 et 1 (blanc) et qu'on tradut directement ça en intensité lumineuse physique, le 0.5 nous est visuellement beaucoup plus proche du blanc que pile à la moitié entre blanc et noir. Lorsque des images sont capturées en numérique, ce qu'on appelle la "correction gamma" est donc appliquée afin que la répartition des échantillons de 0 à 1 (ou plutôt de 0 à 255 sur du 8 bit) soit pertinente vis à vis de l'oeil humain. En l'occurrence ça augmente la concentration d'échantillons du côté obscur de la Force sombre au détriment du côté lumineux.
Du coup lorsque tu veux afficher ces images, si tu ne sais pas faire l'inverse de la correction gamma faite à la capture (en fait, je crois qu'à l'enregistrement on parle de déformation et à l'affichage de correction, ou peut-être vice versa), l'intensité lumineuse de tes images sera faussée.

Afficher sans traitement sur un affichage SDR des pixels faits en tant que HDR, ça va provoquer un peu le même genre de problème, mais avec des saloperies supplémentaires. Par exemple, le HDR est censé aller bien plus loin dans les sombres et les lumineux, du coup sur une plage de luminosité min-max de 0 à 1, la plage de luminosité correspondant au SDR actuel sera (exemple simple à la con) de 0,25 à 0,75.
Si tu affiches ça comme si c'était des pixels SDR, les zones noires seront gris foncé (le 0.25 en luminosité SDR), les blanches seront gris clair (0.75 SDR), et toutes les couleurs seront délavées/ternes/manquant de contraste

Depuis des décennies, on a grosso modo fonctionné sur la même plage en matière d'affichage. Les espaces de couleur du RGB informatique et des BT.601 & BT.709 de l'industrie vidéo ont à peu près la même correction gamma que le tube cathodique, et leur gamut (l'étendue des couleurs réelles qu'ils supportent) était régulièrement considéré comme insuffisant. L'enjeu du HDR, c'est dd'implémenter de nouveaux traitements colorimétriques qui exploitent mieux ce qu'on a appris sur la perception humaine depuis les dernières normes, et de permettre d'exploiter les capacités technologiques actuelles et à venir (plage lumineuse étendue possible depuis le LCD et surtout l'OLED, et espaces de couleur customisables comparé aux BT.601 & BT.709 fixés, ce qui débloque au passage la possibilité d'avoir un gamut élargi). Et franchement, c'est une évolution bien plus significative qu'un passage en 4K.

Citation :
Et c'est là d'où vient l'intérêt de l'augmentation de la quantification: on fabrique des écrans avec des dynamiques toujours plus larges
Pas systématiquement vrai. Sur un LCD, on peut pousser effectivement la luminosité bien au delà de ce que les tubes cathodiques pouvaient faire, mais ça a aussi pour résultat de rendre les noirs plus lumineux (kikoo le rétro-éclairage). Les télés HDR visent plutôt à pouvoir afficher en même temps ET le noir le plus sombre, ET le blanc le plus éclairant dont ils sont capables. Ca nécessite de moduler localement le retro-éclairage (du moins sur le LCD, sur les écrans OLED c'est plus simple vu qu'il n'y a pas de rétro-éclairage et que tu peux éteindre individuellement les pixels).

Dernière modification par Rafa ; 08/09/2016 à 18h19.
Je croise tous les appendices pour avoir une version de Bloodborne 1080p/60fps (osef du 4k/hdr à 15fps)
Mais comme c'est un jeu "multi" par essence, j'ai peur que ça n'arrive pas

C'est le seul jeu qui m'a fait acheter une PS4, et une version upgrade@60fps me ferait acheter une PS4 pro, on est fanboy ou on l'est pas
En quoi ? Je m'attendais à (enfin) une déclaration non-consensuelle et on est en plein dedans. Sony veut pas, on est tristes pour nos fans, stay tuned, rideau
Citation :
Publié par Kafka Datura
Bethesda y va cash et balance un boulet de canon sur Sony : https://bethesda.net/#en/events/game...2016/09/09/199

Le phrasé est sans ambiguïté.
En meme temps, je comprend "un peu" Sony.

Car autant ils ont validé le contenu de Fallout 4 et de ses DLC, autant, ils ne pourront controller le contenu des Mods... Et j'imagine qu'ils veulent eviter d'avoir du contenu qui enfreigne leurs regles...

Après,c'est chiant, car je les attendais moi aussi...
Comment fait Microsoft pour filtrer les mods à caractères sexuels (par exemple) ? Ils vont les éliminer (filtrer?) au cas par cas ? Ca me semble être une boite de Pandore pour les constructeurs de consoles.

La décision est rude et décevante, mais elle reste compréhensible. On pouvait totalement s'y attendre.
Citation :
Publié par THX
Si tu veux modder, tu joues sur PC, point barre. On peut pas tout avoir.
Justement, il me semble que Microsoft autorise maintenant les mods sur Xbox, avec Fallout 4 comme premier représentant de ce changement de politique.
Je comprends pas pourquoi ils sortent de l'upscale en 4k, il n'y a rien de plus dégueulasse en terme de qualité d'image que cette technique. Surtout que passer de 1080 à 4k çà multiplie par 4 le nombre de pixel bien plus violent que le 720 to 1080.

en tout cas ils vont sortir l'attrape nigaud de l'année avec 90% des acheteurs qui croiront que c'est du 4k natif comme sur pc.
Citation :
Publié par THX
Alors tu peux t'en prendre qu'à toi-même. On peut pas tout avoir.
Et si la tu n'a pas choisi la PS4 mais qu'on te l'a offert, et que tu ne peut pas avoir de PC parce que tu ne gagne pas encore ta vie ?

[Modéré par Bardiel Wyld : ]

Dernière modification par Bardiel Wyld ; 10/09/2016 à 01h57.
Message supprimé par son auteur.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés