Toute la première partie de ton message porte sur l'acquisition d'une image HDR dont l'exposition est variable en fonction du champ. Sur cette partie là, je comprend bien la notion d'augmentation de la dynamique via la variation de l'exposition.
Mais pour afficher une image acquise ou générée via HDR, il n'y a pas besoin spécifiquement d'un écran HDR. C'est là d'où vient mon interrogation: Qu'est-ce qui empêche, sans écran griffé "HDR", d'afficher des images générée avec une large dynamique, issue des moteurs de jeux ? Pour moi, rien du tout.
Ah ça, tu peux toujours afficher une image dont tu as les données (i.e. les pixels). L'afficher comme ses créateurs voulaient qu'elle soit, là c'est une autre question. Par exemple, va jouer avec les réglages de ton écran : change le contraste, la luminosité, les couleurs RGB (parfois réglables que via des presets de genre jeu / film / text / chaud / froid) : ça va te changer totalement le rendu, sans que le signal n'ait bougé d'un poil. Prendre une image HDR et l'afficher en SDR sans aucun traitement, ça va être pareil : tu vas essayer d'afficher une image sans avoir le bon espace de couleur, les bons niveaux de contrastes, etc.
La dynamique d'un système numérique, c'est la plage de valeurs physiques qu'il peut acquérir/traiter/représenter. Dans le cas d'un écran, sa dynamique est la différence de luminance entre le pixel le plus blanc et le plus sombre.
Autrement dit, un écran qui n'est pas griffé par le signe marketing "HDR" dont cette différence est plus grande qu'un écran griffé HDR a, finalement, une dynamique plus large.
Pas seulement. La "plage", c'est le "R" (range) de SDR/HDR. La où ça devient dynamique, c'est que l'on ne traite pas cette plage linéairement.
Je reviens sur la correction gamma pour illustrer cette non-linéarité. La lumière et l'obscurité sont traités de façon asymétriques par l'oeil humain, qui tend à favoriser la lumière. Du coup, si on prend trois pixels en échelle de gris avec des valeurs de 0 (noir), 0.5 et 1 (blanc) et qu'on tradut directement ça en intensité lumineuse physique, le 0.5 nous est visuellement beaucoup plus proche du blanc que pile à la moitié entre blanc et noir. Lorsque des images sont capturées en numérique, ce qu'on appelle la "correction gamma" est donc appliquée afin que la répartition des échantillons de 0 à 1 (ou plutôt de 0 à 255 sur du 8 bit) soit pertinente vis à vis de l'oeil humain. En l'occurrence ça augmente la concentration d'échantillons du côté
obscur de la Force sombre au détriment du côté lumineux.
Du coup lorsque tu veux afficher ces images, si tu ne sais pas faire l'inverse de la correction gamma faite à la capture (en fait, je crois qu'à l'enregistrement on parle de déformation et à l'affichage de correction, ou peut-être vice versa), l'intensité lumineuse de tes images sera faussée.
Afficher sans traitement sur un affichage SDR des pixels faits en tant que HDR, ça va provoquer un peu le même genre de problème, mais avec des saloperies supplémentaires. Par exemple, le HDR est censé aller bien plus loin dans les sombres et les lumineux, du coup sur une plage de luminosité min-max de 0 à 1, la plage de luminosité correspondant au SDR actuel sera (exemple simple à la con) de 0,25 à 0,75.
Si tu affiches ça comme si c'était des pixels SDR, les zones noires seront gris foncé (le 0.25 en luminosité SDR), les blanches seront gris clair (0.75 SDR), et toutes les couleurs seront délavées/ternes/manquant de contraste
Depuis des décennies, on a grosso modo fonctionné sur la même plage en matière d'affichage. Les espaces de couleur du RGB informatique et des BT.601 & BT.709 de l'industrie vidéo ont à peu près la même correction gamma que le tube cathodique, et leur gamut (l'étendue des couleurs réelles qu'ils supportent) était régulièrement considéré comme insuffisant. L'enjeu du HDR, c'est dd'implémenter de nouveaux traitements colorimétriques qui exploitent mieux ce qu'on a appris sur la perception humaine depuis les dernières normes, et de permettre d'exploiter les capacités technologiques actuelles et à venir (plage lumineuse étendue possible depuis le LCD et surtout l'OLED, et espaces de couleur customisables comparé aux BT.601 & BT.709 fixés, ce qui débloque au passage la possibilité d'avoir un gamut élargi). Et franchement, c'est une évolution bien plus significative qu'un passage en 4K.
Et c'est là d'où vient l'intérêt de l'augmentation de la quantification: on fabrique des écrans avec des dynamiques toujours plus larges
Pas systématiquement vrai. Sur un LCD, on peut pousser effectivement la luminosité bien au delà de ce que les tubes cathodiques pouvaient faire, mais ça a aussi pour résultat de rendre les noirs plus lumineux (kikoo le rétro-éclairage). Les télés HDR visent plutôt à pouvoir afficher en même temps ET le noir le plus sombre, ET le blanc le plus éclairant dont ils sont capables. Ca nécessite de moduler localement le retro-éclairage (du moins sur le LCD, sur les écrans OLED c'est plus simple vu qu'il n'y a pas de rétro-éclairage et que tu peux éteindre individuellement les pixels).