4K, quel intérêt?

Répondre
Partager Rechercher
Je viens d'acquérir un écran UHD, 3840x2160.

Et c'est là que je me rend compte de la limite de la Full HD.
Actuellement, beaucoup de jeux proposent des textures très détaillées. On se prend donc au jeu de mettre les paramètres graphiques au maximum surtout quand l'on a une bonne configuration, mais cela se révèle être inutiles en 1080p selon la situation.

La résolution affecte la qualité d'affichage des textures et contours en fonction de la distance en jeu.
Quelque soit la résolution d'affichage, un objet sera plus détails de près que de loin, mais plus la résolution d'affichage est importante plus il y aura de détails.

HD = 1280x720 (921600 pixels)
Full HD = 1920x1080 (2073600 pixels)
2K = 2560x1440 (3686400 pixels)
4K (UHD) = 3840x2160 (8294400 pixels)
8K (4 fois la 4K) = 7680x4320 (33177600 pixels)

Une texture n'est affichée correctement que lorsque le rapport de pixel est de 1/1 à l'écran.
Sur un écran 4K, un objet pourra être éloigné de la caméra pour ne couvrir que 1/4 de ce qu'il couvre sur un écran Full HD et être affiché avec la même qualité.


1080p VS 2160p
http://img15.hostingpics.net/pics/472127Skyforge2015083121341313.jpg
De près, le décors avec textures SD ne gagne pas en finesse en 2160p par rapport au 1080p.

816492Skyforge2015083121342429.jpg
Perte de qualité des textures HD en 1080p par rapport au 2160p.

La 4K offre l'avantage d'afficher correctement les textures en fonction de leur résolution et distance d'affichage bien mieux qu'avec la Full HD mais aussi de rendre moins visible l'aliasing.
Encore faut-il avoir une carte graphique puissante pour afficher en 4K.
On a la possibilité de réduire ou désactiver l'Antialiasing pour gagner en performance.
Citation :
Publié par gunchetifs
Ce que tu appelle 4k c'est l'UHD (pas pareil) et une carte graphique puissante seul ne suffit pas pour les jeux 3D gourmand ne serait ce que en high.
c'est pas la même chose au pixel près

C'est aussi pour ça que je précise qu'il faut une grosse config.
Citation :
Publié par gunchetifs
Tu as écrit UNE carte graphique, alors qu'il faudrait un SLI ou crossfire, même une 980TI suffit pas.
Pour l'instant, mais faut pas oublier que l'on gagne 30-50% à chaque génération, sans oublier qu'il y aura des jeux DX12 qui afficheront plus d'IPS que sous DX11.

La MSI GeForce GTX 980 Ti Lightning fait tourner The Witcher 3 à 43IPS en moyenne en 3840x2160.
Une GTX 1080 Ti de MSI aura minimum +50% de performance ajouté à cela +50% de performance avec DX12, tu obtiens 97FPS en moyenne pour un affichage en 3840x2160.

Pour l'instant rien n'est annoncé du côté de Nvidia pour sa série 1000.

Gain de performance de la série 700 à la série 900 (série 800 seulement pour les PC portables) est supérieur de 50%
http://www.guru3d.com/articles_pages...review,25.html
http://www.guru3d.com/articles_pages...review,26.html

Si la série 1000 de Nvidia propose le même gain par rapport à la série 900, alors il ne faudra qu'un seul GPU comme un GTX 1080 TI (???) pour un affichage en 3840x2160 à 60FPS.
Oui fin après faut tout remettre dans son contexte.

Quand Nvidia (ou amd) Annonce +50% c'est en général +25-30% et 50 dans des cas très particulier qui les arranges.
Quant on remet en fps 30% de 43 fps ça tourne autour de +13 fps.
On sera donc a 56 fps sur un jeu qui aura 1 ans et demi , comme d'hab les dev se seront empressé de créer un jeu encore plus gourmand.

Perso je pense qu'il faudra surtout attendre une génération supplémentaire pour que le tout soit accessible.
La 980Ti c'est qu'une titan X nerfée histoire de collé une Geforce qui batte les R9.
Ca reste totalement hors de prix pour 90% voir 95% des joueurs.

Perso je joue en 2560*1080 (21:9), c'est pas au niveau du 1440p mais ça offre un bon compromis perf / confort et permet de pas mettre 50% du budget de ma tour dans une carte graphique.
Citation :
Publié par kraken973
La 4K offre l'avantage d'afficher correctement les textures en fonction de leur résolution et distance d'affichage bien mieux qu'avec la Full HD mais aussi de rendre moins visible l'aliasing.
Encore faut-il avoir une carte graphique puissante pour afficher en 4K.
On a la possibilité de réduire ou désactiver l'Antialiasing pour gagner en performance.
Tu peux remplacer 4K et 1080p par des n+1 et n, c'est toujours la même chose avec un saut de résolution.

Perso je passerai à la 4k quand ils feront du 144hz, donc avec un framerate correct qui va avec, le tout sans dépasser les 1000-1500€ pour écran+gpu, donc j'ai encore un peu de temps devant moi je pense !
Citation :
Publié par Sir BiBu
Perso je passerai à la 4k quand ils feront du 144hz, donc avec un framerate correct qui va avec, le tout sans dépasser les 1000-1500€ pour écran+gpu, donc j'ai encore un peu de temps devant moi je pense !
Pour l'instant, seul les écran en 1080p et 1440p offre du 144hz free et g-sync.
Comparatif 1080p vs 1440p vs 2160p
le 1440p est à peine mieux que le 1080p. On voit une nette amélioration en 2160p.
511980TERA2015090321035605.jpg
De nombreux détails ne sont pas visibles en 1080 ou 1440 à la même distance que pour du 2160.

Le problème avec les jeux vidéo sur PC est que la demande en performance graphique suit l'évolution des GPU (mais surtout l'évolution des consoles).
Il n'y a qu'à voir Tomb Raider 2013 et le prochain Rise of the Tombe Raider qui sort cette année.
On est passé de la série 700 à 900 chez Nvidia qui offre +35% entre la 780 à la 980 pour Tomb Raider en Ultra, mais les 35%
Donc impossible de jouer en 4K avec un seul GPU, sauf si Nvidia et AMD se décide à sortir une nouvelle génération de GPU qui soient plus efficace en terme de résolution d'affichage.
Si tu actives le supersampling, SSAAx8 par exemple, tu es déjà en 4k+ depuis longtemps ... Puis bon les couleurs en 8bit par couches dans un espace couleur rgb comme c'est la norme, c'est juste du foutage de gueule intégral... l'écran n'y changera rien ça restera de la merde.

Dernière modification par GtB ; 09/09/2015 à 18h27.
Citation :
Publié par kraken973
Pour l'instant, mais faut pas oublier que l'on gagne 30-50% à chaque génération, sans oublier qu'il y aura des jeux DX12 qui afficheront plus d'IPS que sous DX11.

La MSI GeForce GTX 980 Ti Lightning fait tourner The Witcher 3 à 43IPS en moyenne en 3840x2160.
Une GTX 1080 Ti de MSI aura minimum +50% de performance ajouté à cela +50% de performance avec DX12, tu obtiens 97FPS en moyenne pour un affichage en 3840x2160.

Pour l'instant rien n'est annoncé du côté de Nvidia pour sa série 1000.

Gain de performance de la série 700 à la série 900 (série 800 seulement pour les PC portables) est supérieur de 50%
http://www.guru3d.com/articles_pages...review,25.html
http://www.guru3d.com/articles_pages...review,26.html

Si la série 1000 de Nvidia propose le même gain par rapport à la série 900, alors il ne faudra qu'un seul GPU comme un GTX 1080 TI (???) pour un affichage en 3840x2160 à 60FPS.
Rien pour la série 1000 ?

Ta tout loupé ^^'

La série 1000 sera équipe de Pascal, le nouveau GPU (nouvelle technologie)
Le gain annoncé par rapport à maxwell est monstrueuse.. puisque l'on parle de 10x maxswell en 1 Pascal :
http://on-demand.gputechconf.com/gtc...Hsun-Huang.pdf

La série 900 actuel est juste une hérésie pour vendre et entuber un maxium de gens... car à l'origine la série 900 devait être équipe de pascal, hors à cause d'un problème de gravure, ce dernier à été repoussé à Juin 2016. Et pour éviter de paraître pour des idiots, Nvidia à juste re-travailler le maxwell de la série 750 et 700 après 2014, pour avoir un gain pratiquement nul.. (oui, 20 à 30% de gain (et non 50%, faut pas pousser mémé dans les orties) c'est ridicule quand t'on compare le gain entre la 600 et 700 (plus précisément la 680 à la 780 (jour de la sortie), ou la carte à double de puissance alors qu'elle avais le MEME GPU)

Voilà, j'ai fini mon hors-sujet

Sinon, pour le 4k... m'en fiche un peu,

Dernière modification par MrGoibniu ; 09/09/2015 à 19h21.
Citation :
Publié par gunchetifs
Euh... Non tu dit nawak.

Gain monstrueux oui mais pas x10, on passe de 28nm a 16nm et de la GDDR5 a la HBM 2 certes mais voila...
Non, non pas nawak, c'est bien ce qu'annonce Nvidia, c'est pas moi qui l'annonce ^^ (page 34 de mon lien)

Quand tu regarde la nouvelle façon de calculer des cartes avec cette nouvelle technologie, je ne serais pas étonné.
La 4K sur des écrans de PC n'a d'intérêt que si ton écran dépasse les 30 pouces.

A la base, c'est un problème technique (taille d'un pitch sur les écrans supérieur au 40 pouces) qui les a poussé à quadrupler la résolution avec des algo d'upscale pour les télévisions.

Dans la pratique, A part pour le jeu vidéo et les blu ray, les sources HD (1080p) sont rares alors la 4K...

L'autre problématique est la stockage. On n'a pas de support amovible assez important pour stocker un film en 4K et pour le streaming, il doit y avoir que la fibre optique qui te permet une telle résolution (pas sûr).

Je met la 4K au même niveau que la 3D sur les téléviseurs, un délire de technophile qui pour l'instant ne sert pas à grand chose.

Dernière modification par Gratiano ; 10/09/2015 à 16h35.
Citation :
Publié par MrGoibniu
Non, non pas nawak, c'est bien ce qu'annonce Nvidia, c'est pas moi qui l'annonce ^^ (page 34 de mon lien)
NVIDIA dit n'importe quoi, on appelle sa le marketing, jamais il se couleront comme sa.
Citation :
Publié par MrGoibniu
La série 900 actuel est juste une hérésie pour vendre et entuber un maxium de gens...
Citation :
Publié par MrGoibniu
Non, non pas nawak, c'est bien ce qu'annonce Nvidia, c'est pas moi qui l'annonce ^^ (page 34 de mon lien)
Ben d'un coté ils t'entubent et de l'autre ils sont sincères dans leurs annonces donc?
Citation :
Publié par gunchetifs
NVIDIA dit n'importe quoi, on appelle sa le marketing, jamais il se couleront comme sa.
Je crois surtout que Nvidia ne va pas pousser la puissance au maximum pour la série 1000 pour ne pas casser les ventes de la série 900.
Ce seront des GPU bridé pour nous poussez à acheter des TITAN XX à +1200€.

De toute façon on sera obligé un jour de passer à la 4K.
C'est comme les TV HD qui sont maintenant très rare, maintenant le Full HD c'est du standard.
La suite est logique, en va passer à la 4K quand les prix vont baisser et qu'il y aura des supports multimédia compatible 4K (Des films sur carte SD?)
Sans oublier que les constructeurs visent maintenant la 8K.

La question à ce poser est, comment vont évoluer les GPU pour supporter de telles résolutions d'affichage sans que l'on ait besoin de se ruiner?
Il faudra que Nvidia et AMD trouvent une solution pour réduire la charge d'utilisation du GPU à ce niveau.

Citation :
Publié par GtB
Si tu actives le supersampling, SSAAx8 par exemple, tu es déjà en 4k+ depuis longtemps ... Puis bon les couleurs en 8bit par couches dans un espace couleur rgb comme c'est la norme, c'est juste du foutage de gueule intégral... l'écran n'y changera rien ça restera de la merde.
Le but du SSAAx8 est de lisse les graphismes pour faire disparaître l'aliasing ce qui estampe les détails.
Le 2160p a pour but d'afficher plus de détails.

Actuellement, certains jeux peuvent tourner en 2160p sans problème à 60fps avec une GTX980ti ou AMD R9 Fury X

EDIT:
J'ai testé Wildstar en 4K, ça change pas grand chose vu que c'est moche de base même tout au max contrairement à Skyforge.

Dernière modification par kraken973 ; 11/09/2015 à 08h34.
Tu crois qu'on est dans le continent africain? On est peut-être pas le japon... mais on doit être dans les seuls pays au monde au jour d'aujourd'hui à pouvoir envoyer de la 4K à une partie non négligeable de notre population. Peut-être pour ça que la 4K ne se démocratise pas?

Donc le coup de la france qui se traine technologiquement, pas réellement en faite.
http://www.guru3d.com/news-story/nvi...y-spotted.html
Une rumeur du côté de Nvidia laisse penser que sa prochaine carte Graphique aura 16 milliards de transistor contre 8 milliards pour la GTX 980 TI.
Cela parait logique vu qu'il sera en 16nm contre 28nm précédemment.

Deux fois plus de transistor pour les calcules et le HBM2 plus rapide que la GDDR5, ça fait rêver
Il y a de grande chance que ce soit une nouvelle TITAN à 1200€ qui aura pour but de faire tourner les jeux sans problème en 4K.
La GTX 980 TI arrive à faire tourner MGSV en 4K à 45fps, donc avec deux fois plus de calcules et une mémoire plus rapide et une nouvelle architecture qui améliore tout ça, on devrait avoir +90fps.

Il faut en plus prendre en compte que ce nouveau GPU sera 100% compatible DX12 qui sera mieux optimisé que DX11.

Dernière modification par kraken973 ; 23/09/2015 à 16h48.
Citation :
Publié par MiniTiZ
Tu crois qu'on est dans le continent africain? On est peut-être pas le japon... mais on doit être dans les seuls pays au monde au jour d'aujourd'hui à pouvoir envoyer de la 4K à une partie non négligeable de notre population. Peut-être pour ça que la 4K ne se démocratise pas?

Donc le coup de la France qui se traîne technologiquement, pas réellement en faite.
Tu devrai revoir tes chiffres , Le débit moyen en France n'a rien de génial, on est parmi les derniers en Europe.
En France c'est la couverture qui est bonne , pas le débit moyen et c'est pas la même chose.
C'est plus la corée du sud qui fait office d'exemple en la matière que le japon.

Le seul lot de consolation c'est que la France à l'une des plus forte croissance a ce niveau grâce au plan très haut débit.
On est plus en 2010 , on ne démocratisera pas la 4K avec la télévision seule , les besoins ont changer.

Dernière modification par Atsura ; 23/09/2015 à 23h12.
Citation :
Publié par Atsura
On est plus en 2010 , on ne démocratisera pas la 4K avec la télévision seule , les besoins ont changer.
Comme la 2K qui ne concerne que les gamers, la 4K ne concernera que les gamers à la recherche de la meilleur qualité graphique en y mettant le prix.
Citation :
Publié par Atsura
Faut dire qu'en même temps le monde va pas attendre que la France veuille bien évoluer pour continuer.
C'est pas trop le probleme, la durée de vie d'une télé fait que tu en changes pas à chaque évolution technologique. La mienne je la changera sous une condition: qu'elle soit morte. A priori pas avant au plus tot 5 ans donc, au plus tard je la garde à vie.
Citation :
Publié par Andromalius
C'est pas trop le probleme, la durée de vie d'une télé fait que tu en changes pas à chaque évolution technologique. La mienne je la changera sous une condition: qu'elle soit morte. A priori pas avant au plus tot 5 ans donc, au plus tard je la garde à vie.
Si t'as pas de chance, ta TV va tomber en panne avant ses 5 ans.
Répondre

Connectés sur ce fil

 
1 connecté (0 membre et 1 invité) Afficher la liste détaillée des connectés