L'oeil humain ne voit pas plus de 24 image par seconde, c'est un fait.
Ce qui fait que tu vois une différence entre 30 et 80 fps, c'est la constance de tes fps : un pc pas capable d'être au-dessus de 30 fps sur un jeu aura des drops de fps en fonction de ce qui se passe à l'écran, du coup t'auras l'impression que ça rame mais si ce pc pouvait tenir en permanence 30 fps, tu ne verrais strictement aucune différence avec du 80 fps.
Désolé mais ça reste faux, je suis a 250/300 fps minimum, je peux brider à 60 avec la synchronisation, donc je tiens largement le 60 constant. Et résultat je vois la différence avec le bridage a 60 et lorsque je suis a 250/300.
Puis pour tout dire, l'histoire des 25 images par secondes, c'est qu'en partie vrai, c'est suffisant pour éviter les saccades, mais il a été prouvé que des différences, notamment sur l'absence de flou, pouvaient se ressentir jusqu'a ~200 ips. Y'a des articles qui en parlent, ça a été relancé par le tournage de the hobbit en 48 ips. Si vous avez besoin d'une source je peux la trouver mais j'ai un peu la flemme la
ça plus le fait que le jeu n'est pas forcément une science exacte en terme de précision véracité etc, comme il a été dit pour le ping avec la perte de paquet et une possible grosse latence avec un ping faible, je doute pas qu'il soit possible que les infos affichées sur l'ips ingame soit plus ou moins très approximatives
|