Quel est le framerate idéal dans un FPS ?
Lire l'article complet
Ce dossier est une republication de notre article paru en 2003. Face à l'actualité récente des écrans 360Hz qui débarquent : nous pensons qu'il est intéressant de le remettre en avant.
Dans un FPS, à partir de combien de frames par seconde devient-il inutile d’en rajouter ?
Devant la multitude de débats auxquels j’ai pu participer sur Internet, afin de savoir s’il était utile ou non de faire tourner Quake à 24 ou 100 images par seconde, j’ai procédé à quelques recherches afin d’écrire un article permettant de résoudre une fois pour toute à cette éternelle question. Je n’ai peut-être pas trouvé ... document.getElementById("xpost_link").onclick = function(event) { event.preventDefault(); var http = new XMLHttpRequest(); http.href = 'Lire l'article complet'; http.onreadystatechange = function () { if (http.readyState == 4 && http.status == 200) { if (http.responseText) { document.getElementById("bridgedd").parentNode.innerHTML = http.responseText + '
' + http.href; } else { window.location = this.href; } } }; http.open("GET", "https://forum.nofrag.com/xpost.php?p=147161", true); http.send(); };
Ce dossier est une republication de notre article paru en 2003. Face à l'actualité récente des écrans 360Hz qui débarquent : nous pensons qu'il est intéressant de le remettre en avant.
Dans un FPS, à partir de combien de frames par seconde devient-il inutile d’en rajouter ?
Devant la multitude de débats auxquels j’ai pu participer sur Internet, afin de savoir s’il était utile ou non de faire tourner Quake à 24 ou 100 images par seconde, j’ai procédé à quelques recherches afin d’écrire un article permettant de résoudre une fois pour toute à cette éternelle question. Je n’ai peut-être pas trouvé ... document.getElementById("xpost_link").onclick = function(event) { event.preventDefault(); var http = new XMLHttpRequest(); http.href = 'Lire l'article complet'; http.onreadystatechange = function () { if (http.readyState == 4 && http.status == 200) { if (http.responseText) { document.getElementById("bridgedd").parentNode.innerHTML = http.responseText + '
' + http.href; } else { window.location = this.href; } } }; http.open("GET", "https://forum.nofrag.com/xpost.php?p=147161", true); http.send(); };
25 FPS au delà l’œil ne fait plus la différence
C'est un bon article.
Il serait tout de même intéressant de savoir partir de quel taux (en moyenne) on ne voit plus la différence
Il serait tout de même intéressant de savoir partir de quel taux (en moyenne) on ne voit plus la différence
Ça va varier selon plein de facteurs mais aujourd'hui c'est surtout le matériel qui nous limite: les LCDs ne peuvent pas changer leurs pixels d'état assez vite pour beaucoup plus que 200-300hz. En vrai beaucoup de LCDs font encore n'importe quoi au delà de ~120hz et affichent des artefacts d'overdrive, une qualité d'image pourrie etc. Autrement dit: même si 360hz c'est mieux que 144hz, ça va être difficile voir impossible à voir avec les écrans actuels.
Si le sujet t'intéresse dis toi que même 1000hz (ou 10 000hz en VR!) ça aurait du sens, dans certains cas, si c'était possible.
(pour ce qui est du problème des performances du PC derrière l'écran à mon avis ça va être réglé dans un futur très proche par de l'interpolation d'images comme tout le monde le fait déjà en VR)
25FPS: FAUX
Tout dépend des déplacements dans l'image (je pends ici dans la largeur):
- 25fps sur un écran de 5cm de large, ça va, cela fait des étapes de 0.2mm, donc à 30cm ça passe.
- 25fps sur un écran de 55", ça fait des étapes de 4.8cm, donc même à 2-3 mètres ce n'est pas fluide (ça se voit très bien).
- 25fps sur un écran de 24" (le mien par exemple), des étapes de 2cm, à 50-60cm ça se voit aussi.
Et personnellement au cinéma, plus les films ont des mouvements rapides plus on perçoit cette non fluidité, surtout si vous êtes comme moi à se mettre assez proche de l'écran.
C'est comme les bandes de couleurs
Tout dépend des déplacements dans l'image (je pends ici dans la largeur):
- 25fps sur un écran de 5cm de large, ça va, cela fait des étapes de 0.2mm, donc à 30cm ça passe.
- 25fps sur un écran de 55", ça fait des étapes de 4.8cm, donc même à 2-3 mètres ce n'est pas fluide (ça se voit très bien).
- 25fps sur un écran de 24" (le mien par exemple), des étapes de 2cm, à 50-60cm ça se voit aussi.
Et personnellement au cinéma, plus les films ont des mouvements rapides plus on perçoit cette non fluidité, surtout si vous êtes comme moi à se mettre assez proche de l'écran.
C'est comme les bandes de couleurs
Merci beaucoup pour ce chouette article. Première fois que je discute d'un article NOFRAG avec ma femme dans le train en rentrant du taf.
Je me rend compte que je ne savais absolument pas ce qu'était le motion blur. Je pensais que c'était un effet lumineux de merde et je desactivais sans cesse cette option. Peut etre aurais je du la laisser activé pour certain jeu. En tout cas, je ferai les tests desormais.
Grâce à vous, je sais desormais pourquoi l'image était systématiquement flou quand on mettait un film cassette sur pause. C'était donc l'ancêtre du motion blur c'est bien cela?
L'article explique le principe pour avoir une image fluide avec peu d'image? Mais quelle est son explication? Ce n'est pas l oeil qui en est à l'origine j'imagine.c'est le cerveau qui reconstitue une image nette et refais donc en permanence la liaison avec l image précédente ?
Cela pique ma curiosité, je vais voir ce que je vais trouver à ce sujet.
Merci en tout cas.
PS : le coup des pilotes de chasse qui reconnaissent une image a 200ms. En gros, on pourrait encore diminuer ce temps en leur balançant un énorme flash lumineux en théorie. J'avais vu il y a quelques année une émission sur des singes, à qui on montrait une succession de chiffre sur une image qui apparaissait très brièvement. Alors que l'homme ne les distinguait pas, les singes etait était capable de reconstituer fidèlement cette succession de chiffre. Leur performance pourrait donc être liée à une persistance rétinienne plus marquée que chez l'homme.
Je me rend compte que je ne savais absolument pas ce qu'était le motion blur. Je pensais que c'était un effet lumineux de merde et je desactivais sans cesse cette option. Peut etre aurais je du la laisser activé pour certain jeu. En tout cas, je ferai les tests desormais.
Grâce à vous, je sais desormais pourquoi l'image était systématiquement flou quand on mettait un film cassette sur pause. C'était donc l'ancêtre du motion blur c'est bien cela?
L'article explique le principe pour avoir une image fluide avec peu d'image? Mais quelle est son explication? Ce n'est pas l oeil qui en est à l'origine j'imagine.c'est le cerveau qui reconstitue une image nette et refais donc en permanence la liaison avec l image précédente ?
Cela pique ma curiosité, je vais voir ce que je vais trouver à ce sujet.
Merci en tout cas.
PS : le coup des pilotes de chasse qui reconnaissent une image a 200ms. En gros, on pourrait encore diminuer ce temps en leur balançant un énorme flash lumineux en théorie. J'avais vu il y a quelques année une émission sur des singes, à qui on montrait une succession de chiffre sur une image qui apparaissait très brièvement. Alors que l'homme ne les distinguait pas, les singes etait était capable de reconstituer fidèlement cette succession de chiffre. Leur performance pourrait donc être liée à une persistance rétinienne plus marquée que chez l'homme.
C'était et c'est toujours du motion blur. Ça n'a pas de rapport avec les cassettes, les films d'aujourd'hui qui sortent en Blu-ray 4K Ultra HD ont toujours le même taux d'images par seconde et sont toujours aussi flous quand on les met en pause alors que quelque chose bouge à l'écran.
Exemple avec le Blu-ray 4K de Stars Wars The Last Jedi et celui de Joker.
manus a écrit : ↑ 25FPS: FAUX
Tout dépend des déplacements dans l'image (je pends ici dans la largeur):
- 25fps sur un écran de 5cm de large, ça va, cela fait des étapes de 0.2mm, donc à 30cm ça passe.
- 25fps sur un écran de 55", ça fait des étapes de 4.8cm, donc même à 2-3 mètres ce n'est pas fluide (ça se voit très bien).
- 25fps sur un écran de 24" (le mien par exemple), des étapes de 2cm, à 50-60cm ça se voit aussi.
Et personnellement au cinéma, plus les films ont des mouvements rapides plus on perçoit cette non fluidité, surtout si vous êtes comme moi à se mettre assez proche de l'écran.
C'est comme les bandes de couleurs
Sauf que là tu compares 25fps sur 5cm (la diagonale de 5cm de large) et sur un écran de 60cm (24").
Donc évidemment que plus le mouvement est grand (5cm/60cm) sur une période de temps stable (1s j'imagine) à un taux de raffraichissement stable (24fps), les résultats seront différents.
Un déplacement de 5cm à 24 fps sera semblable sur un écran 5cm ou 24" de diagonale.
Evidemment que les mouvements seront différents à l'oeil si pour un même taux de rafraichissement on change la distance.
Merci pour l'article, bien écrit et intéressant
Je suis "enfin" passé à un écran 144hz ... Je vois la différence, mais je regrette l'investissement (tout comme mon clavier mecanique).
En fait pour le joueur counter strike, il n'y a eu aucun progrès en 20 ans ! On avait aussi des écrans crt 120hz + clavier mécanique et on en faisait pas tout un foin !
Ah si ... Maintenant on tire avec des kqlaqsh rose fluo
En fait pour le joueur counter strike, il n'y a eu aucun progrès en 20 ans ! On avait aussi des écrans crt 120hz + clavier mécanique et on en faisait pas tout un foin !
Ah si ... Maintenant on tire avec des kqlaqsh rose fluo
144hz pour un fps c'est good. un jeu solo à partir de 70,80,90 fps. Après si certains arrivent avec 20 fps tant mieux pour eux...
En fait les fps c'est comme la thune, plus y'en a mieux c'est, même si on peut apprendre à se débrouiller avec peu (ce qui semble plus difficile si on est habitué à beaucoup de confort).
Je dois faire parti des gens qui arrivent avec 20 fps... je tenterais pas Counter Strike avec mon matos par contre...
Je dois faire parti des gens qui arrivent avec 20 fps... je tenterais pas Counter Strike avec mon matos par contre...
Je pense que c'était des vidéos chez JAYZTWOCENTS et Linus où ils demandaient à des potes de dire quand c'était à 75,100,120,144hz.
Genre ils se sont plantés 9/10 et ne ressentaient pas de différences entre 75 et 120hz...
Après s'être tapé la honte, ils ont quasi avoué "en rigolant" que entre 75hz et 100hz c'était le bon spot pour avoir une bonne sensation de fluidité.
Le tout après avoir fait l'apologie pendant des années de +100hz.
Sur ce je vais m'acheter ce 360hz...ouais je vais enfin leet comme au bon vieux temps.
Genre ils se sont plantés 9/10 et ne ressentaient pas de différences entre 75 et 120hz...
Après s'être tapé la honte, ils ont quasi avoué "en rigolant" que entre 75hz et 100hz c'était le bon spot pour avoir une bonne sensation de fluidité.
Le tout après avoir fait l'apologie pendant des années de +100hz.
Sur ce je vais m'acheter ce 360hz...ouais je vais enfin leet comme au bon vieux temps.
[*]Je suis tombé rcemment sur une video de Linus qui avait abordé le sujet en colaboration avec Nvidia. Il y avait comme cobayes Shroud , un pgm sous Overwatch , un gris streamer et un gugus de chez Linus.
Ils passaient en revue le 60 Hz , le 140Hjz et le 200+ Hz avec divers tests et IPS.
Grosso modo , le 140 Hz apportait vraiment un gain significatif par rappirt au 60 , le 200+ le gain par rapport au 140 était bien moindre.
Je farfouillerais quand je serais sur le PC pour retrouver le lien.
Ils passaient en revue le 60 Hz , le 140Hjz et le 200+ Hz avec divers tests et IPS.
Grosso modo , le 140 Hz apportait vraiment un gain significatif par rappirt au 60 , le 200+ le gain par rapport au 140 était bien moindre.
Je farfouillerais quand je serais sur le PC pour retrouver le lien.
Quand on me parle de 144hz et de 120 fps, je me sens loin et je comprend pas qu’on ai besoin d’autant... je saisis parfaitement la différence entre 30 et 60 fps et je comprend l’utilité du 60 fps minimum pour le multi, mais j’ai jamais eu les roupilles pour faire peter les derniers jeux en 60 fps.
Mais tout ça reste aussi très subjectif et rapport au vécu, je me suis tellement habitué au 30 fps que voir du 60 fps pour un jeu solo, ça me pète ma suspension d’incrédulité, je trouve que ça fait cheap et vulgos je sais pas pourquoi... rapport au cinéma sans doute, entre le 24 fps d’un Sergio Leone terriblement sérieux et la fluidité stupide d’Helene et les Garçons...
J’ai eu l’opportunité de faire les Metro en 60 fps sur une PS4, je trouvais ça tellement toc que j’ai préféré passer sur mon PC en 30 fps pour être plus immergé... le 30 fps apporte quelque chose d’étrangement solennel qui améliore l’atmosphère de certains jeux, comme quoi au fond l’expérience de chacun est vraiment unique de ce point de vue. (Après faut pas exagérer, Doom c’est du 60 fps obligé. Mais 60 fps dans Stalker, c’est rédhibitoire, et tant pis si la visée ou le gameplay en pâtit un peu)
Mais tout ça reste aussi très subjectif et rapport au vécu, je me suis tellement habitué au 30 fps que voir du 60 fps pour un jeu solo, ça me pète ma suspension d’incrédulité, je trouve que ça fait cheap et vulgos je sais pas pourquoi... rapport au cinéma sans doute, entre le 24 fps d’un Sergio Leone terriblement sérieux et la fluidité stupide d’Helene et les Garçons...
J’ai eu l’opportunité de faire les Metro en 60 fps sur une PS4, je trouvais ça tellement toc que j’ai préféré passer sur mon PC en 30 fps pour être plus immergé... le 30 fps apporte quelque chose d’étrangement solennel qui améliore l’atmosphère de certains jeux, comme quoi au fond l’expérience de chacun est vraiment unique de ce point de vue. (Après faut pas exagérer, Doom c’est du 60 fps obligé. Mais 60 fps dans Stalker, c’est rédhibitoire, et tant pis si la visée ou le gameplay en pâtit un peu)
La compréhension que j'ai toujours eu là dessus, c'est que le nombre de FPS est un arbre qui cache une forêt : la latence (aussi appelé l'input lag), qui est le seul truc véritablement important pour l'expérience de jeu.
(je ne parle pas seulement de la latence réseau, mais de la latence complète du système : le temps entre le moment où vous pressez une touche et le moment où il y a une réaction à l'écran)
La latence moyenne est d'au minimum de 1 seconde divisé par le framerate. Donc si toutes les autres sources de latences ont été supprimées, alors effectivement augmenter le framerate va diminuer la latence.
Mais dans la vraie vie, la latence est additive et ses sources sont nombreuses : un écran non-gamer va avoir 10 millisecondes de temps de réponse, et un clavier moderne (incluant les claviers gamers !) exhibe souvent 45 à 50 millisecondes de latence !
Si vous jouez avec un clavier avec 45 millisecondes de latence et un écran qui en a 10, vous avez déjà 55 millisecondes de latence dans les pattes. Il faut encore rajouter la latence ajoutée par le framerate : à 30 FPS, vous ajoutez 1000 / 30 = 33 ms (total : 88ms), à 60 FPS, vous ajoutez 17 ms (total : 72ms), à 120 FPS, 8ms (total : 63 ms). Et il faut probablement rajouter encore de la latence supplémentaire par le PC en lui même.
Globalement, on arrive à des absurdités où les systèmes PCs modernes ont une latence supérieures à 100ms alors que les ordinateurs des années 70 et 80 en ont généralement moins de 60.
Bref, un framerate plus élevé vous permet de converger vers une asymptote qui est le reste de la latence de votre système. Le framerate peut constituer une portion significative de la latence si ce framerate est bas, mais dés qu'on monte en FPS, c'est le reste du système qui devient le véritable nœud du problème.
Et comme personne n'en parle jamais, on se retrouve avec des gamers qui se focalisent sur leur écran 144 Hz alors qu'ils ont 50 ou 100ms de latence entre leur clavier et leur écran. Ou encore qui se paluchent sur leur ping fibre à 2ms alors qu'ils ont 10 ou 50 fois ce délai en interne dans leur machine.
(je ne parle pas seulement de la latence réseau, mais de la latence complète du système : le temps entre le moment où vous pressez une touche et le moment où il y a une réaction à l'écran)
La latence moyenne est d'au minimum de 1 seconde divisé par le framerate. Donc si toutes les autres sources de latences ont été supprimées, alors effectivement augmenter le framerate va diminuer la latence.
Mais dans la vraie vie, la latence est additive et ses sources sont nombreuses : un écran non-gamer va avoir 10 millisecondes de temps de réponse, et un clavier moderne (incluant les claviers gamers !) exhibe souvent 45 à 50 millisecondes de latence !
Si vous jouez avec un clavier avec 45 millisecondes de latence et un écran qui en a 10, vous avez déjà 55 millisecondes de latence dans les pattes. Il faut encore rajouter la latence ajoutée par le framerate : à 30 FPS, vous ajoutez 1000 / 30 = 33 ms (total : 88ms), à 60 FPS, vous ajoutez 17 ms (total : 72ms), à 120 FPS, 8ms (total : 63 ms). Et il faut probablement rajouter encore de la latence supplémentaire par le PC en lui même.
Globalement, on arrive à des absurdités où les systèmes PCs modernes ont une latence supérieures à 100ms alors que les ordinateurs des années 70 et 80 en ont généralement moins de 60.
Bref, un framerate plus élevé vous permet de converger vers une asymptote qui est le reste de la latence de votre système. Le framerate peut constituer une portion significative de la latence si ce framerate est bas, mais dés qu'on monte en FPS, c'est le reste du système qui devient le véritable nœud du problème.
Et comme personne n'en parle jamais, on se retrouve avec des gamers qui se focalisent sur leur écran 144 Hz alors qu'ils ont 50 ou 100ms de latence entre leur clavier et leur écran. Ou encore qui se paluchent sur leur ping fibre à 2ms alors qu'ils ont 10 ou 50 fois ce délai en interne dans leur machine.
Non non, les chiffres sont en adequation avec son propos.
Je ne comprends absolument pas comment on peut penser cela, je ne conçois absolument pas comment il peut trouver l'ambiance meilleur et solennelle en 30 ips.
Il n'y a qu'une démarche philosophique qui pourrait l'expliquer.
Un truc du genre le luxe est superflu, vivons dans la pauvreté.
En somme, Sadyn, c'est l'abbé Pierre de la génération connectée.
Je trolle, mais sans deconner, j'arrive toujours pas à concevoir son propos. Solennelle, 30 fps, non, l'association ne fonctionne pas.
Moi j'ai du mal à comprendre comment on peut jouer à metro avec une manette.
@Darkstryder c'est pas simplement la latence mais oui c'est un point important c'est sûr. Par exemple avec un rafraichissement suffisamment élevé et un écran qui suit la route (CRT ou très bon LCD) tu vas pouvoir lire du texte qui se déplace vite, sur un LCD basique à 60hz c'est très vite de la bouillie de pixels (plein de tests ludiques et explications par là https://www.testufo.com). Sur des jeux avec beaucoup de mouvement c'est pas difficile de comprendre l'intérêt d'augmenter la fréquence pour voir plus de détails et avoir une expérience plus immersive. Je te laisse imaginer l'importance de ça en VR, mais on est au point où ils font de la prédiction pour compenser la relative lenteur des écrans et des PCs: https://developer.oculus.com/blog/the-l ... rediction/ ou https://danluu.com/latency-mitigation/
Par contre je suis pas tout à fait d'accord pour dire que la latence est plus élevée sur les machines modernes de manière générale.
En bureautique avec un écran LCD 60hz OK, mais c'est principalement la faute de l'écran justement. Ah et info importante dont ton lien ne parle pas: depuis Windows Vista on a de la v-sync double buffered (2 frames) sur le bureau (le fameux Desktop Window Manager) ça rajoute ~30ms avec un écran 60hz (dans ton lien il semble s'en être rendu compte à la partie "Refresh rate vs. latency"). Linux je sais pas mais Apple depuis quelques années fait pareil à ma connaissance (plus on a d'animations en bureautique plus le tearing va être visible donc c'est compréhensible). La latence supplémentaire du PC que tu évoque est visiblement négligeable si on enlève la v-sync (hors/applis jeux mal codés bien entendu), malgré la complexité des machines modernes.
Les machines de jeux avec un écran 120hz et plus on tombe sans difficulté en dessous de 40-30ms: https://youtu.be/4oHGinQjt5c?t=476 et d'ailleurs même en 60hz on peut descendre très bas tant qu'il n'y pas de v-sync. Sur blurbusters on trouve des gens qui montrent la même chose (et puis battle(non)sense de toute façon a un protocole de test béton et a testé des souris et claviers aussi).
Après oui, il y a du bullshit marketing à tout va et des joueurs qui chassent pas toujours les "ms" au bon endroit. Mais autant l'arrivée en masse des LCDs 60hz c'était une grosse régression sur ce point (on est nombreux à se souvenir des joueurs qui faisaient la chasse aux CRTs d'occasion), autant avec l'arrivée des LCDs 120hz de qualité correcte on a bien remonté la pente.
Par contre je suis pas tout à fait d'accord pour dire que la latence est plus élevée sur les machines modernes de manière générale.
En bureautique avec un écran LCD 60hz OK, mais c'est principalement la faute de l'écran justement. Ah et info importante dont ton lien ne parle pas: depuis Windows Vista on a de la v-sync double buffered (2 frames) sur le bureau (le fameux Desktop Window Manager) ça rajoute ~30ms avec un écran 60hz (dans ton lien il semble s'en être rendu compte à la partie "Refresh rate vs. latency"). Linux je sais pas mais Apple depuis quelques années fait pareil à ma connaissance (plus on a d'animations en bureautique plus le tearing va être visible donc c'est compréhensible). La latence supplémentaire du PC que tu évoque est visiblement négligeable si on enlève la v-sync (hors/applis jeux mal codés bien entendu), malgré la complexité des machines modernes.
Les machines de jeux avec un écran 120hz et plus on tombe sans difficulté en dessous de 40-30ms: https://youtu.be/4oHGinQjt5c?t=476 et d'ailleurs même en 60hz on peut descendre très bas tant qu'il n'y pas de v-sync. Sur blurbusters on trouve des gens qui montrent la même chose (et puis battle(non)sense de toute façon a un protocole de test béton et a testé des souris et claviers aussi).
Après oui, il y a du bullshit marketing à tout va et des joueurs qui chassent pas toujours les "ms" au bon endroit. Mais autant l'arrivée en masse des LCDs 60hz c'était une grosse régression sur ce point (on est nombreux à se souvenir des joueurs qui faisaient la chasse aux CRTs d'occasion), autant avec l'arrivée des LCDs 120hz de qualité correcte on a bien remonté la pente.
J'avais Shadow of the Tomb Raider. J'avais testé ma 2070 et mon 1440p@75Hz en
- max 30 fps
- max 60 fps
- Gsync 75 fps.
Puis j'ai bridé mon écran en 60fps et j'avais aussi testé :
- Gsync 60 fps.
- max 60 fps.
(avec toutes les options à fond pour bien être dégoutté)
J'ai dû admettre que la vsync dégueulasse tout pendant les chutes de framerates (autant cinématique que gameplay)
Alors sur certains jeux aujourd'hui comme Call Of, je débride tout et je fous le max FPS.
Aucune déchirure, c'est propre... j'me tape des maps avec 150 fps en 1440p.
Mais sur certains jeux (Comme Tarkov) je suis obligé de mettre la v-Sync (adaptative) sinon avec les déchirures, c'est INJOUABLE.
J'ai tout essayé, j'y ai passé des heures. Quand tu gagnes de la fluidité d'un coté, tu perds en qualité de l'autre coté.
Horrible d'être en 2020 et de galérer autant pour jouer à jeu.
PS : je me rappelle l'enfer d'ArmA3 quand je voulais passé au multi à l'époque. Je croyais péter un câble toutes les deux parties.
Y'a d'autres gars qui ont choppé un cancer comme moi à cause de certains jeux?
- max 30 fps
- max 60 fps
- Gsync 75 fps.
Puis j'ai bridé mon écran en 60fps et j'avais aussi testé :
- Gsync 60 fps.
- max 60 fps.
(avec toutes les options à fond pour bien être dégoutté)
J'ai dû admettre que la vsync dégueulasse tout pendant les chutes de framerates (autant cinématique que gameplay)
Alors sur certains jeux aujourd'hui comme Call Of, je débride tout et je fous le max FPS.
Aucune déchirure, c'est propre... j'me tape des maps avec 150 fps en 1440p.
Mais sur certains jeux (Comme Tarkov) je suis obligé de mettre la v-Sync (adaptative) sinon avec les déchirures, c'est INJOUABLE.
J'ai tout essayé, j'y ai passé des heures. Quand tu gagnes de la fluidité d'un coté, tu perds en qualité de l'autre coté.
Horrible d'être en 2020 et de galérer autant pour jouer à jeu.
PS : je me rappelle l'enfer d'ArmA3 quand je voulais passé au multi à l'époque. Je croyais péter un câble toutes les deux parties.
Y'a d'autres gars qui ont choppé un cancer comme moi à cause de certains jeux?
[mention]kal[/mention] : merci beaucoup des précisions.
[mention]YottaDahK[/mention] T'es censé limiter le frame rate 3 FPS en dessous du taux de rafraîchissement de ton moniteur, pour éviter que G-Sync ne se désengage et ne se réengage en permanence (chose faisable directement dans le panneau de configuration NVIDIA avec les derniers drivers). Logiquement, si c'est dégueulasse, c'est que G-Sync ne fonctionne pas.
T'as peut-être aussi tout simplement un mauvais moniteur FreeSync comme il en existe des milliers, avec une plage de fonctionnement hyper restreinte.
T'as peut-être aussi tout simplement un mauvais moniteur FreeSync comme il en existe des milliers, avec une plage de fonctionnement hyper restreinte.
Ça serait cool si la rédaction de Nofrag fessait un dossier aussi complet que possible sur les différentes source de latence qu'il est possible et utile de réduire parce que comme le disent certains ici c'est le point centrale du schmilblick.
C'est pas négligeable pour ceux qui jouent en multi même si après il y a d'autres facteurs qui interviennent et qui dépendant plus de ce que tu peux bien faire sur ton pc.
Le youtubeur CAPET a fait pleins de vidéos sur ces sujets où il compile des solutions.
Il y a matière à travailler d'autant qu'on est ici au bon endroit pour en parler et échanger, c'est passionnant je trouve, dans de nombreux cas des gens vont redécouvrir leur pc et leurs jeux.
C'est pas négligeable pour ceux qui jouent en multi même si après il y a d'autres facteurs qui interviennent et qui dépendant plus de ce que tu peux bien faire sur ton pc.
Le youtubeur CAPET a fait pleins de vidéos sur ces sujets où il compile des solutions.
Il y a matière à travailler d'autant qu'on est ici au bon endroit pour en parler et échanger, c'est passionnant je trouve, dans de nombreux cas des gens vont redécouvrir leur pc et leurs jeux.