Inwiefern haben Hz mit FPS zu tun? 144hz Monitor oder 240?

144hz reicht vollkommen 82%
240hz wäre deutlich besser 18%

22 Stimmen

8 Antworten

Die Hertz des Monitors sind die FPS die dieser Monitor eben maximal darstellen kann. Ein 144Hz Monitor wird also maximal 144FPS liefern, vollkommen egal ob die Grafikkarte 200 oder 500FPS liefert.

Wenn die Grafikkarte weniger als 144FPS liefert dann zeigt der Monitor natürlich nicht mehr Frames an.

Bevor du dir also überlegst einen 240Hz Monitor zu kaufen, solltest du dir auch die Frage stellen, ob dein PC überhaupt die 240FPS liefern kann. Ich würde daher erst in einen PC investieren der beinahe durchgehend mehr als 144FPS erreicht und wenn dann noch Geld übrig ist kann man sich den 240Hz Monitor überlegen.

Ob es notwendig ist oder nicht, kann man nicht wirklich beantworten, ich habe Counterstrike mal auf einem 240Hz Monitor und auf einem 144Hz Monitor gespielt und ehrlichgesagt keinen Unterschied erkennen können. Einige Gamer schwören allerdings drauf, dass ein 240Hz Monitor viel besser ist. Ich würde also mal behaupten, dass man den Unterschied als normaler Mensch nicht merken wird, es kann aber durchaus sein, dass man im E-Sport mit so einem Monitor eventuell einen kleinen Vorteil hat.


KolnFC  08.03.2019, 00:18

Ein 240Hz oder auch ein 120/144Hz Monitor zeigt auch dann deutlich mehr Informationen an, wenn man viel weniger fps hat als das Panel Hertz (in Vergleich zu einem 60Hz Panel).

PeterKremsner  08.03.2019, 01:08
@KolnFC

Ja klar wird dir ein 144Hz Monitor 100 FPS Anzeigen, was ein ein 60Hz Monitor nicht kann. Steht ja auch nichts gegenteiliges in der Antwort.

Wenn deine Graka aber nur 30FPS berechnet wird dir ein 60Hz Monitor genau das selbe Anzeigen wie ein 144Hz Monitor.

KolnFC  08.03.2019, 01:15
@PeterKremsner

Nein, in aller Regel wird dir ein 144Hz auch bei 30 fps mehr Frames anzeigen als ein 60Hz Monitor, das liegt v.a. daran, dass ein Monitor ohne Hardwaresync nahezu nie die vollen fps anzeigen kann, auch nicht wenn diese unter der Bildwiederholungsraten liegen.

PeterKremsner  08.03.2019, 01:30
@KolnFC

Kommt auf die Einstellungen drauf an.

Bei 30Fps wird dir ein 60Hz Monitor mit Sicherheit alle Frames anzeigen, weil die Framerate genau die Hälfte der Refreshrate ist.

Bei anderen FPS ist das natürlich nicht mehr der Fall, das kommt aber drauf an wie die Grafikkarte das handelt. Wenn die einfach die Frames rausschmeißt so wie sie berechnet werden dann werden auch alle Frames am Monitor angezeigt.

Das Problem welches du erwähnst kenne ich eigentlich nur wenn VSYNC aktiviert ist. In diesem Fall gibt es ein Problem wenn die Framerate kleiner als die Refreshrate des Bildschirms ist. Der Grund dahinter ist, dass einzelne Frames auf den neuen Refreshzyklus des Bildschirms warten müssen. Der Refreshzyklus ist natürlich bei 144Hz wesentlich kürzer als bei 60Hz, womit das stimmt wenn VSYNC aktiviert ist.

Wenn Vsync nicht aktiv ist, ist es der Graka komplett egal was der Monitor gerade macht, wenn ein neus Bild gerendert wurde wirds in den Outputbuffer geschrieben und der Monitor nimmts, das kann dann eben zu Screentearing führen, aber der Monitor stellt so jeden Frame dar und zwar ist jeder Frame mindestens eine Refreshrate konstant am Bildschirm. Screentearing ist bei niedrigeren Frameraten aber idR nicht stark ausgeprägt womit hier immer ohne Vsync gearbeitet werden soll.

KolnFC  08.03.2019, 01:44
@PeterKremsner

Das hat nichts mit framerate, sondern frametime zu tun.

Einfaches Beispiel, ein 2Hz Monitor und ein 2 fps Signal. Der 2Hz Monitor kann nur ein (Voll-) frame anzeigen, sobald die frametime variiert, da er nur alle 500ms einen Swap hat.

Gleiches Beispiel mit einem 4Hz Panel, also 250ms Swap, hier kann die frametime sehr stark variieren, dennoch zeigt das Panel problemlos beide Frames an.

Oder stell dir Sequenzen vor mit schnell aufeinanderfolgenden Frames deutlich unter 16ms, gefolgt von Bildern mit längere Frametime, die durchschnittlich fps kann die Bildwiederholungsrate unterschreiten, da aber bei schnellen Sequenzen zwei oder mehr frames während eines Swaps gerendert werden, werden diese wieder verworfen.

Tldr: Je höher die Wiederholungsrate des Panels desto wahrscheinlicher, dass die angezeigten frames auch den gerendert entsprechen, je stärker die frametime variiert, desto stärker ist dieser Effekt.

PeterKremsner  08.03.2019, 01:59
@KolnFC

Ja die Durchschnittliche FPS natürlich schon.

Wenn die Framerate aber konstant unter der Refreshrate des Bildschirms ist dann geht da auch nichts verloren. Weil ein Framerefresh immer schneller ist als die Zeit welche die Berechnung des neuen Frames dauert.

Wenn die Grafikkarte mal langsamer Rendert als der Bildschirm etwas darstellen kann und dann wieder schneller dann gibts da natürlich ein Problem, aber genau das ist auch das was ich in meiner Antwort gemeint habe.

Wenn mein Rechner nicht mal eine minimale Frametime von 7ms unterschreiten kann, dann brauch ich mir keine Gedanken um einen 240Hz Monitor machen.

Und selbst wenn der Rechner alle 60Frames mal einen Frame mit einer kürzeren Frametime von 7ms erreicht dann bringt mir der wesentlich teurere Monitor auch nichts.

KolnFC  08.03.2019, 02:23
@PeterKremsner

In der Praxis und unter Berücksichtigung, dass auch Teilframes ausgegeben werden ist in einem Beispiel wie 30 fps tatsächlich kein Unterschied vorhanden, je mehr sich avg. fps und refresh rate aber annähern, desto wahrscheinlicher ist aber ein solches Szenario.

PeterKremsner  08.03.2019, 02:38
@KolnFC

Man wird eventuell einen Unterschied merken können wenn man den 144Hz Monitor mit durchschnittlichen 120FPS max betreibt.

Dennoch sehe ich wie gesagt keinen Sinn darin sich einen 240Hz Monitor zu kaufen wenn man nicht mal den 144Hz Monitor auslasten kann und genau darum gehts auch in der gesamten Antwort.

Es macht einfach keinen Sinn einen 260Hz Monitor mit einer schwachen Grafikkarte zu betreiben, weil man sich denkt, dass man einen schnellen Monitor braucht und dafür bei der Graka spart ;)

144hz reicht vollkommen

Der Unterschied zwichen 144 und 240 ist minimal. (Meiner Meinung nach; Wie viele Bilder pro Sekunde man warnehmen kann, hängt stark von der Person ab. Aber schon von 60 auf 144 sehen viele Menschen nur kaum einen warnehmbaren Unterschied.)

Die Hertz des Monitors sind die maximale Anzahl an anzeigbaren FPS.

Dein PC kann mehr Bilder pro Sekunde erreichen, als der Monitor anzeigen kann. Es bringt dir jedoch (fast) nichts. Wenn du 240fps bei 60hz hast, siehst du nur 60 Bilder pro Sekunde. (Der einzige Grund, warum man überhaupt die Möglichkeit hat, mehr FPS als Hz zu haben, ist, dass die Reaktionszeit dadurch minimal reduziert wird.)

Ich rate dazu, beim 144hz Monitor zu bleiben und dafür mit höherer Auflösung zu spielen. 1280x1080 ist schon sehr niedrig. Und das bei einer 2070.

144hz reicht vollkommen

Wie einige bereits sagten :

Das Eine ist die Bildfrequenz des Monitors, die immer gleich ist, solange Du sie nicht umstellst... Auch hohe Auflösungen können die maximale Bildfrequenz senken, weil der Monitor nicht mehr hinterher kommt - siehst Du dann aber in den Einstellungen

FPS sind die "Frames per second" (Bilder /Sekunde) die Deine Grafikkarte in einer bestimmten Auflösung liefern kann...

Meiner Meinung nach sind 100Hz für flimmer- und ermüdungsfreies Bild völlig ausreichend.... Bei der Grafikkarte reichen sogar 60 FPS, da höhere Werte nur die Systemleistung strapazieren und oberhalb wird das Auge keine anderen Details wahrnehmen...

Spiele 3D World of Tanks sogar bei 30 FPS weil es sich damit leichter zielen lässt als mit 60 FPS...... Die Kartenbewegung ist dann zwar etwas "weicher" aber grade DAS erschwert das Zielen


Torfkopp63  08.03.2019, 00:03

Nachtrag : Nicht alles, was man in den Einstellungen "maximieren" kann ist auch wirklich sinnvoll zum spielen...

Ich habe vor lauter Details an Wasserspritzern, Flammen, Explosionen und Nebel zwar eine geile Optik - verliere aber JEDE RUNDE, weil ich die Gegner zu spät gesehen habe und mein Hirn mit soviel INPUT überfordert ist

144hz reicht vollkommen

Meiner Meinung nach genügen 144 Hz, aber jedes Auge ist da anders. Es gibt auch sicherlich einige, die noch einen Unterschied zu 240Hz wahrnehmen können.

Aber wie gesagt, das musst du selbst wissen. Ich denke 144 Hz machen mehr Sinn, da du in den meisten Spielen eh keine 240 FPS erreichen wirst.

Zu der Sache mit Hz und FPS:

Bei Monitor ist der Wert immer in Hz angegeben, das ist die Bildwiederholrate, also wie viele Bilder pro Sekunde angezeigt werden. Die Grafikkarte hat mit deinem Monitor ja aber nichts zutun, es kann sein, dass sie gerade nur 60 Bilder pro Sekunde produzieren kann aber genauso gut kann sie auch zum Beispiel 240 fps errechnen. Dem Monitor ist das egal, der zeigt immer so viele Bilder an wie seine Bildwiederholrate ist. Dementsprechend macht es zum Beispiel wenig Sinn auf einem 60Hz Monitor mit 240fps zu spielen, da der Monitor nur jedes 4. Bild darstellen wird.

144hz reicht vollkommen

Vielen Leuten fällt kaum schon ein Unterschied zwichen 60hz und 144hz auf mir aber schon was ich am Anfang selber nicht glauben konnte aber zwichen 2 so großen Summen und zwar 144hz und 240hz kann ich es mir echt nicht mehr vorstellen