Gibt es einen Unterschied zwischen FPS und Hertz?
Das bedeutet doch beides, wie oft pro sekunde das bild aktualisiert wird, oder?
4 Antworten
Genau.
Das eine (FPS) wie viele Bilder pro sek erzeugt werden durch die GPU
Das andere (Hz) wie viele Bilder pro sek dein Monitor wiedergeben kann.
Im Idealfall läuft beides synchron (freesync / g sync oder zur Not vsync aktivieren)
Lg
Unklare Fragestellung. Z. B. bei CRT-TV gibt's den PAL-Standard, der in Europa meist mit 50Hz betrieben wurde, was 50 Halbbilder = quasi 25 Vollbilder pro Sekunde bedeutet.
D.h. je nach Standard kann Hz z. B. auch für die Anzahl der Halbbilder stehen, wodurch andere Vollbild-Raten resultieren.
notting
FPS (Frames per second) bedeutet Bild pro Sekunde. Das lässt sich auch frei mit Bildfrequenz übersetzen. Hertz dagegen ist eine allgemeine Maßeinheit. Siehe dazu Wiki:
"Das Hertz (Einheitenzeichen: Hz) ist die Si-Einheit der Frequenz. Sie gibt die Anzahl sich wiederholender Vorgänge pro Sekunde in einem periodischen Signal an. ....."
Beim Monitor unterscheiden wir z.B. z.B. zwischen Bildfrequenz und Zeilenfrequenz.
Also:
FPS (Frames per Second = Bilder pro Sekunde). Diese Zahl gibt an wie viele Bilder dein Gerät pro Sekunde generiert. Mit Hertz wird die Wiederholfrequenz angegeben, also wie oft dein Gerät pro Sekunde das Bild ändern kann. Wenn du z.B. einen 144 Hertz Monitor hat und dein PC 200 FPS schafft, werden dir nur 144 angezeigt, weil der Monitor nicht mehr kann. Wenn du einen 60 Hertz Monitor hast und dein PC nur 30 FPS schafft (Beispielwerte), dann hast du nur 30 FPS, auch wenn der Monitor mehr könnte