Mehr hz = mehr Strom?

5 Antworten

Sowas sollte logisch sein dass wenn mehr pro Sekunde angezeigt wird auch mehr Strom verbraucht wird.

Und ob das der Kumpel des Bruders von XY ist spielt keinerlei Rolle - sowas gehört nicht mit rein!

Jein. Hertz ist nicht gleich FPS. Nicht verwechseln

Hz bezieht sich ausschließlich auf den Monitor und beschreibt die Häufigkeit, in der dieser ein neues frame anzeigen kann. Dem Monitors es deswegen erst mal völlig egal, ob Deine GPU nun 60 oder 240 Bilder in der Sekunde generieren kann.

Wenn dein Monitor auf 240Hz eingestellt ist, aber deine GPU nur 60fps ausgibt, wird der Monitor zwar weiterhin mit einer Bildwiederholrate von 240Hz arbeiten, aber er zeigt nur 60 Bilder pro Sekunde an, da die GPU nicht mehr Frames bereitstellt. Der Monitor "wiederholt" also einfach die vorhandenen Bilder solange, bis er ein neues Bild von der GPU bekommt.

Bei 60Hz = Monitor und 240 fps = GPU entsprechend umgekehrt.

In beiden Fällen werden nur 60 fps angezeigt, aber bei höherem Gesamtstromverbrauch, als bei 60Hz + 60 fps

Was den Stromverbrauch betrifft, wird der Monitor schon alleine durch die höhere Bildwiederholungsrate bei 240 Hz mehr Strom (aus der Steckdose) verbrauchen, als bei 60 Hz.

Entsprechend die GPU aus deinem Netzteil mehr Strom bei 240 fps ziehen als bei 60fps

TL:DR

Sowohl GPU wie Monitor haben unabhängig voneinander ihren eigenen Stromverbrauch, welcher logischerweise mit zunehmender FPS, bzw Hz - zahl skaliert.

Den höchsten Stromverbrauch hast Du also bei 240 fps + 240Hz, den niedrigsten bei 60fps + 60Hz.

Wenn du aktuell 240 fps hast, dein Bildschirm aber nur 60 Hertz hat (60 fps wiedergeben kann) dann arbeitet deine Grafikkarte natürlich härter um die 240 fps zu halten, ganz egal ob dein Bildschirm sie wiedergeben kann oder nicht. Deswegen würde ich die Einstellungen auf 60 fps stellen.

Bei meinem 60Hz FullHD Monitor braucht die Grafikkarte im Leerlauf mindestens 6 Watt.

Bei meinem 144Hz WQHD Monitor 9-12 Watt.