Grafikarte verbraucht unterschiedlich viel strom?
Ich hab meine grafikarte auf 1935mhz geundervolted aber wieso kann sie bei 1935mhz 100 watt ziehen aber auch 170 watt unter voll last bei gleichem takt
3 Antworten
Die MHz beziehen sich auf die Rechengeschwindigkeit deiner Karte, sprich wenn du diese reduzierst, rechnet sie langsamer.
Um die Karte zu undervolten, musst du die Spannung oder das Powerlimit reduzieren, wodurch du Strom sparen kannst.
Bei der Leistungsaufnahme kommt es aber auch immer darauf an was du machst bzw. spielst, ein Spiel wie CSGO was weniger Rechenintensiv ist, wird auch weniger Strom verbrauchen als beispielsweise Forza 5 oder das neue Spider Man für PC. Auch kannst du durch geringere/schlechtere Grafikeinstellungen Strom einsparen.
MHz ist nicht gleichbedeutend mit Last ( oder Verbrauch).
Als groben Vergleich....
Du stehst mit deinem Auto bei
5000rpm an der Ampel....
Oder
5000rpm ziehst du einen fetten Anhänger.
Das eine ist ohne Last mit erhöhten Verbrauch das andere mit Last und noch erheblich höheren Verbrauch.
Watt ist Volt x Ampere.
Wenn Volt (durch manuellen Eingriff) veringert wird, wird im Gegenzug Ampere (zwangsläufig) erhöht, damit die gleiche Leistung (Watt) erreicht wird.
Limitiert man nun Watt oder (zusätzlich zu der Veringerung der Volt) Ampere, limitiert man natürlich auch die Arbeit, die eine Grafikkarte erledigen kann - sie bekommt ja schliesslich weniger elektrische Leistung.
Also was du sagen willst ist wenn die karte mehr arbeitet nutzt sie mehr ampere und verbraicht somit mehr watt