Was genau hat es mit dem Powerlimit bei NVidia auf sich?
Ich habe vor einiger Zeit eine GTX 1070 gebraucht die gekauft, die laut Hersteller eine TDP von 150 Watt hat, laut hWiNFO verbraucht sie aber gerne auch mal 200 Watt. Ich habe jetzt das Power Limit auf 80% gestellt und sie ist so bei Max 150-160 unter Furmark.
Aber was hat es damit auf sich? Verliere ich durch das Limit viel Leistung, oder nur in Extremsituationen?
1 Antwort
Ich würde Dir empfehlen, es auf Standard zu lassen, warum solltest Du die Grafikkarte runter takten?
Die 50 Watt an Strom werden ja nicht durchgehend verbraucht, sondern nur unter Spitzenlasten.
Die größte Einsparung beim Stromverbrauch hast Du, wenn Du eine nVidia Grafikkarte nimmst und eine Ryzen CPU. 😊 Das gilt zumindest seit einigen Jahren, kann sich in Zukunft aber wieder ändern. :-)
Ich hatte davor eine GTX 1660 Ti, die hat immer brav ihre max 120 Watt gezogen.
Ja genau, sehr viele Grafikkarten und auch CPUs ziehen mehr an Strom, als die Angabe TDP.
Gerade die Vega 56 ist bekannt dafür, bis zu 350 Watt an Strom zu benötigen (Spitzen-Peaks)
Du kannst ja mal zum Thema TDP googeln, wie genau diese Angabe zustande kommt. Die Angabe ist eine grobe Orientierung, aber stimmt nicht immer 1:1. Es hängt davon ab, wie das Bios des Gerätes programmiert ist und was der Hersteller angibt. Mir wäre aber auch lieber, dass die Hersteller wirklich den Realitätswert angeben müssten. 😊
Die GTX 1660 Ti ist eine neue Serie, die etwas effizienter ist, als die Vorserie 1070. Das erklärt, warum diese mit weniger Strom auskommt als die 1070, obwohl die 1660 Ti bis auf -7% fast gleich schnell ist. :-)
OK, dann hab ich doch was gespart und ändere das wieder^^
Weil ich die TDP als "Maximum" gesehen habe und auch dabei bleiben wollte. Ich stand vor der Wahl eine Vega 56 zu nehmen, oder die GTX 1070. Die Vega 56 hat aber glaube eine TDP von 220 Watt. Oder ist das bei AMD genauso? Sprich, dass die auch mal 300 Watt ziehen kann?