AMD oder NVIDIA Grafikkarte (Stromverbrauch)?
Hallo.
Die NVIDIA Karten sind ja meist im Vergleich zur jeweiligen AMD Karte effizienter.
Die Rtx 4070 Super beispielsweise verbraucht circa 220 Watt, die RX 7800XT und 7900 GRE um die 260 Watt.
Dafür sind die AMD Karten etwas billiger.
Dafür zahlt man ja mehr Strom. Jetzt ist die Frage, wenn ich nur diesen Parameter betrachte:
Lieber etwas mehr Geld ausgeben, dafür nen geringeren Stromverbrauch, oder weniger ausgeben und dafür einen höheren Stromverbrauch?
Ich mein circa 40-50 Watt unterschied (wenn man zockt) müsste man doch am Jahresende schon merken?
3 Antworten
Die paar Watt machen kaum einen unterschied. Du musst auch bedenken das die 7800XT und vor allem die 7900 GRE schneller sind als die 4070S.
Zudem haben die mehr VRAM.
Aber man kann ja mal rechnen sagen wir man würde sogar auf 60W unterschied kommen im Schnitt. Das ganze mit täglich 2Std zocken.
0,12KWh am Tag gespart * 365Tage = 44KWh im Jahr.
44KWh * 0,35€ =15,4 € gespart pro Jahr.
Da nehme ich persönlich lieber die schnellere Karte.
Oke. Jetzt frag ich mich ob sich der Aufpreis von der 7800 XT (499€) zur 7900 GRE (~630€) lohnt.
Aber nur von XFX, wenn man 3 Lüfter möchte. Ist der Hersteller gut?
Was mich halt verwundert, Mindfactory gibt bei der XFX 7900GRE 244 Watt an. Amazon & Galaxus auch. Wie kann das sein?
Die Marke ist sehr gut, meine 7900XT geht dank 400w VBIOS im Schnitt 15-20% besser, je nach Auflösung. Die 244w ist das long PPT, das liegt 20% unterhalb des short PPT welche die reale Leistungsaufnahme angibt. Macht also 293w.
Tuf 249w, respektive 299w
Nitro+, Red Devil, Merc 310?, 244w, respektive 293w
Hellhound 236w, respektive 283w
Steel Legend, Pure 228w, respektive 274w
Nitro+, Pulse, Challenger, Fighter, Dual 220w, respektive 266w,
XFX MBA 212w, respektive 254w
Acer Daten habe ich nicht gefunden, eben so wie für die Merc 310 habe ich kein Vbios gefunden, nur einen Test, welche aber auch teilweise stark von abweichen, ist also mit Vorsicht zu genießen. Ich habe nämlich auch eine Dual mit 293w gesehen OC vllt?
Galaxus gibt es jedenfalls nicht richtig an.
Würde zur Merc oder Challenger greifen.
da es die Merc (XFX) für 579€ gibt ist das glaube ich ein top Angebot.
Netzteil mit 650 Watt sollte ja dennoch reichen.
wen du auf jeden cent achtest merkst du es, doch im grund macht es keine grossen unterschied, jedoch spielt wärme da eien rolle und auch das marken gefühl und spiel kompatiblität, auch die kombination mit den andern pc komponenten können die pervormace der grafikkarte beeinflussen und so mehr oder weniger strom verbrauchen
Kommt auf deine Spielstunden an und auf den Stromtarif.
In der Regel macht es aber nicht viel aus, ca. 4€-8€ im Jahr.
Wenn man 1,5h täglich spielt.
Durchschnittlich wahrscheinlich 2 - 3 Stunden täglich… klar mal mehr mal weniger, mal gar nicht…
40W Unterschied * 1,5h/Tag * 0,9 (Wirkungsgrad) = 54Wh/Tag
54Wh/Tag * 365 Tage/Jahr = 19710Wh/Jahr = 19,71kWh/Jahr
19,71kWh/Jahr * 0,36€/kWh = 7,09€ pro Jahr
548 Spielstunden im Jahr
Dann müsste ich ja die Karte mindestens 5 Jahre nutzen damit sich der Aufpreis rechtfertigt.
Du willst aber wahrscheinlich Performance. Wenn du auf RayTracin bei deinen Spielen abfährst, dann würde ich die 4070 Super nehmen, mit Ultra RT Settings ist die 4070 Super der GRE überlegen. Aber bei der Rohleistung ist die 7900GRE weitaus stärker.
Würde da den Verbrauch weniger berücksichtigen. Man kann auch den Verbrauch mit einem Titanium oder noch besser Platinum Netzteil weiter senken.
Okay. Ich sehe aber gerade, dass die 7800 XT im Spiel „the finals“ eher 300 Watt zieht. Das sind ja dann circa 80-90 Watt unterschied zur 4070 Super. Zumindest in dem YouTube Video. Wiederum in einem anderen Video sinds eher 250 Watt bei der RX 7800 Xt
Das einzige was mich bei der 4070 Super nervt sind die 12 GB Vram. Mit 16 würde ich mich wohler fühlen. Klar, aktuell reichen 12 GB bei 3.440 x 1.440 locker aus, aber wer weiß was die Zukunft bringt.
Raytracing ist jetzt nicht sooo wichtig. Ich hab The Finals und Cyberpunk. Das sind aber die einzigen Spiele mit Raytracing. Dazu spiele ich Cyberpunk sowieso selten.
Hm die wird genug Leistung für die nächsten Jahre haben? Wenn die RTX 4070 S 16GB hätte, wäre sie schon längst bestellt… aber es kann ja keiner sagen wie es mit dem VRAM in 3 Jahren ausschaut…
Der Ram begrenzt die Leistung der Karte. Aber du hast den Direktvergleich. Die 4070 Super leicht schwächer als die GRE, wenn man RT dazu nimmt, aber fast doppelt so stark. Das ist die Leistung die sie bringt und bringen wird. Damit hast du auch in 5 Jahren immer noch dasselbe Verhältnis.
Das stimmt. Nur wenn es künftig Spiele gibt (gibt es ja glaube ich teilweise jetzt schon), die mehr als 12 GB Vram brauchen wird es eng.
Es könnte ja auch ein grafisches Update kommen in irgend einem Spiel, und zack reichen die 12GB nicht mehr. Oder sehe ich das falsch?
Ja, Spiele brauchen kein VRam. Die Karte ist auf den schon verbauten VRam ausgelegt. Der ist mir der GPU verbunden und wird an die grenze gebracht bei 100% Auslastung. D.h. die Leistung die sie jetzt bringt, wird sie auch in Zukunft bringen.
Sie hat eine Rechenleistung ca. 35.91 TFLOPS. Das ist unveränderlich. Mehr Ram konnte die Rechenleistung verbessern. Mehr aber nicht. D.h. die Spiele brauchen nicht den VRam, sondern die GPU und das zusammen ergibt die Rechenleistung.
Naja meine jetzige Karte hat 12 GB Vram und Apex Legends verbraucht circa 7 GB von Vram.
Gehen wir davon aus, sie upgraden die Grafik. Dadurch wird doch auch unter Umständen mehr VRAM verbraucht.
Ja aber nur weil es nicht die Volle Rechenleistung brauch. Wenn du die volle Rechenleistung der Karte brauchst, dann ist der VRam in der Regel auch am Anschlag, das fluktuiert aber.
Alles in allem bringt sind die Rechenleistungsangaben mit nahezu 100% VRam usage. D.h. sie wir die 35.91 TFLOPS bringen. Wenn sie 100% ausgelastet ist. Wenn Spiele mal mehr Rechenleistung benötigen als 35.91 TFLOPS, dann wirds eng. Eine schwächere GPU die mehr Ram hat bringt dir auch nichts. Weil sie nicht mehr als ihre Rechenleistung bringen kann.
Puhh, das ist irgendwie schwer zu erklären. 😅
Ich hab’s aber verstanden :) ist gut erklärt.
Hat denn die GRE genug Power um die 16GB jemals ausnutzen zu können?
Mich schreckt halt der Stromverbrauch von teilweise 300 Watt etwas ab😅
Das sind ja nur die Leistungsspitzen, die verbraucht das ja bei weitem nicht permanent. Aber ja, ein PC ist leistungsfähiger als eine Konsole, daher brauch er auch mehr Strom.
naja bei The Finals und Apex Legends hat sich eigentlich durchgängig 270-280 Watt gezogen. Zumindest eben auf YouTube.
meine Rx 6750 XT zieht in Apex Legends nicht mehr als 200 Watt.
Die lässt sich aber gut einstellen. Meine 7900XT liegt bei 275w und 6% mehr Performance. 7900GRE dürfte auf 190-200w immernoch die selbe Leistung bringen.
Normalerweise sagt man grob GPU Leistungsaufnahme x2 ist Peakleistung des Netzteils. Ein Though Power GF1 650w liegt bei 780w, damit kann man also grob eine 390w GPU betreiben.
Okay hm. Würde für die GRE noch ein 650 Watt Netzteil reichen?