4070ti vs. 7900xt wie würdet ihr euch entscheiden?
Vor kurzem ist ja die 4070ti auf den Markt gekommen, welche eine durchaus interessante Karte ist, leider aber durch den geringen Speicher und dessen recht langsame Anbindung, etwas ausgebremst wird. Die 12GB sind in höheren Auflösungen wie 1440p und 2160p jetzt schon teilweise eng bzw. nicht mehr ausreichend. Da laut Entwicklern auch der Speicherbedarf in den nächsten Jahren deutlich ansteigen wird ist die Karte leider nicht besonders zukunftstauglich.
Auf der anderen Seite gibt es ja AMD die mit der 7900xt eine wirklich tolle Karte auf den Markt gebracht haben, welche mittlerweile auch preislich sehr attraktiv ist.
Wie würdet ihr euch entscheiden? Würdet ihr euch für eine 4070ti entscheiden, welche zwar das etwas schnellere Raytracing bietet, dafür aber in den nächsten Jahren nicht mehr genug Speicher für Ultra Texturen liefert und etwas langsamer bei der Raster Performance ist, oder würdet ihr die 7900xt wählen, welche zwar etwas weniger Raytracing Leistung liefert, dafür aber deutlich mehr Speicher hat und auch bei der Raster Performance etwas besser ist?
Das Ergebnis basiert auf 19 Abstimmungen
11 Antworten
12GB sind halt schon recht wenig. Ich habe jetzt 8GB und dann auf 12, das ist mir zu wenig. Mit 20GB fühle ich mich mehr wohler.
Raytracing brauche ich nicht, also wähle ich definitiv die 7900xt.
Es hat schon vor 5 Jahren gehießen dass 8GB zu wenig wären weil zukunftssicherheit und 4K bla bla. Das einzige Game das bis heut etwas mehr als 8GB zieht, ist Far Cry 6 in 4K auf Max. und das ist eher schlechte Speicheroptimierung. Also sollten 12GB immer noch lange reichen, selbst in 4K.
Ich würde zur RX 7900XT greifen, einfach weil hier die Preis/Leistung stimmt und ich die beste Performance bekomme. Die RTX 4070ti hat zwar besseres Raytracing aber das würde ich sowieso nie nutzen da es zu stark die Performance beeinflusst. DLSS wäre auch besser bei der RTX 4070ti, aber FSR ist eine gute und immer besser werdende Alternative aber wie Raytracing etwas, dass ich nicht nutzen will und etwas mit diesen starken Karten auch kein Problem sein sollte.
G-Sync ist Freesync immer noch überlegen, aber dafür sind Monitore mit Freesync eben sehr günstig.
Ich persönlich hab noch einen alten, sauteuren Monitor der nur G-Sync kann, deshalb werde ich wahrscheinlich trotzdem wieder zu Nvidia greifen, aber wenn ich mir auch einen neuen Monitor mit Freesync Premium (Freesync über die gesamte Hertz-Range des Monitors) hole, dann wird es wahrscheinlich sogar die RX 7900 XTX, weil ich finde die 150€ mehr zur XT Variante sind gut investiert.
The Last of Us ist auch ein schlechter Port bei dem wieder nicht auf Optimierung geachtet wurde. War bei den anderen Playstation 4 Ports auch der Fall.
G-Sync Monitore gibt es natürlich noch, nur kann man mit jedem G-Sync Monitor auch Freesync mit einer AMD Karte nutzen und manche Freesync Premium Monitore sind so gut, dass sie von Nvidia das Label "G-Sync compatible" bekommen, haben aber keinen G-Sync Chip verbaut.
Dennoch gibt das einen guten Ausblick drauf was uns in den nächsten Jahren erwartet.
Bei meiner 6800xt wird auch bei einiges Games über 12GB genutzt.
12GB genutzt und 12GB zur Verfügung gestellt sind zwei verschiedene Dinge.
Allein schon aus dem Grund das AMD OpenSource Projekte unterstützt und auch dessen Treiber öffentlich zugänglich macht.
Die hab ich vor Kurzen erst geholt und sie Bildet zusammen mit den ebenso erst geholten Ryzen 7 5800X 3D bei mir ein Tolles Kraftpaket
Aber naja für Kenner mehr als Tausen Worte
https://www.3dmark.com/spy/37459017
Geiles Teil
Fan von Ray Tracing. Außerdem ist die mit dem Libraries für neuronal Netzwerke kompatibel.
Naja, zb Last Of Us braucht in 1080p schon mehr als 8Gb und in 4k sogar mehr als 16GB, in Zukunft wird es deutlich mehr Games geben wo 12Gb für 1440p und 2160p zu wenig sind.
G-Sync Monitore gibts doch gar nicht mehr? Meines Wissens sind die doch alle nur nocg G-sync kompatibel.