RTX vs GTX Grafikkarten Spielen und streamen unterschied?
Hallo bei den RTX karten wurde ja gesagt das die für das streamen besser geeignet sind oder für video decoding was ist der unterschied zwischen RTX und GTX und ist da wirklich ein unterschied zu bemerkten wenn man eine gtx und eine rtx karte vergleich
3 Antworten
GTX sind die alten Gamer-karten und RTX die Aktuellen
GTX kannst nur noch aktuell für LowLow-Spielchen daher nehmen, es sei denn Du ergatterst noch ne schöne 1080ti, die kann auch heutzutage noch mithalten (abseits von RT und DLSS)
die RTX-GPUs haben halt neuere De- und Encoder implementiert, die einer 1080ti fehlt (von den lumpigen 1650/60 brauchen wir nicht reden)
Mal für RTX zu GTX16x0
Aktuelle und vorherige Grafikkarten der GeForce-Serie vergleichen | NVIDIA
Moin,
GTX Karten sind älter und haben dementsprechend einen älteren sog. Encoder verbaut.
Die neuen RTX Karten werden mit Encoder ausgeliefert die z.B.
- höhere Auflösung
- höhere FPS
- höhere Bitrate
- höhere Farbtiefe
- AV1
- HDR
können. Wenns beim Twitch gestreamt wird ist aber denke ich mal egal, den für Einsteiger ohne Partnerschaft ist mit 1080p H.264 6000 kbps Schluss wenn sich nix geändert hat. Und das können auch die meisten alten GTX Karten ganz gut.
also hat sich im mehr oder weniger nichts geändert auser das die dekoding funktionen etwas aktuallisiert werden ich nehme manches mal videos auf meist in 720P 30 FPS sowie auch bilder und ich hatte mal mit einer GTX 960M mal Probiert was aufzunehmen mit OBS und ehr hat mir angezeigt Entcoder überlastet habe den nvidia Encoder genutzt den NVENC
Wenn der Encoder im OBS überlastet ist, dann hast du Einstellungen drin die für die neuen Karten ausgelegt sind oder halt eine zu hohe Bitrate. Musst du mal für deine Grafikkarte schauen was die besten Einstellungen sind.
Und der Decoder ist was anderes, der ist nicht für das Aufzeichnen sondern Wiedergeben da. Nach Möglichkeit nicht verwechseln
ich habe den Entcoder meist auf 3000 KBs eingestellt darunter wird es meist dann pixelig bei schnelle bewegungen die funktionen wie Keframeintvall und B Frames habe ich nicht verändert ich weis nur das bis her wenn ich geschaut habe egal ob ich die IGPU nutze oder die nvidia ist im task manager der decoder und der 3D Prozessor beansprucht sollte normalerweise nicht nur der Decoding Prozessor beansprung sein?
3D wird immer beansprucht. Unter Windows im Idle findest du meistens 1 bis 10 % Beanspruchung. Soweit ich weiß werden Funktionen wie Keyframes, Chromakeys, Scenenübergänge usw. erstmal im 3D verarbeitet und dann an den Encoder gesendet. Übrigens solltest du weiterhin nicht auf den Taskmanager achten sondern HWMonitor von z.B. cpuid.com laden. Der ist 1000x besser als der Taskmanager
HWMonitor ist kostenfrei, Es gibt eine Pro Version die man als Privatanwender nicht braucht.
Nein.
GTX und RTX sind sich ebenbürtig was das betrifft.
Die RTX kann nur hardwarebeschleunigtes Raytracing (daher das R). Mittlerweile produziert Nvidia fast nur noch RTX (also per Tensor-Kern Raytracing-fähige) Grafikkarten, vorallem im Gaming Bereich. GTX findet man nur noch für günstige Office-Anwendung, wenn überhaupt.
Daher kann davon ausgegangen werden, dass RTX Grafikkarten gegenüber GTX generell eine bessere Leistung haben und für Streaming/Encoding besser geeignet sind. Das hat aber nicht direkt was mit GTX/RTX zu tun, sondern einfach mit der generell stärkeren Leistung und moderneren Schnittstellen.
ich habe damals mal versucht mit einen 12 jahre alten Laptop mit einer GTX 960M ein video aufzunehmen mit OBS und habe gemerkt das ehr mir hinschreibt Entcoder überfordert und mir wurde immer gesagt RTX karten sind für Streaming besser Optimiert was die leistungs aufnahme u.s.w angeht da ich Raytracing bzw die Tensor Kerne nicht nutze sowie auch DLSS währe es dann bei mir Teoretisch eine GTX karte habe die RTX 4070 zurzeit
Die GTX 960M hat generell kaum Leistung. Das M steht auch für die abgespeckte Mobile Version für Laptops. Dass das generell nicht gut funktioniert in OBS ist klar.
Die RTX 4070 hat neben dem Tensor-Kern natürlich auch modernere API Schnittstellen und ist daher sowohl was die Leistung für Berechnungen und für Encoding betrifft natürlich deutlich überlegen. Es gibt keine GTX die es mit dieser RTX aufnehmen könnte, weil diese entweder ohnehin veraltet oder leistungstechnisch stark unterdurchschnittlich wäre.
Für Streaming/Encoding würde ich daher nur noch zu RTX Grafikkarten greifen bei Nvidia (AMD wäre ja auch noch eine gute Option, gerade wenn man den Tensor-Kern eh nicht braucht/will ist AMD preis-leistungstechnisch weit besser).
Also so funktionen wie RT und DLSS nutze ich nicht genauso wie 2K und 4K es geht da eher darum ob es Beim dekodieren einen unterschied macht also das nicht entweder das spiel oder der stream/Video aufnahme ruckelt beim aufnehmen