Nachteile bei DLSS4?
Ich spiele VR und Fortnite Competitiv gibt es irgendwelche Nachteile bei DLSS4 mit Multi Frame gen da viele dagegen sind!
LG
4 Antworten
Du kriegst die Bilder logischerweise etwas später.
Normalerweise würdest du ja bei 100FPS 100 Bilder kriegen also
10ms= Bild 1
20ms= Bild 2
30ms= Bild 3
Bei DLSS wird ein zwischenbild erzeugt Also nachdem Bild 2 erzeugt wurde, wird ein zwischenbild berechnet nennen wir es Bild 1,5. Anstatt das bei 20ms Bild 2 angezeigt wird, wird bei 20ms bild 1,5 angezeigt und bei 25ms dann Bild 2, bei 30ms Bild 2,5 bei 35ms Bild 3.
Ich glaube nicht das ein Unterschied im realen feststellbar ist aber berechenbar ist er natürlich.
Dieses zwischenbild anhand von 2 Ausgangsbildern zu berechnen ist viel einfacher, als die Grafik selbst zu berechnen, es hilft daher natürlich die FPS zu erhöhen, du kriegst aber logischerweise nicht "mehr" Informationen als in den Ausgangsbildern sowieso erhalten ist.
Der Zeitverzug ist aber logischerweise nicht bei 60ms, das würde bedeuten die DLSS berechnung anspruchsvoller ist als die Originalspieldaten zu berechen, was das ganze ad adsurdum führen würde. Der reale Zeitverzug wird bei etwa 1-2 Frames liegen.
Wenn du aber competativ spielst empfiehlt es sich nicht da jeder noch so kleine verzug sich ja aufaddiert mit den anderen.
https://www.youtube.com/watch?v=osLDDl3HLQQ
Hier hast du auchnoch ein Youtube Video da hat einer mit mehren Spielen getested wie sich input-latency verändert. Die änderung ist aber wie du siehst auch im schlechtesten fall nicht 50-60ms.
Sieht eventuell Kacke aus und ist in Details womöglich ungenau. Aber wenn du damit kein Problem hast, dann kannst du das einwandslos verwenden.
Die KI versucht neue Informationen zu berechnen aus vorhandenen. Das geschieht, statt nach einem bestimmtem Muster, heuristisch aufgrund von einer Wahrscheinlichkeitsrechnung auf spezifischen Testdaten.
Je nach Szenario, in dem die Technologie Anwendung findet, wird das Ergebnis entsprechend besser oder schlechter sein.
Zudem sind die Details gezwungenermaßen ungenau, da die KI sich Daten ausdenkt und dabei gerade in den Detail viel Noise/Lärm entsteht.
Der Bildunterschied zwischen Bild A und Bild B ist minimal, daher kann garnicht viel ungenauigkeit entstehen. Dazu kommt das du das Bild eben nur ein paar tausenstel sekunden siehst.
Wenn du im Original 50fps hat und mit DLSS 100FPS.
Dann heißt das das im Original alle 20ms ein Bild generiert wird. Aus dem Unterschied von 2 Bildern die 20ms voneinander getrennt wird wird ein zwischenbild generiert.
Du hast also Originalbild->zwischenbild->Originalbild.
Der Unterschied von 20ms ist minimal, dazu kommt das du das zwischenbild nur 10 tausenstel sekunden siehst.
Wenn es " in den Detail viel Noise/Lärm entsteht." würdest du ein extremes Flackern des Bildes sehen weil er immer zwischen den Originalen Bildern und den "und dabei gerade in den Detail viel Noise/Lärm entsteht." im 10ms tackt hin und her springen würde.
Die tatsache das du eben kein Flackern hat (was DLSS auch unnutzbar machen würde) zeigt eben das die unterschiede klein sind und sich gut einfügen.
Der Bildunterschied zwischen Bild A und Bild B ist minimal, daher kann garnicht viel ungenauigkeit entstehen.
Das hängt von den Parametern der KI ab, wie auch davon, was denn genau gerendert wird, wie hoch die Framerate tatsächlich ist, welche Daten konkret verwendet werden (Die finalen Bilder oder Vorabdaten), ...
Zudem sollte gegebenenfalls ein Vergleich zu vergleichbaren Technologien gezogen werden.
Es sei dazu gesagt: Wenn man wirklich nur zwei Bilder als Eingabe verwendet, dann wird eine KI in den Standardszenarien vermutlich, sofern sie passend parametrisiert ist, bessere Zwischenbilder liefern können als jegliches vergleichbares Verfahren, gleichzeitig ist sie aber auch deutlich fehleranfälliger.
Als Beispiel: Eine Objekt bewegt sich, die kamera bleibt statisch. Es liegen zwei Bilder vor.
Ein klassisches Verfahren könnte nkaum einschätzen, wie sich das Objekt tatsächlich bewegt, höchstens die Bilder oder kanten kompliziert interpolieren.
Eine KI könnte erraten, in welche Richtung sich das Objekt bewegt und das Bild passend interpolieren, könnte aber genausogut eine falsche Annahme treffen und die Bewegung falsch und unplausibel fortsetzen.
Dazu kommt das du das Bild eben nur ein paar tausenstel sekunden siehst.
Du siehst aber sehr viele solcher generierter Bilder. Wenn da etwas schief läuft fällt das schnell auf.
Um das Beispiel von vorher aufzugreifen. Es könnte beispielsweise sein, dass ein sich bewegendes Objekt zu schwingen oder zu flackern scheint.
Oder es könnten Probleme auf Bild-Ebene auftreten, die vergleichbar wären, je nachdem, wie die KI konkret arbeitet.
Wenn es " in den Detail viel Noise/Lärm entsteht." würdest du ein extremes Flackern des Bildes sehen weil er immer zwischen den Originalen Bildern und den "und dabei gerade in den Detail viel Noise/Lärm entsteht." im 10ms tackt hin und her springen würde.
"Detail" ist hier allgemeiner zu verstehen. Was genau "Detail" meint hängt schlußendlich davon ab, wie die KI arbeitet.
Das es zu Problemen in den Details kommt resultiert aber aus der Sache, dass KIs für viele verschiedene Anwendungsfälle funktionieren sollen, aber nicht jeden möglichen Anwendungsfall explizit implementieren, oftmals sogar sehr stark vereinfacht sind.
Die tatsache das du eben kein Flackern hat (was DLSS auch unnutzbar machen würde) zeigt eben das die unterschiede klein sind und sich gut einfügen.
Dazu noch:
Flackern hatte ich mit DLAA bei irgendeinem Marvel-Spiel mal, nachdem das erstmals rauskam. Und es war dadurch, meiner Ansicht nach, unspielbar.
Ob derfleichen auftritt bzw. wie genau es sich äußert hängt abervon der konkreten AI und dem Anwendungsszenario ab.
Man hat sich offenbar inzwischen glücklicherweise weiterentwickelt und bei moderneren Spielen konnte ich derartiges Flackern durch DLAA nicht mehr beobachten.
Wenngleich ich das nur oberflächlich begutachtet habe bis auf bei einem Spiel, das aber widerrum Raytracing nutzt, weshalb nicht klar zu sagen war, ob der Noise daher (bzw. vom Denoiser) oder von der Upscaling-AI kam.
Das hängt von den Parametern der KI ab, wie auch davon, was denn genau gerendert wird, wie hoch die Framerate tatsächlich ist, welche Daten konkret verwendet werden
Ja aber gehen wir doch von deinem genannten Fall aus:
Sieht eventuell Kacke aus und ist in Details womöglich ungenau. Aber wenn du damit kein Problem hast, dann kannst du das einwandslos verwenden.
Deine Aussage legt eine gewissen FPS anzahl zu grunde und zwar das es auch ohne DLSS spielbar ist. Ansonsten stellt sich die Frage ob man DLSS ausprobieren sollte oder nicht ja garnicht.
Je höher die FPS ist umso besser funktioniert DLSS weil weniger unterschied zwischen Bild A und Bild C sind, was es immer einfacher macht Bild B im nachhienein zu rendern.
Du siehst aber sehr viele solcher generierter Bilder. Wenn da etwas schief läuft fällt das schnell auf.
Erneut, jedes Xte Bild ist ein Original Bild. Wenn jedes zweite ein KI bild ist und jedes zweite ein Originalbild kann der Unterschied nicht groß sein weil es ansonsten flackert und es umspielbar ist.
Flackern hatte ich mit DLAA bei irgendeinem Marvel-Spiel mal, nachdem das erstmals rauskam. Und es war dadurch, meiner Ansicht nach, unspielbar.
Ob derfleichen auftritt bzw. wie genau es sich äußert hängt abervon der konkreten AI und dem Anwendungsszenario ab.
Richtig in diesem Szenario ist es unspielbar, da ist es aber auch weniger die "unscharfen Details" das problem sondern das es halt flackert.
In diesemfall stellt sich die Frage DLSS zu nutzen oder nicht aber auch nicht.
Deine Aussage legt eine gewissen FPS anzahl zu grunde und zwar das es auch ohne DLSS spielbar ist.
Nope, nicht unbedingt. Hatte ich schon, dass Spiele so hohe Anforderungen hatten, dass diese ohne irgendein KI-Upscaling oder vergleichbares nicht spielbar waren.
Ansonsten stellt sich die Frage ob man DLSS ausprobieren sollte oder nicht ja garnicht.
Das stimmt. Wenn es nicht anders geht bleibt einem ansonsten nur die Wahl, entweder den PC upzugraden oder das Spiel nicht zu spielen.
Je höher die FPS ist umso besser funktioniert DLSS weil weniger unterschied zwischen Bild A und Bild C sind, was es immer einfacher macht Bild B im nachhienein zu rendern.
Man könnte Bild B dann auch einfach weglassen, der Mehrwert isrt fraglich.
Und nein, die berechnung des Zwischenbildes wird nicht einfacher, wenn die Unterschiede zwischen den Bildern geringer sind. Insbesondere nicht bei der verwendung vin KI.
Wenn du ein Standardverfahren hernimmst, dann würde das generierte Bild mit zunehmender Framezahl immer mehr einem der beiden Ausgangsbildern entsprechen.
Bei KI kann das aber nicht garantiert werden und ob man sich dem annähert ist auch fraglich.
Erneut, jedes Xte Bild ist ein Original Bild. Wenn jedes zweite ein KI bild ist und jedes zweite ein Originalbild kann der Unterschied nicht groß sein weil es ansonsten flackert und es umspielbar ist.
Wer sagt denn, dass es nicht flackert? Wie gesagt hängt das von vielen Faktoren ab.
Wenn man es fest so programmiert, dass es nicht flackern kann, hat man es aber so restriktiv, dass die Anwendung von KI keinerlei Vorteil zu Verfahren ohne KI bringt.
Richtig in diesem Szenario ist es unspielbar, da ist es aber auch weniger die "unscharfen Details" das problem sondern das es halt flackert.
Jup. In dem fall war wahrscheinlichd as Verfahren als ganzes schlecht.
An und für sich kann Flackern aber eben auch auf lokale oder temporale Detailungenauigkeiten zurückzuführen sein.
Zudem können Detailungenauigkeiten auch adnere Formen annehmen (beispielsweise dazuerfundene Inhalte oder fehlerhafte Interpolationen aus existierenden Daten).
Nope, nicht unbedingt. Hatte ich schon, dass Spiele so hohe Anforderungen hatten, dass diese ohne irgendein KI-Upscaling oder vergleichbares nicht spielbar waren.
Ja aber worüber reden wir dann in diesem Szenario?
Sieht eventuell Kacke aus und ist in Details womöglich ungenau. Aber wenn du damit kein Problem hast, dann kannst du das einwandslos verwenden.
Also wolltest du sagen: Sofern du ein problem damit hast womöglich ungenaue Details zu sehen, nimm lieber 30fps und ruckler ansattt 60fps dlss?
Das ergibt doch garkeinen Sinn
Ja aber worüber reden wir dann in diesem Szenario?
Von einer Eventualität, deshalb auch das "eventuell" und das "Womöglich" in den Sätzen.
Die Sätze sind nicht an ein konkretes Szenario gebunden.
Also wolltest du sagen: Sofern du ein problem damit hast womöglich ungenaue Details zu sehen, nimm lieber 30fps und ruckler ansattt 60fps dlss?
Das soll so viel heißen wie: Probier es aus und wenn du kein Problem feststellst hast du auch keines.
Das ergibt doch garkeinen Sinn
Doch, natürlich.
Ja aber wenn du jetzt quatschszenarien machst um deine Originale aussage zu rechtfertigen wie unspielbare FPS wo man eigentlich nur die wahl hat zwischen DLSS und spiel deinstallieren dann ergibt doch das Gespräch hier garkeinen Sinn.
Das soll so viel heißen wie: Probier es aus und wenn du kein Problem feststellst hast du auch keines.
Das Problem was du beschreibst gibt es bei einer FPS wo man die wahl hat DLSS zu benutzen oder nicht zu benutzen nicht.
Ja aber wenn du jetzt quatschszenarien machst um deine Originale aussage zu rechtfertigen wie unspielbare FPS wo man eigentlich nur die wahl hat zwischen DLSS und spiel deinstallieren dann ergibt doch das Gespräch hier garkeinen Sinn.
Es sind auch Probleme in praxisnahen Anwendungsszenarien zu erwarten, wenngleich bei passendem Design udn Parametrisierung die Wahrscheinlichkeit dafür geringer ist.
dann ergibt doch das Gespräch hier garkeinen Sinn.
Das Gespräch hast du angefangen ;-)
Aber Sinn macht es dennoch, es geht ja um den Erkenntnisgewinn.
Das Problem was du beschreibst gibt es bei einer FPS wo man die wahl hat DLSS zu benutzen oder nicht zu benutzen nicht.
Mir ist dein Satz nicht ganz schlüssig. Ich probiere üblicherweise mit den Grafikeinstellungen rum, bis ich für das Spiel angemessene FPS habe bei möglichst guter Bildqualität.
Die Anforderungen sind je nach Spiel unterschiedlich. Beispielsweise habe ich neulich Elite Dangerous installiert und konfiguriert. Es waren natürlich hohe FPS gewünscht, da es zu Echtzeit-Kampfszenarien kommen kann, die schnelle Reaktionen erfordern. Gleichzeitig musste ich aber das Anti-Aliasing besonders hochschrauben, da die besonderen Bewegungen und Lichtverhältnisse im Weltraum leicht zu starken Flackern an Objektkanten führen konnten.
Das ging auf Kosten der Qualitätseinstellungen und der Gesamt-FPS, sodass ich alle Qualitätseinstellungen auf niedrigster Stufe habe (außer Ambient Occlusion, da das billig ist) und die FPS nur auf 120 statt auf 144 (bzw. auf Planeten sogar nur auf um die 90, da sich da snicht weiter optimieren lies).
Das ganze mit einer RTX 2080 un 2K-Auflösung.
Bei anderen Spielen kommt es zu anderen Einstellungen. Beispielsweise habe ich "Nobody wants to die" gespielt. Selbst mit niedrigsten Einstellungen lies sich hier ohne Upscaling keine FPS-Zahl erreichen, die annehmbar wäre (es war teilweise nur bei 20-30 FPS). Da war klar, ohne AI-Upsaling geht es nicht.
Das Ergebnis hätte besser sein können, aber war akzeptabel.
Bei competitive ist dlss schrecklich da es mehr Input lag hinzufügt genauso bei vr
Welche Karte wolltest du denn kaufen dlss4 ist soweit ich weiß nur bei der 5000er Reihe verfügbar und mit der wirst du solange deine CPU etc ganz ok ist bei beiden genug FPS bekommen da brauchst du dlss nicht
50-60ms Input-Lag gibt es halt dazu. Das ist einiges.
Vor allem im Hinblick dessen, dass in Fortnite viele 0 Ping haben möchten, machen das die 60 ms Input lag komplett kaputt. Damit bekommst du keine Wall.
Da dir hier einer etwas schönrechnen möchte, was er sagt, stimmt nicht. Du hast nicht nur 30ms Latenz oder sogar noch weniger. Mal abseits davon, dass der Test in dessen Video noch von dem DLSS ohne Frame-Generation war, also von den 3000er Karten.
Seine Rechnung geht nur bei Standbildern auf. Soweit ich weiß, bewegt man sich in Spielen jedoch hin und wieder und sieht sich um...
Es sind die 50-60ms, mit denen du rechnen musst, wenn du DLSS4 benutzt. Das ist die durchschnittliche Latenz, wenn man damit zockt.
Das wurde auch schon analysiert, nachdem Digital Foundry die Karte schon antesten konnte:
Bitte was?