Muss man 10 Bit aktivieren in Windows Aktivieren um richtiges HDR10 nutzen zu können?
Ich habe bereits viele Spiele und Anwendungen in HDR auf meinem Samsung CRG9 32:9 Monitor ausprobiert, aber man sagt ja das HDR 10Bit benötigt und der Monitor unterstützt ja 10Bit sobald ich die Auflösung auf 100Hz einstelle. Dennoch konnte ich HDR nutzen obwohl ich die 120Hz + 8Bit Farbtiefe in den Nvidia Einstellungen aktiv hatte.
Meine Frage ist nun wird 10Bit automatisch aktiviert sobald ich eine HDR Anwendung starte, oder müssen die 10Bit in den Nvidia Einstellungen aktiviert sein um die 1 Mrd Farben in HDR wiedergeben zu können? Ich hatte beides ausprobiert und die Inhalte sahen in HDR10 mit 8Bit Einstellung und der 10Bit Einstellung identisch aus.
1 Antwort
Du must garnichts aktivieren. Das beste Bild bekommt man mit der original Auflösung des Monitors. Ales andeere ist Mist.
Wieso spielst Du da rum. Auflösung ändern und das Bild wird schlechter.
Fumel da nicht rum.
Mario
ich rede von 8 bit und 10 bit Farbwiedergabe in hdr nicht von ausflösung...
Habe sie gelesen. 10 bit gibt es nicht.
Bits sindimmer eine Hochzahl von 2
Sollich Dir Mathe oder Computer erklären.
1024 ist realistisch.
Weist Du überhaupt was eine Hochzahl ist? Ich denke nein. Google das mal.
Mario
was sind das hier für Leute? Ich bin neu auf dieser Website und habe mich auf normale Antworten gefreut. Jetzt sehe ich das die Community die fragen nicht einmal lesen oder scherze machen...
schade das du meine frage nicht gelesen hast...