sieht man den Unterschied zwischen 32-Bit und 48-Bit Farbtiefe bei HDMI und Displayport?

Displayport verwenden, weil... 50%
HDMI verwenden, weil... 50%

4 Stimmen

1 Antwort

Dein Bildschirm hat vermutlich 8 oder maximal 10 Bit in der Anzeigefarbleistung bei 2 oder 4K bei nichtmal wahren 100Hz. Da ist ein 48bit Kabel ein absoluter overkill.


Mensch4 
Beitragsersteller
 12.08.2024, 08:32

vielen dank,

was meinst du denn mit "nicht wahren 100Hz"?

und wieso gibt es diese kabeltypen wenn ein standartbildschirm diese farben gar nicht unterstützt? es heißt doch immer 16 millionen farben bei LED, das wären 24-Bit, hast du weitere informationen dazu?

0
DerKaterkatz  12.08.2024, 14:27
@Mensch4

Ja klar, die Sache ist eigentlich ganz einfach. Die Bitangabe bezieht sich nämlich nicht auf die Farbtiefe, sondern vermutlich auf die Abtastrate. Je höher die Datenübertragung, desto höher die Rate könnte man sagen. Bei Farben meint man mit Bit die Anzahl der Farben - 8 Bit= 2^8 Farben = ca. 16 Millionen, 10 Bit=2^10 = ca. eine Milliarden Farben.

Bei diesen Kabeln ist sehr viel reines Marketing, deshalb geben die wohl die Abtastrate an - klingt halt gut. Mein 10 Jahre alter Audiorecorder erkennt auch 48Bit, jeder normale Lautsprecher und jede Soundkarte in einem PC hat seit den neunzigern 16Bit. liest sich einfach schön.
Die Spezifikationen ändern sich bei Kabeln natürlich - die Auflösung wird höher, die Frequenzen höher, die Farbtiefe größer. Manchmal will man sich einfach drei oder vier 4K Monitore hintereinander geschaltet haben, ohne jeden mit einem einzelnen Kabel an den PC anschließen zu müssen, das geht dann über DisplayPort, wobei ein Kabel natürlich schon die vierfache Datenrate verkraften muss, als wenn nur ein Monitor anliegen würde. Das gleiche bei 3D, da ist die Datenrate je nach Fall auch doppelt so hoch, wie bei 2D.

Was die Bildraten angeht - die wenigsten Monitore erzeugen wirklich physikalisch 100 Einzelbilder bei 100Hz, da wird viel geschummelt. Überhaupt sind in Europa eigentlich ganzzahlige Vielfache von 25 verbreitet - 25/50/100. Die 144 kommen aus den USA, da ist die Basis 24, was an der Stromnetzfrequenz von 48Hz liegt. Früher war die Wiederholrate nämlich physikalisch an die sich änderte Spannung an der Steckdose gekoppelt. Das muss heutzutage theoretisch nicht mehr so sein, macht aber trotzdem vieles einfacher. Jedenfalls heißt diese Kompatibilität oft nur, dass die Monitore das Signal annehmen und irgendwas anzeigen, aber nicht, dass da wirklich 144 Bilder rauskommen. Da muss man dann jeweils recherchieren.

0
DerKaterkatz  12.08.2024, 14:31
@DerKaterkatz

Die Rate gibt auch nur an, wie oft der Monitor das Bild aufbaut und nicht wie viele Bilder pro Sekunde von der Grafikkarte verarbeitet werden. Im krassesten Fall hat die GraKA eine Rate von 1Bild die Sekunde eingestellt, der Monitor refresht aber trotzdem 144 mal pro Sekunde.

0