Was ist der Unterschied zwischen der Bit-Rate und der Bit-Tiefe bei Foto bzw. Videoaufnahmen?
Es geht vor allem um den Bereich Video. Vielen Dank im Voraus!
4 Antworten
- Bit-Tiefe bezieht sich auf die Auflösungs"tiefe" oder -güte bei einzelen Farbpixeln. Je mehr, desto feinere Farbabstufungen sind möglich. Z.B. ein Rohformat (oft auch bei JPG so gerechnet, ist aber falsch) hat oder braucht 8Bit Farbtiefe pro Farbe rot/grün/blau, also 24Bit, und 2 hoch 24 gibt die theoretisch 16,8 Millionen Farben, die man immer hört.
- Bit-Rate bezieht sich immer auf etwas zeitliches. Also einen Ton oder einen Film (gibt's bei Fotos nicht, da statisch). Bit-Rate sagt, wieviel Bit pro Sekunde nötig sind, um den Film (oder Ton) abzuspielen. Je mehr, desto besser ist die Qualität. Die nötigen Bit pro Sekunde kann man ausrechnen, wenn man FPS (frames per second / Bilder pro Sekunde) und die geometrische Auflösung des Bildes (x mal y Pixel) kennt.
Da bin ich etwas überfragt.
Wenn bei den 10 Bit wirklich von Tiefe die Rede ist, würde ich sagen: JA, dann wären es (2^10)^3 = 2^30 Farben, also 1 Milliarde.
Bei HLG geht es aber auch um andere Standards; vor allem beim Broadcasten oder Streamen, also beim Abspielen, weniger beim Aufnehmen mit der Kamera.
Hier hat's noch eine Abhandlung dazu:
https://www.4kfilme.de/hybrid-log-gamma-hlg/
Die Bitrate gibt an wieviele Daten in einem Video pro Sekunde gespeichert werden. Das gibt man meistens in Kilobit oder Megabit an, zum Beispiel 60Mb/s. Daraus kannste dir dann ausrechnen, was ein Video verbraucht mit Länge x. Bei Fotos spricht man eigentlich nicht von Bitrate, weil es irrelevant ist - die ungefähre Größe eines Fotos ist ja bekannt.
Die Bittiefe gibt an mit welcher Farbtiefe ein Foto oder Video gespeichert wird. Ein Jpeg-Foto oder ein normales komprimiertes Video hat z.B. eine Bittiefe von 8-Bit (256 Werte) in jeweils den Kanälen rot, grün und blau. Das entspricht 16,7 Millionen Farbtönen. Eine RAW-Fotodatei hat generell eine Bittiefe von 14-Bit (16384 Werte), das entspricht über 4 Billionen Farbtönen.
Kann man der Aussage zustimmen, dass ein höherer Bit-Tiefen Wert auch eine in Abgängigkeit dazu höhere Bit-Rate mit sich bringt?
Das kommt drauf an, wer diesen Wert vorgibt. Wenn du selbst ein Video encodierst hast du freie Wahl über die Bitrate, egal welche Farbtiefe. Ein Hersteller einer Kamera wird eventuell für 10-Bit Video eine höhere Bitrate vorgeben, aber es ist ebenfalls kein Muss. Bei Canon ist die Bitrate nur von Auflösung des Videos und Framerate abhängig.
Allgemein bezeichnet die Bitrate die Anzahl der Bit die vom Sensor innerhalb einer Sekunde geschickt werden. Wenn dein Sensor dir also 1kbit in 1s schickt dann ist die Bitrate 1kbit/s.
Die Bittiefe ist die sogenannte Auflösung, also je höher die Bittiefe desto geringer wird das Messrauschen.
Bei Fotos kann zB die Bittiefe die Helligkeitsauflösung eines Bildpunktes am Sensor sein und die Bitrate gibt an wie viele Pixel pro Sekunde übertragen werden.
bitrate ist die häufigkeit/genauigkeit der abtastung bzw menge der daten
bit tiefe ist die farb/werte/differenzierung /anzahl an farben/mögichen werten .
Vielen Dank für deine Antwort. Es gibt ja auch Kameras, welche 10-Bit(-Tiefe) im HLG Aufnehmen können oder auch mehr. Können diese Aufnahmen dann mehr als die 16,8 Millionen Farben darstellen?