Einige Fragen zu Musikqualität und Dateiformaten?
Hallo zusammen!
Gibt es einen deutlich hörbaren Unterschied zwischen m4a mit 125 125 kBit/sek und 256 kBit/sek?
Und falls ja, könnt Ihr mir ein Beispiel geben, auf welchen Geräten man diesen Unterschied in etwa hört? (... bspw. In Ear Kopfhörer, teure Sennheiser, durchschnittliche Stereo Anlage, durchschnittliche Auto Anlage....)
Ist eine mp3 mit einer bestimmten Bitrate hörbar schlechter als eine m4a mit derselben Bitrate?
Auf CDs begegnet mir ja normalerweise 256 kBit/sek. Ist das generell gut oder hört man da nochmal einen wesentlichen Unterschied zu Musik mit bspw. 320, wie sie in den "Mastered For ..." Songs vorkommt?
Denn ich kaufe lieber CDs als bspw. auf iTunes zu kaufen oder zu streamen, möchte aber dennoch eine gute Qualität haben.
Sonst noch welche Tipps/Erklärungen/Ratschläge in Bezug auf Audio-Dateiformate?
Vielen Dank an jeden, der sich Zeit nimmt!
2 Antworten
CD hat unkomprimiertes PCM, das 1411kbps entspricht.
MP3 & Co sind verlustbehaftet und erreichen die Kompression dadurch, dass Frequenzen herausgefiltert werden, von denen angenommen wird, dass man sie im "Frequenzgewusel" ohmehin nicht hören kann.
MP3 ist schon sehr veraltet. Hier hört man eine 128kbps locker raus, wenn man gutes Wiedergabeequipment verwendet. Aber auch auf besonders schlechtem Equipment ohne Basswiedergabe hört man sie oft heraus. Es klingt dann ausgedünnt und "leer", weil zu viele Frequenzen im Hochtonbereich fehlen, die normalerweise durch denn Bass nicht zu hören wären, aber wenn dieser Bass nicht wiedergegeben wird, fällt es halt auf.
Das Minimum für MP3 sollte 192kbps sein.
256kbps-MP3 liefert schon ein gutes Ergebnis.
Ich würde MP3 nicht mehr verwenden.
M4A (eigentlich heißt das Musikformat AAC), Opus und Vorbis sind dagegen inzwischen so sehr ausgereift, dass selbst 128kbps vollkommen ausreichend sind. Selbst 96kbps liefert hier oft noch ein akzeptables Ergebnis (MP3 produziert hier nur noch Müll).
Meine Ohren sagen mir (da streiten sich die gelehrten darüber):
256kbps MP3 = 192kbps AAC = 160kbps M4A = 128kbps Opus = 128kbps Vorbis.
Könntest also fast die Hälfte einsparen oder die Qualität verdoppeln, wenn du für die Zukunft ein neueres Format verwendest.
Aber bitte keine schlechten Dateien in höhere Qualität umkonvertieren und generell keine verlustbehafteten Musikdateien erneut in verlustbehaftete Formate umwandeln. Auf diese Weise wird es nicht besser, sondern schlechter (die neuen Verluste kommen auf die alten oben drauf).
Wenn du von CD rippst und Platz hast: FLAC bzw. ALAC sind verlustfrei, d.h. mathematisch identlisch mit der CD.
Nachtrag:
" = 160kbps M4A"
das war natürlich Quatsch^^. Den lass mal weg^^
Grundsätzlich sollten 256kBit/s ausreichend sein.
Allerdings kommt es hier sehr stark auf die Aufnahme und Wiedergabe Qualität an. Die Bitrate sagt also quasi gar nichts über die Wiedergabequalität aus.
So kann ein Lied welches mit sehr gutem Euqipment mit 256kBit/s aufgenommen und wiedergegeben wird viel besser klingen als ein Lied mit 320kBit/s auf mittelmäßiger Hardware.
Die Bitrate hängt dabei mit der Bandbreite der Aufnahme zusammen, je höher die Bitrate desto höher die Frequenzen welche Wiedergegeben werden können. Die höchste Frequenz ist damit weniger als die Hälfte der Bitrate, so können in Liedern mit 256kBit/s maximal Frequenzen von 125kHz aufgenommen werden. Wie nahe die Aufnahme dieser Grenze kommt hängt dabei vom Equipment ab. Gutes Euqipment kommt zB auf 50kHz bevor es verzerrt, schlechtes auf 20kHz und sehr schlechtes auf lediglich 12.5kHz was dann deutlich hörbar wird.
Man kann zB auch ein Lied mit 1Mbit/s aufnehmen und durch Digitaltechnik auf 256kBit/s runterbringen und so sehr nahe an die theoretischen 125kHz kommen, machbar ist da zB in etwa 100kHz.
Mit 125kBit/s liegt die höchste theoretisch erreichbare Frequenz schon bei 62.5kHz daher ist das eher suboptimal.
Großen Unterschied gibt es bei den Formaten, für Hifi sollten unkomprimierte Formate wie wav verwendet werden, oder entsprechend gute Codecs wie zB ACC. Zu mp3 gibt es dabei einen höhrbaren Unterschied. Mp4 bzw mp4a ist nur ein Containerformat und sagt daher wenig über den Codec oder die Qualität aus, wobei hier oft ACC verwendet wird.
Btw wenn verlustbehaftete Kompression wie MP3 oder ACC verwendet wird sollte die Bitrate möglichst hoch sein um weiter Dynamikreduktionen durch die Kompression zu verringern. Höhere Bitrate und weniger Kompression bringt zwar bessere Tonqualität aber auch höhere Dateigrößen.
Die Bitrate hängt dabei mit der Bandbreite der Aufnahme zusammen, je höher die Bitrate desto höher die Frequenzen welche Wiedergegeben werden können. Die höchste Frequenz ist damit weniger als die Hälfte der Bitrate, so können in Liedern mit 256kBit/s maximal Frequenzen von 125kHz aufgenommen werden. Wie nahe die Aufnahme dieser Grenze kommt hängt dabei vom Equipment ab. Gutes Euqipment kommt zB auf 50kHz bevor es verzerrt, schlechtes auf 20kHz und sehr schlechtes auf lediglich 12.5kHz was dann deutlich hörbar wird.
Du verwechselst da Bitrate mit Samplerate.
Bitrate = Wie viele Bits pro Sekunde kodierte Musik
Samplerate = Wie viele Samples pro Sekunde dekodierte PCM-Musik. Das Ding mit der halben Frequenz.
Dynamikreduktionen durch die Kompression zu verringern
Die Dynamik bleibt erhalten. Es findet eine Datenkompression statt, keine Dynamikkompression.
Die Bitrate geht mit der Samplerate einher. 1MS/s mit einer Auflösung von 8bit ergibt 8Mbit/s Datenrate.
Es ist zwar nicht das selbe aber niedrigere Bitrate ergibt so gut wie immer auch niedrigere Samplerate. So kann man die 256kBit/s jetzt interpretieren als 256kSamples/s mit 1 Bit Auflösung. Das würde also der Musikwiedergabe mit einem DeltaSigma DAC entsprechen. Oder aber als 32kSamples/s mit 8Bit Auflösung pro Samplewert.
Die 256kBit/s bei CDs entspricht dabei der Datenrate des (virtuellen) DeltaSigma ADCs. Die sind eben so gewählt, dass man mit herkömlichen Rekonstruktionsfilter bzw Antialiasingfilter den kompletten Hörbereich bis 20kHz überdecken kann. Das erfordert eine minimale Samplerate von 40kHz, realistisch sind dabei aber um 140-200kSamples, je nach Resamplingalogrithmus und Aufnahmetechnik.
Die Dynamik bleibt erhalten. Es findet eine Datenkompression statt, keine Dynamikkompression.
Dynamikkompression war hierbei das falsche Wort. Ich meinte damit Bandbreitenreduktion bzw generelle verschlechterung des Signals. Wie es eben bei verlustbehafteter Kompression üblich ist.
Herzlichen Dank für Deine Mühe, das hat mir sehr weitergeholfen!