Wie viele Bits bräüchte man, wenn man das deutsche alphabet codieren wollte? 26 buchstaben

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

5 Bit. Damit kann man 2^5 = 32 verschiedene Zeichen codieren. Mit dem Logarithmus zur Basis 2 kann man genauer ausrechnen, dass man 4,7 Bit bräuchte für 26 Zeichen. Das ist aber eher eine theoretische Spielerei - halbe Bits gibts schließlich nicht wirklich.

log(26)/log(2), aufgerundet auf eine natürliche ganze Zahl, Bits! So rechnet man es, so ist die hilfreichste Antwort :P

log_2 (26) = 4,??? => Du brauchst 5 Bits.

1 Bit = 2 Symbole, 2 Bit = 4 Symbole, 3 Bit = 8 Symbole, 4 Bit = 16 Symbole, 5 Bit = 32 Symbole.

26*2 Buchstaben *7 bits je Buchstabe im ASCII Code = 364 Bits

nutzerAS 
Fragesteller
 10.11.2011, 23:25

kannst du es bitte kurz erläutern??

0
humandevil  10.11.2011, 23:27
@nutzerAS

Ich rechnete gerade die Gesamtzahl sorry. 7 bits reichen für jede Adressierung eines Zeichens aus. Siehe Ascii Code. Das sollte auch genauso hinhauen. Für Codierung ist natürlich ein Prüfbit oder eine Hamming Codierung nicht von Nachteil :)

0
ulfklose  11.11.2011, 10:31
@humandevil

Ähm … es geht hier um eine Menge von 26 Zeichen. Und dafür genügen sogar 5 Bit. Nicht 7.

0