Wie viele Bits bräüchte man, wenn man das deutsche alphabet codieren wollte? 26 buchstaben
Das alphabet soll ohne berücksichtigung von groß und klein buchstaben und ohne weitere zeichen codiert werden.
wenn das jemand weiß bitte ich euch die frage zu beantworten wenns geht mit einer erklärung bitte.... :)
4 Antworten
5 Bit. Damit kann man 2^5 = 32 verschiedene Zeichen codieren. Mit dem Logarithmus zur Basis 2 kann man genauer ausrechnen, dass man 4,7 Bit bräuchte für 26 Zeichen. Das ist aber eher eine theoretische Spielerei - halbe Bits gibts schließlich nicht wirklich.
log(26)/log(2), aufgerundet auf eine natürliche ganze Zahl, Bits! So rechnet man es, so ist die hilfreichste Antwort :P
log_2 (26) = 4,??? => Du brauchst 5 Bits.
1 Bit = 2 Symbole, 2 Bit = 4 Symbole, 3 Bit = 8 Symbole, 4 Bit = 16 Symbole, 5 Bit = 32 Symbole.
26*2 Buchstaben *7 bits je Buchstabe im ASCII Code = 364 Bits
Ich rechnete gerade die Gesamtzahl sorry. 7 bits reichen für jede Adressierung eines Zeichens aus. Siehe Ascii Code. Das sollte auch genauso hinhauen. Für Codierung ist natürlich ein Prüfbit oder eine Hamming Codierung nicht von Nachteil :)
Ähm … es geht hier um eine Menge von 26 Zeichen. Und dafür genügen sogar 5 Bit. Nicht 7.
kannst du es bitte kurz erläutern??