?warum ist 1 Byte 8 bit?
6 Antworten
eine geordnete Zusammenstellung ( n-Tupel) von 8 Bit, deren formale ISO-konforme Bezeichnung Oktett ist (1 Byte = 8 Bit). Ein Oktett wird manchmal in zwei Hälften ( Nibbles) zu je 4 Bit zerlegt, wobei jedes Nibble durch eine hexadezimale Ziffer darstellbar ist. Ein Oktett kann also durch zwei Hexadezimalziffern dargestellt werden.
https://de.wikipedia.org/wiki/Byte
https://de.wikipedia.org/wiki/Varianten_der_Programmiersprache_C#C99
Historisch bedingt
Es ist ja alles in der Computerwelt 1, 2, 4, 8, 16... Also immer Verdoppelung.
Es ist/war sehr zu empfehlen, die Wortbreite einer einzelnen Speicherzelle (=Byte) auf eine dieser Größen zu setzen, weil man sich in der Programmierung sonst unnötig Steine in den Weg legen würde.
8 Bit war halt ein guter Kompromiss aus Aufwand und höchstmögliche zu verarbeitende Zahl zu dem Zeitpunkt, als das Byte "erfunden" wurde.
Damals (also wo die CPU noch aus Röhren und Relais bestand) war Speicher noch richtig richtig teuer und aufwändig herzustellen.
4 Bit = 0-15 (bisschen mager zum Rechnen)
8 Bit = 0-255 (schon eher)
16 bit = 0-65535 (noch besser, war aber eben damals zu teuer)
Anstatt die Definition zu erhöhen, hat man einfach neue Datentypen eingeführt, die mehrere Bytes zu einem "großen" Byte mit mehr Kapazität zusammenfassen. Diese Typen heißen "short" (2 byte), "long" (4 byte) etc.
Heutige Prozessoren sind 64bit. Heißt: Die verarbeiten mehr oder weniger immer 8 Bytes auf einmal.
Nicht so ganz.
Frühe binäre Zeichenkodes hatten oft 5 Bit, das reicht für ein Alphabet mit Großßbuchstaben. Der Morsekode z.B. hat gar keine feste Zeichenlänge, sondern war das, was man später "komprimiert" nannte.
Die ersten Computer hatten keine 8 Bit. Es gab z.B. Computer mit 20-Bit-Strukturen (IAS) oder 22 Bit (Zuse Z3) oder auch 4 Dezimalstellen (EDDA3). Das "immer verdoppelt" wurde, ist eine Erfindung der "neueren" Computer ab ca. den 60er/70er Jahren des letzten Jahrhunderts. Davor (und auch heutzutage wieder) speichern Speicherstellen nicht binär, sondern durchaus auch mehr Informationen (MLC bei SSDs).
Und die Definition, was ein "short" oder "long" ist, hängt von der Programmiersprache oder gar dem Compiler ab.
Deine Erklärung ist ganz gut, nur braucht man 8 Bit um alle ASCII Zeichen (beinhaltet: englisches Alphabet, Ziffern, die wichtigsten Sonderzeichen und einige Steuerzeichen für den Rechner) und eine regionale codepage zu codieren.
Lies dazu gern in der Wikipedia unter ASCII weiter.
Hat sich irgendwann irgend ein Mensch einfach mal so gedacht. Viele technische Standards sind mehr oder weniger willkürlich. Früher gab es auch Systeme, bei denen ein Byte aus mehr oder weniger Bits besteht. Mittlerweile sind diese Systeme weitestgehend ausgestorben.
weil das halt die definition von byte ist
Weil die WG der 8 Bits halt "Byte" heißt.