Wie viel Daten kann man mit 1 Byte transportieren/übertragen?

5 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Was verstehst Du unter "Daten". Digitale Daten werden normalerweise in Byte gemessen. Mit einem Byte kann man also ein Byte übertragen.

Da kannst Du gleich fragen wie lang ein Zentimeter ist. Ein Zentimeter ist ein Zentimeter lang.

Genau wie ein Byte 8 Bits lang ist.

Ein Bit kann genau zwei Zustände annehmen, AN und AUS.

Hat man zwei Bit, hat man vier Zustände:

0 = AUS - AUS

1 = AUS - AN

2 = AN - AUS

3 = AN - AN

Da die "0" ja auch ein Zustand ist den man mit zählen muß hat man also 4 Zustände die man im Dezimalsystem (Menschliche Zählweise) mit den Zahlen 0 bis 3 darstellen kann.

Jedes weitere Bit verdoppelt die Anzahl der möglichen Zustände, denn man hat ja die Möglichkeiten mit dem neuen Bit AUS und dann noch mal mit dem neuen Bit an. Damit steigt die Anzahl der Möglichkeiten rasant an:

2 - 4 - 8 - 16 - 32 - 64 - 128 - 256 - 512 - 1024 - 2048 ...

Mit 8 Bit hat man 256 verschiedene Möglichkeiten, mit 16 Bit 65536,  mit 32 Bit über 4 Milliarden und mit 64 Bit hat man über 18 Trillionen Möglichkeiten.

Die Anzahl der Bits bei einem Prozessor bestimmt wie große Zahlen er auf ein mal bearbeiten kann. Zwar braucht man sehr selten Zahlen die größer sind als 4 Milliarden, aber man kann ja auch ein Komma setzen. Je mehr Bits ein Prozessor hat, desto mehr Nachkommastellen kann er sofort ohne mathematische Umwege mit berechnen, damit kann man also ohne Aufwand viel genauer rechnen. Das vor allem wichtig bei 3D Grafik weswegen moderne 3D Grafikkarten bereits mit mindestens 128 Bit arbeiten.

Wie viele Bits man braucht um Daten darzustellen, das hängt davon ab was das für Daten sind.

Dezimalstellen eines Taschenrechners wurden früher mit 4 Bit dargestellt. Dabei hat man einen Zahlenraum von 0 bis 15, benutzt werden aber nur 0 bis 10, also die Ziffern 0 bis 9 und die 10 dient da als "Überlauf", also das was man beim Kopfrechnen als "Übertrag" bezeichnet.

Fernschreiber (Anfang 20. Jahrhundert, lange bevor Computer erfunden wiurden) arbeiteten mit 5 Bit, also 32 verschiedene Möglichkeiten. Auf den ersten Blick ist es nicht möglich 26 Buchstaben (A-Z) und alle Ziffern (0-9) übertragen zu können, denn mit 5 Bit hat man ja nur 32 Möglichkeiten. Hier bediente man sich eines einfachen Tricks, der Fernschreiber ist ja wie eine Mechanische Schreibmaschine. Um Groß/Kleinschreibung umzuschalten gibt es die Shift Taste, die verschiebt die Position der Typen (die Hebel die hochkommen und durch das Fqarbband auf das Papier schlagen), deswegen heißt die Taste auch "Shift" (=Verschieben) Taste. Beim Fernschreiber gibt es keine Groß und Kleinschreibung, hier haben die Typen Buchstaben und auf der anderen (shift) Ebene Ziffern und Satzzeichen. Zwei der übertragbaren Codes schalten einfach Shift ein oder aus.

Bei Computern nimmt man lieber 6 Bits für Buchstaben und Ziffern, denn mit 64 Moglichkeiten kriegt man alle Buchstaben, Ziffern und notwendigen Satzzeichen unter. Für Groß und Kleinschreibung nimmt man dann ein weiteres Bit, kommt also so auf 7. Das ist der ASCII Code, der standartisiert 128 verschiedene Zeichen, Buchtsben, Ziffern, Satzzeichen, weitere Symbole (@§$%&/...) und ein paar Steuerzeuchen (z.B. Return, Zeilenvorschub, Seitenvorschub, usw.).

Moderne Computer (mit "modern" ist hier ab Anfang der 1970er Jahre gemeint) basieren aber auf 4-Bit Taschenrechner Rechenwerken die immer paarweise geschaltet wurden. So konnte man 4-bit mit Ziffern rechnen und 8-bit mit höheren Funktionen arbeiten. Deswegen ist ein Byte dann 8 bit.

Das ist also 1-bit mehr als man für ASCII braucht. Deswegen hat man dann Länderspezifische Erweiterungen eingebaut, eine zweite Zeichentabelle die man dann "Extended ASCII" nennt. Die war dann von Land zu land unterschiedlich. Aber auch im selben Land nicht eindeutig. Hier in Deutschland nutzte man entweder die Codepage 437 die neben Deutschen Umlauten auch Wissenschaftliche Zeichen enthält oder 850 in der alle Westeuropäischen Zeichen (vor allem Frankreich und Schweden) zusammengefasst wurden, dafür fehlten dann Wissenschaftliche Zeichen wie Ω. Also musste man sich wenn immer möglich mit den reinen internationalen ASCII Zeichen auskommen.

Also kann man Text mit einem Byte darstellen, hat aber meistens noch 1 Bit "zuviel".

Damit man wenn man ein Programm nutzte was eine andere Codepage brauchte (vor allem wissenschaftliche Programme) nicht immer den Rechner mit einer anderen Codeseite neu booten musste wurde "vor Kurzem", also vor etwa 15 Jahren UTF-8 und UTF-16 bzw. die ISO-Varianten davon eingeführt. Entweder hat man bei allem was nicht "plain ASCII" ist ein Umschaltsymbol wie es der Fernschreiber hatte und die nächsten beiden Byte spezifizieren dann das Sonderzeichen (UTF-8) oder man codiert gleich alles in 16-bit (UTF-16). Damit braucht vor allem im Internet jedes Zeichen entweder

- meinstens 1 Byte, zwischendurch mal 3 (UTF-8)

oder

- Immer 2 Byte


gta5sucks 
Beitragsersteller
 14.05.2015, 18:52

top, danke dir!!!!

0
Commodore64  15.05.2015, 18:14
@gta5sucks

Neben Text gibt es auch andere gängige Datenformate.

Das Telefon codiert in 8-bit bei ISDN und im Rest des Telefonnetzes. Hier wird die Sprechwechselspannung in 8-bit aufgelöst. Und zwar wird mit 32 kHz gesampelt, also 32000 mal pro Sekunde die Spannung am Mikrofon gemessen und als 8-bit Zahl übertragen. Durch diese grobe Einstufung ist keine vernünftige Qualität möglich. Zwar wendet ISDN ein paar (aus heutiger Sicht veraltete) Tricks an um die Verständigung zu verbessern, aber Qualität ist das immer noch nicht. Hier braucht man pro Richtung der Gesprächsübertragung 32000x 1Byte pro Sekunde. Mit einem Byte kann man also 1/32000zigstel einer GEsprächssekunde übertragen. Wegen der groben 32kHz Abtastung können theoretich Frequenzanteile bis 16kHz erfasst werden, tatsächlich nur alles unter 8kHz mit halbwegs akzeptabler Reproduktion der Wellenform übertragen werden. Sprache bewegt sich nur bis ca. 6kHz, alles darüber braucht man nicht um das gesprochene zu verstehen, nur damit die Stimme besser klingt.

Eine CD soll ja theoretisch das maximum raus holen das das menschliche Ohr unterscheiden kann. Hier geht man mit 44,2kHz dran damit alle Frequenzen die auch ein Baby hören kann (im alter sterben die höheren Frequenzreptoren des Ohrs ab) mit auf die CD drauf kommen. Ein Baby kann bis 20kHz hören, zur reproduktion braucht man mindestens das doppelte, also mindestens 40kHz und für Reserve hat die CD dann 44,2kHz. Dann hat die CD natürlich eine viel bessere Auflösung als ein olles Telefon, und zwar 16.Bits. Damit können dann 256 mal feinere Details des Audiosignal erfasst werden. Und dann hat die CD natürlich auch Stereo.

Somit stellt ein Byte ein halbes Samples eines der beiden Stereokanäle dar. Die CD war ursprünglich rein für Audio gedacht, wurde dann später als Massenspeicher für PCs genutzt. Denn da Musik so viele Bytes pro Sekunde braucht (2x2x 44200 Bytes pro Sekunde, da 2x wegen Stereo und wieder 2x wegen 16-bit), musste die CD also für damalige Verhältnisse unglaubliche Datenmengen beherbergen können.

Damals fasste eine Diskette gerade mal 128 kB oder 360kB. Die CD "märchenhafte" 640000 Kilobyte! Die CD war eben ihrer Zeit weit vorraus, die Sache mit der Laserabtastung musste dafür erfunden werden weil alle Magnetischen verfahren damals nicht annähernd gut genug waren.

0
Reyha24  14.05.2015, 15:57

Für diese Antwort braucht man mehr als 500 Byte Speicherplatz :D Respekt. Hast dir Mühe gegeben.

0

Einen Buchstaben. Wie kommst du auf 256?

Ein Buchstabe (Binär) besteht aus 8 Nullen oder Einsen (Aus/An). Eine Null ist 1 Bit, eine Eins ist 1 bit.

8 Bits sind ein Byte.


gta5sucks 
Beitragsersteller
 14.05.2015, 14:14

ich wusste nicht, das ein buchstabe binär dargestellt 8bit also 1byte sind, danke jetzt check ichs, hab einen beitrag falsch interpetiert. danke dir

0

Hallo,

1 Byte = 8 Bits und ein Zeichen ist eine Reihe von 8 Nullen und Einsen. Also ein Zeichen ist 1 Byte. Hier ein nützliches Link auf Englisch: http://introcomputing.org/bits-bytes-1.html

Ich hoffe das wird dir helfen.

MfG


gta5sucks 
Beitragsersteller
 14.05.2015, 14:44

danke!

1

1 Byte bzw. 8 Bit

1 Byte daten..


Reyha24  14.05.2015, 14:11

Max. 1 Tastaturanschlag. Je nach Charset.

1
MewMewMewtwo  14.05.2015, 14:07

1ne taste

0
Georg63  14.05.2015, 14:09
@gta5sucks

Bei ner Morsetaste kannst du 128 Anschläge übermitteln.

0
Trackfreak  14.05.2015, 14:10
@gta5sucks

Buchstaben werden binär in Blöcke zu je 1 Byte kodiert. Es ist daher genau ein Tastenanschlag.

0
Georg63  14.05.2015, 14:14
@Georg63

sorry falsch - 8 Bit, also 8 Morsetastenanschläge (0=kurz, 1=Lang)

0
gta5sucks 
Beitragsersteller
 14.05.2015, 14:06

wieviel tastenanschläge entsprechen denn 1byte weißt du das?

0
Wurstaufschnitt  14.05.2015, 14:12
@gta5sucks

Kommt auf die Kodierung bzw. den Zeichensatz an. Um einen Buchstaben z.B. im ASCII-Format zu speichern, benötigst du 8 Bits (1 Byte). Allerdings sind damit auch nur 255 verschiedene Zeichen möglich. Unicode mit UTF-8 benötigt (je nach Zeichen) auch mal 2 oder 3 Byte.

1