Warum wird die Internetgeschwindigkeit in Bit angegeben?

7 Antworten

Von Experte markeyplayer bestätigt

eigentlich kannst du das gar nicht umrechnen.
Es werden zwar im Empfänger 8 Bit zu einem Byte zusammengesetzt. Um aber ein Byte zu übertragen, werden u.U. viel mehr Bit benötigt.
Eine Methode ist, ein sogenanntes Paritätsbit, also ein 9. Bit zu übertragen. Das wird einfach als der Summe der 1 und 0 der eigentlich 8 Bit gebildet. Ergibt die Summe eine gerade Zahl, dann wird das 9. Bit 0 , ist die Anzahl ungerade wird es 1.

Dann werden Blöcke durch CRC-Code ergänzt, um z.B. fehlerhafte Blöcke zu erkennen. Auch gibt es Möglichkeiten, Fehler nicht nur zu erkennen sondern auch zu reparieren. All das erfordert zusätzliche Bits.
Würde man das nicht so machen, würden viele Downloads zig-mal wiederholt werden müssen.


Geschwindigkeit ist der zurückgelegte Weg pro Zeit. Es gibt also keine Internetgeschwindigkeit, das Internet bewegt sich nicht. Es gibt allenfalls eine Datenrate, gemessen in Bit pro Sekunde. Ein Bit ist die kleinste digitale Informationseinheit, deshalb bietet sich das an.

Sicher spielt auch das Marketing eine Rolle. Bei einem Internetanschluss hört sich 100 Mbit/s besser an als 12,5 Mbit/s. Das ist auch der Grund, warum sich in der Kfz-Werbung die Leistungsangabe in PS hartnäckig hält, obwohl die offizielle Einheit kW ist.

Zusätzlich zum Datenvolumen des zu übertragenden Videos kommt der sogenannte Overhead. Die für die Übertragung notwendigen Protokolle wie Ethernet, IP, TCP verursachen auch noch zusätzliches Datenvolumen. Man spricht hier von "Overhead", im Prinzip ist es Verwaltungsaufwand. Aus der Videogröße und der Datenrate bei der Übertragung wirst Du also immer einen zu niedrigen Wert für die Übertragungsdauer errechnen.


SchakKlusoh  10.01.2021, 19:31

Beste Antwort. Die anderen Experten haben etwas anderes (RS-232?) beschrieben.

0

Weil ein Bit eben die kleinste Informationseinheit ist! Diese kleinsten Informationseinheiten müssen jedoch übertragen werden und nicht Bytes oder Gigabytes

Du kannst verstrichene Zeit in Sekunden, Minuten, Stunden, Tagen, Wochen usw angeben und immer auf die Grundwerte zurückführen.

Um ein Byte zu übertragen werden noch zusätzliche bit benötigt, in denen Dinge (Start, Stopp, Checksumme usw.) versteckt sind.


Ceeesy759  10.01.2021, 13:45

Dann werden eben 8 Bit + n Bit zur Fehlerkorrektur übertragen, 1 Byte entspricht trotzdem 8 Bit.

0
SchakKlusoh  10.01.2021, 19:27
@Ceeesy759

Im Internetverkehr sind die Übertragungsprotokolle doch komplizierte als das.

0
Ceeesy759  10.01.2021, 19:30
@SchakKlusoh

Dann werden halt für 8 Bit zusätzliche 325645321465 Gigabyte übertragen. Ändert noch immer nichts an der Aussage, dass 8 Bit einem Byte entsprechen.

Oder bist Du auch so clever und sagst "1.000 Meter entsprechen nicht 1 km, weil da noch Korrekturwerte zu den GPS-Signalen dazukommen"?

Werd mal konkret und und lass deine nebulösen Aussagen. Und komm nicht wieder mit deinem Wikipedia-Artikel.

0
SchakKlusoh  10.01.2021, 19:35
@Ceeesy759

Lies bitte franzhartwig und mache Dich selbst mit TCP vertraut. Das ist zuviel, um es hier zu beschreiben.

Dann werden halt für 8 Bit zusätzliche 325645321465 Gigabyte übertragen

Scheinbar denkst Du an so etwas wie RS232.

0

Die Geschwindigkeiten von seriellen Übertragungen werden seit ihrer Erfindung in Baud angegeben, was eben Bit pro Sekunde ist.

Bei der seriellen Übertragung werden aber meist noch zusätzliche Informationen mit übertragen, ein so genanntes Paritätsbit zur Prüfung, oft ein oder mehrere Start- und Stop-Bits.

Es ist also sinnvoll, die Geschwindigkeit in Bit pro Sekunde anzugeben, da die Leistung in Byte pro Sekunde nicht bei jeder Anwendung gleich davon abgeleitet werden kann.


SchakKlusoh  10.01.2021, 19:29

Das ist aber nicht das Internet-Übertagungsprotokoll.

0