Unterschiede Gbit, Gigabyte, Mbit, Megabyte, ...
Ich war letztens im Laden und habe mich erkundigt wegen einem Computerübertragungskabel (um Dateien vom Laptop zum PC verschieben zu können). Dabei sagte der Verkäufer dass das Kabel etwa 1 Gigabit oder sowas übertragen könnte (weis leider nicht mehr genau wieviel es wirklich war).
Aber soweit ich es bisher gelernt habe, gibt es ja Byte, Kilobyte, Megabyte, ... bzw. sind mir bis heute nur solche Größen vorgekommen. Sind das sozusagen "neue" Datengrößen oder werden diese nur selten angewendet?
Und warum macht man sich die Mühe Datengrößen wie Gigabit und Gigabyte zu entwickeln? Worunter unterscheiden sich die Größen und welchen Nutzen schlagt man daraus außer dass man es sich andauernd umrechnen muss?
7 Antworten
Da Datenübertragungen im Netzwerk seriell erfolgen (also immer nur 1 Bit gleichzeitig), misst man sie in Bit pro Sekunde.
Parallel ablaufende Vorgänge (Datenspeicherung, parallele Übertragungsleitungen), bei denen ein oder mehrere Bytes (à 8 Bit) gleichzeitig verarbeitet werden, werden hingegen meist in Byte angegeben.
Also ein gigabyte sind 1000 migabyte umd eigentlicv ost das eine zuemlich gänige einheit
1 GB sind nicht 1000 MB, sondern etwas mehr. Beachte z.B.: 1000 Byte sind nicht 1 kB sondern es müssen 1024 Bytes sein.
Das Kabel kann 1GBit /s übertragen im Netzwerk. Umrechnungsfaktor ist hier 1000. also 1GBit /s sind 1000 MBit /s
Megabyte wird beim Speicher verwendet. Umrechnungsfaktor 1000. Obwohl Megabyte auch nicht richtig ist.
Richtig wäre Mebibyte Umrechnungsfaktor 1 Mebibyte (MiB) = 1024 Kibibyte. Daher auch die Unterschiede bei Festplattengrössen. Festplattenhersteller rechnen mit Megabyte , Betriebssysteme mit Mebibyte.
http://www.com-magazin.de/praxis/netzwerk/leistet-gigabit-ethernet-65110.html
Naja, ursprünglich hat man in den USA Byte benutzt, in England Bit. Wie bereits unten, entspricht 1 Byte ungefähr 8 Bit. KB ist Kilobyte, Kb ist Kilobit.
Das kann aber auch nicht jeder. Kbit wird der Bit auch abgekürzt. Meist werden Übertragungsraten in Bit und Größen in Byte angegeben.
LG
ein Byte sind 8 Bit. d.h. ein Gigabit ist 1/8 Gigabyte. das kommt aus der Netzwerktechnik. früher bei den alten Modemverbindungen hat man von "Baut" gesprochen. damit waren Bit pro Sekunde gemeint. das kommt ursürünglich von der seriellen schnittstelle her.
im Umkehrschluss heißt das, dass dein Kabel theoretisch 1 Gigabyte Daten in 8 Sekunden übertragen kann. dafür müssen aber auch beide Rechner eine entsprechende Schnitstelle (gigabit Ethernet) haben. außerdem muss das was hinter der netztwerkschnittstelle kommt auch schnell genug sein.
lg, Anna