Unterschied zwischen Ascii-Code, Unicode und UTF-8/16?

2 Antworten

Weitere Ergänzung:

Unicode-Zeichen sind in 16 Bit codiert, wobei zusätzlich eine Plane als vorweg-Angabe dazugehört (ganz entfernt ist das mit den Code-Pages vergleichbar, die es in älteren Windows-Versionen gab).

UTF8/16 ist etwas Anderes, nämlich ein Aufzeichnungsformat, mit dessen Hilfe Texte z.B. in Dateien gespeichert werden können. Dabei hat UTF-8 den Vorteil, dass die ASCII-Zeichen genau so in der Aufzeichnung enthalten sind, man kann also, wenn die Bytes als Zeichen wiedergegeben sind, den Inhalt lesen.

Die Kodierung der Zeichen ist einfach anders.

Ein Zeichen wird ja im Computer durch eine Zahl beschrieben und bei der Ausgabe muss dieser Zahl ein Zeichen zugeordnet werden und welches Zeichen zugeordnet wird enstscheidet der jeweilige Zeichensatz, also ASCII UTF usw. Und diese Zuordnung kann muss aber nicht zwischen verschieden Zeichensätzen gleich sein.

Also Zeichen in 7-Bit ASCII sind auch gleichzeitig die selben in UTF-8, aber es gibt im 7-Bit ASCII zB kein & Zeichen in UTF8 ist es enthalten.


Mikkey  13.11.2015, 17:57

Danebengelangt, & ist 0x26 :P

Besseres Beispiel: ß

1
PeterKremsner  13.11.2015, 18:04
@Mikkey

Stimmt, hab ich irgendwie vergessen dass &!$ usw. im ASCII drinnen sind.

0