Wozu braucht man den ASCII Code?

7 Antworten

Die Zeichen sind bei ASCII auch als 8-stellige Bitzahl kodiert. Es ist lediglich ein Standard. Ein Standard der 255 Zeichen umfässt und daher 8-bit groß ist.

Daneben gibt es für ASCII noch die Dezimaldarstellung, die ist aber letztlich nur als Hilfe für den Programmierer oder zur Eingabe via der Tastatur, sofern bestimmte Zeichen nicht auf der Tastatur verfügbar sind.

Wenns nach dem Computer geht, gäbe es nur 0 und 1. Alles weitere, ob nun HEX, normale alphanumerische Zeichen sind letztlich nur für den Bediener, damit der Mensch es einfacher hat mit der Interaktion.

Woher ich das weiß:Berufserfahrung – Softwareentwickler/Projektleiter seit 2012

bitshifter  12.09.2014, 14:05

ASCII = 7bit, 128 Zeichen

2
apachy  13.09.2014, 15:36
@bitshifter

Recht hast du, da bin ich ein wenig durcheinander gekommen, weil wir in der Programmierung die Zeichen jeweils nur in einen 1 Byte großen char abspeichern. Damit wirst dann entsprechend das höchste Bit nicht verwendet gemäß ASCII.

Pardon für die Falschinformation.

0
apachy  12.09.2014, 08:46

sry 256 natürlich, die blöde 0 :)

0

Der ASCII-Zeichensatz wird zur 8-Bit-Darstellung von (einfachen) Zeichen in Computern benutz. Das Zeichen A wird so durch die Bitfolge 01000001(entspricht der Hexadezimalzahl 41h, die man sich leichter als die Bitfolge merken kann!) dargestellt. Für Schriftzeichen werden nur 7 Bits benutzt. Es sind also nur 128 Schriftzeichen möglich. Zur Darstellung z.B. chinesischer Schriftzeichen benötigt man mehr als 8 Bits. Dazu wurde der Unicode entwichelt, der 2 Bytes (16 Bits unter Windows) nutzt.

Lies dir einfach durch, was auf http://de.wikipedia.org/wiki/American_Standard_Code_for_Information_Interchange zum ASCII-Zeichensatz steht.

Das wäre nicht so einfach lesbar. Früher hat man ja wirklich Karten gelocht, aber halt mit entsprechenden Maschinen.

Ebenso sind Programmiersprachen auch nur da, um das Programmieren zu vereinfachen. Anfangs wahren Programme Zahlenfolgen, bis Befehlsabkürzungen, sogenannte Mnemonics erfunden wurden.

Natürlich kann man auch binär kodieren - nur das "versteht" ja ein PC

Aber diese Zeichenketten wären ein Einfallstor für Vertipper

Irgendwie versteh ich die Frage nicht. In dieser Form sind die Zeichen doch im Computer gespeichert, im Beispiel "C".

Oder meinst du ASCII im Gegensatz zu z. B. EBCDIC?

Woher ich das weiß:Berufserfahrung – Software-Entwickler

Zoelomat  12.09.2014, 18:15

EBCDIC - guter Witz!

0