Wie generiert der Binärcode Buchstaben?

5 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Kurz gesagt, ein Computer kennt keinen Unterschied zwischen einem Buchstaben und einer Zahl.

Jeder Buchstabe wird im Computer als eine Zahl dargestellt und alle Funktionen welche Zeichenketten bearbeiten rechnen intern mit diesen Zahlen.

Der Buchstabe entsteht erst zum Zeitpunkt der Ausgabe.

Es kommt also zB die Zahl 65 beim "Grafiktreiber" an. Dieser weis jetzt über diese Schnittstelle kommen Buchstaben, also sieht er in einer Tabelle nach für welchen Buchstaben die Zahl 65 steht.

Das ist im Falle des ASCII Codes ein "A".

Jetzt hat er ein Zeichen, aber noch keine Darstellung dazu, dafür gibt es ein sogenanntes Fontset, das sind mehr oder weniger Bilder.

Es wird also nachgsehen welcher Bild ist für das Zeichen "A" eingetragen und dieses wird dann skaliert und auf dem Bildschirm angezeigt. Auf diese Weise kann über den Font auch das Schriftbild verändert werden.

Neben dem ASCII Code gibt es allerdings noch andere Zeichensätze wie zB UTF8 etc.

Als Anmerkung am Schluss:

Diese Antwort beschreibt die Thematik stark vereinfacht und dient nur für einen groben Einblick. Zu den Punkten Fonts Zeichensätze etc. kann man ganze Artikel schreiben.

Mit Hilfe des Dualsystems (des 2er-Systems). 0 entspr. 0, 1 entspr. 1, 2 entspr. 10, 3 entspr. 11, 4 entspr. 100, 5 entspr. 101, 6 entspr. 110, 7 entspr. 111, 8 entspr. 1000 und so weiter. Buchstaben und andere Zeichen werden ebenfalls aus Nullen und Einsen zusammengesetzt.

Das alles macht die Software. Man hat mal definiert, welche Sequenzen von Nullen und Einsen welchen Zeichen entsprechen (ASCII - Code), Gewisse Software, die oft gebraucht wird, wie z. Bsp. Ein Tastaturdecoder, kann auch mal fix in die Hardware eingebrannt werden.

Mehrere Binärestellen werden zu einem mehrstelligen Bitmuster zusammengehängt, welches als Code interpretiert wird.

Gebräuchliche Codes sind der ASCII- und der ANSI-Code, sowie der heute am meisten verwendete UNICODE (UTF-8), welcher zum Ziel hat, sämtlich auf der Welt verwendeten Schriftzeichen aller Sprachen darstellen zu können.

Unter den oben angeführten Codebezeichnungen findest Du weiterführende Informationen z.B. in Wikipedia.

Naja also im PC werden die codes mit dem ASCII code übersetzt.

d.h. wenn du z.B. die Taste "A" drückst wird das umgewandelt in z.B. "1000001"

Wie die Codes belegt sind kannst du in einer ascii tabelle nachschauen;)


verreisterNutzer  19.12.2017, 02:52

Dem prozessor ist das erst mal egal, dies wird erst bei der Darstellung interessant und da gibt es bestimmt Tabellen, wie Bytes darzustellen sind ... (ASCII-Code, UTF8 usw.)

AntiTrollWhoop 
Beitragsersteller
 18.12.2017, 23:01

Das weiß ich, wie gesagt, bereits. Aber wie kommt der Prozessor dazu für A 1000001 und nicht 10100101, oder so, zu verwenden?