Woher weiß der Computer ob Buchstabe oder Zahl?

2 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Also so ohne Halt hingeschrieben stimmt das, was du sagst. Der Rest hängt dann immer davon ab, innerhalb welches Prozesses sich dieser Wert befindet und wie der Rückgabewert letzten Endes vom Prozess oder der zugrunde liegenden Struktur interpretiert wird. Da spielen dann im Netzwerkbereich teilweise Protokolle und Verhandlungen zwischen den Maschinen und Services eine wichtige Rolle, da so Definitionen und Standards ausgehandelt und erst dadurch vom Gegenüber gelesen werden können.

Das Stichwort, was du hier suchst, lautet vermutlich ASCII und ein Encoding-Schema. Sprich: Jemand hat sich ein Muster ausgedacht, welche Symbole er gerne mit welchen Binärzahlen verbinden möchte, und hat eine Tabelle angelegt, wie die Werte künftig zu interpretieren sind (in einfach ausgedrückt). Der Speicher selbst und der Prozessor verstehen nur binär, er sieht die 01000001, und gibt die einfach weiter an den Prozess, der den Wert angefragt hat - Und der weiß, wie er den Wert zu interpretieren hat.

Der Computer unterscheidet da gar nichts. Es kommt drauf an wie der Wert interpretiert wird. In (glaub ich) allen modernen Programmiersprachen ist es möglich ein char (Zeichen) in eine Zahl umzuwandeln und wenn man mal dein Beispiel nimmt dann würde auch das Zeichen 'A' in den Wert 65 konvertiert werden.

Falls ich deine Frage falsch verstanden hab und du meinst das wie der Computer zwischen denn zwei als Zeichenketten unterscheiden (also "A" und "65") dann ist das ganz einfach da genauso wie jeder Buchstabe jede Zahl ihren eigenen 'Code' hat. "65" würde sich dann z.B. aus '00110110' und '00110101' zusammensetzen.

Woher ich das weiß:Hobby – Ich programmiere seit 3 Jahren mit C#