Wie verarbeitet ein Computer den Binärcode einzelner Zeichen?
5 Antworten
Er lädt immer eine "Einheit" (*)dieser Einsen und Nullen aus dem Speicher in den Prozessor (in eines seiner so genannten "Register") und macht dann dort irgend etwas damit (Rechenoperation, logische Verknüpfungen mit dem Inhalt eines anderen Registers oder ähnliches). Das Ergebnis dieser Operation schreibt er dann wieder in den Speicher des Computers zurück. Auf diese Weise "verarbeitet" er die Daten.
Das Computerprogramm enthält die Liste der einzelnen abzuarbeitenden Befehle, also welche Daten er aus dem Speicher in die Register der Prozessoren zu laden hat, was er dann damit macht, was mit dem Ergebnis passieren soll, mit welchem Befehl des Programmes es ggf. weitergehen soll etc.
------
(*) Eine "Einheit" kann dabei ein Byte sein (bei 8-Bit-Computerarchitekturen) oder heute auch mehrere Bytes auf einmal (16 Bit, 32 Bit oder heute schon 64 Bit Architekturen).
Aber was Du genau mit "wie verarbeitet er" meinst, das müsstest Du noch genauer erklären, damit die Antwort konkreter ausfallen kann.
Vielleicht solltest Du die Frage etwas ausführlicher stellen, damit wir wissen, das genau Du damit meinst.
Geht es ein wenig spezifischer? Je nach dem was du wissen willst geht es tief, ganz tief oder noch tiefer in einen Micropozessor rein. Sagen dir FlipFlops und Logikschaltungen etwas?
Das macht er mit Hilfe der Boolschen Algebra
https://de.wikipedia.org/wiki/American_Standard_Code_for_Information_Interchange
A ist z.B. (0)1000001
1 oder 0 ... Schalter An oder Aus!