Computer ohne Binärzahlen (Einzen und Nullen) und das 7x so schnell?

Beim Duschen kam mir eine Idee die mir im nachhinein garnicht mal so dumm vorkam.

Derzeitige Computer arbeiten mit Binäre Einzeln und Nullen in Form von "An" und "Aus" Zustände... Das benötigt allerdings 8 Signale hinter einander, um nur einen einzelnes Byte / Buchstabe daraus zu ermitteln anhand des BInäralphabets:

https://de.convertbinary.com/binaeralphabet-sehen-sie-die-alphabetischen-buchstaben-in-binaercode/

Was wäre aber wenn man den Buchstabe mit nur einem Signal bereits würde womit man direkt erkennen würde das dieses Signal ein A ist und ein anderes Signal ein B oder C oder ....

Z.b. Würde mir da in den SInn kommen mit verschiedenen Frequenzen oder Spannungen zu arbeiten das z.b. ein Signal mit 300hz übermittelt werdne würde was z.b. für ein A stehen könnte, und ein Signal mit 310Hz für ein B und so weiter und so fort und wenn das nicht mit Hz geht z.b könnte man solche muster auch mit Volt versuchen zu übermitteln. So müsste z.b. Prozessoren nicht ganze 8 Bits abwarten bis sie endlich überhaupt einen Buchstaben haben von einem gesammten Script von einem einzelnen Frame in einem Computerspiel z.b.

Glasfaserkabel könnte man auch noch immer benutzen für sowas mit z.b. Licht impulsen die ständig ihre frequenz ändern um direkte Bytes zu übertragen anstatt Bytes anhand von Bits erstmal sammeln zu müssen.

Theoretisch müssten dadurch Übertragungen über Lange distanzen und Berechnungen in Prozessoren 7x Schneller fertig werden, wenn Compiler ihre Maschienensprachen direkt in Buchstaben codieren anstatt erstmal Bits zu verarbeiten und aus dne bits die Buchstaben zu ergänzen um daraus Ergebnisse zu formen...

Computer, Technik, Elektrik, Zahlen, compiler, Wissenschaft, Technologie, binär

Meistgelesene Beiträge zum Thema Zahlen