Man hat mir mal früher gesagt, um herauszufinden wie groß eine zahl maximal sein darf damit eine gewisse Anzahl Bits diese noch überwältigen können, muss man nur die anzahl an: "x2" so häufig mit sich selbst multiplizieren, so groß wie die jeweilige Bitzahl ist.
Also um zu wissen wie viel zum Beispiel 8 Bit kann, müsste man nur: 2x2x2x2x2x2x2x2 = 256 aneinander hängen und ausrechnen.
Das heißt, dass die Limitierung von 8 bit bei der zahl "256" liegt und nicht mit größeren zahlen überwältigen kann, als diese "256". Soweit wie ich es damals verstanden habe!
Wenn man aber nun einen 32-Bit-Computer noch hat, was würde passieren wenn man mit zahlen interaggieren würde, die größer sind als: "4.294.967.296"?
z.b. wenn man in einem Computerspiel mehr Spielgeld sammeln würde als "4.294.967.296"?
Oder wenn man z.b. versuchen würde mit einem Taschenrechnerprogramm eine Zahl zu errechnen, die größer als 4.294.967.296?
Was würde dann passieren? Könnten 32-Bit-Computer diese Zahl überhaupt verarbeiten oder würden die abstürzen, crashen oder was würde dann passieren?