Geister in der Maschine?
Im Film "I, Robot" wird davon gesprochen, dass in Maschinen "Geister" geben sollen, in dem zufällige Codesegmente sich gruppierten und unerwartete Protokolle formen.
Wie kann man das aus der Sicht der Informatik bzw. Programmierung vorstellen?
Das die Algorithmen sich vom programmierten Software irgendwie befreien und anfangen selbständige Codes zu entwickeln?
Wie könnte das theoretisch möglich sein?
Könnte man wirklich sowas machen?
Text:
"Es hat immer Geister in den Maschinen gegeben. Zufällige Codesegmente gruppierten sich und formten unerwartete Protokolle. Diese unvorhergesehenen freien Radikale rufen grundlegende Fragen hervor nach freiem Willen, Kreativität und sogar nach der Natur dessen, was wir Seele nennen. Wie kommt es, dass in der Dunkelheit gelassene Robots das Licht suchen? Wie kommt es, dass Robots, die in einem leeren Raum gelagert werden, lieber gegenseitige Nähe suchen, anstatt allein zu stehen? Wie erklären wir dieses Verhalten? Zufällige Codesegmente? Oder ist es mehr? Wann wird aus einem Wahrnehmungsschema ein Bewusstsein? Wann wird eine Rechenmaschine zur Suche nach der Wahrheit? Wann wird aus einer Persönlichkeitssimulation die bittere Frucht einer Seele?"9 Antworten
Das ist eine fiktive Geschichte. Das, was den "Geistern in der Maschine" am nächsten kommt, sind Bugs. Also versehentlich falsch programmierte Programmteile oder Fehler, die durch kaputte Chips oder Wackelkontakte entstehen. Die führen aber meistens dazu, dass irgendwas einfach nicht mehr funktioniert und nicht dazu, dass irgendwas plötzlich einen freien Willen kriegt.
Bei I, Robot geht es aber auch um künstliche Intelligenzen. Die können natürlich etwas unvorhergesehenes lernen und dadurch auch Dinge tun, die man sich nicht gleich erklären kann.
In der Militärtechnik versucht man z.B. menschliche Piloten durch KI zu ersetzen, da diese bei extremen Flugmanövern das Bewusstsein verlieren können. Zudem könnte man mit KI künftige Technik leichter und kompkter bauen.
Das Code immer auch unerwartetes "tut" dürfte jedem bekannt sein der schonmal ansatzweise mit Programmierung gearbeitet hat, aber auch das folgt einem bestimmten vorgegeben Muster.
Hallo Destination,
Bei einer KI (künstlichen Intelligenz) wird ja ein sogenanntes neuronales Netz auf digitalem Weg nachgebaut. Hierbei rechnet der Computer auf ähnliche Art und Weise wie das Gehirn eines Menschen rechnet.
Es gibt inzwischen auch KI's die darauf trainiert werden, selber Programm-Codes zu schreiben. Das klappt inzwischen bei sehr einfachen Aufgaben.
Sicherlich werden KI in Zukunft immer besser werden. Es wird KIs geben, die super Auto fahren, KI die Bilder malen, die Texte sprechen kann, und Fragen beantwortet, vielleicht sogar KI die ganze Filme produzieren. Es mag auch KIs geben, die sich selber aktualisieren und verbessern. (wenn der Mensch der KI diese Funktion freischaltet)
Das einzige, was eine KI nicht hat, ist ein echtes Bewusstsein, sodass diese leben würde und Bedürfnisse hätte wie ein Mensch.
Man könnte 100 verschiedene KI zusammenschalten, wo man denken würde, das ist jetzt wie ein Lebewesen, weil diese KI alles kann, was ein Mensch auch kann. Es bleibt aber tatsächlich eine "dumme Maschine".
Ein Auto ist ja auch nicht intelligent, nur weil es 200 km/h fahren kann.
Ein Roboter könnte neue Software sich selber schreiben, und anders reagieren als er sollte. Aber es gibt keinen Grund für den Roboter, warum er das tun sollte, weil er kein Bewusstsein hat.
Falls Roboter als irgendwann trotzdem Amok laufen sollten, gehe ich davon aus, dass irgendein Mensch das eingefädelt hat. 😊
Es könnte passieren das eine ki sich selbst (ungewollt) weiterentwickelt, was äußerst gefährlich ist und das Ende allen Lebens oder gar viel schlimmeres bedeuten könnte.