Kann es wirklich passieren, dass KI außer Kontrolle gerät und auf uns Menschen los geht?

4 Antworten

Kann es wirklich passieren, dass KI außer Kontrolle gerät und auf uns Menschen los geht?

Nein, das ist nicht möglich. KI ist einfach nur ein Computerprogramm, das keinen eigenen Willen hat und sicher nichts vorhat.

Alex


ForumLibhaber 
Beitragsersteller
 18.06.2024, 15:44

Außer man gibt ihr einen Körper in Form von einem Roboter.

Das kann man aber leider nicht schreiben, weil es "Abseits der Tehmas" ist. Zumindest war es in meinem Fall so, als Gutefrage.net meine Antwort auf die Frage "Kann KI die Weltherrschaft übernehmen?" Gelöscht hatte.

Antwort: "KI besteht nur aus Code und ist ein großes Programm. Solange sie keinen Körper hat z.B. in form eines Roboters, kann sie auch nichts machen."

0
EinAlexander  18.06.2024, 17:39
@ForumLibhaber
Außer man gibt ihr einen Körper in Form von einem Roboter.

Du meinst eine humanoide Form? Warum sollte man das machen? Es gibt keinen sinnvollem Grund, eine KI in die fragile und instabile Form eines Menschen zu integrieren.

Drohnen baut man ja auch nicht wie Amseln oder Schwäne.

1
Ist es möglich?

Klar, irgendwann in beliebig viel Zeit, meine Glaskugel ist kaputt.

Wie wahrscheinlich ist es?

Aktuell 0

Welche KIs würden eine Gefahr Darstellen?

Keine - zumindest nicht so, wie Du meinst.

Wenn dann müsste es aber autonom arbeiten können, sodass es nicht möglich ist, es physisch abzuschalten. Und natürlich müsste es Zugang zu Waffensystemen haben.

Das Militär baut sowas, allerdings sind die Systeme auch ziemlich dumm, bzw. sehr stark auf ihren Anwendungszweck spezialisiert. Z.B. eine automatische Drohne könnte ein falsches Ziel anvisieren oder wild drauf los ballern, aber dann wäre es auch nicht viel intelligenter, als ein Gewehr, bei dem jemand den Abzug fest gebunden hat.

Es müsste eine allgemeinere Intelligenz haben, wovon aktuelle Systeme aber noch Meilen entfernt sind.

Wie könnten wir das vor beugen?

Gar nicht.

Du kannst dir 1000 und ein Sicherheitskonzept überlegen und diese tollen Sci-Fi-Robotergesetze ausdenken, es wird immer Menschen geben, die ein System bauen, was diese Robotergesetze nicht beachten muss.

Was müssten wir machen, wenn es passieren würden?

Sterben.

--------------------------------

Was wir aktuell so großspurig "KI" nennen, hat nichts auch nur im Entferntesten mit dem zu tun, was die breite Masse an Menschen aus Filmen und Serien unter "KI" versteht.

Was wir aktuell haben, also z.B. ChatGPT, wovor ja so viele Angst haben, errechnet "nur" ziemlich gut, welches Wort-Schnipsel wahrscheinlich als nächstes kommen müsste. Das "intelligente" daran ist, dass die errechneten Wahrscheinlichkeiten auf Daten basieren, die aus dem Internet stammen und die Entwickler dahinter raffinierte Trainingsalgorithmen entwickelt haben. Das merkt man auch, wenn man mehr Nischen-Themen fragt, dann wird es mit den sinnvollen Antworten schnell eng bzw. im Wesentlichen antwortet es immer das gleiche oder stimmt "blind" zu.

Dennoch können KI-Systeme eine enorm große Gefahr für uns darstellen, auch schon heute, allerdings wegen der riesigen Missbrauchsmöglichkeiten. Hat irgendwie jeder schon verdrängt, aber schon vor Jahren gab's die Debatte um Fake-News und wie viel man mit KI-Systemen faken kann. Was anderes ist das heute auch nicht, nur dass es mit ChatGPT greifbarer geworden ist.

--------------------------------

KI ist ein Werkzeug, das so aussieht, als wäre es sowas ähnliches wie intelligent, mehr nicht.
Ein Hammer ist auch ein Werkzeug und wenn ich will, kann ich dich mit einem Hammer töten, aber ist deshalb der Hammer die große Gefahr?

Die Gefahr geht - zumindest derzeit - ausschließlich von denen aus, die es nutzen.

Wir selber sind also unser größter Feind. Wenn wir selber nicht so fu**ing egoistisch wären, dann könnten wir auch "echte" (und gefährliche) KI-Systeme entwickeln, müssten uns aber nicht davor fürchten, weil es niemanden gibt, der die Sicherheitsvorkehrungen zum eigenen Vorteil aushebelt.

Aber bis das passiert ... naja, das ist ein anderes Thema.

Oder anders gesagt:
Die Gefahr, dass KI uns auf irgendeine Weise auslöschen wird: Keine Ahnung, Zeit ist (wahrscheinlich) unendlich.
Die Gefahr, dass KI uns auf irgendeine Weise auslöschen wird, bevor wir das selber getan haben, ist aber 0.

Ist es möglich?

Es ist theoretisch möglich, dass eine fortschrittliche KI außer Kontrolle gerät, insbesondere wenn sie mit falschen Zielen programmiert oder schlecht überwacht wird.

Wie wahrscheinlich ist es?

Die Wahrscheinlichkeit, dass eine KI derzeit außer Kontrolle gerät ist sehr gering. Dies liegt daran, dass heutige KI-Systeme sehr spezialisierte Anwendungen sind und keine allgemeine Intelligenz besitzen. In der Zukunft könnten jedoch fortschrittlichere KI-Systeme, wenn sie ohne angemessene Sicherheitsmaßnahmen entwickelt werden, außer Kontrolle geraten.

Welche KIs würden eine Gefahr Darstellen?
  • Hochgradig autonome
  • Welche die Zugang zu kritischen Infrastrukturen wie Energieversorgung oder Militärsystemen haben
Wenn das Passieren würde, wer ist dann schuld?

Die Verantwortung würde vermutlich bei den Entwicklern, den Aufsichtsbehörden und den Organisationen liegen, die die KI einsetzen.

Wie könnten wir das vor beugen?
  • Strenge Regulierung und Aufsicht
  • Ethische Richtlinien
  • Sicherheitsprotokolle
Was müssten wir machen, wenn es passieren würden?

Wir müssten sie sofort abschalten. Ihre Sicherheitssysteme müssten überarbeitet werden und es würde eine Untersuchung geben. Um das möglich zu machen bräuchte man Notfallpläne. Deshalb dürfte sie z.B. auch nicht Zugang zu Energieversorgung oder Militärsystemen haben. Das größte Problem sehe ich in der Bevölkerung. Wenn die Menschen irgendwann soweit sind, dass sie auf KI's angewiesen sind werden sie sich dagegen sträuben die KI abzuschalten.

Aktuell sind wir noch bei NAI's (Narrow AI also Schwache künstliche Intelligenz, wie z.B. ChatGPT) was du meinst sind AGI (Artificial General Intelligence) und/oder ASI (Artificial Superintelligence). KI ist ein Oberbegriff für verschiedene Arten welche oft einfach für eine selbst reflektierende, entscheidende und handelnde KI verwendet wird. In der Fachsprache wird dort aber unterschieden und man sollte sie klar trennen

Woher ich das weiß:Hobby – Programmiere seit 7 Jahren, mache Office kram etc

Da empfehle ich dir die Filme wargame und Terminator