Sollte man irgedwann die KI entscheiden lassen über den Einsatz von Atomwaffen?

Das Ergebnis basiert auf 27 Abstimmungen

Nein weil 89%
Ja ...weil 11%

15 Antworten

Nein weil

KI's sind auch heute nicht perfekt und machen Fehler.

In der Vergangenheit stand die Welt schon mehrere Male am Rande eines Atomkriegs, aufgrund von Fehlalarmen. Es ist echt unfassbar wie haarscharf die Menschheit der großen Katastrophe entkommen ist und das mehr als ein mal. Gestützt durch Computerprogramme, verhindert durch Menschenhand.

Hätte man damals eine KI verwendet, wäre alles vorbei.

Nein weil

Man Atomwaffen sowieso nicht einsetzen soll. Niemand sollte alleine über den Einsatz von Atomwaffen entscheiden können, und erst Recht keine KI.

Woher ich das weiß:Berufserfahrung – Erfahrung mit Einsatz von KI in der Softwareentwicklung

Was genau sollte man eine KI da entscheiden lassen?

Die Folgen des Einsatzes einer Atomwaffe ist bekannt, es braucht keine KI um "Ja oder Nein" abzuwägen.

Nein weil

Natürlich und die erste logische Konsequenz wäre uns ausbeuterischen Raubtiere ins Grab zu befördern.

Nein, wir haben bis heute noch immer keine echte K.I. erschaffen und die derzeitige LLM sind zu „dumm“ um über so etwas zu entscheiden. Abgesehen davon ist kein System bugfrei, sprich Fehler gibt es immer.

Zudem wie wäre es mit gar keinen atomaren Waffen?

Woher ich das weiß:Hobby – Netzwerktechniker & Programmierer
poppedelfoppe 
Fragesteller
 02.05.2024, 08:21

denk mal logisch ohne atomwaffen hätten wir jetzt zu 100 % schon einen 3 Weltkrieg ... Dan wäre die USA mit Soldaten den Ukrainern zu hilfe geeilt und Russland hätte alles mögliche getan und andere Länder nicht nur die Ukraine mit Soldaten und Militärischen Gerätschaften angegriffen ... Atombomben verhindern Weltkriege !!!

0
Palladin007  02.05.2024, 08:54
@poppedelfoppe

...bis irgendwer einen dummen Fehler macht, dann machen sie einen Großteil der Erde für lange Zeit unbewohnbar.

Außerdem bezweifle ich, dass Atomwaffen wirklich Kriege verhindern. Sie sind ein starkes Druckmittel, aber ein normaler Krieg ist auch ein Druckmittel, wir brauchen keine Atomwaffen, um eine Stadt völlig zu zerstören.

So ein Weltkrieg bricht nicht mal eben so aus, das staut sich viele Jahre an, das war beim ersten Weltkrieg auch so. Gut, der zweite Weltkrieg ist etwas anders, da wollte dieser Idiot mit Schnautzbärtchen unbedingt Krieg spielen, aber der war auch nur in der Situation, weil es der Bevölkerung schlecht ging und vielen Menschen noch die Nachwirkungen des ersten Weltkriegs und generell der "Schandfrieden" in den Knochen saß.

Es kann aktuell genau dieses "Vorspiel" zum dritten Weltkrieg sein.
Putin hat sein Land auf Kriegswirtschaft umgedreht und alle "bösen" Menschen, die keinen Krieg wollen, polizeilich verfolgen lassen, die Vermutung ist also nahe, dass er nach der Ukraine weiter machen will. Dagegen spricht, dass die Ukraine weit wehrhafter ist, als er angenommen hat, aber das hält einen kriegswütigen Diktator nicht auf, wir haben in unserer eigenen Geschichte ja auch so einen.
Und China liebeugelt mit Taiwan und würde dafür auch einen Krieg mit den USA riskieren und die USA würden dagegen halten, dafür ist Taiwan zu wichtig für die Weltwirtschaft.

Da ist noch gar nichts verhindert, im schlimmsten Fall haben wir also einen Krieg zwischen NATO und BRICS und das wäre dann ein Weltkrieg wie aus dem Lehrbuch, vermutlich auch mit Einsatz von Atomwaffen.

1
apophis  03.05.2024, 03:35
Nein, wir haben bis heute noch immer keine echte K.I. erschaffen

Was ist denn eine "Echte KI"?...

0
Written5423  03.05.2024, 07:03
@apophis

Kommt immer auf die Definition an, aber in den meisten Fällen ein selbstständiges Individuum was Fühlen und logisch sowie rational Denken kann.
Die derzeitigen "K.I."-Modelle können dies nicht, sie können es uns nur vorgaukeln.

0
apophis  03.05.2024, 17:38
@Written5423
Kommt immer auf die Definition an, aber in den meisten Fällen ein selbstständiges Individuum was Fühlen und logisch sowie rational Denken kann.

Das ist keine Definitionsfrage, was Du beschreibst ist eine Allgemeine Künstliche Intelligenz (AGI).
Die ist nur Teil der Theoretischen Informatik und hat nicht viel mit der eigentlichen, realen KI zu tun.

Die derzeitigen "K.I."-Modelle können dies nicht, sie können es uns nur vorgaukeln.

Genau das ist die Definition, bzw. das Ziel des Teilbereichs der Informatik mit dem Namen Künstlicher Intelligenz -> Das imitieren von menschlichen, "intelligenten" Verhalten. Das bezieht sich etwa auf Schlussfolgern, Beurteilen oder das Verstehen natürlicher Sprache.
KI wurde nie so definiert, dass sie sich in gänze wie ein Mensch verhalten oder gar fühlen können muss. Das ist Science Fiction.

Die Autokorrektur in Deinem Smartphone, die Autovervollständigung in der Google Suchleiste und die Programme zur Wettervorhersage, das alles sind echte KIs.

AGI von der Du sprichst, entstammt Sci-Fi Autoren und nicht der Idee hinter KI.
Irgendwann hat man natürlich auch angefangen sich wissenschaftlich mit AGI zu beschäftigen, wie man es mit so ziemlich allen tut.
Aber wie gesagt, mit echter, realer KI hat das (noch) lange nichts zu tun.

0
Nein weil

Es gibt bereits Tests mit KI... KI würde sie einsetzen ;).