Würden KIs gute Politiker sein?
In Science Fiction trifft man oft das Motiv eines robotisierten Gerichtes oder eines Computers, der sowohl Wirtschaft l, als auch Politik regelt. Tatsächlich sind unsere Technologischen Möglichkeiten jetzt schon ausreichend, um virtuelle, computergesteuerte Abgeordnete "herzustellen" bzw. zu programmieren.
So ein Abgeordneter, wenn richtig programmiert, hätte viele Vorteile, aber Nachteile gibt's natürlich auch genügend.
14 Stimmen
5 Antworten
Macht jetzt nicht den großen Unterschied. Es ist sogar so, dass die KIs sowieso bloß damit gefüttert wird was die Menschen äußern und das dann in eigenen Texten neu formulieren. Also so wie beispielsweise Söder das auch macht.
Aber KI würde sofort den Fehler bemerken, wenn die Ampel z.B. das Geld entwendet hat
Wären ja auch von Menschen gemacht. Aber nicht jeder Mensch hat dieselben Vorstellungen von Moral. Maschinen können außerdem auch ausfallen und Fehler machen.
Moral wird in Jura zusammengeprügelt und aus dem Fenster geschmissen, hier gilt nur Gesetz
Weil die moralische Entscheidungen nicht treffen könnten
Dann handelt sie halt nur nach Gesetz bzw. nach Präzedenz.
wären wie NPC's drauf und würden alles nachreden ohne eigene Meinung
Aber die würden auf Parteitreff auf jeden Fall keine SS Parolen ausrufen
Die wären absolut Fehleranfällig und werden nur noch falsche Entscheidungen treffen.
Das stimmt nicht.
Eine KI kennt keine soziale Interaktion oder Moral.
Womit sie unfähig wäre rationelle und sinnvolle Entscheidungen zu treffen.
KI bedeutet ja nicht das etwas sehr intiligent ist.
KI bedeutet nur das etwas künstlich intiligent ist
KI sind tatsächlich ziemlich dumm und unfähig logisch oder abstrakt zu denken. Sie empfinden keine Empathie und sind extrem anfällig für Beeinflussung.
Dazu gab es bereits große Untersuchungen.
KIs sind verdammt ungeeignet um komplexe Problemlösungen zu erarbeiten.
Das Fehlen des komplexen Denkens macht eine KI zum Schrott, aber KI weiß, wie Menschen miteinander interagieren und ist Moral wirklich nötig?
Das Ziel ist, maximalen Vorteil zu erzwingen. Eine KI würde immer versuchen, maximale Vorteil zu erreichen ohne dabei Gesetze und Rechte zu brechen.
Und wenn wir sie Leistungsstark erstellen würden, was jetzt vielleicht noch bedingt möglich ist, könnte die auch komplexe Aufgaben lösen
Du beantwortest dir die Frage doch selbst.
Dein letzter Kommentar zeigt doch, das Fehlen von Ethik und Moral eben nicht zu einer besseren Herangehensweise für komplexe Problemlösungen führt. Im Gegenteil.
Ich hab dir anhand von sachlichen Argumenten und mit Geduld erklärt, das eine KI unfähig wäre politische Entscheidungen zu treffen.
Weil eine KI nicht zwangsläufig schlauer ist. Es ist lediglich eine künstliche Form der Intelligenz. KP warum du deinen Denkfehler nicht einsehen willst?
Trotzdem kommt von dir immer wieder ein Aber. Akzeptier doch einfach das du unrecht hast. Statt weiter zu diskutieren in der Hoffnung doch noch Recht zu bekommen.
Oder bring wenigstens mal Argumente die deinen Standpunkt vertreten.
Statt daraus eine Glaubens bzw Aberglauben Frage zu machen.
Und wenn du fanatisch an deiner falschen Wunschtheorie festhalten willst und im Vorfeld für dich festgelegt hast das du in deinem Glauben Recht hast, warum stellst du dann eine Frage?
Du hast gefragt, ich hab dir vernünftig geantwortet.
Wenn wir die KI gut programmieren und sie auch genug Leistung zur Verfügung hat, müssten die Fehler minimal sein