Menschen oder KI - Wer soll für uns zukünftig Politik machen?
Man könnte auf Parlamente verzichten, da die KI die Arbeit von tausenden Abgeordneten übernehmen könnte.
Sie würde unter der Berücksichtigung von vielen Daten die beste Entscheidung für uns treffen
KI oder Mensch - Wer soll für uns in der Zukunft Politik machen?
Tim: Menschen sind käuflich, egoistisch und gefühlsgesteuert - Das alles sei seiner Meinung nach ein Argument, dass Politik eher was für die KI wäre, stimmt das?
42 Stimmen
16 Antworten
Kommt drauf an.
Kleinere Gruppen kann der Mensch führen, eine große Masse nur beeinflussen und lenken. Eine KI wäre in der Lage den Überblick über die große Masse zu behalten und Entscheidungen zu treffen die der Masse dienen, nicht nur einzelnen Interessen.
Bei der KI setzt das aber eine vollständig eigenständig denkende künstliche Intelligenz voraus, solange diese aber noch so primitiv ist wie heutige und mit Informationen gefüttert werden muss anhand derer die Entscheidungen getroffen werden, solange macht eine KI als Führung keinen Sinn.
Aktuelle KI kann beeinflusst werden und Politiker würden jedes Mittel in Erwägung ziehen um diese KI entsprechend zu beeinflussen. Natürlich könnte man Sicherheitssysteme einprogrammieren, aber da hat dann der/die Programmierer die Hand drüber und über den Programmierer der Höchstbietende.
Eine führende KI muss in der Lage sein eigenständige Entscheidungen zu treffen, zum Wohle der Menschheit. Dann kann man sich aber absolut sicher sein werden Entscheidungen getroffen die (nach aktuellem Gesellschaftsbild) vollkommen radikal, brutal und widerwärtig wären - zum Wohle, Schutz und Erhalt der Menschheit.
Sind Menschen da aber besser? Ich sage überzeugt nein. Sieht man sich an zu was Menschen in der Lage sind und wie diese auch Macht ausnutzen um die eigene zu erhalten/stärken würde eine KI da wohl andere Wege gehen, vermutlich "fairere" wenn Wohlstand, Herkunft, Religion und andere "menschliche Werte" keine Rolle spielen.
In der Politik bzw. bei der Führung von Menschen müssen manchmal auch unmoralische Entscheidungen getroffen werden. Der Mensch reagiert da mit Emotionen (verschiedenster Art), eine KI anhand von Berechnungen.
Man könnte das Argument heranziehen das vor einer KI der Mensch bzw. das Leben eine "erneuerbare Variable" ist. Streng genommen war das Leben eines Menschen aber schon immer nur eine Variable, die vielen Kriege auf diesem Planeten zeigen da eigentlich ein klares Bild und die sind allesamt "Made by Humanity".
Wäre eine KI also schlimmer als ein Mensch? In meinen Augen nicht, aber sicherlich radikaler.
Viel schlimmer kann es die KI eigentlich nicht machen. Die würde sich dann zumindest an die programmierten Regeln halten.
Demokratie ist ultimativ irrational und eine KI wäre eine Zuspitzung gegenwärtiger Trends Richtung autoritärer Verfahrensliberalismus.
Dann leiten also die Programmierer den politischen Diskurs?
Klar, in der Politik ist alles immer nur schlecht.
Menschen sind käuflich
Wer programmiert die KI?
Außerdem sind wir eine Republik und eine Demokratie und keine Technokratie.
Du programmierst Sie und dann wird die sich selbst entwickeln. Die Entwicklung, muss von einer Demokratisch gewählten Personengruppe fertiggestellt werden
Die KI müsste sich ja an irgendetwas messen lassen. Also wer entscheidet, nach welchen Kriterien die KI Politik machen würde? Von daher braucht es Menschen in der Politik vermutlich so oder so, was KI dann eher überflüssig macht, auch weil sie die Politiker ein Stück weit von Verantwortung befreien würde.
Leider konnte man nicht beides ankreuzen. Die Menschheit hat in ihrer Geschichte ca. 14.000 Kriege geführt, mit ca. 3,5 Milliarden Toten. Sehr viele davon mit vorgeschobener religiöser Begründung. Heilige Kriege und solchen Schwachsinn. Der Name Hindukusch, bedeutet "Hindu-Gemetzel". Alleine in den Jahrhunderten der "Streitenden Reiche" in China müssen Millionen gestorben sein. Überall wurden ständig Kriege geführt. Alles um die Macht- und Geltugsgier dieser hässlichen und primitiven, gewalttätigen Primaten zu befriedigen, die sich "Homo Sapiens" nennen. Frieden war eher die Ausnahme, als Normalzustand. Man könnte sehr viel erzählen. Man muss sich also fragen, ob die Menschheit jemals in der Lage war, sich selber in verantwortugsvoller Weise zu regieren. Ich denke, wenn eine verantwortungsvoll programmierte KI die Menschheit regieren würde, hätten wir eine dauerhaft friedliche, wenn auch nicht mehr gleichberechtigte Existenz. Nur bei Fragen, wo es um Leben oder Tod geht, muss der Mensch auf alle Fälle die Entscheidungsgewalt behalten.
Lies mal die Roboter Geschichten von Asimov. Regeln können je nach Auslegung auch zum Totalitarismus führen.