Regiert von KI?
Hallo,
haltet ihr es für möglich dass KI eines Tages mal Politiker ersetzt? Politiker können Fehler machen, persönliche Defizite haben, korrupt sein, machtbessen und und und. Eine gut arbeitende ki könnte vielleicht eines Tages alle Probleme möglichst gut und fair lösen, innenpolitisch und auch was globale Entscheidungen angeht. Wie seht ihr das?
7 Antworten
Politiker können Fehler machen, persönliche Defizite haben, korrupt sein, machtbessen
Lass das Mal genauer betrachten:
Politiker können Fehler machen
Macht KI auch, ständig
persönliche Defizite haben
Hat KI indirekt auch, da sie auf Basis irgendwelcher Daten trainiert wurde und dabei natürlich ggf. vorhandene Vorurteile oder andere Probleme übernimmt.
korrupt sein
KI muss von irgendwem entwickelt, trainiert, weiterentwickelt, gewartet und betrieben werden. Dieser Jemand hat also eine ganze Menge Einfluss auf die KI und das ist - wegen der enormen Komplexität (es ist quasi unmöglich zu erklären, warum die Antwort ist wie sie ist) - extrem schwer zu überwachen. Das ist mMn. vergleichbar mit Korruption.
machtbessen
Die KI hat Ziele und diese Ziele können beeinflusst werden, entsweder durch "Befehle" oder durch Trainingsdaten. Sie könnte also auch machtbesessen (oder irgendwie anders) sein/werden.
Und dazu kommen dann noch die Probleme wie die Sicherheit, eine komplett digital "denkende" Regierung kann natürlich auch gehackt werden. Gerade einmal halbwegs sicher sind solche Systeme, wenn sie physisch abgeschirmt sind, das heißt: Niemand (bzw. nur ausgesucht Personen) haben Zugang, keine externen Geräte (z.B. USB-Sticks), kein Internet-Zugang, gar nichts. Wer was von der KI will, müsste also unter strengsten Sicherheitsvorkehrungen zum PC gehen, der daran angeschlossen ist, die Frage stellen und das Ergebnis ausgedruckt wieder raus holen, natürlich immer den gesamten Chat, weil die Person könnte ja manipulieren. Aber was machen wir, wenn viele Leute Zugang wollen? Wir sind ein großes Land, es gibt viele Probleme, die viele Lösungen brauchen. Je mehr Menschen Zugang haben, desto unsicherer wird es. Und wie entwickelst Du die KI weiter, wenn sie abgeschirmt ist? Soll sie irgendwann veraltet sein und muss dann von 0 auf neu entwickelt werden? Und dann gehen die ganzen zuvor genannten Probleme von vorne los.
Und das ist alles zwingend notwendig, immerhin gibt es einige Länder (egal ob verbündet oder nicht), die ein großes Interesse daran hätten, Einfluss auf diese Regierungs-KI zu nehmen. Und sollten wir wirklich so eine Regierungs-KI aufbauen, huiuiui, da kannst Du aber drauf wetten, dass sich sofort alle Geheimdienste oder Hacker-Organisationen der Welt mit sich darauf stürzen werden - und zwar ständig.
--------------
Prinzipiell wäre KI in der derzeitigen Lage, ohne dass man in die Zukunft schaut, vermutlich besser für uns geeignet, allerdings kann das auch gewaltig nach hinten losgehen.
Das Problem ist - wie eigentlich immer - dass es in unserer Gesellschaft Egoisten, Idioten, etc. gibt, die die Umstände zu ihren Gunsten und zum Nachteil aller Anderen ausnutzen wollen. Diese Menschen wird es auch unter einer KI-Regierung weiter versuchen und es wird einigen von ihnen gelingen. Dann allerdings kann das gar nicht mehr irgendwie sinnvoll nachvollzogen werden, wir verstehen KI ja kaum.
Sowas KANN funktionieren, aber erst, wenn wir diese grundlegenden gesellschaftlichen Probleme überwunden haben und dann brauchen wir keine KI mehr als Regierung.
Dennoch halte ich es für sinnvoll, darüber nachzudenken, allerdings nicht als Regierung, sondern als Teilnehmer an der Politik. Also etwa so, wie es vermutlich einige Menschen schon heute machen: Frag ChatGPT zu irgendeinem Thema und Du bekommst eine Antwort. Das muss natürlich überwacht werden, weit besser als bisher und es muss vom Staat (bzw. einer unabhängigen Behörde, über die die aktuelle Regierung keine Macht hat) betrieben und verwaltet werden.
So könnten Menschen und auch Politiker sich Rat holen, es muss aber auch jedem wirklich bewusst sein, dass man das nicht einfach so glauben/übernehmen darf, die ganzen oben genannten Probleme existieren natürlich weiterhin. Aber so ist immer noch ein Mensch zwischen KI und Regierung und ein Mensch kann zumindest noch nicht gehackt werden.
--------------
Allerdings gibt es bisher keine KI, die derart komplexe Zusammenhänge auch logisch verstehen oder verarbeiten kann, nein auch ChatGPT nicht, das ist nur sehr gut darin, es zu faken ;)
Ich merke es bei meiner Arbeit immer wieder, dass die KI (in meinem Fall claude.ai, vorher ChatGPT) zu einer Art Ratespiel verfällt, sich planlos wiederholt, Dinge "vergisst" (wenn der Chat oder die Daten zu lang sind), sich regelrecht im Kreis dreht (immer die selbe Abfolge von Antworten auf meine Fragen, ohne sie zu beantworten), etc.
Politik ist hoch komplex, es gibt 1000e verschiedene Themen und zu jedem Thema gibt es 1000e verschiedene Möglichkeiten und jeder Mensch hat eine mehr oder weniger stark abweichende Meinung und es gibt extrem extrem extrem viele Daten, die auch erst einmal verarbeitet werden müssen.
Wir brauchen eine KI, die diese Themen abstrakt analysieren kann, ohne alle Daten zu haben. Stattdessen muss die KI in der Lage sein, aus den Themen mögliche Zusammenhänge herzuleiten und auf dieser Basis dann neue Daten zu suchen, um auf dessen Basis dann von vorne beginnen zu können. Das ist allerdings hoch komplex und derzeitige Chat-KIs können das kaum bis gar nicht.
Vielleicht gibt es sowas irgendwann mal in einer umfassend nutzbaren Form, aber bis dahin ist es sinnlos, darüber zu diskutieren, denn dann wird auch die KI und unser Umgang damit ganz anders sein, wir müssen die Diskussion also von vorne beginnen.
Wann ist eine KI denn "gut"?
Bedenke: Eine KI basiert auf den Daten, mit denen sie gefüttert wird. Dort analysiert sie Muster, Zusammenhänge, Häufigkeiten und Co. und leitet daraus Schlussfolgerungen ab.
Welche Daten muss die KI also bekommen, damit sie "gut" ist? Woran können wir das feststellen, wie bewerten wir das, wie bekommen wir mit, wenn sie zu Schlüssen kommt, die wir aus unserer menschlichen Perspektive keineswegs als "gut" bezeichnen würden, weil sie stark zu unserem Nachteil wären?
Naja, wie schnell würde die KI dabei wohl zu dem Schluss kommen, dass die Geschichte sich genau dann nicht wiederholt, wenn man den Faktor Mensch rauskürzt ;)? Oder zumindest den Faktor "männliches Geschlecht" ;)?
Sehr schnell 😄 ja da hast du Recht. Dann muss der Mensch trotz Problemen sie er verursacht als nicht ersetzbar vermittelt werden.
Derartiges wäre ohne KI natürlich auch möglich. Dem steht menschliches Machtstreben entgegen. Wenn man aber die Macht abgibt, dann kann man die KI nicht mehr abschalten.
Da hast du recht stichwort Testosteron. Und ewige menschliche lasten wie Neid, Missgunst, Wut etc.
Wie du mir so ich dir - eine ewige Spirale.
Ich glaube da muss es eine bessere Lösung geben. Vielleicht können wir wenigstens auf höchster Ebene eines Tages das an eine gute unemotionale ki abgeben. Oder alternativ diese als Berater / Orakel miteinbeziehen.
Jedenfalls weigere ich zu glauben dass trumps, Putin, Kims etc. Und auch weniger agressive- aber nicht viel fähigere - Leute wie ein Scholz das beste sein können, das wir zur Völkerverständigung aufbringen können.
Du siehst das viel zu eng auf die augenblicklichen Zustände zugeschnitten. Wie sollte denn eine KI handeln, wenn es keine humane Lösung der anstehenden Probleme gibt. Diesen Fall haben wir praktisch.
Es macht eigentlich keinen Sinn den Hunger in der Welt zu stillen, denn das vergrößert (durch das Bevölkerungswachstum) den Hunger. Die Bevölkerungszunahme ist zur Zeit die kritische Größe in der Welt. Nach welchen moralischen Kriterien sollte denn eine KI handeln. Die Moralvorstellungen der Menschen sind verschieden.
Das könnte bös enden. https://www.heise.de/select/ct/2024/14/2330613113699759397
siehe auch https://de.wikipedia.org/wiki/Isaac_Asimov
Hinweis von mir: Ein System, das keine Fehler machen kann. ist nicht intelligent.
Am Rande: Das Gleichgewicht des Schreckens im Kalten Krieg ( https://de.wikipedia.org/wiki/Kalter_Krieg ) wurde im wesentlichen durch die Gleichartigkeit der Computerprogramme erzeugt, die auf der Spieltheorie von John Neumann aufbauten.
Menschen Politiker können aber auch bös enden... Siehe Leichenberge und zerstörte Städte.
Ich glaube daran eine gut optimierte ki die auch jederzeit abgeschaltet werden kann, könnte vieles lösen. Alleine schon dass sie unemotional handelt ist bei vielen Dingen ein grosser Vorteil.
Eine Ki, die man abschalkten kann kann nicht regieren. Das ist ein Selbstwiderspruch.
Eine KI kann niemals fehlerfrei arbeiten weil sie ja von Menschen programmiert werden muss. Wer würde sie dann überwachen? Auch wieder nur Menschen die die KI dann zu ihrem Vorteil nutzen.
Politikerhaftung ist da eher die Lösung.
Mathe Aufgaben zb. Bekommt KI doch schon fehlerfrei hin. Natürlich kann sie auch nicht die Zukunft Voraussagen, aber sie konnte eventuell anhand historischer Daten und Statistiken die beste Lösung für ein Problem bieten
Tja, an meinen Aufgaben scheitert sie regelmäßig - komplexe Fragestellungen im deutschen Arbeitsrecht bei eher außergewöhnlichen Spezialfällen ;). Nutze ich nur als Google-Ersatz, weil Google selbst inzwischen oft so grottig ist und Copilot mir zumindest ein paar ganz gut geeignete Treffer bei den Quellenangaben zu der Antwort liefert...
In Mathe ist die Ki grottenvoll schlecht. Aber du meinst wahrscheinlich bloß rechnen. Diesbezüglich kann eine Ki hilfreich sein. Einen mathematischen Beweis kann eine KI nicht führen.
Wenn sie auf historische Daten der Menschheit zurückgreift schafft sie uns gleich ab.
Das wäre zwar eine logische aber nicht unbedingt sehr humane (End)-Lösung.
Das wäre schlimm, wenn wir irgendwann von einer KI regiert werden würden....
Wieso das ? Diese sollte nicht befehlerisch arbeiten, sondern dem Volk dienen und zwar im Sinne Wohlstand zu schaffen, Krieg zu vermeiden etc.
Wenn man überlegt was Menschen schon alles angerichtet haben, glaube ich kaum dass eine ki es schlechter machen würde. Oder wie siehst du das? Ich bin interessiert
Hey , gute punkte , ich kann auf technischer Ebene leider nur sehr wenig einbringen.
Wie du sagtest Zusammenhänge könnten Beispielsweise historische lehren sein, da sich ja vieles wiederholt in der Menschheitsgeschichte.
Die ki könnte mit der gesamten dokumentierten Menschheitsgeschichte gefüttert werden und dann aufgrund historischer Ereignisse die sie zum Vergleich herbeizieht eine rationale, völlig unemotionale (auch ein grosser Vorteil) gute Lösung anbieten.
Dabei werden die historischen Entscheidungen bevorzugt die zu möglichst wenig Armut , toten etc. Oder zu schneller Beendigung eines Konfliktes geführt haben.