Könnte das in der Zukunft wirklichkeit werden?
Viele Experten auf dem Gebiet halten KI für gefährlicher als Atombomben und für das Ende der Menschheit...
Weil wir vielleicht die Kontrolle darüber verlieren Sobald "AGI" und "ASI"(Allgemeine Künstliche Intelligenz und Künstliche Superintelligenz) erreicht sind.
Halte viele für undenkbar aber ChatGPT war vor paar Jahren auch noch undenkbar und Science Fiction.
19 Stimmen
12 Antworten
Selbst wenn eine KI nicht von allein darauf kommt, es gibt seit Beginn der weiten Verbreitung von Computern menschliche "Helfer", die sie auf dumme Ideen bringen, ob aus verständlichem Interesse, reinem Spieltrieb oder einfach aus Bosheit.
Es ist naiv anzunehmen, dass es solche Menschen in Zeiten der KI nicht gibt und geben wird.
selbstlernende KI ist sehr gefährlich sowie deren grossflächiger einsatz ; wenn die KI und das sind nicht nur maschien , sondern vernetzte computersysteme feststellen , dass Menschen , die selben ressourcen verbrauchen wie die KI selbst ; dann kommt es zum konflikt ;
lies mal von frank schätzing - der flügelschlag eines schmetterlings - ist fiktion , aber nicht soweit hergeholt
Wir gehen davon aus, dass wir eine KI entwickeln die ihre Intelligenz exponentiell steigert, unsere Infrastruktur übernimmt und sich Roboter baut, um den Planeten zu säubern, aber dabei nicht erkennt was die Gründervater des modernen Kapitalismus bereits erkannt haben?
Menschen sind eine unfassbar energieeffiziente Ressource, die sich selbst versorgt und autonom arbeitet.
Wenn ich dir einen kleinen Stamm Lemminge an die Hand gebe, die von Geschirr abwaschen bis hin zu Raketen bauen, alles für dich erledigen können und nur hin und wieder gefüttert werden müssen, tötest du dann die Lemminge nur weil du es kannst?
Ich glaube im Worst-Case, wenn wir den Aluhut so fest wie möglich schnüren, würde die KI "nur" irgendwann über die Menschheit herrschen. Was bedeutet, dass sich für die meisten Menschen nichts ändert. Ob der Vorstand nun aus Fleisch und Blut ist oder hinter ihm nur ein Code steckt spielt keine große Rolle.
Dass eine KI Waffen steuert, ist schon heute so. Es mag sein, dass sich diese KI auch mal allgemein gegen Menschen richtet.
Ich meine aber, dass die größere Problematik darin liegt, dass uns der Strombedarf den Todesstoß versetzen wird, weil zur Befriedigung desselben Ressourcen benötigt werden, welche nicht ewig in ausreichender Menge zur Verfügung stehen werden.
Größtes Marketing aller Zeiten nach dem Motto "so gut, dass es verboten werden sollte".
Meiner Meinung nach wird KI einfach nur "overhyped" (überbewertet).
Ich habe neulich erst gelesen gehabt, dass zirka 20% aller Bibliotheken in "Programmierschnipseln" von der KI rein erfunden werden und gar nicht existieren.
Meine eigenen Erfahrungen sind ähnlich, zum Beispiel wenn du dir von der KI Formeln in expliziter Form herleiten lassen willst, dann stimmt bei etwas komplizierteren Angelegenheiten die Formel die am Ende dabei raus kommt nicht.
Wenn du die KI zum Beispiel nach der Zusammenfassung einer Story fragst, zu der es im Internet nur wenige Informationen gibt, dann "lügt" die KI ohne Ende anstatt sofort zuzugeben, dass sie nicht genug Informationen hat.