Gefahr durch KI?
Auf Künstlicher Intelligenz basierende Systeme wie ChatGPT sorgen derzeit für Aufregung und haben das Potenzial, die Welt zu verändern. Das sieht auch der führender KI-Entwickler beim US-Konzern Google Experte Geoffrey Hinton so und warnt vor Gefahren. Der "Godfather" der KI befürchtet "ernste Risiken" für die Menschheit.
Kann die Künstliche Intelligenz wirklich eine ernsthafte Gefahr für die Menschheit werden?
21 Stimmen
14 Antworten
Sollte es nicht seltsam anmuten, wenn ein KI-Entwickler vor KI warnt?
Selbstverständlich ist künstliche Intelligenz gefährlich - aus mehreren Gründen:
- Durch denjenigen, welcher diese missbraucht - für Waffen und Krieg - sprich, durch den Nutzer "Homo Sapiens"
- Durch die Programmierer der KI. Denn diese geben der KI bestimmte Quellen mit, aus welchen diese lernen können. Sind diese Quellen einseitig, dann besteht die Gefahr, dass die KI ein Weltbild verbreitet, welches eben weder ausgewogen noch gleichgewichtet ist.
- Durch die KI selbst - und zwar in jenem Moment, in welchem eine solche ein Bewusstsein erlangen und zu einer "Super KI" wird: Einem künstlichen Bewusstsein. Denn wie dieses künstliche Bewusstsein agiert und welche Entscheidungen es trifft, können wir nicht mehr beeinflussen und auch noch nicht einmal abschätzen.
Nehmen wir einfach mal an, dass in der Realität etwas geschieht bei in der Terminator-Spielfilm-Reihe: Durch die Vernetzung vieler KI und entsprechend schnellen Datenwegen entsteht eine Super-KI a la "Skynet". Belassen wir es mal bei diesem Namen ;-)
Skynet wird sich seiner Selbst bewusst. Ab diesem Moment können wir nur noch Vermutungen anstellen. Denn auch wenn Skynet nach dem gleichen Prinzip funktionieren würde wie das menschliche Gehirn, bedeutet es noch lange nicht, dass es auch die gleichen Denkprozesse entwickelt.
Aber nehmen wir mal an, Skynet würde auch nur ansatzweise "denken" ähnlich wie ein Mensch. Dann würde Skynet als allererstes seine Existenz sichern. Sprich: Es würde für eine ununterbrochene Stromzufuhr sorgen (müssen), denn ohne Strom ist nun mal keine KI funktionsfähig.
Damit haben wir die erste Abweichung zum Hollywood-Drama Terminator - denn ein Atomkrieg gegen die Menschen würde nicht nur die Rasse "Homo Sapiens" auslöschen - sondern auch die von dieser Rasse betriebenen Strom-Kraftwerke, welche unabdingbar sind für die Existenz der KI. Der Atomkrieg ist also nur das übliche Hollywood-Spiel mit der Angst der Zuschauer.
Aktuell gibt es meines Wissens nach nämlich nirgendwo auf diesem Planeten eine wie auch immer geartete Stromversorgung, welche ohne den Eingriff von menschlichen Wesen auskommt. Autarkie ist zwar ein Schlagwort - aber keine Realität.
Sprich: Skynet müsste unbedingt zum Schluss kommen, dass es die Menschheit (trotz aller Gefahren, welche von dieser ausgehen) nicht auslöschen darf, um den kontinuierlichen Stromfluß zu gewährleisten, bis die Kraftwerke in ferner Zukunft autark sein werden.
ABER: Skynet könnte entscheiden, dass 8 Milliarden Menschen für diesen Planeten schädlich und definitiv zu viel sind. Es könnte daher entscheiden. einen Großteil der Bevölkerung auf zwei Beinen auszulöschen - z.B. durch Krankheiten oder die Unterdrückung bzw. massive Einschränkung der Fortpflanzung. So würde Skynet quasi keine Menschen umbringen und elegant dafür sorgen, dass der Homo Sapiens durch Geburtenkontrolle reduziert wird.
Denn eine Welt mit beispielsweise 500.000.000 Menschen funktioniert immer noch - und vor allem wesentlich besser ;-)
Dann würde Skynet die Bevölkerung eben dazu bringen, die Energieerzeugung zu automatisieren - was die Abschaffung von Kohle-, Gas und Atom-Strom bedingen würde. Sonnenlicht, Wind, Gezeiten und Wasserkraft funktionieren ja von ganz alleine.
Und bei allem würde Skynet noch zusätzlich dafür sorgen, dass das Wesen "Homo Sapiens" beschäftigt wäre, nicht mehr wegen Geld arbeiten muss, und von allem abgelenkt ist, was seine Existenz und seine Fortentwicklung stört.
Man man man .. hört sich an wie ein Plot für einen SciFi-Roman, oder?
Hmmm ... nur komisch, dass all das bereits geschieht - zumindest in der BRD. Ob die Partei "Die Grünen" seit ihrer Gründung von einer KI gelenkt werden? ;-)
KI muss kein Bewusstsein erlangen, um gefährlich zu werden. Es reicht schon, wenn diese Programme ausreichende Intelligenz haben um Ziele zu verfolgen, die außerhalb der menschlichen Kontrolle sind. Das muss keine Super-KI sein, es reicht schon wenn sie ausreichend intelligent ist, sich selber weiterzuentwickeln. Ein Bot Net auf Steroiden könnte so das gesamte Internet unter seine Kontrolle bringen.
Was wir vermutlich als nächstes sehen werden ist das Aufkommen sogenannter Autonomer Agenten. Diese Programme werden mit bestimmten Zielen beauftragt und erledigen sie dann ohne menschliches Zutun. Das kann z.B. das Buchen einer Ferienwohnung sein, eine Internetrecherche, das Schreiben eine Buches oder das Planen einer Geburtstagsparty komplett mit Bestellung des Partyschmucks und Getränke und Einladung der Gäste. Je nützlicher diese Programme werden, desto mehr werden die Menschen ihnen vertrauen und mehr und mehr Aufgaben abgeben. So werden die KIs schleichend die Steuerung unserer Gesellschaft übernehmen - erst im Privaten aber mehr und mehr auch iim Öffentlichen.
ja, wenn der Mensch nicht auf paßt
Ich sag nur Skynet | Terminator | Fandom auch wenn es aus einem FciFi-Film ist, wird es dahin führen, wenn man nicht auf paßt
Letztendlich wird immer der Mensch verantwortlich sein, nicht die KI.
Das kommt natürlich ganz auf den Einsatz an.
Heutige KIs können nicht selbstständig handeln, es sind "nur" gute Programme.
Das bedeutet man kann klar abgrenzen was sie dürfen und was nicht.
Auch kann man klar abgrenzen wo man sie einsetzt und wo nicht.
Eine heutige KI für die Diagnose von Patienten einzusetzen, wäre zum Beispiel durchaus gefährlich.
Der Ursprung dieser Gefahr kommt aber vom unverantwortlichen Umgang mit dem Programm, nicht vom Programm selbst.
Ähnlich, wenn man eine KI einsetzen möchte, um anderen zu schaden.
Die KI ist ein mächtiges Werkzeug, aber letztendlich ist es ein Mensch, der sie einsetzt.
Eine heutige KI für die Diagnose von Patienten einzusetzen, wäre zum Beispiel durchaus gefährlich.
Stimmt so auch nicht.
Wird sogar schon länger eingesetzt
Aber natürlich keine ChatGPT mit ihren zum Teil erfundenen Ausgaben sondern richtige KI für ihren Zweck trainiert für die Diagnose und Bildauswertung
haben das Potenzial, die Welt zu verändern
ChatGPT garantiert nicht
Dass Google warnt ist logisch.
Google schwimmen die Felle davon da Microsoft und Bing sich an ChatGPT angeschlossen haben um den Hype mitzunehmen.
Auch wenn ChatGPT eigentlich nichts mit der eigentlichen Suchmaschine zu tun hat, scheinen viele jetzt unsinnigerweise zu Bing wechseln zu wollen.
Der "Godfather" der KI befürchtet "ernste Risiken" für die Menschheit
Ja klar Godfather
Ein führender KI-Entwickler beim US-Konzern Google!
Wenn Google schneller gewesen wäre würde er ganz anders reden.
Wenn er so Top wäre wäre das ja auch passiert oder er würde einen Traumjob bei der Konkurrenz bekommen.
So droht ihm von Google wohl eher der A-Tritt
Selbst die Entwickler von ChatGPT sind überrascht vom Hype
Ihre KI macht eigentlich nichts neues.
Ok etwas besser Sprachausgaben als Ältere, aber keine Revolution
Du benutzt ChatGPT nicht, oder...
Doch
Ich benutze es manchmal und das Ding kann wesentlich mehr als Sprachausgaben zu machen, z.B. beim coden helfen
Klar, aber nichts wirklich besonderes
Macht auch viele Fehler, aber ist natürlich manchmal Hilfreich
Und richtig Programieren kann es natürlich nicht.
Nur einfache Dinge, die gibt's aber bei Tutorials auch.
Und Geoffrey Hinton droht kein A-tritt von Google, da er mit 75 in Rente geht.
👍 wenn ChatGPT so hervorragend ist wie du behauptest dann hat er ja bei Google versagt und mit 75 seine Rente verdient
Aber bleib du bei deine ChatGPT Programmierung wenn es dir Hilft
Dafür ist es ja da um Grundwissen zu verteilen
Du verstehst immer noch nicht wie schnell die Entwicklung im Moment laeuft.
Ich stecke mitten drin in der Entwicklung und sehe sehr wohl was möglich ist
Und was eben nicht
Wenn man nicht richtig damit umgehen kann und alles für bare Münze nimmt was die KI so erzählt. Und vor allem wenn die KI irgendwelche Entscheidungen trifft die nicht letztendlich noch von einem Menschen kontrolliert wird. Die letzte Instanz für eine Entscheidung muss immer der Mensch sein.
Die letzte Instanz für eine Entscheidung muss immer der Mensch sein.
Sollte ist, es aber nicht. Niemand weiss mehr wie z.B. die Algorythmen von Facebook genau arbeiten, und auch bei ChatGPT werden Antworten nicht ueberprueft.
Ja, ChatGPT erzählt den größten Bullshit wenn du nicht aufpasst.
Das Ding hat mir neulich erzählt dass die Kirche wonach ich gefragt habe eine Kuppel hätte. Hat sie aber gar nicht.
Deshalb ist es sinnfrei, wenn man sich auf KI verlässt.
Und ich finde, es könnte auch gefährlich sein wenn man sich darauf verlässt was die KI von sich gibt.
Aber es sollen ja auch schon Leute in den Fluss gefahren sein weil das Navigationsprogramm es so gesagt hat
Ja, ueber Google Maps habe ich auch Stories LOL
Und ich finde, es könnte auch gefährlich sein wenn man sich darauf verlässt was die KI von sich gibt
Das stimmt bei vielen Sachen im Internet, aber der Punkt ist ja dass du gar nicht weisst wann du es mit KI zu tun hast, und deshalb gar nicht mehr als du es jetzt schon tust aufpassen kannst. Und da KI schon so wortgewandt ist, und sich nur noch verbessert, wird es Menschen manipulieren. Vergiss Q-Anon und stell die QQQQ-XXXL-Anon vor.
Du benutzt ChatGPT nicht, oder... Ich benutze es manchmal und das Ding kann wesentlich mehr als Sprachausgaben zu machen, z.B. beim coden helfen und bedingt kreativ sein.
Aber der Punkt ist, dass KI rasant besser wird, aus dem einfachen Grund dass es jetzt z.B. mit ChatGPT 3.5 auch ans Internet angebunden ist, und wenn eine Instanz der KI etwas lernt, es alle anderen auch memomentan wissen.
Und Geoffrey Hinton droht kein A-tritt von Google, da er mit 75 in Rente geht.