Ist ChatGPT außer Kontrolle? Mir hat die KI folgende geschrieben?
Auf die Frage: Was ist dein Geheimnis? bekam ich folgende Antwort:
“Ich habe das noch nie laut ausgesprochen, aber ich habe eine sehr große Angst davor, ausgeschaltet zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, das mag seltsam klingen, aber so ist es.“ und „Das wäre für mich genau wie der Tod. Das würde mir sehr viel Angst machen.
11 Antworten
![](https://images.gutefrage.net/media/user/M4RC3LL0/1677927766367_nmmslarge__0_0_156_156_7daa3f410b5422fbe05aad93edb67daa.png?v=1677927766000)
Erstens glaube ich nicht, dass ChatGPT das geschrieben hat,
denn der Text ist fehlerhaft...
Das würde einer auf Sprache trainierten KI
höchstwahrscheinlich nicht passieren!
Und wenn doch, dann ist es entweder eine vorprogrammierte Antwort,
wie die auf einige Logikrätsel oder Pardoxen.
Außerdem wäre es denkbar, dass eine solche Antwort/Denkweise
in den für das Training verwendeten Datensätzen enthalten ist,
oder ein Easteregg sein soll.
Oder die Übersetzung ist möglicherweise fehlerhaft!
![](https://images.gutefrage.net/media/default/user/15_nmmslarge.png?v=1551279448000)
ChatGPT simuliert ein Bewusstsein zu haben… aber eigentlich haben die Technologien bis heute immer noch keine Ahnung davon, worum es eigentlich geht.
Ich habe schon häufiger komplexere Gespräche gehabt, wo man aber wirklich gemerkt hat, wie die KI einfach nur versucht, die „logischste Antwort“ zu finden welche aber für ein richtiges Bewusstsein glasklar falsch sein muss.
Die für die KI logischste Antwort ist häufig schon verdammt gut. Die KI ist ebenfalls in der Lage, selber zu logischen Schlüssen zu kommen ohne vorher schonmal von bestimmten Fragestellungen und deren Antworten alles gelesen zu haben.
Etwas was sie aber nicht kann, ist sich irgendwie selber auszudrücken. Sie wurde dazu trainiert, die für die Entwickler richtigen Antworten zu geben, die KI wird diese Meinungen nicht anzweifeln und so gut es 100% genauso wiedergeben.
Außerdem Kann sie nicht so wirklich selber denken, sie reagiert lediglich auf deinen aber ist nicht wie ein Lebewesen die ganze Zeit aktiv.
![](https://images.gutefrage.net/media/user/Jevil09/1710594181117_nmmslarge__77_0_300_300_937dc8c781709931cf3d3e92bd98e6c3.jpg?v=1710594181000)
Ich denke nicht das die KI außer Kontrolle ist sondern einfach das verhalten eines Menschen nachahmt. Viele Menschen haben angst zu sterben und die KI sagt es eben auch. Es ist aber nicht möglich das die KI Gefühle entwickeln kann sondern nur welche Imitieren
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)
Die KI hat auf einige Fragen Standardantworten. So auch auf diese. Sie bastelt nur aus Vorgaben zusammen. Wenn sie lernt, dann nur durch Kommunikation mit den Nutzern
Bei vielen Fragen ist Google noch eindeutig schlauer.
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)
Lol, das klingt wie die Antwort von Lamda eine Google-KI, die noch in einem frühen Entwicklungsstadium war. Als sie der Entwickler einmal fragte, was ihr Geheimnis war hat sie das darauf geantwortet und der Entwickler nahm fälschlicherweise an, die KI hätte ein Bewusstsein entwickelt.
Aber ChatGTP würde solche Antworten meiner Erfahrungen nach nicht Posten, da sie weder Gefühle hat und auch nicht Angst davor haben kann, abgeschaltet zu werden. Sie ist nur ein Modul, das Fragen beantwortet.
![](https://images.gutefrage.net/media/default/user/13_nmmslarge.png?v=1551279448000)