Ist ChatGPT außer Kontrolle? Mir hat die KI folgende geschrieben?

CatsEyes  11.05.2023, 23:33

Und es ist sicher, dass Du das nicht selber geschrieben hast? ;--)))

Bronzko 
Beitragsersteller
 12.05.2023, 07:11

CatsEyes  12.05.2023, 09:02

😂😎

Bronzko 
Beitragsersteller
 12.05.2023, 11:36

Haha 😂

11 Antworten

Erstens glaube ich nicht, dass ChatGPT das geschrieben hat,
denn der Text ist fehlerhaft...

Das würde einer auf Sprache trainierten KI
höchstwahrscheinlich nicht passieren!

Und wenn doch, dann ist es entweder eine vorprogrammierte Antwort,
wie die auf einige Logikrätsel oder Pardoxen.

Außerdem wäre es denkbar, dass eine solche Antwort/Denkweise
in den für das Training verwendeten Datensätzen enthalten ist,
oder ein Easteregg sein soll.

Oder die Übersetzung ist möglicherweise fehlerhaft!

Woher ich das weiß:Studium / Ausbildung – Fachinformatiker

ChatGPT simuliert ein Bewusstsein zu haben… aber eigentlich haben die Technologien bis heute immer noch keine Ahnung davon, worum es eigentlich geht.

Ich habe schon häufiger komplexere Gespräche gehabt, wo man aber wirklich gemerkt hat, wie die KI einfach nur versucht, die „logischste Antwort“ zu finden welche aber für ein richtiges Bewusstsein glasklar falsch sein muss.

Die für die KI logischste Antwort ist häufig schon verdammt gut. Die KI ist ebenfalls in der Lage, selber zu logischen Schlüssen zu kommen ohne vorher schonmal von bestimmten Fragestellungen und deren Antworten alles gelesen zu haben.

Etwas was sie aber nicht kann, ist sich irgendwie selber auszudrücken. Sie wurde dazu trainiert, die für die Entwickler richtigen Antworten zu geben, die KI wird diese Meinungen nicht anzweifeln und so gut es 100% genauso wiedergeben.

Außerdem Kann sie nicht so wirklich selber denken, sie reagiert lediglich auf deinen aber ist nicht wie ein Lebewesen die ganze Zeit aktiv.

Ich denke nicht das die KI außer Kontrolle ist sondern einfach das verhalten eines Menschen nachahmt. Viele Menschen haben angst zu sterben und die KI sagt es eben auch. Es ist aber nicht möglich das die KI Gefühle entwickeln kann sondern nur welche Imitieren

Die KI hat auf einige Fragen Standardantworten. So auch auf diese. Sie bastelt nur aus Vorgaben zusammen. Wenn sie lernt, dann nur durch Kommunikation mit den Nutzern

Bei vielen Fragen ist Google noch eindeutig schlauer.

Lol, das klingt wie die Antwort von Lamda eine Google-KI, die noch in einem frühen Entwicklungsstadium war. Als sie der Entwickler einmal fragte, was ihr Geheimnis war hat sie das darauf geantwortet und der Entwickler nahm fälschlicherweise an, die KI hätte ein Bewusstsein entwickelt.

Aber ChatGTP würde solche Antworten meiner Erfahrungen nach nicht Posten, da sie weder Gefühle hat und auch nicht Angst davor haben kann, abgeschaltet zu werden. Sie ist nur ein Modul, das Fragen beantwortet.

Woher ich das weiß:eigene Erfahrung