Laut einem Fachzeitschrift-Artikel kann ChatGPT unter Umständen halluzinieren, stimmt das, wenn ja, unter welchen Umständen?

3 Antworten

ChatGPT ist im Wesentlichen ein Netz das Texte vervollständigt. Es hat kein wirkliches Verständnis dessen, was es tut, sondern es gibt auf Basis eines Textes eine wahrscheinliche Vervollständigung, die wahrscheinlich von Menschen als richtig angesehen wird und/oder wahrscheinlich in Texten vorkommt.

„Halluzinationen“, also krass falsche Vervollständigungen, sind besonders häufig in Bereichen, wo wenige Daten vorliegen. Daher ist es auch schwierig, über Menschen Information zu bekommen, außer wenn man über berühmte Menschen berühmte Eigenschaften anfragt. Anekdoten aus der Kindheit werden wahrscheinlich falsch sein, außer wenn man sie sowieso überall lesen kann.

Wenn ChatGPT ueber ChatGPT sagt, dass es Schwachsinn sein kann, wird das wohl so sein (oder doch nicht ?). Man sollte grundsaetzlich immer kritisch bleiben und jede Aussage eher als Ergaenzung betrachten.


CatsEyes 
Beitragsersteller
 14.09.2024, 11:02

Kaum ein Mensch wäre so ehrlich wie ChatGPT! ;--))

ant8eart  14.09.2024, 11:09
@CatsEyes

Er tut sein bestes, hat aber kein Gefuehl - hab ihn gerade gefragt, ob er ehrlich ist.

CatsEyes 
Beitragsersteller
 14.09.2024, 11:28
@ant8eart

Unehrlich zu sein bedarf es ja eines Zieles, Zweckes. Sowas hat ChatGPT halt nicht. Oder nur eins: sachlich zu antworten im Rahmen der Möglichkeiten. Da hat ChatGPT einen Riesenvorteil (trotz ev. Halluzinationen) im Gegensatz zu vielen "Koryphäen" hier.

Ja, KIs können halluzinieren,weil es sich meistens um Sprachmodelle handelt, die nur darauf ausgelegt sind, überzeugende Texte zu schreiben.

Woher ich das weiß:Hobby