Wie sehr kann ich Chat GPT vertrauen, was das Beantworten meiner Fragen angeht (es geht um die Richtigkeit der Antwort der Fragen)?
Ich meine damit explizit solche Fragen, wobei Chat GPT nur seine Datenbank nach "bloßen Informationen" durchsuchen muss. Es sind also keine Fragen, wo Chat GPT zusammenhänge, selber erkennen muss, wenn ihr versteht.
Ich meine solche Fragen:
- Was ist der Unterschied zwischen einem Bruttoinlandsprodukt und dem Bruttosozialprodukt?
- Wie alt ist Angela Merkel?
- Wie baut man ein Haus?
- Wozu sind Telefone da?
- Aus welchen Materialien besteht die PS4?
Die Sache ist, das ich nicht an den Antworten zweifeln möchte und ja. Ich würde mit C GPT auch lernen :)
Ich lerne für die Schule, versteht ihr?
Ich muss sagen, dass wenn ich eine Frage, wie diese Stelle: Was versteht man unter "Rationelle Ressourcenverwaltung"?
Da bekomme ich echt eine Antwort, die ich verstehe und nicht 100 Jahre in Google suchen muss und es dann immer noch nicht verstehe. Das mag ich.
Versteht ihr mich?
21 Stimmen
11 Antworten
Ich habe Chat gpt schon manches Mal erwischt, dass er falsche Antworten gab. Leider kann ihn/sie/es nicht überzeugen. Konkret zu einem Wikipedialink auf "Sawadaea". Er behauptet, das seien Grünalgen, Wiki sagt es seien Pilze. Er gibt sogar den richtigen Link darauf an und bleibt trotzdem bei seiner Meinung. Probiert es spasseshalber mal aus!
Garnicht. Die website sagt dir extra, dass ChatGPT eventuell Falsche antworten geben kann, und es wurden auch schon öfters Fälle gemeldet in denen ChatGPT einfache Matheformeln falsch beantwortet hat, oder quasi falschinformation gesagt hat.
Also wer ChatGPT als echte Quelle benutzt, hat gelitten
Bei Definitionsfragen bekommst du meiner Erfahrung nach über 90%, wenn du es direkt so frisst, wie es ausgegeben wird.
Bei Fragen wie "Wie baut man ein Haus?" gibt es mehrere Antwortmöglichkeiten. Wenn du da weiter nachhakst reitet sich ChatGPT immer weiter in die Scheiße. Das geht dann irgendwann weit unter 20%.
Da liegt Chat GPT eigentlich immer Richtig
Also die ganzen falschen Antworten hier auf Gutefrage erzeugt wurden, zeigen was anderes.
Lehrer liegen auch nicht immer richtig. Und nur weil's in Büchern steht, oder ein Professor es gesagt hat, muss es auch nicht stimmen.
Es ist wie beim autonomen Fahren: Die Messlatte liegt auf menschlichem Niveau, nicht auf übermenschlichem.
Belegen?! Die schöpfen aus ihrer Erfahrung und was ihnen Anno dunnemals einer auf der Uni erzählt hat.
Wenn man die fragt, wo man das besser nachlesen kann, werden die es dir normalerweise auch sagen. ChatGPT kann es nicht.
Und Menschen können Fehler korrigieren, ich hatte schon oft genug, dass chatGPT auf einen offensichtlich falschen mathematischen Fakt bestand, obwohl ich mehrmals den Denkfehler aufgezeigt habe. Zum Beispiel dass 5003 angeblich keine Primzahl sei, weil es angeblich durch 27 teilbar sei.
Lehrer und Profs sagen auch, wenn sie sich bei etwas nicht sicher sind. ChatGPT stellt alles als Fakt dar.
Beantwortet das deine Frage?
Wenn du ChatGPT nach dem Alter von Angela Merkel fragst, ist das die Antwort aus 2021. Wir sind aber im Jahre 2023.
Zudem kannst du die Antworten von ChatGPT nicht wirklich nachprüfen, da es dir keine Quelle liefern kann.
Viele Antworten wirken zwar richtig und sehr gut geschrieben, enthalten aber immer mal wieder Fehler, die einem dann nicht einfach direkt auffallen.
Ausschliesslich ChatGPT zum Lernen zu nutzen, davon kann ich also nur abraten.

Die Sache ist, das ich nicht an den Antworten zweifeln möchte und ja. Ich würde mit C GPT auch lernen :)