Wird GPT-5 oder GPT-6 zuverlässiger als das Aktuelle GPT-4?

Das Ergebnis basiert auf 11 Abstimmungen

Nein, wird genauso fehlerhaft sein... 64%
Ja, mit Sicherheit 36%

4 Antworten

Ja, mit Sicherheit

zuverlässiger = ja

zuverlässig = nein

Die "KI" lernt durch Daten und Wissen aus dem Internet. Durch jedes Update bekommt die "KI" mehr Daten zur Verfügung, dadurch kann sie Sachen genauer bestimmen. Allerdings können Daten aus dem Internet immer fehlerhaft sein, dadurch bekommst du nie völlige Sicherheit.

Ja, mit Sicherheit

Klar, es wird ständig weiterentwickelt und auch zuverlässiger.

Woher ich das weiß:Berufserfahrung – Erfahrung mit Einsatz von KI in der Softwareentwicklung

Reddington98 
Beitragsersteller
 24.06.2024, 19:08

Wird es irgendwann Wahrheit von Unwahrheit besser unterscheiden können als ein Mensch?

0
MonkeyKing  24.06.2024, 19:12
@Reddington98

In vielen Fällen schon, denn wenn wir mal ehrlich sind, sind viele Menschen nicht wirklich in der Lage falsche Informationen von echten zu unterscheiden. Aber ich denke dass da auch Grenzen sind denn als reines Sprachmodell kann es zwar gewaltige Mengen an Informationen verarbeiten und auf das gesammelte Wissen der Menschheit zurückgreifen, es fehlt ihn aber die wirklich Lebenserfahrung und die Intuition die sich daraus entwickelt. Ich bin mir nicht sicher, dass das nachgebildet werden kann.

1
Nein, wird genauso fehlerhaft sein...

Das ist ein grundlegendes Problem mit large language models.

Die funktionieren so dass sie einen Text produzieren der aussieht wie ein korrekter text. Basierend darauf wie ein guter Text aussieht.

Aber wenn irgendwo inkorrekte Informationen stehen, selbst als Witz, dann wird das genau so formuliert wie eine korrekte Information. Ein Witz der wie ein wissenschaftlicher Artikel formuliert ist, ist natürlich ungünstig.

Um das zu beheben braucht man eine KI die sich kritisch mit einem Text auseinandersetzen kann und logisch denken kann. Das funktioniert mit einem einfachen large langauge model nicht.

Large language models sind keine forschungs -ki's, sondern nur KIs die einen Text produzieren basierend einem input. Dementsprechend kann man sich auf die Informationen nie verlassen.


Reddington98 
Beitragsersteller
 24.06.2024, 19:10

Wird es irgendwann Wahrheit von Unwahrheit besser unterscheiden können als ein Mensch?

0
jort93  24.06.2024, 19:11
@Reddington98

Wie gesagt, kein large language model wie chatgpt.

Aber vielleicht gibt es soeine KI mal.

1
Nein, wird genauso fehlerhaft sein...

Natürlich wird die Datenbasis immer wieder nachgeführt. Zuverlässig kann ChatGPT aber nur werden, wenn es logische Fehler wirklich selbständig erkennen kann. Und das funktioniert prinzipbedingt nicht. Denn der

https://de.wikipedia.org/wiki/G%C3%B6delscher_Unvollst%C3%A4ndigkeitssatz

setzt dem eine Grenze. Solche Aussagen wie "Diese Menge enthält Elemente die nicht Teil der Menge sind" werden ChatGPT also immer wieder unterlaufen.