LLM-basierte KI ist nichts weiter als virtueller Fachexperte
Begründung:
- Man kann mit ihr sprechen, als wäre sie eine Person, die – im Extremfall wenigstens –
- das Wissen nahezu aller Fachexperten dieser Welt zum jeweils diskutierten Thema kennt.
Wer glaubt, KI wie etwa ChatGPT oder Googles Gemini treffender charakterisieren zu können?
3 Stimmen
2 Antworten
KIs sind auf keinen Fall Experten. Wenn man Fragen zu einem Thema stellt, in welchem man sich selbst auskennt, merkt man, wie fehlerhaft die ganzen Informationen sind. Teilweise stimmt jeder zweite Satz nicht.
Deswegen würde ich KI auch nie zum Schreiben von wichtigen Dingen nutzen.
Kinder im Vorschulalter werden auch nicht jahrelang mit sämtlichen verfügbaren Informationen trainiert. Man kann KI nicht mit Menschen vergleichen. "Experte" setzt voraus dass man sich mit einem Thema auskennt. Da LLMs kein Bewusstsein besitzen, sondern nur Informationen runterrattern, sind sie keine Experten.
Na ja, auch Experten können sich (wie jeder andere Mensch auch) mal irren.
Mit der Logik könntest du einem Taschenrechner Intelligenz zusprechen, wenn er 7 als Wurzel von 64 ausgibt. "Auch Experten irren mal".
Einigen wir uns also vielleicht darauf zu sagen, dass sie - wo ausführlich anhand von Daten hoher Qualität trainiert - sie die Expertenrolle doch schon recht gut ausfüllen können.
Nein. Ein Experte ist ein Mensch oder eine Maschine, die nicht nur ünet Wissen verfügt sondern dieses Wissen auch versteht und in der Lage ist, vorhandenes Wissen anzuwenden und weiter zu entwickeln.
Genau das kann ein LLM eben nicht. Ein LLM oder ein Expertensystem plappert das nach, was ihm eingegeben wurde. Es versteht aber nicht, was es plappert und ist nicht in der Lage, daraus Schlüsse zu ziehen.
Ich spreche virtuellen Experten doch gar keine Intelligenz zu (da ich ja weiß, dass sie nicht mehr als Datenbestand + darauf operierender Mechanismus sein können).
Ich spreche virtuellen Experten doch gar keine Intelligenz zu
Und bist dennoch der Meinung sie würden die Rolle "Experte" schon recht gut ausfüllen. Das passt nicht zusammen.
Wenn du sagst "sie suggerieren schon ganz gut, ein Experte zu sein", stimme ich dir zu.
Man kann den Begriff "Experte" auch dahingehend verstehen, dass man darunter etwas versteht, das sich nicht selten als Lieferant von sehr speziellem, zutreffendem Wissen erweist: Eine Instanz also, die ich befragen kann, um an solches Wissen zu gelangen.
Geschickt genug genutzt, kann ich das Internet durchaus als Quelle von Expertenwissen sehen.
Natürlich würde ich es nicht "Experte" nennen, da es zunächst ja vor allem in Rolle "Informationsquelle" besser als alles sein möchte, was wir vorher hatten. Wertvolles Expertenwissen ist ja selbst wo es sich im Internet findet meist hinter Bezahlschranken oder anderen Hindernissen dem Abruf fast aller Nutzer des Netzes bewusst entzogen.
Man kann den Begriff "Experte" auch dahingehend verstehen (...) Eine Instanz also, die ich befragen kann, um an solches Wissen zu gelangen.
Klar "kann" man das. Ist eben falsch, weil der Begriff Experte so nicht definiert ist.
Um sich mal kurz eine Frage selbst zu beantworten, die einem selbst mittelmäßig wichtig ist und bei der erlerntes Halbwissen nicht weiter schlimm wäre, kann man KIs sicherlich nutzen. Von einem Experten erwarte ich aber mehr.
Deswegen sieht meine Definition LLM-basierte KI ja als virtuellen Experten. Und genau das ist sie z.B. wenn eingesetzt als Gesprächspartner von Kunden in der Hotline eines Unternehmens.
Dass man LLM-basierter KI in anderem Zusammenhang natürlich als jemand begegnen kann, der uns einfach nur unterhält, ist eine ganz andere Sache. Objekte, mit denen man sprechen kann, können tatsächlich in recht unterschiedlicher Hauptrolle auftreten.
Wie ich gerade sehe, kommen auch wirkliche KI-Forscher auf die Idee, LLM-basierte KI als "Experte" zu sehen: Synergizing Multiple Expert LLMs
Das ist natürlich richtig.
Was aber wäre denn nun Deine Charakterisierung (als Ersatz für meine und natürlich ähnlich kompakt ausgedrückt)?
Deswegen sieht meine Definition LLM-basierte KI ja als virtuellen Experten.
Das mag schon sein, dass deine Definition das so sieht. Hat dann aber nichts mehr mit der Realität zu tun.
LLM-KIs sind Werkzeuge, welche blind Wortfetzen aufgrund von Algorithmen generieren.
Komisch, dass dann (nach meinem Fragen wenigstens) nicht selten wirklich Hilfreiches dabei rauskommt. Tatsache ist doch: In solcher KI steckt jede Menge Intelligenz: nur eben die der Entwickler, nicht aber in der KI entstandene. Warum willst Du das nicht auch Realität nennen?
In einem LLM steckt überhaupt keine Intelligenz. Algorithmen generieren den Text anhand der Wahrscheinlichkeit der Logik. Die hilfreichen Antworten verdankst du den Websites, denen die Infos entnommen wurden. Die KI versteht weder was sie von sich gibt, noch kennt sie sich mit dem Themenbereich aus. Sie ist de facto kein Experte.
Die Diskussion ist mir zu uninteressant um hier das gleiche immer wieder zu wiederholen.
Die KI versteht weder was sie von sich gibt, noch kennt sie sich mit dem Themenbereich aus.
Das ist völlig richtig, ändert aber nichts an der Tatsache, dass man mit ihr sprechen kann wie mit einer Person und zudem noch in aller Regel hilfreiche, da sinnvolle und informative Antworten bekommt: nicht weniger sinnvolle, als nicht selten von Menschen kommen, mit denen man diskutiert.
Praktische Anwendung solcher KI z.B. in Callcentern und Helpdesk beweisen recht deutlich, wie nützlich virtuelle Gesprächspartner sein können:
LLM-basierte KI
gibt es nicht. Allenfalls KI basierte LLM.
Wer glaubt, KI wie etwa ChatGPT oder Googles Gemini treffender charakterisieren zu können?
LLM sind KI Anwendungen, die in der Lage sind, die Komplexität der natürlichen Sprache zu erfassen.
Alex
Na ja, auch Experten können sich (wie jeder andere Mensch auch) mal irren. Und schließlich sind der Öffentlichkeit zugänglich gemachte LLM-basierte Gesprächspartner wie etwa ChatGPT oder Gemini ja noch keine 2 Jahre alt. Verglichen mit Kindern im Vorschulalter scheinen sie mir dennoch die Rolle "Experte" schon recht gut auszufüllen.