Themenspecial 07. Juni 2024
Themenspecial: Künstliche Intelligenz (mit Michael Förtsch von 1E9) 👾
Alles zum Themenspecial

KI ist nicht „intelligent“?

2 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Wenn-Dann-Prozesse gab und gibt es in recht einfachen „KI“-Systemen, wie sie in älteren Videospielen, bestimmten Datenbankverwaltungssystemen usw. zu finden sind.

Moderne KI-Systeme sind ungleich komplexer. Sie basieren auf maschinellen Lernverfahren und sogenannten künstlichen neuronalen Netzen. Diese werden aufgebaut, indem sie mit riesigen Datenmengen konfrontiert werden, in denen sie nach Mustern und statistischen Zusammenhängen suchen, die in sogenannten Modellen gespeichert werden.

Wird ChatGPT bzw. dem Modell dahinter eine Frage gestellt, wird diese Frage analysiert. Dabei geht es nicht nur um bestimmte Wörter, sondern auch um die Struktur des Satzes, in welchem Kontext er etwa zu vorherigen Fragen steht und vieles mehr. Die Antwort, die ChatGPT dann liefert, basiert darauf, welche Wörter und Informationen - basierend auf allem, was das Modell gelernt hat - statistisch am wahrscheinlichsten als Erwiderung auf die Frage vorkommen würden. Wobei das ziemlich vereinfacht ist.

Das hat nichts mit Intelligenz zu tun, das stimmt, aber es ist schon etwas mehr als eine Wenn-Dann-Funktion. Hinzu kommt, dass in den Modellen neben der reinen Statistik wohl noch etwas anderes passiert. Wobei selbst KI-Forscher die genaue Funktionsweise der Modelle noch nicht durchdrungen haben.

Erst in diesem Jahr wurde eine Studie veröffentlicht, in der KI-Forscher vermuten, dass Modelle ab einer gewissen Größe so etwas wie „Kompetenzzentren“ entwickeln, in denen ein „Verständnis“ etwa für bestimmte Sprachen, mathematische Teilgebiete oder Humor gebündelt wird. Die Entwickler des Start-ups Anthropic wiederum haben Ende Mai eine Studie veröffentlicht, die zeigt, dass sich bei Modellen wie Claude - und wohl auch GPT-3/4, LLaMA etc. - Verständnisknoten für Konzepte wie die Golden Gate Bridge, Kaffee, Liebe etc. pp. ausmachen lassen, die aktiviert und genutzt werden, wenn die KI darüber „nachdenkt“, und dass diese auch künstlich stimuliert werden können, ganz ähnlich wie die Hirnregionen beim Menschen.

Hier gibt’s mehr Infos: https://1e9.community/t/koennen-ki-sprachmodelle-nur-nachplappern-oder-verstehen-sie-doch-etwas/20005

Und hier: https://www.anthropic.com/research/mapping-mind-language-model

Und hier: https://transformer-circuits.pub/2024/scaling-monosemanticity/index.html

Natürlich ist das alles noch weit davon entfernt, wie ein Mensch denkt und lernt. Aber es ist durchaus wahrscheinlich, dass mit weiterentwickelten Modellarchitekturen da durchaus viel Entwicklungspotential besteht.


emesvau 
Beitragsersteller
 07.06.2024, 16:24

Danke!

3
Humbleness4  08.06.2024, 16:27

Super Antwort!! Sehr interessant!!!

0
Soweit ich weiß ist KI nur eine riesige „Wenn-Dann“ Funktion

das war früher so. Spätestens mit der Entwicklung der Fuzzy Logic (Unschärfelogik) ist dem nicht mehr so.

Dies basiert auf unfassbaren Datenmengen, die aber immer aktualisiert werden müssen.

Inwiefern unterscheidet sie das von menschlicher Intelligenz?

KI lernt also nicht von alleine

Doch. Das geschieht schon seit Jahrzehnten. Jellyfish war z. B. das erste Backgammonprogramm, das aus gemachten Fehlern lernt.

Alex