KI scheitert an dieser eigentlich einfachen Frage obwohl es Zugriff auf eine riesige Datenbank hat. Warum?

6 Antworten

ChatGPT hat auch mit ZAHLEN teils Probleme, die an Absurdität grenzen.

Dazu lasse man sich einfach mal Listen geben, in denen z. B. Ländergrößen, Berghöhen oder irgendwas, bei dem die einzelnen Dinge durch eine Zahlgröße beschrieben werden können. Und dann lasse man die KI diese sortieren nach diesen Zahlen. Es gibt dabei regelmässig nur als Desaster benennbare Fehler. Die KI kann nicht einmal Länder korrekt nach Größe sortieren, auch nicht bei vielen Versuchen und immer wieder neuer Aufforderung, die Zahlwerte einfach abzugleichen und in Reihenfolge zu sortieren. Eine sehr irritierende Erkenntnis. Denn das kann jedes Kind, welches einmal Zahlen erklärt bekommen hat. Zumindest, wenn man dazu ganz exakte Anweisungen gibt und ein wenig übt. ChatGPT ist in dieser Hinsicht quasi "behindert". Zwar verspricht die KI immer wieder, dass sie die Fehler korrigieren würde im Sinne der benannten Problemstellung, schafft es aber tatsächlich nicht, eine korrekte Sortierung durchzuführen. Man probiere es selbst einmal aus einfach. Es ist vollkommen ernüchternd und wirft natürlich Fragen auf, was die KI noch alles an elemetarsten Dingen nicht kann, was nur ansonsten dem Benutzer garnicht auffällt.

Ich habe mal ChatGPT gefragt:

1. Wortgenerierung basiert auf Wahrscheinlichkeiten, nicht auf exakter Mustererkennung

KI-Modelle wie ChatGPT oder DeepSeek generieren Text auf Basis von Wahrscheinlichkeiten und nicht durch eine systematische Suche in einem lexikalischen Wörterbuch. Dadurch kann es passieren, dass sie zwar Wörter mit vielen „E“s ausgeben, aber dabei ungewollt andere Vokale einfügen oder nicht exakt sechs „E“s verwenden.

2. Fehlende strikte Constraints in der Wortgenerierung

Eine KI kann sehr gut Text basierend auf Kontext und Wahrscheinlichkeit erstellen, aber eine strenge Regel wie „genau sechs ‚E’s, kein anderer Vokal“ erfordert eine deterministische Filterung oder eine Datenbanksuche – und das sind keine typischen Stärken eines Sprachmodells.

3. Mangel an spezifischen Wortlisten

Während eine KI Zugriff auf viele Texte hat, heißt das nicht, dass sie über eine systematisch durchsuchbare Wortliste verfügt, in der sie nach genau diesen Kriterien suchen kann. Ohne einen expliziten Algorithmus zur lexikalischen Analyse versucht sie, die Aufgabe durch Wahrscheinlichkeiten zu lösen – was oft zu Fehlern führt.

4. Begrenzte Zeichenkontrolle während der Generierung

Ein Sprachmodell „denkt“ nicht Buchstabe für Buchstabe, sondern arbeitet mit Token (größeren Textbausteinen). Dabei kann es passieren, dass es den Überblick über exakte Buchstabenzählungen verliert.

Lösung: Eine KI könnte mit einem Python-Skript unterstützt werden, das eine Wortliste systematisch nach diesen Kriterien durchsucht. Das Sprachmodell selbst wird immer wieder danebenliegen, weil es für solche stringenten Regelaufgaben nicht optimiert ist.

Woher ich das weiß:Berufserfahrung – Fachinformatiker für Anwendungsentwicklung - Verschlüsselung

Weil ein LLM eben nix mit Fakten am Hut hat, sondern eine riesige Verknüpfung ist, die sagt welches Wort auf welchen Wort folgend am wahrscheinlichsten ist.

Wir wollen es nutzen, um korrekte Antworten zu geben, um daraus Fakten raus zu kriegen und darauf wird nun auch hingearbeitet. Nix desto trotz ist die Technik unten drunter dafür einfach nicht gemacht.

Eine künstliche Intelligenz hat eben, stand heute, keine Intelligenz. Sie weiß, dass auf eine Frage mit A, B und C, meist eine Antwort erfolgt mit D, E, F, zumindest laut den Trainingsdaten, womit sie gefüttert wurde.


AlinaCalina 
Beitragsersteller
 09.02.2025, 13:36

Hatte ein sehr falsches Bild von KI, komplett uninformiert meinerseits. Bin froh, ohne die Zusammenhänge zu verstehen, zumindest das grundlegend falsche Verständnis abgelegt zu haben.

Weil es ein Sprachmodell ist, das aber weder logisch denken, noch zählen kann. Wie du selbst sagst, basieren die Antworten auf riesigen Datenbanken/Modellen. Wenn aber in besagten Datenbanken nicht mehrfach steht, wie oft Buchstabe X in Wort Y vorkommt, dann weiß die KI das auch nicht. Da es sehr viele Buchstaben und Wörter gibt, ist es unmöglich, alle Kombinationen irgendwo zu hinterlegen.

Wenn es um Zahlen und Logik geht, bräuchte man eine darauf angepasste KI.

KI hat keine "riesige Datenbank" und kann auch kein bisschen denken oder irgendwas überprüfen. Das einzige was Sprachmodelle können, ist das wahrscheinlichste nächste Wort in einem Text vorherzusagen - und das verdammt gut. Damit können sie zwar tolle Geschichten schreiben aber eben nicht denken.

Woher ich das weiß:Studium / Ausbildung – Ich studiere Informatik und forsche an KIs

AlinaCalina 
Beitragsersteller
 08.02.2025, 20:42

Also ist der Austausch von Menschen durch KI noch in ferner Zukunft, ja? Der Arbeitsmarkt für Literatur- und Germanistikwissenschaftler*innen ist nicht bedroht, welch' Glück.

HumphreyDavis  08.02.2025, 20:44
@AlinaCalina

Ist er nicht. Dafür ist KI im Moment absolut ungeeignet. Sie kann toll labern aber kein bisschen logisch denken. Irgendwann kommt nur noch Blödsinn raus, nichts hängt zusammen und nichts ist durchdacht.

Glaub mir, ich kenne mich aus.