KI scheitert an dieser eigentlich einfachen Frage obwohl es Zugriff auf eine riesige Datenbank hat. Warum?
Chatgpt und Deepseek sollten mir ein real existierendes deutsche Wort ausgeben, welches 6 mal den Buchstaben E enthält und E darf der einzige Vokal sein.
Warum scheitert die KI an einer solchen Aufgaben und gibt am laufenden Band falsche Antworten aus, (zu wenig E's oder andere Vokale die sich einschleichen) obwohl es doch Zugriff auf eine riesige Datenbank hat?
Warum überprüft es nicht zumindest das ausgegebene Wort auf seine Richtigkeit, statt ständig falsche Antworten zu geben? Weshalb ist in den Augen der KI eine falsche Antwort zu geben besser, als auf die Frage zu Antworten, dass es ein solches Wort nicht finden kann?
Eine Million Euro Frage; Findet Ihr das Wort? (Ist ein Nomen)🙂
6 Antworten
ChatGPT hat auch mit ZAHLEN teils Probleme, die an Absurdität grenzen.
Dazu lasse man sich einfach mal Listen geben, in denen z. B. Ländergrößen, Berghöhen oder irgendwas, bei dem die einzelnen Dinge durch eine Zahlgröße beschrieben werden können. Und dann lasse man die KI diese sortieren nach diesen Zahlen. Es gibt dabei regelmässig nur als Desaster benennbare Fehler. Die KI kann nicht einmal Länder korrekt nach Größe sortieren, auch nicht bei vielen Versuchen und immer wieder neuer Aufforderung, die Zahlwerte einfach abzugleichen und in Reihenfolge zu sortieren. Eine sehr irritierende Erkenntnis. Denn das kann jedes Kind, welches einmal Zahlen erklärt bekommen hat. Zumindest, wenn man dazu ganz exakte Anweisungen gibt und ein wenig übt. ChatGPT ist in dieser Hinsicht quasi "behindert". Zwar verspricht die KI immer wieder, dass sie die Fehler korrigieren würde im Sinne der benannten Problemstellung, schafft es aber tatsächlich nicht, eine korrekte Sortierung durchzuführen. Man probiere es selbst einmal aus einfach. Es ist vollkommen ernüchternd und wirft natürlich Fragen auf, was die KI noch alles an elemetarsten Dingen nicht kann, was nur ansonsten dem Benutzer garnicht auffällt.
Ich habe mal ChatGPT gefragt:
1. Wortgenerierung basiert auf Wahrscheinlichkeiten, nicht auf exakter MustererkennungKI-Modelle wie ChatGPT oder DeepSeek generieren Text auf Basis von Wahrscheinlichkeiten und nicht durch eine systematische Suche in einem lexikalischen Wörterbuch. Dadurch kann es passieren, dass sie zwar Wörter mit vielen „E“s ausgeben, aber dabei ungewollt andere Vokale einfügen oder nicht exakt sechs „E“s verwenden.
2. Fehlende strikte Constraints in der WortgenerierungEine KI kann sehr gut Text basierend auf Kontext und Wahrscheinlichkeit erstellen, aber eine strenge Regel wie „genau sechs ‚E’s, kein anderer Vokal“ erfordert eine deterministische Filterung oder eine Datenbanksuche – und das sind keine typischen Stärken eines Sprachmodells.
3. Mangel an spezifischen WortlistenWährend eine KI Zugriff auf viele Texte hat, heißt das nicht, dass sie über eine systematisch durchsuchbare Wortliste verfügt, in der sie nach genau diesen Kriterien suchen kann. Ohne einen expliziten Algorithmus zur lexikalischen Analyse versucht sie, die Aufgabe durch Wahrscheinlichkeiten zu lösen – was oft zu Fehlern führt.
4. Begrenzte Zeichenkontrolle während der GenerierungEin Sprachmodell „denkt“ nicht Buchstabe für Buchstabe, sondern arbeitet mit Token (größeren Textbausteinen). Dabei kann es passieren, dass es den Überblick über exakte Buchstabenzählungen verliert.
Lösung: Eine KI könnte mit einem Python-Skript unterstützt werden, das eine Wortliste systematisch nach diesen Kriterien durchsucht. Das Sprachmodell selbst wird immer wieder danebenliegen, weil es für solche stringenten Regelaufgaben nicht optimiert ist.
Weil ein LLM eben nix mit Fakten am Hut hat, sondern eine riesige Verknüpfung ist, die sagt welches Wort auf welchen Wort folgend am wahrscheinlichsten ist.
Wir wollen es nutzen, um korrekte Antworten zu geben, um daraus Fakten raus zu kriegen und darauf wird nun auch hingearbeitet. Nix desto trotz ist die Technik unten drunter dafür einfach nicht gemacht.
Eine künstliche Intelligenz hat eben, stand heute, keine Intelligenz. Sie weiß, dass auf eine Frage mit A, B und C, meist eine Antwort erfolgt mit D, E, F, zumindest laut den Trainingsdaten, womit sie gefüttert wurde.
Hatte ein sehr falsches Bild von KI, komplett uninformiert meinerseits. Bin froh, ohne die Zusammenhänge zu verstehen, zumindest das grundlegend falsche Verständnis abgelegt zu haben.
Weil es ein Sprachmodell ist, das aber weder logisch denken, noch zählen kann. Wie du selbst sagst, basieren die Antworten auf riesigen Datenbanken/Modellen. Wenn aber in besagten Datenbanken nicht mehrfach steht, wie oft Buchstabe X in Wort Y vorkommt, dann weiß die KI das auch nicht. Da es sehr viele Buchstaben und Wörter gibt, ist es unmöglich, alle Kombinationen irgendwo zu hinterlegen.
Wenn es um Zahlen und Logik geht, bräuchte man eine darauf angepasste KI.
KI hat keine "riesige Datenbank" und kann auch kein bisschen denken oder irgendwas überprüfen. Das einzige was Sprachmodelle können, ist das wahrscheinlichste nächste Wort in einem Text vorherzusagen - und das verdammt gut. Damit können sie zwar tolle Geschichten schreiben aber eben nicht denken.
Ist er nicht. Dafür ist KI im Moment absolut ungeeignet. Sie kann toll labern aber kein bisschen logisch denken. Irgendwann kommt nur noch Blödsinn raus, nichts hängt zusammen und nichts ist durchdacht.
Glaub mir, ich kenne mich aus.
Also ist der Austausch von Menschen durch KI noch in ferner Zukunft, ja? Der Arbeitsmarkt für Literatur- und Germanistikwissenschaftler*innen ist nicht bedroht, welch' Glück.