Die Links in deinem Beitrag sind allesamt defekt. Ich meine aber zu wissen, auf welches Paper hier angesprochen wird – falls dem so ist, ist dieses aus Oktober letzten Jahres und damit im Forschungsbereich der KI längst wieder Schnee von gestern.
Klar, Sprachmodelle können nicht „denken“, zumindest nicht wie Menschen. Ist für den Durchschnittsnutzer nur völlig irrelevant. Die Technik hinter Sprachmodellen funktioniert. Ob das Ding nun denkt oder einen Denkprozess simuliert, um zu seinen Ergebnissen zu kommen, ist absolut unerheblich, weshalb ich nicht verstehe, wieso um diese Tatsache so ein Aufriss gemacht wird. Fakt ist, dass der Zuwachs an Intelligenz bzw. der Menge an Fähigkeiten von Sprachmodellen nicht langsamer wird oder ein Plateau zu erreichen scheint. Im Gegenteil: Es spricht vieles dafür, dass sich hier ein zweites „Moore's Gesetz“ abzeichnet und die aktuelle Entwicklung auch langfristig beibehalten werden kann. Und auch hier: Ob die Modelle nun tatsächlich wie ein biologischer Organismus „denken“ können, oder nicht, ist völlig uninteressant – vor allem, aber nicht ausschließlich, für den Durchschnittsnutzer.
Insofern: Nein, der Durchschnittsnutzer wird wohl nicht wissen, dass Sprachmodelle nicht „denken“ können. Muss er aber auch nicht, weil absolut unwichtig. Die Ergebnisse bleiben dieselben.