Linguist mit Kreistheorie?
Es gab einen Linguisten, der die Theorie hatte, dass Sprache sich sozusagen in einem Kreislauf verändert. Es gibt Epochen, in denen sie analytisch wird und Epochen, in denen genau das Gegenteil geschieht. Alles, weil die Menschen in ihrer Veränderungsunruhe immer eine Vereinfachung wollen.
Weiss jemand, wie er hiess?
2 Antworten
Hm, der letzte Teil deines Satzes verunsichert mich. Wenn es immer nur um Vereinfachung geht, kann kein Kreislauf entstehen. Dann müsste bei allen Sprachen am Ende ein analytischer Sprachbau stehen.
Aber vielleicht meinst du den zyklischen Sprachwandel. Die Theorie wird Georg von der Gabelentz zugeschrieben. Er formulierte einen Kreislauf der agglutinierenden (=synthetischen) Sprachen, die über die Stufen flektierend und isolierend (analytisch) wieder zu agglutinierenden Sprachen werden.
Richtig. Der Sprachwandel muss nicht zwangsläufig nicht bis zur kompletten analytischen Form voranschreiten, sondern kann bereits vorher einfrieren. Dies zumindest in der Theorie. In deiner Fragestellung ging es aber um einen Kreislauf.
Allerdings beobachtet man dies in der Praxis nicht wirklich. Größere, lebende Sprachen unterliegen alle dem Wandel und zeigen eine deutliche Tendenz zum analytischen Sprachbau. Die Theorie des Kreislaufes scheint nicht haltbar zu sein. Das Problem ist auch die Beobachtbarkeit. Systemischer Sprachwandel vollzieht sich sehr langsam und bisher scheint es keine Sprache zu geben, die sich wieder auf dem Rückweg zum synthetischen Sprachbau befindet, wenn man mal von einzelnen Phänomenen absieht.
Es hat übrigens weniger mit dem Wortschatz einer Sprache zu tun, sondern in erster Linie mit der Komplexität des morphologischen Inventars und wie die Elemente miteinander grammatisch-funktional verknüpft werden. Englisch ist hier ein schönes Beispiel. Englisch hat den Wandel zum analytischen Sprachbau schon sehr weit vollzogen, ist aber gleichzeitig eine der Sprachen mit dem größten Wortschatz. Je nach Zählweise ist es sogar die Sprache mit dem größten Wortschatz. Natürlich hat dies auch etwas mit der Geschichte zu tun.
Beispiel: Wenn das Kasussystem verloren geht, tritt eine Ersatzform an diese Stelle. Wenn ich z.B. keinen Kasus mehr für die Richtung habe, brauche ich Präpositionen, die diese Funktion übernehmen. In diesem Fall erweitert man sogar den Wortschatz einer Sprache, wenn auch nur geringfügig.
Naja. Alle Präpositionen, die - zum Beispiel - die sehr analytische englische Sprache kennt, kennt auch die synthetischere deutsche. Insofern sehe ich da keine Abbildung einer Tendenz. Dass Englisch einen grossen Wortschatz hat, ist selbstverständlich, da es als Weltsprache Nummer Eins der grosse Exporteur von Fremdwörtern in fast alle anderen Sprachen ist. Es ist daher in diesem Punkt kein guter Beweis.
Ich kenne nicht genügend Sprachen auf der Welt, um Gablentz' Theorie zu beweisen, aber auch nicht genügend zum Widerlegen. Soweit ich mich erinnere, hat jemand, der ihn anführte, behauptet, Chinesisch entwickle sich gerade Richtung Synthetizität. Gablentz war ja Sinologe, vielleicht hat er es an der Sprache illustriert? Ich weiss es nicht.
Seine Theorie ist für mich aber die einzige plausible Erklärung, dass es sowohl analytische wie synthetische Sprachen gibt - in allen Abstufungen. Nach deiner linearen Theorie dürfte es nur noch analytische Sprachen geben. Denn die Sprachen sind uralt und haben alle zehntausend und mehr Entwicklungsjahre hinter sich.
Die Vereinfachungstendenz kann aber nur eine von mehreren Triebfedern sein. Denn es gibt ja auch die (eher umgekehrte) Tendenz, mehr zu agglutinieren als früher. In Wikipedia stehen 2 Beispiele aus der litauischen Sprache ("neue" Lokalkasus wurden eingeführt).
Auch im Nordgermanischen wurde mal das Agglutinieren eingeführt (dabei ist z.B. Westgermanisch keineswegs agglutinierend, sondern flektierend (Deutsch) bis isolierend (Englisch)). Schon im Altnordischen konnte man das feststellen (mann-gi = kein Mann, "niemand"; in der Edda stehen noch Verbformen mit -at Suffix drin, welche die Verneinung abbilden), und noch heute hat z.B. Schwedisch agglutinierte Elemente (kvinna/kvinnor/kvinnorna = Frau/Frauen/die Frauen). Auch aldri-gi ("niemals") ist mit -gi agglutiniert worden (heutiges Schwedisch "aldrig").
Aber es stimmt schon auch, dass manchmal Kasus verloren gehen. Englisch ist so ein Beispiel, heute gibt es nicht mehr (oder nur noch selten) "thou" (du) und "thee" (dich) (beides ist nun "you").
Auch Finnisch scheint heutzutage zu vereinfachen. Der Komitativ ist nur noch selten als Kasus in Benutzung ("ystävinenne" = mit Ihren Freunden, Höflichkeitsform), stattdessen nimmt man heute meist eine Formulierung ohne den Komitativ, "kahdeksan koiran kanssa" = mit acht Hunden.
Chinesisch hat gegenüber anderen Sprachen derselben Sprachfamilie (z.B. Tibetisch) eine vereinfachte Grammatik, so gingen Kasus verloren (Tibetisch ist eine flektierende Sprache). Manchmal ist es so, dass Sprachen, die über große Gebiete hinweg verteilt sind (Chinesisch, Englisch), eine Vereinfachungstendenz haben, wohingegen "kleine" Sprachen (oft mit nur wenigen Sprechern) oft noch eine komplexere Grammatik (flektierend, agglutinierend) bewahren konnten.
Und ja, das ist eine Theorie von Georg von der Gabelentz.
Wenn alle sich in einem Kreis bewegen, zeigen sich selbstverständlich auch verschiedene Auswirkungen bei den einzelnen, je nachdem, an welcher Stelle im Kreise sie sich gerade befinden.
PS. Weil ich heute morgen so knapp war. Nein, ich denke nicht, dass am Ende ein analytischer Bau stehen müsste. Man kann ja auch den synthetischen vereinfachend finden, weil man Wörter spart.
So ist die Unruhe des Menschen: anderswo sind die Wiesen immer grüner :)