Warum heißt Deutschland nicht mehr Deutsches Reich?
Deutschland heißt nicht mehr Deutsches Reich, aber Warum heißt Deutschland nicht mehr Deutsches Reich? Und wer hat entschieden das Deutsches Reich nicht mehr Deutsches Reich heißt? und wer hat entschieden das Deutsches Reich Deutschland nennt?
8 Antworten
1.Deutschland heißt nicht mehr Deutsches Reich, aber Warum heißt Deutschland nicht mehr Deutsches Reich?
1.1.Ein Reich wird historisch gesehen autoritär geführt z.b. von einem
Kaiser(Heiliges Römisches Reich) oder König(Britisch Empire)
da das ja nach dem 2 Weltkrieg schon nicht mehr gegeben war, ist es ja schon faktisch kein Reich mehr,
1.2.der neue Staat wollte nicht mehr mit dem in der Vergangenheit negativ geprägten begriff Reich, der in Verbindung mit Kaiser(reich) und Deutsches (Reich) u.a. mit zwei Weltkriegen assoziiert wurde verbunden werden.
2.Und wer hat entschieden das Deutsches Reich nicht mehr Deutsches Reich heißt?
Das Deutsche Nachkriegs Parlament im Westen die das Grundgesetz machten legten bewusst den Namen „Bundesrepublik Deutschland“ fest, um das neue politische System zu betonen, das auf Föderalismus, Rechtsstaatlichkeit und Demokratie basierte.
3.wer hat entschieden das Deutsches Reich Deutschland nennt?
Eigentlich heißt es "Bundesrepublik Deutschland" und Das Deutsche Nachkriegs Parlament
Der Name „Deutschland“ verweist seit Jahrhunderten auf die geographischen und kulturellen Wurzeln.
Das Deutsche Reich ist 1945 in SChutt und Asche gesunken - aus eigener Schuld. Nach 1945 wollte man einen Neuanfang demonstrieren und hat das Reich mit den Trümmern entsorgt.
Nun, manchmal ist ein Name einfach "verbrannt! und die Leute laufen schreiend weg wenn sie ihn hören.
Es gab da mal eine Bank, die hieß Cittibank oder so ähnlich, die hat es so schrecklich übertrieben mit ihren Geschäftspraktiken das die ihren Namen ändern mussten, weil die Leute weg gelaufen sind wenn auch nur das Wort Cittibank gelesen haben. Die Bank ist dann unter neuer Führung und neuen Namen wieder am Markt erschienen und hat auch aus den Fehlern gelernt!
So, und so ähnlich war das mit dem Namen "Deutsches Reich" auch!
Im 2. Weltkrieg sind im Namen des Deutschen Reiches so fürchterliche Dinge passiert, das die Leute auch weg gelaufen sind wenn sie nur das Wort Reich gehört haben.
Also wurde nach dem Ende des Krieges und mit dem Erstarken der Demokratie auch gleich ein neuer Name eingeführt: Bundesrepublik Deutschland, oder auf der anderen Seite die Deutsche Demokratische Republik.
Also kurz: Neuer Name und neue Leitung, nur so war eine Rückkehr in die Völkergemeinschaft möglich.
Hoffe konnte helfen.
Die Bezeichnung "Deutsches Reich" wurde nach dem 2. Weltkrieg abgeschafft, da sie einerseits unerwünschte Bezüge zum NS--Reich ("Drittes Reich") herstellte und andereseits den geographischen Verhältnissen nicht mehr entsprach.
Wobei 3. Reich eher umgangssprachlich ist. Adolf Hitler als Diktator hatte quasi kaiserliche Vollmachten.
Deutsch stammt vom altgermanischen peudisk bzw. dem althochdeutschen thiutisk und meint "zum Volk gehörig".
Erstmals nachweisbar taucht "Dutschelant" in der Goldenen Bulle von 1365 auf. Als "Deutsch", "deutsches Land" oder "die deutschen Länder" betrachtete man die Summe aller Gebiete, die unter einem König/Kaiser im Ostfrankenreich standen. Um sich vom Westfrankenreich (Frankreich) abzugrenzen und weil man sich in der Nachfolge des Römischen Imperium (= Reich) sah, nannte man sich ab dem 10. Jahrhundert "Römisches Reich". Ab dem 12. Jahrhundert ergänzte man "Heiliges RR" und nochmal dreihundert Jahre später ergänzte man "HRR Deutscher Nation".
Zum Reich gehörten aber auch nichtdeutsche Länder, wie z.B. Böhmen, Teile Italiens usw. Das Reich war also eine viel größere Einheit und Deutschland/die deutschen Länder ein Kulturbegriff - z.B. einer gemeinsamen Sprache.
Seit dem 16. Jahrhundert ist der Begriff "Teutschland" überliefert, wenn man von der Summe der deutschen Gebiete im Reich sprach und die nichtdeutschen nicht mit meinte.
1871, als das Deutsche Reich zum zweiten Mal gegründet wurde, setzte ein Bedeutungswandel ein: Deutschland wurde zum Begriff für die Nation. Deutschland als Kulturraum und als Land wurden eins, auch weil die nichtdeutschen Gebiete nicht (mehr) dabei waren.
Der Begriff "Reich" wurde während der Nazizeit missbraucht und man entschied sich nach dem 2. Weltkrieg, mit der Gründung der Bundesrepublik die alte Bezeichnung Deutschland wieder aufzunehmen, da mit dem "Deutschen Reich" viel Unheil verbunden war.