Ist Deutschland wirklich noch Deutschland?

Das Ergebnis basiert auf 28 Abstimmungen

Ja 82%
Nein 18%

5 Antworten

Nein

"Deutschland" war noch niemals "Deutschland".

Es gab Kaiserreiche, Königreiche, Fürstentümer, Republiken, Diktaturen, Demokratien etc. auf dem heutigen Staatsggebiet der BRD - aber keine dieses "Reiche" und sonstigen Staatsformen hiess "DEUTSCHLAND".

Auch ist "Deutschland" keine Abkürzung für den Namen des aktuellen Staates namens "Bundesrepublik Deutschland".

Woher ich das weiß:eigene Erfahrung – Das Leben war eine harte Schule!
Ja

Selbst in einen vereinigten Europa würde es Deutschland bleiben. Der politische Status würde sich nur ändern.

Deutschland ist und war immer ein Vielvölkerstaat. Hervorgegangen aus vielen, meist germanischen Völkern. Politisch entstand der Begriff, als das Frankenreich sich während der Karolingerzeit teilte. Aus dem Westreich wurde Frankreich, dass nur kurzfristige Mittelreich Lotharingen (steckt heute noch im Namen Lothringen) und das Ostreich entwickelte sich zu Deutschland. Es geschah, als nach dem Tod von Ludwig I. den Frommen https://de.wikipedia.org/wiki/Ludwig_der_Fromme und Ludwig II. der Deutsche https://de.wikipedia.org/wiki/Ludwig_der_Deutsche wurde der erste deutsche König.

Auch nach den Zerfall des Reiches blieb gedanklich der Begriff Deutschland erhalten und ging auf alle folgenden Kleinstaaten über. Über diese regierte formell der Habsburger Kaiser in Österreich.

Woher ich das weiß:eigene Erfahrung

PicaPica  08.09.2023, 15:58

Du bist ja besser als jedes Geschichts-Lexikon. Respekt, GLG. :-)

1
Ja

Also, wenn man von seiner geographischen Lage ausgeht, auf jeden Fall. Ist es und wird es immer bleiben.

Nur die Benamung sollte vielleicht seiner Regierung angepasst werden: "Absurdistan".

Ja

Ja & Nein

Woher ich das weiß:eigene Erfahrung
Ja

Hiii,

Ja,würde ich schon sagen.😊😉

LG Maike^^

Woher ich das weiß:eigene Erfahrung – Ich beantworte gerne eure Fragen🦩🪸🍉