Hat Deutschland die Macht die Welt zu herrschen?

NEIN/WIESO 94%
JA/WIESO 6%

32 Stimmen

8 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet
NEIN/WIESO

Das Deutsche Kaiserreich hatte 1914 die Macht dazu! Und hätte man das Kaiserreich nicht in einen Krieg gedrängt, welcher gar nicht sein gewesen ist (schliesslich wurde der österreichisch-ungarische Thronfolger ermordet), wäre das Kaiserreich heute möglicherweise DAS weltweit umspannende Imperium.

Aber man hat dies erfolgreich verhindert. Und selbst die Versuche Hitlers, dem Kaiserreich (unter anderen Vorzeichen) wieder zu seiner Macht zu verhelfen, wurden vereitelt.

Daher kann man nun feststellen, dass endgültig seit 1945 sich niemals wieder auf dem Boden des ehemaligen Deutschen Reiches ausreichend macht angesammelt hat, um mehr als den eigenen Staat zu kontrollieren.

Woher ich das weiß:Recherche

Immofachwirt  15.04.2024, 14:39

Deutschland wurde 1914 nicht in einen Krieg gedrängt, sondern hat sich selbst aufgedrängt. Österreich wollte gar keinen Beistand von Deutschland.

Und Hitler hat auch nicht versucht das Kaiserreich wieder zu seiner Macht zu verhelfen, sondern litt wie Kaiser Wilhelm II an Großmannssucht und gnadenloser Selbstüberschätzung und wollte es größer machen als es war.

Am Ende ist Deutschland jedes mal kleiner und schwächer geworden, wenn solche Großkotze der irrigen Auffassung waren, dass am deutschen Wesen die Welt genesen solle und ihre Nachbarn angegriffen haben.

Agentpony  15.04.2024, 15:57
@Immofachwirt
und ihre Nachbarn angegriffen haben.

Nicht nur das, sondern mit brutalsten, pervertierten Gräueltaten im Westen wie Osten agiert.

Ohne das hätte man sich vielleicht noch irgendwie einigen können, wie es die Power Player in Europa seit jeher meistens nach "etwas Krieg" getan hatten.

Doch danach gab es einfach kein Zurück mehr, Deutschland mußte niedergezwungen werden.

NEIN/WIESO

Ich glaube diese Frage bezieht sich eher auf Naz** Rechtsradikale Grundgedanken sind immernoch bei manchen Deutschen so verankert, dass sie zu 100% davon überzeugt sind das Deutschland die Macht hat die Welt zu beherrschen.

Eine Atommacht zu sein bedeutet heutzutage gar nichts mehr, nur dass ein Land verrückt genug war solche Waffen besitzen zu wollen.

Woher ich das weiß:Recherche
wenn diese Länder alleine gegen Deutschland gekämpft hätten,

Meine Oma sagte immer: "Wenn das Wörtchen "wenn" nicht wär', wären wir alle Millionär!"

NEIN/WIESO

Die Bundesrepublik Deutschland ist ein Rechtsstaat innerhalb der Europäischen Union und den Vereinten Nationen. In diesen Staatengemeinschaften ist es auch ein vorrangiges deutsches Ziel, den Frieden zu bewahren. 

Leider gibt es nun in Deutschland Tendenzen, die kriegerischen Machtgelüste des Nationalsozialismus wieder zu beleben. Dann taucht auch der Gedanke auf, dass Deutschland die Welt beherrschen könnte. 

Ein irrsinniger Gedanke, der glücklicherweise in der deutschen Demokratie höchstens von einer kleinen, extremen rechtsradikalen Minderheit propagiert wird. 

jnknij

Niemand hat das Recht die ganze Welt zu regieren, es sei denn die Völker sind irgendwie gemeinsam übereingekommen. Das dürfte doch reichlich fiktiv sein. Wir sollten stattdessen möglichst friedlich miteinander auf dieser Erde auskommen.

Vielleicht wird ja mal eines Tages die UNO sowas wie eine Weltregierung. Wer weiss?