Hat Deutschland die Macht die Welt zu herrschen?
Hallo zusammen,
Ich wollte euch allen eine Frage stellen, die mir nach dem Anschauen eines Videos auf Twitter in den Sinn gekommen ist.
In dem Video habe ich jemanden gehört, der folgendes gesagt hat (ich zitiere): "Wir Deutschen haben die Macht, die Welt zu beherrschen. Zum Beispiel haben wir den Zweiten Weltkrieg durchgehalten, weil Deutschland damals gegen vier Länder standgehalten hat, wie Russland, die USA, England und Frankreich!! Er behauptete, dass, wenn diese Länder alleine gegen Deutschland gekämpft hätten, sie keine Chance gegen Deutschland gehabt hätten."
Ich frage mich, ob das stimmt. Haben die Deutschen wirklich die Macht, die Welt zu regieren? Ich persönlich denke, dass Deutschland ein gewisses Potenzial hat, eine Atommacht zu sein oder eine starke militärische Kraft zu haben. Vielleicht würde dies anders aussehen, wenn die Regierung nicht so links ausgerichtet wäre.
Wie seht ihr das? Ich würde gerne eure Meinungen zu diesem Zitat hören.
32 Stimmen
8 Antworten
Das Deutsche Kaiserreich hatte 1914 die Macht dazu! Und hätte man das Kaiserreich nicht in einen Krieg gedrängt, welcher gar nicht sein gewesen ist (schliesslich wurde der österreichisch-ungarische Thronfolger ermordet), wäre das Kaiserreich heute möglicherweise DAS weltweit umspannende Imperium.
Aber man hat dies erfolgreich verhindert. Und selbst die Versuche Hitlers, dem Kaiserreich (unter anderen Vorzeichen) wieder zu seiner Macht zu verhelfen, wurden vereitelt.
Daher kann man nun feststellen, dass endgültig seit 1945 sich niemals wieder auf dem Boden des ehemaligen Deutschen Reiches ausreichend macht angesammelt hat, um mehr als den eigenen Staat zu kontrollieren.
und ihre Nachbarn angegriffen haben.
Nicht nur das, sondern mit brutalsten, pervertierten Gräueltaten im Westen wie Osten agiert.
Ohne das hätte man sich vielleicht noch irgendwie einigen können, wie es die Power Player in Europa seit jeher meistens nach "etwas Krieg" getan hatten.
Doch danach gab es einfach kein Zurück mehr, Deutschland mußte niedergezwungen werden.
Ich glaube diese Frage bezieht sich eher auf Naz** Rechtsradikale Grundgedanken sind immernoch bei manchen Deutschen so verankert, dass sie zu 100% davon überzeugt sind das Deutschland die Macht hat die Welt zu beherrschen.
Eine Atommacht zu sein bedeutet heutzutage gar nichts mehr, nur dass ein Land verrückt genug war solche Waffen besitzen zu wollen.
wenn diese Länder alleine gegen Deutschland gekämpft hätten,
Meine Oma sagte immer: "Wenn das Wörtchen "wenn" nicht wär', wären wir alle Millionär!"
Die Bundesrepublik Deutschland ist ein Rechtsstaat innerhalb der Europäischen Union und den Vereinten Nationen. In diesen Staatengemeinschaften ist es auch ein vorrangiges deutsches Ziel, den Frieden zu bewahren.
Leider gibt es nun in Deutschland Tendenzen, die kriegerischen Machtgelüste des Nationalsozialismus wieder zu beleben. Dann taucht auch der Gedanke auf, dass Deutschland die Welt beherrschen könnte.
Ein irrsinniger Gedanke, der glücklicherweise in der deutschen Demokratie höchstens von einer kleinen, extremen rechtsradikalen Minderheit propagiert wird.
Niemand hat das Recht die ganze Welt zu regieren, es sei denn die Völker sind irgendwie gemeinsam übereingekommen. Das dürfte doch reichlich fiktiv sein. Wir sollten stattdessen möglichst friedlich miteinander auf dieser Erde auskommen.
Vielleicht wird ja mal eines Tages die UNO sowas wie eine Weltregierung. Wer weiss?
Deutschland wurde 1914 nicht in einen Krieg gedrängt, sondern hat sich selbst aufgedrängt. Österreich wollte gar keinen Beistand von Deutschland.
Und Hitler hat auch nicht versucht das Kaiserreich wieder zu seiner Macht zu verhelfen, sondern litt wie Kaiser Wilhelm II an Großmannssucht und gnadenloser Selbstüberschätzung und wollte es größer machen als es war.
Am Ende ist Deutschland jedes mal kleiner und schwächer geworden, wenn solche Großkotze der irrigen Auffassung waren, dass am deutschen Wesen die Welt genesen solle und ihre Nachbarn angegriffen haben.