Ist Deutschland wirklich noch ein gutes Land?

Wie seht ihr das?

Ich habe hier ein paar coole Diskussionsrunden gelesen die genau dieses Thema behandeln.

Meiner Meinung nach, wird Deutschland immer kaputter,

die Werte die es hier mal gab, worauf andere Völker und Nationen auf uns mit Bewunderung geschaut haben, gibt es nicht mehr.

Die Menschen, lachen uns eher aus als zu bewundern.

Warum dürfen wir nicht mehr unsere Meinung äußern? Warum wird eine Meinung, die nicht jeder vertritt, derespektiert?

Ich finde es schade, das so viele Menschen immer predigen, seid respektvoll, behandelt jeden gleich, respektiert die Meinung anderer, grenzt niemanden aus, spricht mit allen.

Aber sobald man eine andere Meinung , sind genau diese Werte nicht mehr da. Plötzlich wird man ausgegrenzt, plötzlich wird so getan, als wenn man irgendein radikaler wäre, aber wo ist das Problem patriotisch zu sein?

Jedes Land ist stolz auf seine Nation außer die deutschen. Die dürfen es nicht.

Und ja, was die Deutschen im 2 Weltkrieg gemacht haben, das ist mit nichts zu rechtfertigen, absolut. Aber.

Die Welt verändert sich, ich kann leider nichts dafür das es frühere schlimme Politiker gab, die schlechtes und Böses getan haben. Ich werde 80 Jahre später geboren und bin ein guter Mensch. Dennoch muss ich diese Konsequenzen ausbaden.

Und ich verstehe nicht wieso. Es gibt Dinge, im Leben, für die kann ich nichts. Und auch andere Länder fangen Krieg an. Aber auch die dürfen stolz auf ihr Land sein.

Warum wird den Deutschen immer aus allem ein Strick gemacht? Meint ihr das hört iwann auf. ?

Geschichte, Deutschland, Politik, Nationalstolz, Patriotismus, Rassismus