Kann es sein, dass Deutsche als Menschen und generell alles, was deutsch ist, seit 1945 international schlecht angesehen wird?
Ja dämonisiert?! Klar hat das NS-Regime und somit Deutsche das schlimmste Verbrechen, was es je gegeben hat, verübt. Aber dennoch ist es meiner Meinung nach nicht richtig, die Deutschen als Menschen universell und deren Kultur zu verunglimpfen.
Ein Land, welches eine weiße Weste hat, gibt es nicht und jede Nationalität darf, im Ausland lebend, ihre Kultur ausleben, sogar in der dritten, vierten oder fünften Generation. Ich zum Beispiel stamme aus einer tamilischen Familie aus Sri Lanka und bin stolz darauf. Unsere Kultur gibt es nun teils bei den Kindern in der dritten Generation. Bei deutschen Auswanderern im Ausland heutzutage ist die Kultur spätestens in der dritten Generation verschwunden. Ich meine: Deutsche im Ausland haben auch jahrhundertelang ihre Kultur bewahrt, doch spätestens der Zweite Weltkrieg und "Nazi-Deutschland" führte dazu, dass die deutsche Kultur bei den Deutschstämmigen im Ausland unterging.