Viele Menschen lernen die deutsche Geschichte kennen. Gerade die, die in Deutschland leben und aufwachsen. Vom kindheitsalter lernen die deutschen Kinder die Geschichte. Später erfährt man dran vielleicht auch aus eigener Interesse noch mehr über die deutsche Geschichte. Auch ich habe mir schon mit vielen Menschen auseinandergesetzt und diskutiert. Und es war schon oft erstaunlich was dabei alles herauskam. Ein Freund von mir wurde schon eines besseren belehrt, wo ich mit dabei stand und das von einem fremden Menschen, der quasi kein deutscher ist bzw kein reiner deutscher um es mal so zu nennen, da man diesen Menschen an sah dass dieser eine andere Wurzel der Nationalität hat.
Verwandte Themen
Denken Sie (oder "glauben" Sie) dass die deutsche Geschichte über Deutschland die wahre Geschichte ist, so wie sie uns beigebracht und gelehrt wird und wurde?
Europa,
Medizin,
Gesundheit,
Buch,
Männer,
Pflanzen,
Allgemeinwissen,
Schule,
Technik,
Virus,
Geschichte,
Allgemeinbildung,
Energie,
Krieg,
Frauen,
Regierung,
Kultur,
Jugendliche,
Krankheit,
Universum,
deutsche Geschichte,
Forschung,
Gift,
Mittelalter,
Pharmaindustrie,
Pharmazeutika,
Politiker,
Zweiter Weltkrieg,
Reichsbürger