Glaubt ihr dass die Deutschen ihre Kolonien besser behandelt haben als die Franzosen und Briten?
Ich denke schon dass die Deutschen am nettesten waren und nicht so rassistische Dinge erfunden haben
Europa,
Schule,
Geschichte,
Sprache,
Krieg,
Deutschland,
Politik,
Kultur,
Psychologie,
Militär,
Rassismus