Warum ist Deutschland das einzige Land im Westen, das darüber nachdenkt eine rechte Oppositionspartei zu verbieten und ihren Politikern Grundrechte zu entzieh?
Haben die Deutschen die Demokratie nicht verstanden oder Angst vor der Demokratie?
Deutschland,
Politik,
Demokratie