Mich würde interessieren, ob Deutschland aus Eurer Sicht in den letzten 20 Jahren politisch nach links oder nach rechts gerückt ist!
Verwandte Themen
Ist Deutschland nach links oder nach rechts gerückt?
Geschichte,
Deutschland,
Politik,
Kultur,
Psychologie,
Gesellschaft,
Partei,
Wahlen