In letzter Zeit ist mir aufgefallen das rechte Politik immer mehr akzeptiert wird. In meiner Nachbarschaft werden Schwarz Rot Goldene Fahnen teilweise mit Schwarz Weiß Roten ausgetauscht. Auf Social Media wird immer offener über rechtsextreme Meinungen gesprochen und in meinem Freundeskreis wird der Nationalsozialismus verharmlost. Ist euch auch aufgefallen das Deutschland immer rechter wird oder kommt mir das nur so vor?
Wird Deutschland rechter?
Europa,
Geschichte,
Deutschland,
Politik,
Psychologie,
Rassismus,
Rechtsextremismus,
AfD
Weitere Inhalte können nur Nutzer sehen, die bei uns eingeloggt sind.