In vielen Staedten Deutschlands gelten Auslaender bzw. Menschen mit Migrationshintergrund bereits als Mehrheit. Dennoch hoere ich sehr oft, dass Auslaender (vor allem Muslime) behaupten sie wuerden in Deutschland diskriminiert werden.
Ich persoenlich bin eher der Meinung, dass Deutsche diskriminiert werden, vor allem da deutsche aufgrund der gesellschaftlichen Einstellung nicht mehr stolz auf ihr Land sein dürfen. In den Schulen sind sie oft die Aussenseiter und im Arbeitsleben scheinen Auslaender auch immer mehr das Sagen zu haben.
Dies ist aber nur meine Meinung, was ist eure? Stimmt ab und Begruendet sie, wuerde mich auf eine schoene Diskussion ueber dieses Thema freuen, denn es beschaeftigt mich schon laenger.