Ich hatte echt nie was gegen Ausländer, hab sie immer nur als Menschen gesehen. Aber mittlerweile egal wo ich hingehe sehe ich nur noch Ausländer, Syrer, Türken, Pakistaner, Afrikaner. Wobei Afrikaner noch einigermaßen okay sind. Aber ich hab das Gefühl aus Deutschland wird langsam Pakistan oder so.
Warum muss ich es hinnehmen das aus Deutschland ein Reich der Ausländer wird?
Mir gefällt das nicht! Diese Leute haben eine ganz andere Mentalität und Kultur. Diese bringen sie hier her. Man hat das Gefühl Deutsche werden vertrieben und sind unerwünscht. Manche fragen mich "Bist du deutscher?" Ich antworte mit ja (Meine Eltern sind beide Polen aber ich bin hier aufgewachsen) Dann gucken sie ganz enttäuscht das ich Deutscher bin. Als wären deutsche unerwünscht in Deutschland.
Lange Zeit hat mir es überhaupt nichts ausgemacht , aber langsam nervt es mich und viele andere immer mehr. Überall nur arabische Gesichter, Männer mit Bärter, Frauen mit Kopftuch, Inder mit Turban . Ich fühle mich unwohl in diesem Umfeld! Sehr unwohl! Nicht nur dass das geistige Niveau dieser Menschen tief ist, viele sind ja auch kriminell.
Muss echt dabei zusehen wie Deutschland unterwandert wird?
Mich nervt es immer mehr!