Was passiert in Deutschland mit der deutschen Kultur?

In meinem Umfeld sehe ich überwiegend Ausländer, Afghanen, Türken, Syrer, Afrikaner. Und bitte nicht falsch verstehen, ich habe nichts gegen Menschen, ich meine das auch gar nicht politisch. Mir ist einfach aufgefallen das die Ausländer einfach überwiegen in Deutschland. Vor kurzem hatte ich auch keine Probleme damit, aber mittlerweile nervt es mich. Egal wo man hingeht hört man die arabische Sprache. Ich höre selten Leute deutsch sprechen. Und wenn ich es mal ehrlich sage darf: Ihre Kultur und ihre Mentalität passen einfach absolut nicht hier her!
Also warum muss sich der Deutsche das gefallen lassen? Warum muss er dabei zusehen wie Fremde Kulturen sein Land fluten? Ich denke niemand hat was gegen fremde. Nur gegen Überfremdung in seiner eigenen Heimat!
Deutschland kommt mir vor wie Pakistan oder Syrien. Wie würden es die Syrer finden wenn deutsche ihr Land fluten? Oder wenn deutsche Türkei oder Afrika fluten würden und ihre Kultur in fremde Länder bringt? Ich glaube das würde ihnen nicht gefallen.

Also warum sollen die deutschen das akzeptieren? Ich persönlich mag deren Kultur nicht. Ich kann absolut nichts mit den Leuten anfangen. Afrikaner sind einigermaßen Sympathisch. Aber die ganzen Türken, Syrer, Afghanen. Warum kommen sie hier her? Warum gehen sie nicht in ihre Heimat und bringen ihr Land zum laufen?
Deutschland brauch Fachkräfte?! Was ist mit den Ländern wo die Menschen herkommen? Brauchen die keine Fachkräfte? Wollen wir die ganze Welt zu uns holen und die anderen Länder unter gehen lassen oder was?
Ich verstehe das ganze nicht.

Deutschland, Politik, Migration

Meistgelesene Beiträge zum Thema Politik