Deutschland ist kein kolonisierbares Land, sondern ein Land, wo man mitmachen darf, um auf Dauer ebenso Deutsch zu werden als alle anderen Deutschen. Wer das nicht will oder sogar die Lebensart als verwerflich beschaut, sollte wirklich mal überrlegen, ob das Emigrieren aus dem eigenem Land und Gesellschaft nicht eine sehr unkluge Entscheidung war.
Man lebt schließlich nur einmal und warum würde man das machen in einer Gesellschaft, die man verwirft? Selber habe ich auch vor vielen Jahren mal in einem Land gewohnt, wovon ich wußte, ich würde mich dort nie wirklich wohl fühlen. Und habe das meist logische getan: trotz Wurzeln, die ich in diesen vier Jahren dort geschlagen hatte, habe ich es doch verlassen, um nach Deutschland umzusiedeln, ein Land, wo ich mich sehr daheim fühlte ohne wenn und aber.
Quelle: quora.com