Ich muss ständig den Eindruck haben dass die meisten Menschen in Deutschland keine Risikobereitschaft dafür haben. Sich gar beleidigt und angegriffen fühlen wenn man vom Auswandern spricht. Habe es erstmal da so gut wie in unserem gelobten Deutschland. Warum ist das so? Was sträubt die meisten davor? Darf ich keine eigene Meinung haben?
Verwandte Themen
Warum haben Deutsche etwas gegen das Auswandern?
Reise,
Leben,
Arbeit,
Geld,
Ausland,
Deutschland,
Psychologie,
Welt,
Auswanderung,
Länder,
Risiko