Hey,
jetzt mal ohne den ganzen Hass auf die Regierung usw. . Ganz objektiv und nicht mitläuferisch wie jeder andere: Wie findet ihr unsere aktuelle politische und wirtschaftliche Lage? Lohnt es sich noch, in Deutschland zu leben? Wird man ausgebeutet und zu stark in den Freiheiten bzw. Rechten eingeschränkt?
Bezüglich diesen Fragen: Lohnt sich das Auswandern? Ich habe gehört, in einigen Ländern, wie Neuseeland gibt es etwas wie Begrüßungsgeld, dass du dort lebst und arbeitest. Außerdem muss man sich ein komplett neues Leben im anderen Land aufbauen, sofern man keine Freunde/Familie dort hat. Das ist schon eine große Hürde. Außerdem muss man erst einmal das finanzielle Mittel zum Auswandern haben.
Ich würde gern eire Meinung wissen ;)
Viele Grüße
Sophie ❤️