wo lebt man besser USA oder Deutschland?
18 Stimmen
7 Antworten
Es kommt darauf an, was man unter "besser leben" versteht.
In Deutschland lebt man jedenfalls sicherer, was den Bleigehalt in der Luft angeht. Auch die soziale Absicherung ist in Deutschland besser. Über die in Deutschland vorgegebene allgemeine Krankenversicherung für Jeden müssen wir dabei wohl nicht noch extra reden.
Politisch entwickelt sich die USA immer mehr zu einer Katastrophe. Ich kann in diesem Zusammenhang nur auf das Buch "Stupid White Man" von Michael Moore hinweisen und das stammt aus den Zeiten von Bush jun. und die Situation und Einstellung ist nicht besser geworden. Wie sonst hätte eine Person wie Trump dort Präsident werden können, mit all den Folgen für die USA und die Welt bis zur Erstürmung des Capitols. Wie krank kann eine Nation eigentlich noch werden.
Nein, das ist kein Land, wo man besser lebt als in Deutschland.
Wer mit Deutschland nicht zufrieden ist, jammert ohnehin auf einem hohen Niveau.
Natürlich haben die USA grandiose Landschaften und man findet auch nette Menschen dort. Aber das Gesamtpaket USA ist kein Traumland mehr zum Auswandern und dort leben. Ausserdem sind die Hürden für eine Auswanderung in die USA sehr hoch und kaum zu überwinden. Nur ein Stichwort: Greencard
Hallo ohjee332
wo du besser lebst, kommt auf deine Wünsche und Vorstellungen an - das Land, die Natur, die Wiertschaft, deine Freiehiten und Entfaltungsmöglichkeiten..
Viele Grüße
Sonst wär ich dort. Da gibt es Waffen und sie machen zu viel bum bum. Das mag ich nicht
Praktisch in jedem westeuropäischen Land ist der allgemeine Lebensstandard besser als der der USA.
Kommt drauf an. Wenn du viel Geld verdienst, lebst du in den USA besser weil der Sozialstaat Deutschland dir die Hälft wegnimmt. Wenn du am unteren Rand lebst, lebste in D deutlich besser, wegen Sozialhilfen usw.