Glauben Sie, das Leben in den USA ist besser als in Deutschland?
38 Stimmen
9 Antworten
Nein. Nur, wenn man wirklich sehr, sehr viel Geld hat.
Gewiß nicht. Die gehen dunklen Zeiten entgehen.
USA war ganz gut zum Auswandern und Leben das war aber vor 30 Jahren ....
Es kommt auf Beruf/Einkommen an. Unteren Gesellschaftsschichten geht es in den USA ganz klar schlechter, während es höher qualifizierten Leuten in Deutschland schlechter geht.
Deswegen sagen viele auch gerne: "Wer kein Geld hat, wandert in Deutschland ein und wer welches hat wandert aus"
Zusätzlich ist Deutschland eine Servicewüste und das Wetter ist schrecklich.
Besser ist kein definierte Aussage für das Leben.
Für jeden kann besser etwas anders bedeuten. Was es sicher ist: das Leben ist anderes
Ob es für dich besser ist, kannst nur du persönlich entscheiden.
Wie wichtig ist dir eine umfassende Gesundheitsvorsorge, die jederzeit bezahlbar ist? Wie wichtig ist dir bezahlbare Ausbildung? Wie wichtig öffentlicher Nahverkehr, wie wichtig Urlaub, Kündigungsschutz? Verbraucherschutz?
Probiere es aus, dann bist du schlauer.