Findet ihr Amerika attraktiver zum Leben oder Deutschland?
5 Antworten
Vom Beitragsersteller als hilfreich ausgezeichnet
Jap, USA haben zwar viel negatives aber eben auch wahnsinnig viel positives.
Deutschland ganz klar, hier muss man sich nicht zu Tode schuften um über dir Runden zu kommen oder Angst haben dass man auf der Straße landet
die Gun violence finde ich unmöglich
Deutschland ist deutlich attraktiver. Nur wer die Verhältnisse in den USA nicht kennt, wird etwas anderes behaupten
Nein, auf keinen Fall. Urlaub machen ist ok. Dort leben und arbeiten - nein.
Niemals USA,nur EU und sichere Land ist immer für mich BRD.
Woher ich das weiß:eigene Erfahrung