Am liebsten hätte ich gerne Antworten und Erfahrungen von Leuten die vielleicht schon Jahre in Deutschland und in den USA gelebt haben, vielleicht sogar an verschiedenen Orten in beiden Ländern oder einfach Menschen die schon ihr ganzes Leben in Amerika leben.
Wie ist das Leben den vergleichsweise? Stimmt es das man allgemein behaupten kann in den USA ein besseres Leben führen zu können mit mehr Möglichkeiten, vor allem Beruflich gesehen? Meinen Eindrücken nach, ist das Leben in den USA mit größerem Risiko (da der Staat quasi Null Unterstützung bietet) aber auch größeren Erfolgschancen verbunden.
Wenn man nicht unbedingt in Städten wie Miami, New York, Los Angeles oder San Francisco lebt oder auch wirklich diese "teureren" Staaten meidet, sollte man Insgesamt mehr Geld und "Freiheiten" zur Verfügung haben oder?
Da abgesehen von den genannten Beispielen die Lebenserhaltungskosten geringer sind als hier, die Immobilienpreise aber auch Fahrzeugpreise günstiger, die Steuer geringer ausfällt und die verpflichtenden Versicherungen wegfallen, die man dann aber natürlich dennoch privat absichern sollte, aber auch die Löhne für die meisten Jobs höher ausfallen.