Besonders Jugendliche, die komplett von der Hollywood industrie geblendet werden,träumen von diesem highschool Leben.
Oft liest man das auch in Fragen ,aber auch Erwachsene stellen es sich als einfach vor, mal eben in die USA zu ziehen und in der LA unterhaltungsbranche zu arbeiten.
Aber warum ist das US Bild der deutschen noch immer so von Hollywood geprägt?
Gerade die Naivität der auswanderer am Anfang führt dazu,dass diese nach ein paar Monaten wieder antanzen.
Informieren sich die Leute echt nur im Film über das US Leben, und lassen sich blenden, und werden dann von der Realität amerikas überrumpelt?
Aber es gibt ja auch auswanderer die es gepackt haben.