Ich war schon mal in den USA 🇺🇸 und habe Erfahrungen gemacht. Fast alle Amerikaner die ich kennengelernt habe sind so stolz auf ihr Land das kann man nicht beschreiben. Ich so: Wie stehst du zu deinem Land? Er/Sie: Ich liebe mein Land über alles, für mich ist es das beste Land der Welt und ich möchte auch nie wo anders leben. Das war die Antwort die ich am meisten gehört habe. Wir in Deutschland denken meistens über die USA sehr schlecht und für die meisten in Deutschland ist die USA ein idiotisches Land mit dummen Gesetzen und einer komischen Gesellschaft. Für die meisten Menschen in den Deutschland wäre die USA ein Albtraum wenn man dort leben würde.
Aber könnt ihr das nachvollziehen wieso die Menschen so sind und wie sieht ihr die USA persönlich?