Warum denken Amerikaner, dass die USA das freieste und beste Land der Welt sind?
Besonders wenn ich mir amerikanische Filme/Serien anschaue, wirken sie sehr arrogant. Ist es wirklich so?
Menschen,
USA,
Amerikaner,
Filme und Serien,
Arrogant wirken