Us-Filme und Serien amerikanische Propaganda?

Hallo,

mir ist aufgefallen, dass in so gut wie allen amerikanischen Serien alles Amerikanische als gut dargestellt wird. Die US-Regierung, sowie die Polizisten werden verharmlost und sogar als Retter dargestellt, das einzigste was dort interessant ist, ist Amerika, alle anderen Länder sind unwichtig. Ebenfalls fällt mir auf dass Feinde recht oft aus anderen Ländern kommen. Zum Beispiel gibt es oft Russen, Italiener oder Chinesen, welche als böse dargestellt werden.

Das amerikanische Leben wird auch als perfekt, oder ideal dargestellt. Es werden außerdem recht oft nur amerikanische Promis erwähnt und so weiter. Zumindest ist mir das alles aufgefallen.

Könnte man also sagen, dass viele solcher Filme US-Propaganda sind?

Ich möchte hierbei Amerika nicht angreifen, aber es kommt mir so vor, dass in diesen Filmen immer Amerika als besser und tadellos dargestellt wird. Probleme wie z.B Rassismus, Todesstrafe, Waffengesetze, korrupte Polizisten, usw. Werden nicht immer gezeigt und wenn doch dann eher verharmlost, als sei es normal, oder nicht so schlimm...

Ein paar Beispiele, in denen mir sowas aufgefallen ist:

Dexter

New Girl

Kindsköpfe 2

Supernatural

How I met your Mother

Aber es gibt auch Serien wie z.b Prison Break in denen sowas gut thematisiert wird und möchte ich nochmal betonen, dass ich nichts gegen Amerikaner habe und auch niemanden beleidigen möchte. Ich bitte euch, sachliche Antworten zu geben.

Was denkt ihr? Danke für eure Antworten! :)

Film, Amerika, USA, Regierung, Serie, Hollywood, Propaganda

Meistgelesene Beiträge zum Thema Serie