Verdrängt die amerikanische Kultur die deutsche?

Das Ergebnis basiert auf 30 Abstimmungen

Nein 63%
Ja 37%

6 Antworten

Nein

Ich habe nun den größten Teil meines Lebens hinter mir und kann sagen, dass die amerikanische Kultur die deutsche Kultur auch schon beeinflusst hat, als ich ein kleines Kind war. Es gab Coca Cola (wenn auch nicht für mich😢), es gab Wrigley's Kaugummi, es gab Elvis und den Rock'n Roll, es gab Jeans (wenn auch nicht für mich: Meine Eltern wollten nicht, dass ich "Nietenhosen" trug, ich sollte anständig gekleidet sein!). Es gab sicher auch andere Dinge aus den USA, die ich aber als Kind vielleicht nicht wirklich mitgekriegt habe. Woran ich mich noch erinnere, sind die Sa/So-TV-Serien für Kinder: Fury, Lassie, Corky und der Zirkus, Mr. Ed - das sprechende Pferd, Flipper, Bonanza etc., dann später kurze amerik. Krimis im Vorabend-Programm, also sehr viel Zeug aus den USA wie ja heute auch noch.

Aber dann verließen/verlassen mich die amerikanischen Geister, denn mit der amerikanischen Esskultur konnte/kann ich mich nicht anfreunden - man lasse mich in Ruhe mit schlaffen Hot Dogs und Plastiklokalen wie MacDoof.

Die Musik ist wieder eine ganz andere Sache. Sänger wie Elvis Presley, Bob Dylan, Joan Baez, Odetta, Aretha Franklin, um nur einige zu nennen, wollte ich nicht missen, weiterhin: eine Welt ohne Jazz, für mich unvorstellbar!

Insgesamt ist der amerikanische Einfluss nicht zu übersehen. Aber hat das, was ich hier gerade genannt habe, unserer deutschen Kultur geschadet? Ne, für mich ist es einfach eine Ergänzung. Klar, wir brauchen kein Halloween. Das ist eine rein kommerzielle Sache, aber den Kindern macht's Spaß, also: Warum nicht?

Nein

Unser Land wird lediglich vielfältiger. Klar, manchmal nerven die fremden Einflüsse, aber die deutschen Traditionen und die Kultur können daneben existieren. Zum Beispiel gibt es in vielen, vor allem bayerischen Dörfern sehr traditionsreiche Trachtenvereine, die die Kleidung von früher fortleben lassen, die Mitglieder tragen in ihrer Freizeit trotzdem oft T-Shirts, Jeans und Sneaker.

Ja

Aber nicht erst "jetzt" sondern schon den 50er Jahren. Denn man darf einfach nicht vergessen: Die USA und ihre Kultur werden uns seit 1945 aufgedrängt, ohne das wir es gewollt haben.

Mir fällt dazu immer nur ein Satz ein, welchen ein Südafrikanischer Freund mal vom Stapel gelassen hat: "Coca Cola owns Africa" (Coca Cola besitzt Afrika). Ich wage dann nämlich immer zu behaupten: "Coca Cola besitzt die Welt".

Das soll nur ein Beispiel sein, wie tief inzwischen die US-Kultur in unser aller Leben eingedrungen ist. Ich nenne als zweites Beispiel einfach nur "Halloween". Dieses "Fest" hat in der europäischen Kultur nichts verloren und wurde lediglich von der anderen Seite des Atlantiks importiert - und zwar ganz bewusst, da dieses "Fest" nämlich ein Appel an den Konsum ist, wie man ihn nicht vorher gekannt hat.

Woher ich das weiß:eigene Erfahrung – Das Leben war eine harte Schule!

naitram22  27.12.2023, 17:51

Black Friday würde mir spontan noch einfallen

3
Nein

Allerdings beeinflusst sie die deutsche Kultur. Das an sich ist aber auch kein neues Phänomen, früher war es bspw. Frankreich.

Nein

Es gibt eigentlich gar keine amerikanische Kultur, daher kann das nicht gehen.