Wird Deutschland amerikanisiert?

earnest  18.10.2022, 17:02

Wo hast du das denn gelesen?

marija324 
Beitragsersteller
 19.10.2022, 14:25

Habe ich mal auf irgendeiner Reichsbürger-Seite gelesen, weiß den Namen nicht mehr aber dachte dass da was dran ist

13 Antworten

Ich habe irgendwo gelesen dass es auch daran liegt, dass Deutschland faktisch immer noch von amerikanischen Truppen besetzt ist,

Das ist falsch. Das Besatzungsstatut wurde bereits 1955 aufgehoben, seitdem ist die Bundesrepublik Deutschland nicht mehr besetzt.

Du solltest mal Artikel 1 des Deutschlandvertrags lesen:

Mit dem Inkrafttreten dieses Vertrags werden die Vereinigten Staaten von Amerika, das Vereinigte Königreich von Großbritannien und Nordirland und die Französische Republik (in diesem Vertrag und in den Zusatzverträgen auch als "Drei Mächte" bezeichnet) das Besatzungsregime in der Bundesrepublik beenden, das Besatzungsstatut aufheben und die Alliierte Hohe Kommission sowie die Dienststellen der Landeskommissare in der Bundesrepublik auflösen.

http://www.documentarchiv.de/brd/dtlvertrag.html

Ich glaube, du hast die Zeit der Einführung der Supermärkte und der Rock'n'Roll Musik nicht miterlebt.

Das ist ein reger Austausch. Ist doch logisch, dass z.B. die chinesische Kultur hier nicht so durchschlägt wie die amerikanische. Deren Vorfahren waren ja meist Europäer. Oder was meinst du wo die Oktoberfeste oder die Weihnachtsbäume in den USA herkommen? Noch in den 60ern durfte nur 20% englische oder amerikanische Musik in DE gespielt werden. Hat aber die deutschen Jugendlichen nicht interessiert, die wollten amerikanische Rockmusik, Bands usw und nicht nur deutschen Schlager hören.

Das wäre schön, aber mir ist das bisher nicht aufgefallen.

Woher ich das weiß:eigene Erfahrung – Ich möchte in die USA auswandern 🇺🇸