Warum mögen die US-Amerikaner die Deutschen nicht so gern?

4 Antworten

Es stimmt nicht, dass "die Amerikaner die Deutschen nicht mögen". Die meisten Amerikaner haben ein positives Bild von Deutschland. Unser Land gilt dort als das Land der Autobahnen, der guten Autos, der Romantik (Neuschwanstein und Grimms Märchen), mit historischen Städten und mit Oktoberfest. Alles eher positiv besetzt. Nicht zu vergessen, dass die Deutschen die größte Einwanderergruppe stellten.

Etwas anderes ist das Bild des ewigen Nazis, das es auch gibt und das in Hollywoodfilmen immer noch eifrig gepflegt wird.

Das habe ich nie so empfunden, ich war beruflich oft in den USA und habe dort viele Menschen getroffen. Wenn überhaupt, gab es eher positive Reaktionen auf Deutschland

Ich bin schon durch die USA gereist und kann Deinen Eindruck nicht bestätigen.

Mein Stiefvater ist US-Amerikaner und daher habe ich schon viele Amerikaner kennengelernt. Die meisten waren deutschfreundlich.