Denken die Amerikaner das in Deutschland nur Nazis leben?
Ich habe von einer Lehrerin gehört dass Sie mal in den USA war und als der Ami wusste das Sie aus Deutschland kommt, wurde Sie als Nazi betitelt.
Wisst ihr was das zu bedeuten hat?
Das Ergebnis basiert auf 17 Abstimmungen
14 Antworten
❌ Andere Antwort
Die Frau hat keine Ahnung, ich bezweifle, dass sie jemals in den USA war.
Es gibt immer wieder einzelne Aussagen der Amerikaner, die haarsträubend sind, auch in Bezug auf Nazi-Deutschland und Hitler, aber pauschal und im Sinne von alle Amerikaner ist die Aussage einfach dümmlich und einer Lehrerin nicht würdig.
Um die Bildung ist es in den USA nicht zum Besten bestellt. Von Europa haben viele ein verzerrtes Bild.
Absoluter Quatsch.
Ich war schon mehrmals in den USA und habe dabei mit vielen Menschen gesprochen. Und niemals hat mich jemand als Nazi betitelt. Im Gegenteil - ich habe selten so gastfreundliche und hilfsbereite Menschen kennen gelernt.
das stimmt nicht.. ich war schon öfters in den USA und wurde niemals als Nazi bezeichnet noch wurde über Deutschland als Naziland gesprochen
Ein Teil der Amis sind bildungsfremd /-fern.......