Denken die Amerikaner das in Deutschland nur Nazis leben?

Das Ergebnis basiert auf 17 Abstimmungen

Nein, die Amerikaner haben nicht recht, weil... 71%
Jein, weil... 18%
Ja, die Amerikaner haben recht, weil... 12%

14 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

❌ Andere Antwort

Die Frau hat keine Ahnung, ich bezweifle, dass sie jemals in den USA war.

Es gibt immer wieder einzelne Aussagen der Amerikaner, die haarsträubend sind, auch in Bezug auf Nazi-Deutschland und Hitler, aber pauschal und im Sinne von alle Amerikaner ist die Aussage einfach dümmlich und einer Lehrerin nicht würdig.


stufix2000  11.12.2022, 10:02

Danke für den Stern ⭐️‼️

0
Nein, die Amerikaner haben nicht recht, weil...

Um die Bildung ist es in den USA nicht zum Besten bestellt. Von Europa haben viele ein verzerrtes Bild.

Nein, die Amerikaner haben nicht recht, weil...

Absoluter Quatsch.

Ich war schon mehrmals in den USA und habe dabei mit vielen Menschen gesprochen. Und niemals hat mich jemand als Nazi betitelt. Im Gegenteil - ich habe selten so gastfreundliche und hilfsbereite Menschen kennen gelernt.

Woher ich das weiß:eigene Erfahrung – interessiere mich sehr für politsche Themen
Nein, die Amerikaner haben nicht recht, weil...

das stimmt nicht.. ich war schon öfters in den USA und wurde niemals als Nazi bezeichnet noch wurde über Deutschland als Naziland gesprochen

Jein, weil...

Ein Teil der Amis sind bildungsfremd /-fern.......