Kulturimperialismus bedeutet, dass man anderen Ländern die eigene Kultur aufzwingen will. Leider gibt es viele Leute, die nach Deutschland kommen und uns ihre Kultur aufzwingen wollen, bzw. Deutsche, die uns fremde Kulturen aufzwingen wollen. So etwas finde ich im höchsten Maße ärgerlich. Dabei ist es mir egal, aus welcher religiös-fundamentalistischen Ecke das kommt. Islamismus, Evangelikalismus , Katholizismus, das ist doch alles dasselbe. Umgekehrt sind Deutsche im Ausland auch oft eine Peinlichkeit.

Wen stört so etwas noch?