Durch unkontrollierte Einwanderung aus muslimischen Ländern sind in Großstädten bereits Muslime die Mehrheit. Überall Moscheen, in Schulen wird bereits sogar deutschen Kindern über Islam erzählt, Schweinfreies Mittagessen an Schulen/Kindergärten, auf Wurstwaren Aufschrift "halal" und das in Deutschland.

Werden wir Islamisiert und wohin soll das alles führen?

Oder gibt es Hoffnung dass die zumindest in ein paar Generationen Deutschland über Islam stellen und sich das Problem erledigt?