Warum wird in Deutschland das öffentliche Zeigen der eigenen Nationalflagge häufig negativ wahrgenommen?
Viele Deutsche zögern, die Deutschlandflagge offen zu präsentieren, aus Angst, als rechtsradikal oder nationalistisch abgestempelt zu werden.
Liegt dies an der schweren historischen Last, die unser Land trägt, oder hat sich die Bedeutung der Flagge im öffentlichen Bewusstsein verschoben? Warum ist es in anderen Ländern normal, stolz die eigene Flagge zu zeigen, während dies in Deutschland oft Misstrauen oder Ablehnung hervorruft?
Findet ihr, man sollte die Flagge lieber nicht mehr zeigen dürfen, und wenn ja, warum? Ist es nicht an der Zeit, dass wir der Deutschlandflagge IN Deutschland ein wenig Akzeptanz zeigen?