Sollten die Kirchen in Deutschland mehr Macht bekommen?

Mir fällt auf, dass die Werte und Traditionen unseres Vaterlandes stark von der christlichen Kultur geprägt sind. Über die Jahrhunderte hinweg haben Tausende von Menschen ihr Leben für das heilige Buch und den christlichen Glauben gegeben. Persönlich stehe ich zu 100 Prozent hinter der Idee, dass die Kirchen in Deutschland mehr Macht erhalten sollten, entsprechend der Meinungsfreiheit nach Artikel 5 unserer Verfassung. Ich denke, es wäre ein Schritt hin zu einer stärkeren christlichen Prägung unserer Gesellschaft.

Kürzlich habe ich ein Video gesehen, das die Idee vermittelt, dass die Einhaltung der Zehn Gebote dazu führen könnte, dass es weniger Verbrechen wie Mord und Vergewaltigung gibt. Auch die Situation in Kinderheimen könnte verbessert werden. Natürlich gibt es immer wieder Berichte über kranke Individuen, die sich dem kirchlichen Umfeld nähern und schreckliche Taten begehen. Aber ich glaube, dass dies nicht die allgemeine Botschaft des Christentums widerspiegelt.

Einige mögen argumentieren, dass die Kirchen in der Vergangenheit Fehler gemacht haben, sei es durch den Missbrauch von Kindern oder historische Ereignisse wie die Hexenverbrennungen. Doch ich denke, diese Aktionen waren menschliche Fehler und nicht unbedingt im Einklang mit den Lehren der Bibel. Was damals passierte, hat meiner Meinung nach nichts mit dem Christentum zu tun. Diese abgehobenen, geldgierigen Könige wollten Macht, aber christlich waren sie selbst nie. Oder? Ich finde, dass wir das Land Deutschland, beziehungsweise Europa, den Christen verdanken müssen. Ohne die Christen, die damals Europa verteidigten, gäbe es vielleicht kein Europa, oder zumindest nicht so, wie es heute ist. Vielfalt ist großartig!

Beste Grüße,

NEIN 83%
JA 17%
Religion, Islam, Kirche, Geschichte, Deutschland, Politik, Christentum, Psychologie, Atheismus, Glaube, Gott, Muslime

Meistgelesene Beiträge zum Thema Geschichte