Sollten die Kirchen in Deutschland mehr Macht bekommen?

Hallo an alle,

Ich möchte meine Gedanken zu einem Thema teilen, das mir am Herzen liegt: den Einfluss der Kirchen in Deutschland.

Mir fällt auf, dass die Werte und Traditionen unseres Vaterlandes stark von der christlichen Kultur geprägt sind. Über die Jahrhunderte hinweg haben Tausende von Menschen ihr Leben für das heilige Buch und den christlichen Glauben gegeben. Persönlich stehe ich zu 100 Prozent hinter der Idee, dass die Kirchen in Deutschland mehr Macht erhalten sollten, entsprechend der Meinungsfreiheit nach Artikel 5 unserer Verfassung. Ich denke, es wäre ein Schritt hin zu einer stärkeren christlichen Prägung unserer Gesellschaft.

Kürzlich habe ich ein Video gesehen, das die Idee vermittelt, dass die Einhaltung der Zehn Gebote dazu führen könnte, dass es weniger Verbrechen wie Mord und Vergewaltigung gibt. Auch die Situation in Kinderheimen könnte verbessert werden. Natürlich gibt es immer wieder Berichte über kranke Individuen, die sich dem kirchlichen Umfeld nähern und schreckliche Taten begehen. Aber ich glaube, dass dies nicht die allgemeine Botschaft des Christentums widerspiegelt.

Einige mögen argumentieren, dass die Kirchen in der Vergangenheit Fehler gemacht haben, sei es durch den Missbrauch von Kindern oder historische Ereignisse wie die Hexenverbrennungen. Doch ich denke, diese Aktionen waren menschliche Fehler und nicht unbedingt im Einklang mit den Lehren der Bibel.

Beste Grüße,

Nein Wieso? 83%
JA 10%
Jein 4%
Andere 4%
Religion, Kirche, Geschichte, Deutschland, Politik, Christentum, Bibel, evangelische Kirche, Glaube, Gott, Jesus Christus, katholische Kirche, Verfassung
Rezession kommt, wann wieder mehr körperliche Arbeit?

Es ist ja schon beachtlich, und die dicken Bäuche in westlichen Gesellschaften sind ein Indiz dafür, dass es uns so gut geht und wir so körperlich faul sind. Der Jahreswechsel kommt, die Fitnessstudioverträge schießen wie gewohnt in die Höhe und flachen schließlich ab.

Die wenigstens müssen noch körperlich ackern, stattdessen viel denken, weil wir global als Land gut aufgestellt sind und schön von armen Bauern aus drittweltländern profitieren, deren Landeswirtschaften und Währungen im Arsch sind. Dabei sind die meisten hier in Deutschland sozusagen Nutznießer, die meisten haben es nicht zu verantworten, dass es uns so gut geht.

Wäre es nicht sinnvoller als Staat die Menschen mal n bisschen zu motivieren nebenbei körperliche Arbeiten zu leisten? Hier und da mal anzupacken, beim Bau, beim Anbau usw.?

Warum setzt Schule rein aufs denken? Ich meine damals hatte ich einen Technikkurs, kam ich rein? Nö. Sonst ALLES theoretisch. Sollte es nicht Grundvoraussetzung als erwachsener Mensch sein, dass man nicht bei jedem Kleinscheiß Handwerker ruft und mal bisschen mehr körperliche Arbeiten leistet ?

Bei Jungs sieht man ja auch, wenn deren Eltern mit denen mitm Ball gespielt haben, dass sie in der Schule geschickter sind als Mädchen. Kann ja viele Gründe haben aber tendenziell passt das ja schon.

Wir sind schon echt weit weg von unserer Natur als Menschen. Wäre der Mehrwert für unsere Gesellschaft nicht deutlich höher, wenn man begleitend zur reinen Denkleistung in Schulen mal mehr körperlich leistet?

Leben, Gesundheit, Arbeit, Männer, Schule, Geld, Angst, Deutschland, Politik, Frauen, Sex, Psychologie, Psyche

Meistgelesene Beiträge zum Thema Politik