Ab wann gab es in D den Kapitalismus?

5 Antworten

Noch nie

Staatlicher interventionismus in den Markt war schon immer Bestandteil von Deutschland in welcher Form auch immer

Ab dem Zeitpunkt als sich die bereits kapitalistischen Staaten 1871 zu einem Deutschen Reich zusammenschlossen.

Weimarer Republik.

Noch nie waren die Menschen so niedergeschlagen und das deutsche Volk wahr so eine Armut und so eine Kriese nicht gewohnt. Daraus wurde dann die Gier nach Reichtum, einem normalen Leben oder auch nur ein Job.

Das Prinzip, dass wer über die Ressourcen verfügt auch die Regeln macht, dürfte so alt wie die Menschheit selbst sein.
Unser heutiger Kapitalismus jedoch ist ein auf einer in sich wertlosen Fiatwährung basierendes kaputtes System, dem gleichzeitig immer weniger Realwert gegenübersteht.

Nach dem Krieg: Nach dem Krieg hat sich in Deutschland eine soziale Marktwirtschaft entwickelt, die Kapitalismus mit sozialem Staat mischt.

Aber Ideen dafür gab es schon viel früher.