Ist deutschland liberal?

5 Antworten

"Liberal" ist nicht gleich "liberal". Deutschland ist marktliberal, also in wirtschaftlicher Hinsicht.
Es gibt viele Lücken in unseren Arbeitsgesetzen, die den Arbeitgebern Möglichkeiten zu Betrug und Ausbeutung geben. Die Zeitarbeit erlebt einen Boom wie noch nie zuvor. Viele Menschen müssen mit befristeten Verträgen über die Runden kommen, kriegen in manchen Städten deswegen schon gar keine Wohnung mehr und müssen alle halbe Jahre zittern, wann sie wieder beim Arbeitsamt reinschneien dürfen.

Aus Sicht der Arbeitgeber sind all das sehr erfreuliche Zustände. Hier wäre etwas weniger Liberalismus dringend nötig - das sieht übrigens auch der IWF so: http://m.faz.net/aktuell/wirtschaft/wirtschaftspolitik/neuer-bericht-das-empfiehlt-der-iwf-deutschland-15016828.html

In gesellschaftlicher Hinsicht sieht es hingegen schon ganz anders aus: Gleichgeschlechtliche Ehe? Um Gotteswillen!
Sterbehilfe? Bloß nicht!
Endgültige Trennung von Kirche und Staat? Nie und nimmer!
Absolutes Recht auf freie Meinungsäußerung in Wort und Schrift? Lieber nicht!

Wir Deutschen sind längst nicht die Moralapostel, als die wir uns selbst so manches mal gerne wahrnehmen.

Liberal ist immer subjektiv,

Liberal im Vergleich zu vielen anderen Laendern ? Ja !
Liberal im Vergleich zu einer Cracknutte ? Nein, die laesst alle rein

Nein, sondern Neo-Konservativ. Im Vergleich zu andern Ländern aber typisch westlich, ja.


void1 
Beitragsersteller
 20.05.2017, 04:44

JA was jetzt!?? liberal , kapitaliamus oder konservativ , ihr habt alle keine ahnung man.

1
HagazussaT  22.05.2017, 00:27
@void1

Keine Ahnung? Wirf nicht mit Worten rum, deren Zusammenhänge du nicht verstehst, du Kasper!

1

Nein, sondern neoliberal.

Verglichen mit 95 % der Länder auf der Welt kulturell superliberal. Noch "liberaler", sozusagen suizidal liberal, ist Schweden, teilweise Holland und das Künstlerviertel in New York. 

Marktliberaler sind alle angelsächsischen Länder.