Man hört und liest, Deutschland sei womöglich auf dem Weg in die Verarmung. Besteht diese Warnung zu Recht?

7 Antworten

Vom Beitragsersteller als hilfreich ausgezeichnet

Ja, die Warnung muss man ernst nehmen, habe ich auch gehört und gelesen, wenn die AfD das Steuer übernimmt, wird Deutschland verarmen.

Wirtschaftspolitik: Institut der deutschen Wirtschaft warnt vor Folgen von AfD-Politik | ZEIT ONLINE


verreisterNutzer  16.02.2024, 20:50

Keine Angst in ein paar Jahren ist nichts mehr da, das man noch zu Grunde richten kann.

0

Weiß ich nicht.

Wäre aber doch auch letztlich egal.

Würde Deutschland verarmen, bekäme es sicherlich die Hilfe der Weltgemeinschaft.

Nach dem Motto:

Wer geben kann, gibt, wer Hilfe braucht, kriegt welche.

Oder ?


Neuhier314  16.02.2024, 19:09

Das wäre tatsächlich so, ja, da wir von unseren Verbündeten Aufbaugilfen bekommen würden, um eine starke Wirtschaft aufzubauen.

1

Man hört und liest :D

Also ich hör und lese das bisher nirgends außer in deiner Frage.


Natürlich nicht.

Woher ich das weiß:eigene Erfahrung

Wenn es so weiter mit der Rezession geht, könnte das Land stufenweise verarmen. Zuerst natürlich die "untere Schicht".


Koehlerlisl 
Beitragsersteller
 16.02.2024, 19:38

wirklich?

1