Kann man das zurzeit noch sagen das Deutschland noch ein gutes Land ist? Ich meine allgemein auch im politischen Bereich, dank der letzten Jahre sieht es ja nicht mehr so gut aus für Deutschland, vorallem wegen der EU und seit 2015 werden immer mehr negative Fakten über Deutschland verbreitet, aber es leben hier trotzdem noch also geschätzt über 82 Mio Einwohner und gehen ganz normal ihrem Alltag nach.
Trotzdem, Schere zwischen Arm und Reich wird ja immer größer und die Leute wie ich finde sind irgendwie immer weniger zufrieden, nicht alle, aber auf einige trifft das zu. Die Gesellschaft, wovon ich auch ein Teil bin, hab auch vor fast drei, zwei Jahren meine Gedanken ein wenig zum Land in dem wir leben geändert und das leider nicht nur immer positiv. Dabei muss ich erwähnen, das ich hier dennoch nicht alles schlecht finde. Ist Deutschland etwa zu einem schlechten Land geworden? Wie denkt ihr darüber?