Ist Deutschland besser als Australien?
Krankenversicherung, Rentenversicherung, Grundsicherung sind weitestgehend besser als da.
2 Antworten
Es kommt auf den Blickwinkel an. Die soziale Versorgung ist in Deutschland definitiv besser.
Ja nach Job kann Australien interessanter sein oder eben auch Deutschland.
Für Abenteurer hat Australien das größere Spielfeld.
Je nach der jeweiligen und persönlichen Situation kann entweder Australien oder eben Deutschland besser sein. Das muss jeder für sich entscheiden.
Der immer wieder vorgebrachte Hautkrebs kann sowohl in Australien aber auch in Deutschland vorkommen. An der See oder in den Bergen steht Deutschland da Australien in nichts nach. Ansonsten sollte man sich da die Australier als Vorbild nehmen, denn die passen sich mit ihren Verhalten dem an, dass man den Hautkrebs vermeidet.
Wenn jemand etwas schlechtes über Australien schreiben will, sind es entweder die bösen giftigen und gefährlichen Tiere oder der böse Hautkrebs. Da merkt man dann sofort, dass diese Schreiberlinge sich wichtig machen wollen und von Australien absolut keine Ahnung haben.
Meine Brüder wollten z.B. nicht mehr zurück nach Deutschland kommen, weil es ihnen hier viel zu eng war. Sie waren froh, wenn sie zurück nach Australien konnten.
Jeder muss für sich selber entscheiden und herausfinden, wo er besser und zufriedener leben kann. Das kann man nicht pauschal beantworten.
Ich würde sagen als armer Mensch ist man in Deutschland besser aufgehoben, aber wenn man gut ausgebildet ist, dann ist man in Australien besser aufgehoben. Nur das in Australien jeder 10. Hautkrebs kriegt, wegen zu starker Sonneneinstrahlung.
wenn man gut ausgebildet ist, dann ist man in Australien besser aufgehoben.
Inwiefern ?