Was ist besser: leben in Dubai oder leben in Deutschland?

3 Antworten

Ganz klar und deutlich Deutschland.

Aus Ausländer - egal wieviel Geld Du hast, wirst Du von den Emiratis niemals freundlich, sondern nur abwertend behandelt werden.

Davon abgesehen wird mir eine abwechslungsreiche Landschaft sowie die wechselnden Jahreszeiten fehlen. Nicht ein mal Urlaub würde ich dort machen..

Kommt stark auf deine Bedürfnisse an.

Magst du ...

  • das Sozialsystem oder findest du dieses mit seinen Vorteilen wie der gesetzlichen Krankenversicherung zumindest ein vernünftiges System
  • die vier Jahreszeiten inklusive dem Winter
  • schlicht die deutsche, westliche und/oder christliche Kultur

... ist Deutschland wohl der bessere Platz.

Hast du jedoch keinen Bock mehr auf ...

  • deutsche Neid- und Antileistungskultur
  • einer der höchsten Steuerlasten weltweit inkl. enormer Steuermittelverschwendung für Zwecke, die du nicht unterstützt
  • das kalte Wetter und genießt das ganze Jahr über gutes Wetter (bis auf einige Monate, wo es zu heiß wird)
  • unsichere Städte und möchtest in einer der sichersten Städte weltweit wohnen

..., dann ist Dubai der richtige Ort.

Dubai ist eine menschenfeindliche Dystopie, getragen von einem menschenfeindlichen System, allein ausgerichtet auf geschmacklosen Protz und Prunk. Wem dieses Abziehbild einer futuristischen Gesellschaft schmeckt, dem ist nicht zu helfen.