Ich lebe dort nun seit 3 Jahren und niemand kann mir das kaum erklären. Ein medizinisches Wunder? Ich war hier jahrelang Depressiv und trank vieeel zu viel Bier.

Kein Mediziner konnte mir helfen!

Und in Thailand? Ich bin IMMERNOCH überrascht wie positiv dort alles ist! bin dort ein Star!!!! 20 Jahre jüngere Frauen umschwirren mich, die Einheimischen versuchen sich alle mit mir Gut zu stellen, mein Haus wurde (verglichen mit Dland) für einen "Appel und ein Ei" gebaut. Und so weiter und so weiter....

Ich lebe wie der König von Frankreich!! Und bin glücklich. Keine Depression mehr. Darum vermute ich: Macht Deutschland krank????

Gäbe es vielleicht noch viele andere Menschen hier, denen es auch viel besser ginge, würden sie wie ein "König in Frankreich" leben?

In Deutschland ist man ja ein NICHTS!!! Dort umschwirren einen die Frauen nicht und auch die Männer geben nicht viel auf einen.