Findet ihr es schlimm nackt vor eurer Familie zu sein, z.b vor Eltern oder Kinder, oder findet ihr Nacktheit generell schlimm auch bei fremden Menschen?

Hey Liebe Community ich habe mal eine Frage!

Gefragt sind Männer und Frauen!

Findet ihr es schlimm wenn euch eure Eltern nackt sehen, egal in welchen Alter, oder findet ihr es schlimm nackt eure Eltern zu sehen?

Findet ihr es schlimm wenn man vom Sohn oder Tochter mal versehentlich den Anus bzw den After sieht? oder den Penis oder die Vagina?

Oder findet ihr es schlimm vom Vater oder von der Mutter oder Bruder oder Schwester den Anus bzw den After zu sehen oder den Penis oder die Vagina?

Ist euch das schonmal passiert in der Familie oder bei Fremden z.b FKK Strand oder Sauna?

Ich meine es ist ja auch nichts schlimmes, es ist alles ganz Menschlich klar es ist was intimes, trotzdem muss man sich für sowas nicht schämen!

Bitte nicht falsch verstehen, es ist nur eine Frage, es interessiert mich einfach wie ihr darüber denkt!

Also ich persönlich habe kein Problem meinen Vater oder meine Mutter oder meinen Bruder oder meine Schwester nackt zu sehen! Und mir sind alle erwachsen! Es ist nur so meine Familie ist da leider verklemmt, da zeigt sich niemand von uns nackt, was ich sehr schade finde, aber ok es ist jedem seine Sache!

Wenn ich als Mann mit meiner Freundin in die Sauna gehe, sehe ich als auch Familien die zusammen in die Sauna gehen!

Jetzt meine Frage wie sieht ihr das? Muss man sich wirklich schämen wenn man von dem Vater oder der Mutter oder vom dem Bruder oder Schwester, oder Sohn oder Tochter den Anus bzw den After sieht? Oder den Penis oder die Vagina? Weil es ist ja eigentlich nichts schlimmes so sind wir auf die Welt gekommen warum müssen wir uns dafür schämen? Werde ich niemals verstehen!

Ich weis es ist was intimes wo niemand was angeht, aber ich meine wenn man es versehentlich sieht, oder zufällig sieht! Ist das dann schlimm? Oder eher was völlig normales? Egal ob man das von seinem Familienmitglied sieht oder von Fremden Menschen!

Wie sieht ihr das?

Ich Entschuldigen mich für den langen Text, und freu mich über jede Antwort! Lg DuSchonWieder80

Familie, fremd, nackt, Nudismus
Welche Gründe gibt es, um in Deutschland zu bleiben, und welche Gründe gibt es, um aus Deutschland auszuwandern?

Hey liebe Community, ich habe mal eine Fragen an euch.

Welche Gründe sieht ihr um in Deutschland zu bleiben, und welche Gründe sieht ihr, um aus Deutschland auszuwandern?

Also ich persönlich als Deutscher, sehe eigentlich nur Gründe um in Deutschland zu bleiben.

  1. Es ist sicher hier in Deutschland.
  2. Es hat gute Sozialsysteme.
  3. Es wird zum größten Teil an die Menschen hier gedacht.
  4. Es wird nicht so brutal mit den Menschen umgegangen.
  5. Wenn ein Mensch psychisch Krank ist, wird ihm geholfen.
  6. Es muss niemand Hungern und Dursten, hier hat jeder genug zu Essen und zu Trinken.
  7. Man verdient genug Geld, und muss nicht in Armut leben.
  8. Ect.

Also ich persönlich werde nicht auswandern, ich will hier in Deutschland bleiben, und alt werden, weil egal in welchem Land man ist, es wird immer Probleme geben. Wenn nicht da, dann woanderst. Probleme gibt es immer, nichts ist Perfekt.

Deutschland hat generell gute Systeme, egal ob in Bildung, oder Sozial ect.

Ich finde viele Deutsche beschweren sich einfach zuviel über Deutschland, statt das sie dankbar sind hier in einem sicheren Land zu leben, und nicht Hungern und Dursten zu müssen.

Jetzt wollte ich mal fragen, wie sieht ihr das?

Werdet ihr in Deutschland bleiben? Oder wollt ihr eher auswandern?

Ich wandere nicht aus, und bleibe hier in Deutschland weil... 88%
Ich wandere aus, und bleibe nicht hier in Deutschland weil... 13%
Deutschland, Politik, auswandern, Gruende, Abstimmung