Hallo Community hiermit möchte ich die Frage stellen und gleichzeitig eine Diskussion starten. Also warum ist es den meisten Leuten heutzutage peinlich nackt zu sein besser gesagt warum ist das Nackt sein denn bitte so schlimm, schließlich ist es doch so das wir im Grunde genommen gleich sind zumindest innerhalb des eigenen Geschlechts. Ist es denn nicht viel mehr das Gefühl, das von anderen vermittelt wird das heißt die anderen sagen es ist peinlich oder schlimm nackt zu sein und man glaubt es natürlich. Ich finde das es völlig übertrieben ist und was soll man denn schon groß sagen schließlich hatten wir alle mal Bio, wenn man Kinder hat erst recht. Wir werden ja auch nicht mit Klamotten geboren also ist es doch nur natürlich. Wenn man nicht nur innerhalb des eigenen Geschlechts ist kann ich es ja noch verstehen aber untereinander kann man sich doch eh nix abkucken.
Meiner Meinung nach sollte man den Kindern nicht eintrichtern das es schlimm ist nackt zu sein und das es unter gegebenen Umständen auch nicht peinlich.
So jetzt seit ihr gefragt was haltet ihr davon und bitte nicht so tun als ob ich auf oberschlau mach das ist nämlich nur meine eigene Meinung.
BITTE KEINE DUMMEN KOMMENTARE
Herzlichen Dank an die Community ihr seit spitze!! :)