Gibt es einen gesellschaftlichen Zwang für Frauen, sich rasieren zu müssen?
5 Antworten
Die Mode ist aktuell "Haare weg". Es gibt auch Leute die bewusst Haare zeigen ... vieleicht ist es in ein paar Jahren anders.
Nimm einige Male probeweise den elektrischen Rasierapparat - keine Nebenwirkungen und Hautreizungen - es ist dein Koerper und schadest keinem.
Entscheide dann, fuer dich und und nicht was die anderen sagen, dein Wohlfuehlgefuehl entscheidet.
Ich wuerde es nicht Zwang nennen. Du kannst ja auch Kleidung tragen, die die Haut verdecken (lange Arme und lange Hosen) wenn der Nachwuchs wieder kommt, um dich von eventuellen Kommentaren zu schuetzen
Ich denke schon. Gerade wenn Frauen in den Wintermonaten es weniger tun. Aber wenns dann im Sommer an den Strand geht alles Aal glatt sein muss. Also vorallem die Beine.
Und die meisten Frauen die bartwuchs (leicht) haben werden wohl auch sehr viel tun damit das nicht unbedingt der Fall ist.
Schambehaarung wird wohl noch warscheinlich das mit dem geringsten gesellschaftlichen druck sein. Ggf. Auch schlichtweg weil man es üblicherweise nicht sieht.
Hallo Tja00,
heutzutage wird beides akzeptiert: Sowohl rasiert, als auch unrasiert!
Lg. Widde1985
ja definitiv!
Das fängt schon bei der Werbung an, wo sich Frauen die Beine rasieren, obwohl nicht mal Haare dran sind. Dazu kommt der Druck unter den Frauen selbst, und der Druck von Männern, welche es gewohnt sind vom Pornos schauen, wo auch die meisten Frauen rasiert sind
Nein, das kann glücklicherweise jede Frau so halten, wie sie will.