Hallo
Wie seht ihr das? Werden die Frauen in unsere Gesellschaft wirklich immer männlicher? Ist die Emanzipation daran schuld, dass Männer und Frauen zu Konkurrenten werden? Ich hatte eine Diskussion mit einem Freund darüber und frage mich wie andere darüber denken.
Hat man die Frau wirklich ihrer Weiblichkeit beraubt in dem man sie in Männerberufen arbeiten lässt, sie Karriere machen lässt, ihr die Unabhängigkeit vom männlichen Geschlecht predigt ect?
Was ist weiblich und ab wann ist eine Frau dabei zu vermännlichen( kurze Haare, maskulinere Kleidung, usw)
Danke ☺