Hi,
Viele sagen, dass Frauen aus westlichen Ländern durch den radikalen Feminismus maskuliner geworden seien als andere. Z.B sind Frauen aus Südamerika, Türkei, Osteuropa, Japan und anderen nicht-westlichen Ländern femininer. Ist der Feminismus ausgeartet ?
Auch wenn dem so wäre, will ich anmerken, dass der Feminismus wichtig ist und Männer, die auf Frauen herabsehen, bekämpft werden müssen, da diese zu Straftaten und sexuellen Übergriffen neigen. Ich will den Feminismus, den wir sehr dringend brauchen, also nicht schlecht machen . Es geht nur darum, dass einige Frauen aus westlichen Ländern maskuline Züge annehmen - zumindest ist es das, was ich von Menschen höre und ich will wissen, ob ihr ähnliche Erfahrungen gemacht habt. Wie können wir eine Gesellschaft haben, in der Männer sich an Regeln halten und Frauen wieder in ihre natürliche Energie gehen können ?