Ich finde es immer wieder lustig wenn Frauen sagen, dass der Mann gutes Geld verdienen soll, sie beschützen soll und beim 1. Date zahlen soll. Ich dachte wir wollen nicht mehr diese typischen Geschlechterrollen in Deutschland haben. Der Feminismus ist doch wohl nicht für Gleichberechtigung beider Geschlechter hm🥺🤡. Was ist eure Meinung dazu?
Ist das nicht ein bisschen ironisch?
Männer,
Deutschland,
Frauen,
Feminismus,
Geschlecht,
Gleichberechtigung,
Männlichkeit,
Sexismus
Weitere Inhalte können nur Nutzer sehen, die bei uns eingeloggt sind.