Was denkt ihr darüber?
Mir fällt immer wieder auf, dass Frauen aller Art nur auf ihr Äußeres reduziert werden oder als Sexobjekt gesehen werden und mehr nicht. Ich empfinde das als abwertend für mich und alle anderen Frauen. Damit möchte ich niemanden angreifen oder verurteilen sondern mir ist es immer wichtig etwas zu verstehen oder richtig gestellt zu bekommen. Dass Männer sexuell anders ticken bzw. gepolt sind ist mir bewusst. Aber ich erlebe nurnoch so plumpe Anmachen, dass ich schon aggressiv werde bevor jemand seinen Satz beendet hat. Gab es nicht auch mal Zeiten, in denen es Gang u gebe war eine Frau zu erobern, die Tür aufgehalten wurde usw und man sich als Frau nicht wie Frischfleisch fühlte? Oder war der Hintergrund damals schon der gleiche, nur die Vorangehensweise eine andere?😅 Bitte den Text nicht sexistisch auffassen. Ich wäre über Meinungen super dankbar🙏🏻
Werden Frauen vorrangig als Sexobjekt gesehen?
Männer,
Sexualität,
Psychologie,
Liebe und Beziehung
Weitere Inhalte können nur Nutzer sehen, die bei uns eingeloggt sind.