Finde es seltsam. Männer dürfen ihre Brust komplett zeigen in der Öffentlichkeit, Frauen müssen die Brustwarzen abdecken. Macht es Sinn für euch?
Verwandte Themen
Wie findet ihr es, dass Männer allgemein Brustwarzen zeigen dürfen und Frauen nicht?
Männer,
Brust,
Politik,
Frauen,
Psychologie,
Brustwarzen,
Geschlecht,
Gleichberechtigung,
Meinung