Fühlt ihr euch als Mann in Deutschland irgendwie wertlos und nicht genug beachtet?
Ich habe irgendwie das Gefühl, dass Männer wie Unkraut behandelt bzw. wahrgenommen werden und Frauen wie Gold oder Silber. Um das mal an einer Metapher zu verdeutlichen. Wie ist euer Gefühl?
Männer,
Menschen,
Frauen,
Psychologie,
Gesellschaft,
Liebe und Beziehung