Hey,
ich würde gerne wissen wollen, ob ihr bei Frauen auf eine gesunde und schöne Pflege an Händen und Füßen achtet?
oder ob euch das im Prinzip völlig egal ist und am besten sieht man vor allem die Füße erst gar nicht.
Falls doch, was genau gefällt euch daran und verändert sich eure Sichtweise bzw. sogar eure Meinung gegenüber der Person aufgrund dessen.
Auf was genau achtet ihr dabei?
ich weiß auch, dass es Menschen gibt, die darauf sogar einen Fetisch haben.
Gibt es trotzdem Merkmale, aufgrund dessen ihr nochmals unterscheidet oder ist für euch einfach jeder Fuß „gleich schön“ ?
ich persönlich achte schon immer auf mein gepflegtes äußerliches Erscheinungsbild und habe mir darüber noch nie größere Gedanken gemacht. Vor allem nicht, wie andere Menschen das wahrnehmen oder dazu stehen.
*Bild durch Moderation entfernt