Hallo,

vor etwa 5 Monaten hat mir jemand in die Hand geritzt, die Erinnerung daran ist nicht gerade schön und ich habe gehört, dass Frauen bei Männern auch großen Wert auf die Hände legen. Ich überlege mir derzeit die Narbe von einem Arzt etwas ausbessern zu lassen wenn die Rötung weg ist.

Diese Frage richtet sich an die weiblichen Leser:

Findet ihr, dass meine Hand durch die Narbe eher entstellt wirkt und ich sie mir ausbessern lassen sollte oder hat die Narbe eher was interessantes und ich sollte sie so lassen?