Ist Sonne gut oder schlecht für Narben?
Hi ich fahre morgen nach Spanien und ich befürchte dass meine Narben die ich vom ritzen (nicht besonders tief) und durch verbrennungen habe durch die Sonne schlimmer werden. Wenn ich in der Sonne bin, sieht man meine Narben stärker. Aber manche Leute meinen, Sonne sei gut für Narben. Was stimmt jetzt? :( Denkt ihr, dass die Narben irgendwann verschwinden? (sind schon fast 2 Monate alt)


4 Antworten
Narben bitte immer immer eincremen! Da sie keine pigmente haben, sind sie der sonne ungeschützt und brennen sich in deine haut ein. Hatte den fehler vor 3 jahren auch mal gemacht und die narben sind lila geworden. Die narben wären schon längst verblasst, man sieht sie aber immer noch n bisschen ;)
Ja ist es. Benutze sonnencreme lsf 30-50 dann klappts und creme regelmässig ein
also ist sonne schlecht für die narben und es wird dadurch schlimmer? Weil ich kann meine narben jetzt auch nicht vor der sonne schützen wenn es 30 grad sind:( und ich creme sie immer ein, auf dem bild hab ich auch creme drauf:)
Sonne ist schlecht für Narben! Sie können davon dauerhaft dick und lila werden.
Also die Stellen gut eincremen und vor der Sonne schützen!
Gut mit Sonnenmilch eincremen. Und halte dich viel im Schatten auf, das ist eh besser für die Haut :-)
Schönen Urlaub!
Vorsicht. Insbesondere solltest du mit frischen Narben nicht an die Sonne gehen. Die Narben abdecken wäre angezeigt. Ansonsten können die Narben sehr hässlich werden - und das dauerhaft.
Bei mir werden die Narben stärker sichtbar durch die Sonne. Wenn es wirklich Narben sind werden die nicht weggehen. Sie werden höchstenes etwas schlechter sichtbar, aber das kann Jahre dauern.
wie soll ich sie vor der sonne schützen? ich kann bei 30 grad keine langärmligen Sachen anziehen:(