Hi ich fahre morgen nach Spanien und ich befürchte dass meine Narben die ich vom ritzen (nicht besonders tief) und durch verbrennungen habe durch die Sonne schlimmer werden. Wenn ich in der Sonne bin, sieht man meine Narben stärker. Aber manche Leute meinen, Sonne sei gut für Narben. Was stimmt jetzt? :( Denkt ihr, dass die Narben irgendwann verschwinden? (sind schon fast 2 Monate alt)