Wird meine Haut im Winter heller?

4 Antworten

Also, ich weiß nicht wie das bei halb Asiaten ist, aber bei mir ist das so, ich bin im sommer immer viel bräuner als im Winter, sowie z.B welche mit sommersprossen haben sie nicht im Winter aber im Sommer umsomehr;) also etwas heller wird deine haut sicherlich

Ja, im Winter wird die Haut heller. Das was die Haut so dunkel macht, ist die Pigmentschicht da drinnen, die im Sommer dicker wird um dich vor UV-Strahlen zu schützen. Daher, im Winter scheint die Sonne etwas schwächer, und da in den Sonnenstrahlen Vitamin-D ist, was Glückshormone ausschüttet, wird die Pigmentschicht dünner um diese Vitamine aufnehmen zu können.

Daher trinkt man auch immer im Winter heiße Schokolade. Schüttet Glückshormone aus ;)

Nur wenn die haut durch Sonne dunkler geworden ist wird sie auch wieder heller. Dir normale Hautfarbe bleibt gleich und ist auch im Winter vorhanden. Dafür gehen viele leute ewig zur Sonnenbank, also genieß es nicht so weiß zu sein.

Ja, aber minimal, also je mehr du aus der Sonne draussen bleibst, mit den Jahren wirst du immer heller. Aber niemals weiß. Leider bräunst du auch schneller - also um wirklich hell zu werden und zu bleiben, musst du komplett aus der Sonne draussen bleiben. Ich bin inzwischen weiß wie ein Schichtkäse und wurde als Kinder immer für ein Zigeuner bzw. Spanier oder so gehalten.