Hey, seitdem ich mir Hollywood Veneers gemacht hab (vor 2Jahren), fällt mir immer mehr auf das sehr viele Menschen in Deutschland Karies/gelbe Zähne haben oder Zahnlücken sogar.
extrem schlechte Zähne kannte ich aus meiner Kindheit eig. nur aus'm Urlaub in Südliche Länder wo die Menschen weniger Geld usw. haben aber
wie kann es sein das man in einem der reichsten Länder der Welt (also Deutschland) die Menschen so aussehen, wird Deutschland immer ärmer? oder liegt es daran das ich seit 2 Jahren mehr darauf achte und es schon immer so war.