Gehen Narben unter Sonneneinfluss weg?

4 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Das kann ganz unterschiedlich werden. Manche Narben bleiben weiß, manche etwas heller als die Haut, andere können auch durch die Sonne stark verbräunen und auffälliger werden.

Kicks245 
Fragesteller
 07.05.2021, 15:19

Also bringt es nicht wirklich was wegen den Narben in die Sonne zu gehen?

0

Narben sind Schädigungen des Gewebes. Die gehen durch Sonneneinstrahlung nicht einfach weg. Höchstens die Farbe kann sich verändern - zum Vor-oder zum Nachteil. Da steckst du nicht drin...

Bei mir ist es besser geworden durch das sonnen , sonnen dich ab und zu mal bleib ruhig paar stunden unter der sonne auch wenn du sonnenbrand hast , sobald sich die haut pelt sind die narben weg etwas, bei mir war es so

glaube nicht, aber die werden besser "verdeckt" durch die braunere haut

Kicks245 
Fragesteller
 07.05.2021, 15:11

Ich meine weiße Narben, die würde man dann eher sehen wenn die Haut sich verdunkelt und sie dadurch mehr rausstechen.

0
colllan614  07.05.2021, 15:12
@Kicks245

also weggehen tuhen die leider nicht.
einige leute machen sich dort ein Tattoo, wenn es eine zu "hässliche" narbe ist

1