Gehen Narben mit Sonne weg?

... komplette Frage anzeigen

1 Antwort

Warum sollten sich die Beine entzünden, wenn die Wunden verheilt sind? Die Sonne lässt die Narben brauner werden, aber unsichtbar werden sie davon nicht, denn die gesunde Haut Drumherum bräunt stärker, wird also immer etwas brauner als das Narbengewebe sein.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?