Arzt sagt Wunde verheilt narbenfrei allerdings macht es mir angst?

... komplette Frage anzeigen

2 Antworten

Sieht doch gut aus (die Wundheilugn nicht die Wunde selbst)

Ich würde mir keine großen Sorgen machen. Wenn der Doc sagt man sieht es hinterher nicht mehr, dann ist das meistens auch so.

Antwort bewerten Vielen Dank für Deine Bewertung

Wenn du ein Foto rein stellst, sollte es scharf sein. darauf kann man nicht genug erkennen.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?