Ich hab in einer Kommentarspalte auf YouTube gelesen, dass die Doktoren darauf ansprechen wenn die selbst zugefügte Narben/ Wunden sehen.

1.Müssen die das den Eltern sagen?

2.Ab Wann müssen es die Doktoren nicht mehr den Eltern sagen?

3.Was ist, wenn ein Doktor diese Verletzungen sieht, wenn man aber Volljährig ist?

Das würde mich interessieren.Danke für Antworten.

Schönen Tag euch noch :D