Sollten Kinder von ihren Eltern oder von der Schule aufgeklärt werden?
47 Stimmen
19 Antworten
Eine Kombi ist ideal. Eltern wissen meist zu wenig Details, gerade die biologischen Funktionen kennen sie nicht. Und nicht alles, was die Kinder interessiert trauen sie die Eltern zu fragen.
Und oft sind Eltern auch recht spät dran - und viele Eltern drücken sich auch darum aus Scham.
Eltern kennen die biologischen Funktionen nicht? Meinst du das ernst? Sie wissen nicht, wie ihre eigenen Kinder entstanden sind, oder wie?
Dort werden sie zusammen mit anderen Kindern aufgeklärt und ihnen muss nichts peinlich sein.
Auẞerdem wissen Lehrer oft mehr zu diesen Themen, als Eltern.
Sie sollten von ihren Eltern und der Schule aufgeklärt werden.
Die Aufklärungen im Elternhaus sind wichtig für das spätere Leben. In der Schule findet der Sexualkunde-Unterricht statt, wo ebenfalls aufgeklärt wird und wo Experimente/Filme gezeigt werden.
Würden wir das den Eltern überlassen, gäbe es haufenweise Jungerwachsene die noch kein Kondom gesehen haben... geschweige denn wissen wo sich die clit befindet.
In vielen Religionen klappt die Aufklärung nicht.
Gibt aber Menschen die im Leben mehr brauchen als Geld und Konsum an zu beten.
Hast Du jetzt genug Lob von deiner Deutschlehrerin bekommen?
Nein, ich mache das ehrenamtlich.
Sei dankbar; Du bekommst Gelegenheit, Stoizismus zu erlernen.
bite erkler mir das, das begrif ist zu komplizirt fur mich🥺
Schau mal nach "Alternativdeutsch für Fortgeschrittene". Viel musst Du da nicht mehr lernen.
Über dem Kondom?