Macht die Schule die Kinder woke?
Normalerweise bin ich kein Fan von Modewörtern wie „woke“ aber ich denke, das verdeutlicht was ich meine.
Ich bin selbst Vater und kenne einige Familien die Kinder haben, mit denen man sich regelmäßig austauscht.
Ich habe jetzt schon öfters gehört, das die Kinder aus der Schule kamen und plötzlich wie ausgewechselt waren.
Plötzlich wollte sie kein Fleisch mehr essen, weil sie gehört haben das sie dann Verbrecher und Täter wären, plötzlich wollte man auf Milch verzichten aus dem selben Grund. Die Kinder haben teilweise ihre Eltern für den Verbrenner kritisiert und haben die Eltern gefragt ob die Eltern für die Kinder wählen gehen könnten, in Richtung Grün oder Links. Die Kinder wollten nicht mehr Angeln gehen, obwohl das vorher für die Kinder immer ein riesen Spaß war. Sogar das Lagerfeuer sei moralisch schlecht. Die Kinder haben plötzlich aussagen getroffen (politisch), die die Kinder sich in ihrem Alter so noch nicht hätten ausdenken können.
Findet in der Schule tatsächlich eine Indoktrination statt? Die Eltern kennen ihre Kinder sehr gut und alle diese Sachen haben den Kindern vorher sehr Spaß gemacht.