Wieviel wissen die Deutschen Schüler über die Deutsche Kolonial und Kaiserzeit?
Wird dies an Deutschen Schulen erklärt und unterrichtet, falls Nein, wieso? Weil ich selber habe oft das Gefühl, dass diese Kaiserzeit ziemlich schlecht gealtert ist und durch die Nazi Zeit sozusagen verdeckt wird.
Leben,
Schule,
Geschichte,
Sprache,
Bildung,
Deutschland,
Politik,
Psychologie