Warum werden an Schulen (bin selber Gymnasiast) keine Germanische Geschichte gelehrt?! Mich erstauntes es, das wir ein schon mehrmals Antike mit Römern, Griechen(inklusive Kultur und Politik) durch gesprochen haben, aber über die Germanische Kultur durchnehmen?! Ich mein da wir in deutschland Leben, wäre das doch eig. naheliegender oder nicht !?