Was hätten die Nazis in den Deutschen Kolonien gemacht?
Hätte das Deutsche Kaiserreich (Später Weimarer Republik) nach dem ersten Weltkrieg ihre Kolonien nicht abgeben müssen, was hätten dann später die Nazis dort gemacht? Wären sie genauso brutal gewesen wie sie es in Europa waren, oder welche Vorstellungen hatten sie da? (Dazu hatten sie noch Kolonien in Ostasien!)
Leider hört man in Deutschland sehr wenig über diese Zeit.
