Warum änderten die Westmächten ihre Politik gegenüber Deutschland?

... komplette Frage anzeigen

2 Antworten

Ich nehme an, Du meinst die Situation vor dem Zweiten Weltkrieg (bitte lerne, Fragen präzise zu stellen - ob der Antwortgeber weiss, was Du wissen willst - er ist nicht Dein Schulnachbar).

Es war die Besetzung von Böhmen und Mähren im März 1939 und damit ein eklatanter Wortbruch Hitlers gegenüber dem Vertrag von September 1938, wo er heilig versprochen hat, er habe keine weiteren territorialen Forderungen.

Damit war das Appeasement (durch Entgegenkommen Friedfertigkeit erlangen) gescheitert, es zeigte sich auch, dass Hitler durchaus nicht nur alle Deutsche in einem Reich vereinigen wollte, sondern auch über ethnische Grenzen hinaus expandieren wollte.

Es galt einzusehen, dass nur entschlossenes Entgegentreten würde Hitler stoppen können - so wie heute mit dem Islam. Dem kommt man auch überall entgegen, er dankt es mit Anschlägen und sexuellen Belästigungen.

Hier ein Aufsatz, der mit dem Abkommen von München beginngt:

http://geschichte-forum.forums.ag/t55-das-munchner-abkommen-oder-diktat-ohne-uns-uber-uns-edvard-benes-sieg-hitlers-salamitaktik-fiasko-des-appeasements

Antwort bewerten Vielen Dank für Deine Bewertung

Wer änderte sie denn wann?

Antwort bewerten Vielen Dank für Deine Bewertung