Was waren die Folgen des ersten Weltkrieges in Europa, insbesondere Frankreich und England?

... komplette Frage anzeigen

3 Antworten

England und Frankreich waren zwar Sieger, aber auch ihr Land war ausgeblutet. Wären die USA nicht in den Krieg eingetreten, so wäre es irgendwann zu einem Waffenstillstand und Frieden gekommen, weil keiner mehr Kräfte hatte.

Aber eben weil die Länder ausgeblutet waren, waren sie auch geschwächt. England musste teilweise seine Weltmachtsrolle an die USA abtreten (ganz nach dem 2. WK). Frankreich folgte eine strikte Sicherheitspolitik gegen Deutschland ( siehe auch Ruhrbesetzung), zugleich wechselten aber auch die Regierungen dort häufig, ähnlich wie in Deutschland.

Die Auswirkungen auf Deutschland und Österreich müsste dir bekannt sein, alternativ bei Wikipedia nachlesen, da gibt es umfassendes Material.

Wie ich schon erwähnte, übernahm die USA mehr und mehr die Führungsrolle in der Welt; dennoch verfolgten die USA in den 1920er wieder die Neutralitätspoltik. Zugleich waren die 1920er Jahre wirtschaftlich sehr erfolgreich und führte zu allgemeinen Wohlstand in allen Bevölkerungsschichten.

In Europa breitete sich in den 1920 und 1930er eben durch die instabile Lager der Faschismus aus, wie man anhand Deutschland (Hitler), Spanien (Franco) und Italien ( Mussolini)

Auf der anderen Seite zogen aber auch Demokratie und Bürgerrechte ein und die Monarchien verschwanden.

Antwort bewerten Vielen Dank für Deine Bewertung

Also was ich sagen kann ist, dass die USA den Völkerbund initiiert haben, ohne selbst beizutreten. Das war sozusagen ein Bündnis, welches den Frieden wahren sollte.

Antwort bewerten Vielen Dank für Deine Bewertung

Armut Hunger Angst usw.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?