Frage von riffleeer, 48

Zu welchen Veränderungen in Deutschland hat der 2. Weltkrieg geführt?

Mich würde es einfach mal interessieren, was der 2.weltkrieg hier in Deutschland verändert hat.

Expertenantwort
von ArnoldBentheim, Community-Experte für Geschichte, 16

...was der 2.weltkrieg hier in Deutschland verändert hat.

Darüber müsste man ein Buch, wenigstens einen umfangreichen Aufsatz schreiben. Und "Veränderungen" im Vergleich zu welcher Zeit? Ich beschränke mich daher auf die 1930er und 1940er Jahre vor und nach dem WK II. und greife wahllos ein paar Punkte heraus.

  • Die Zahl der Bevölkerung hat sich deutlich gemindert. Die Deutschen jüdischen Glaubens sind entweder aus Deutschland vertrieben oder ermordet worden; viele Intellektuelle, Wissenschaftler, Künstler usw. haben Deutschland noch während des Krieges verlassen und sind nach dem Krieg nur z. T. nach Deutschland zurückgekehrt. Der Bombenkrieg hat zahlreiche Zivilisten den Tod gebracht; große Verluste hatte die kämpfende Truppe, weshalb nach dem Krieg Männermangel herrschte.
  • Das deutsche Staatsgebiet wurde durch Beschluss der Siegermächte erheblich verkleinert, die sog. "Ostgebiete" gingen an die Sovjetunion und Polen verloren, wobei man aber nicht übersehen darf, dass auch die Polen Opfer des Krieges geworden waren, weil sie durch die Abmachungen des "Hitler-Stalin-Pakts" bereits 1939 große Teile ihres Landes an die Sovjetunion abgeben und nach dem WK II auf Druck Stalins damit zufrieden sein mussten, mit eroberten deutschen Gebieten entschädigt zu werden - damals haben also nicht nur Deutsche, sondern auch Polen endgültig ihre Heimat verloren.
  • Der Krieg hat in Deutschland zu einer starken Zerstörung unersätzlicher Kulturgüter geführt: Archivmaterial, Kunstobjekte, historische Architektur, u. a. durch Ausradieren zahlreicher historischer Städte im Bombenkrieg.
  • Das deutsche Reich hörte zwar nicht auf zu bestehen, aber die Regierungsgewalt übernahmen bis 1949 die Siegermächte; erst 1949 erhielten die Deutschen die Regierungsgewalt zurück, wurden allerdings infolge des Kalten Krieges in zwei Staaten aufgespalten.
  • Der Lebensstandard der übergroßen Mehrheit der deutschen Bevölkerung war enorm gesunken, es fehlte an allen wichtigen Dingen, anfangs auch an Lebensmitteln; erst allmählich trat eine Besserung ein, in Westdeutschland vorallem nach Abschaffung der Vorkriegswährung "Reichsmark" und Einführung der D-Mark. Den Lebensstandard der Vorkriegsjahre erreichte und übertrumpfte die Bevölkerung erst in den 1950er Jahren.
  • Nachdem das Naziregime die Parteien und die Demokratie beseitigt hatte, wurde den Westdeutschen schon kurz nach Kriegsende die Demokratie auf lokaler Ebene ermöglicht, dann auf Länderebene und schließlich 1949 auch wieder auf Bundesstaatsebene. Demokratische Parteien wurden wieder gegründet und boten allen politisch interessierten Bürgern politische Mitwirkungsmöglichkeiten.

Das mag genügen. Hier noch der Hinweis auf weiterführende Ausführungen mit Literaturangaben:

-   http://www.bpb.de/izpb/10040/deutschland-1945-1949

-   http://www.bpb.de/izpb/10122/deutschland-in-den-50er-jahren

MfG

Arnold

Kommentar von riffleeer ,

Wow danke für die ausführlich Antwort :) 

Kommentar von ArnoldBentheim ,

Gerne.  :-)

Antwort
von aida99, 15

Wir haben fast unsere ganze jüdische Bevölkerung verloren - was waren ja alles Deutsche, die deutschen Nachbarn unserer Großeltern, die halt zufällig eine jüdische Herkunft hatten.

Deutsch wäre wahrscheinlich Wissenschaftssprache, nicht Englisch. In den 1920er Jahren kamen alle, die in der Physik was leisten wollten, zum Studium oder zum Arbeiten nach Deutschland.

Es wäre gut möglich, dass Deutschland heute eine wirtschaftliche Weltmacht wäre: Das Land, aus dem die meisten Erfindungen kommen und viele Trends.

Antwort
von adabei, 30

Ich gehe mal davon aus, dass es weniger dich interessiert sondern deinen Geschichtslehrer. ;-))

Kommentar von riffleeer ,

Ne:) diesmal wirklich mich...

Kommentar von adabei ,

Na dann ...

Antwort
von luca1401, 7

Deutschland gab es nach dem Krieg praktisch nicht mehr. Die Amis besetzten Bayern die Die Russen die künftige DDR die Franzosen Baden Wüttemberg und bisschen mehr und den Rest besetzten die Briten. Auserdem musste Deutschland gebiete an der Oder Neise Linie abtreten

Antwort
von Herb3472, 23

Die Infrastruktur, die Kultur, die Wirtschaft, die Architektur, die Kunst, - eigentlich so ziemlich alles.

Antwort
von stertz, 30

Die Architektur, und zwar nachhaltig.

Antwort
von Sagittarius1989, 5

Wir haben die Ostgebiete verloren und viele deutsche somit ihr zuhause, Deutschland wurde geteilt und jetzt glauben nicht wenige Ost un west sind unterschiedliche Völker und Länder.

Vaterlandsliebe und Patriotismus ist nicht gerne gesehen so wie rechts sein ist verpönt. das Militär wirt im Gegensatz verachtet und nicht mehr geehrt wie z.b in England. Deutschland wirt multikulturell bald sein. 

Antwort
von nooppower15, 21

Naja die Fragestellung ist etwas merkwürdig...

Schließlich gab es nach denn 2ten Weltkrieg keinen souveränen deutschen Staat mehr. Deutschland wurde unter denn Siegermächten aufgeteilt und seine Ostgebiete verlor es gänzlich.

Keine passende Antwort gefunden?

Fragen Sie die Community