Wie entstand, durch politische Veränderungen, vom Absolutismus ein fester Staat in Deutschland?

...komplette Frage anzeigen

6 Antworten

8. Mai 1945: Der zweite Weltkrieg war verloren. Die Mitglieder der nationalsozialistischen Regierung flohen, begingen Suizid oder wurden verhaftet und angeklagt. Der Absolutismus war damit beseitigt und die vier Siegermächte (England, Frankreich, USA und Russland, damals Sowjetunion) teilten Deutschland in vier Besatzungszonen auf. In Westdeutschland wurde unter der Aufsicht der Alliierten wieder eine Demokratie installiert und in Ostdeutschland eine von Moskau gesteuerte als Demokratie proklamierte Diktatur (DDR), die dazu führte, dass Deutschland bis 1990 gespalten blieb.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von PaNiCGaming
22.11.2016, 15:09

Du musst aber Absolutismus und Faschismus unterscheiden ^^

0

Deutschland selbst wurde nie absolutistisch regiert; nur monarchistisch. Andere Staaten wie die USA hatten schon wesentlich länger eine Demokratie. 

Während der Zeit des Vormärz (ca. 1815 bis 1849) war Deutschland ein Bund aus Einzelstaaten (Herzugtümer, (Kur)Fürstentümer, Königreiche), Deutscher Bund genannt.

1848/49 kam es zur Deutschen Revolution als ein Ergebnis der während der Zeit des Vormärz geäußerten Einheit und dem Willen, einen gemeinsamen Staat zu bilden, der nicht nur von einer herrschenden Klasse gebildet wurde. Hier gab es erste Entwicklungen, welche aber vorerst nur in einem Deutschen Kaiserreich mündeten.

Nach dem ersten Weltkrieg startete Deutschland dann erneut den Versuch, eine Republik, die Weimarer Republik, auszurufen, welche aber unter anderem durch die Finanzkrise und die damit verbundene Inflation zusammenbracht und dem Nazionalsozialismus Platz machte.

Nach dem zweiten Weltkrieg (Mitte der 1940er Jahre) mussten die Siegermächte eine ganz neue Politik in Deutschland etablieren.

Weitere Infos: https://de.wikipedia.org/wiki/Deutscher_Bund

Antwort bewerten Vielen Dank für Deine Bewertung

Hei, WIGGLER, nicht ganz verständlich die Frage; ich versuch´s mal: Nach frz. Revolution,  als die absolute Herrlichkeit unter der Guillotine versank, schwappte der demokratische Freigeist auch in die anderen Länder. Die hoch erhabenen Herrlichkeiten sahen sich genötigt, um das Volk zu beruhigen, Konzessionen zu machen ... Schritt für Schritt erkämpfte sich das Volk seine Rechte. In Deutschland und Österreich-Ungarn dauerte es bis ans Ende eines fürchterlichen Krieges.

1870/71 war es allerdings erst einmal die Bismarcks Revolution von oben, die aus dem deutschen Flickenteppich einen Staat machte. Das Nationalbewusstsein der Deutschen war seit der Vertreibung Napoleons und seit den Freiheitskriegen so weit angewachsen, dass sie das geeinte deutsche Reich durchaus begrüßten.

Oder so. Grüße!

Antwort bewerten Vielen Dank für Deine Bewertung

Das ist eine relativ komplexe Frage über die ich wahrscheinlich mehrere Seiten schreiben könnte, manche sogar ganze Bücher 

Mal ganz ganz grob gesagt wie ich es im Unterricht hatte.. 
In den Befreiungskriegen gegen die französische Herrschaft unter Napoleon entwickelte sich ein nationaler Gedanke in Deutschland und Europa. Auf dem Wiener Kongress von 1814/1815 beschlossen die Monarchen Europas Restaurationsmaßnahmen um diesem Gedanken entgegenzuwirken. Es gab aber immer wieder eine nationale Bewegung unter der Bevölkerung, die unter anderem von Studenten ausging. So wurde 1817 dann auf dem Wartburgfest schon die nationale Einheit gefordert. Fürst von Metternich war einer der Gegenspieler der Nationalgesinnten und mit den Karlsbader Beschlüssen von 1819 wollte man ihnen auch entgegen wirken. 1848 kam es zur März Revolution in Deutschland, die solltest du dir mal genauer angucken. Spielt ne relativ große Rolle für den Staat Deutschland..

Zur Gründung "Deutschlands" kam es übrigens 1871 nach den Einigungskriegen 1862, 1864, 1870/1871 in Versailles wo Willhelm I zum ersten deutschen Kaiser gekrönt wurde, nachdem man den Erzfeind Frankreich besiegt hatte.. Ne wichtige Persönlichkeit in dem Zusammenhang ist auch Bismarck, den solltest du dir auf jeden Fall nochmal angucken ^^

So, hoffe das hilft, ist schon ne Weile her, dass ich das hatte 

Antwort bewerten Vielen Dank für Deine Bewertung

Was ist denn bitteschön ein "fester Staat"?

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von WIGGLER
22.11.2016, 19:47

Danke

0

Umgekehrt, einen festen Staat gab es nur zu Zeiten des Absolutismus! Seither gab es doch immer Abspaltung, Kleinstaaterei, Revolutionen, Glaubenskriege. Hätte man die Despoten - quasi Absolutisten - in Libyen, Irak, Afghanistan, Syrien usw. gewähren lassen, dann wäre viel Leid und Tod erspart geblieben und noch bleibend! Man hat ein kleineres Übel für ein viel größeres Übel eingetauscht!

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?