Wurde Deutschland erst nach dem 2. Weltkrieg bekannt?

...komplette Frage anzeigen

10 Antworten

Es war schon davor bekannt, im 1. Weltkrieg zum Beispiel.

Deutschland bzw das Deutsche Reich gibt es noch gar nicht so lang, nämlich seit 1871. Damals gab es aber noch kein Polen. Polen war damals zur Hälfte Deutsches Reich und zur anderen Hälfte Russland.

Da das Deutsche Reich relativ groß, eine Kriegsnation und mitten in Europa war, kannte man natürlich das Deutsche Reich auch schon damals.

Der 2. Weltkrieg ist eben einfach das Bekannteste, weil es ein so großes Ausmaß hatte und der letzte Krieg von solch einem Ausmaß war.

Antwort bewerten Vielen Dank für Deine Bewertung
HansH41 09.09.2016, 19:44

"das Deutsche Reich gibt es noch gar nicht so lang, nämlich seit 1871"

Das war das zweite Deutsche Reich.

Das erste Deutsche Reich, korrekt, das Heilige Römische Reich Deutscher Nation gab es seit 800, oder wenn du willst, seit Kaiser Otto, also 1000.

Warum wohl nennt man Hitlers Reich das Dritte?

0
strol 09.09.2016, 20:16
@HansH41

Das weiß ich auch.

Aber das Heilige Römische Reich Deutscher Nationen war kein einheitlicher Staat! Es war auch kein Staatenverbund, wie die EU. Es war nur so eine Art Dachverband für die zentral in Europa gelegenen Fürstentümer, Königreiche, Herzogtümer usw.

Von daher würde ich niemals von einem Staat reden und sehe erst das Deutsche Reich von 1871 als Staat an.

Zudem kam die Erweiterung "Deutscher Nationen" auch erst Ende des 15. Jahrhunderts hinzu.

0

Also wenn ich Deutschland hörte. dann denke ich nur 2. Weltkrieg. Schade...ziemlich kleinkariert, wie Du denkst!

Klar war Deutschland auch vor dem 2.Weltkrieg bekannt! Man denke z.B. an die großen Dichter und Denker, deren Wurzeln in Deutschland waren.

Ich kenne eine Person, die steht kurz vor ihrem 100.Geburtstag...stell Dir vor, sie lebte bereits VOR dem 2.Weltkrieg IN DEUTSCHLAND!

Antwort bewerten Vielen Dank für Deine Bewertung

Die Leute wussten schon weit vor dem 2. Weltkrieg, dass Deutschland existiert.

Antwort bewerten Vielen Dank für Deine Bewertung

Hallo Hansima12,

natürlich war Deutschland bereits vor dem 2. Weltkrieg bekannt - nur häufig assoziieren viele Länder (so auch Polen), wie du bereits selbst miterleben konntest, mit Deutschland diese dunkle Zeiten des Nationalsozialismus...

Sabsi :-)

Antwort bewerten Vielen Dank für Deine Bewertung
abibremer 21.09.2016, 21:10

Ich betrachte mir sorgenvoll die Wahlerfolge der AFD und fremdenfeindliche Ausschreitungen in den östlichen Bundesländern!!

0

Na ja, das ist das bekannteste, vor allem in Polen, Russland usw.

Frag doch mal in der Schweiz.

Umgekehrt, Wenn Du Istanbul liest, doer hörst, denkst Du an Türkei und Erdogan, oder daran, das es früher Konstantinopel hieß?

Antwort bewerten Vielen Dank für Deine Bewertung

Wer sich auch nur ein WENIG mit europäischer und besonders deutscher Geschichte beschäftigt, der kann nur darüber (so wie ich) STAUNEN  dass es trotz engster verwandtschaftlicher Beziehungen der diversen Adelshäuser überhaupt zu so einem mörderischen Krieg kommen konnte: Willi (dt. Kaiser Wilhelm II.) Niki (der russische Zar) George (engl. König) trafen noch zur Hochzeit Viktoria Luises (Tochter von Willi) in Berlin zusammen, speisten und soffen sich eins und kurz danach "brach" der erste Weltkrieg aus. Wie bescheuert kann "man" eigentlich sein??

Antwort bewerten Vielen Dank für Deine Bewertung

Deutschland hat bereits vor dem zweiten Weltkrieg rumgeholzt, z.B. Erster Weltkrieg, davor Deutsch-Französischer Krieg.

Antwort bewerten Vielen Dank für Deine Bewertung

Nein, schon vor der Reichsgründung 1871 war die größte Provinz, Preußen, bekannt und zum Teil auch gefürchtet....

Antwort bewerten Vielen Dank für Deine Bewertung

Die Bayern haben erst im 1. Weltkrieg erfahren, dass sie zu Deutschland gehören.

Antwort bewerten Vielen Dank für Deine Bewertung

Es kann vielleicht Menschen gegeben haben sie Deutschland auch schon vor dem 2. Weltkrieg gekannt haben.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?