Was bedeutet das Wort deutsch und wieso wurde das Wort Deutschland durch Germanien ersetzt?

5 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Das Wort Deutschland leitet sich von dem Stamm der Teutonen ab. Früher sagte man auch Teutschland.

Falsch! Das ist ein weitverbreiteter Irrtum, aber eigentlich schon längst bekannt!

Wieso wurde das als hilfreichste Antwort markiert? XD

0

Das Wort leitet sich von zwei verschiedenen Wörtern ab: Zum einen von "tiudisk", welches "Zum Volke gehörig" meint und auf die bereits christianisierten germanischen Stämme des Ostfrankenreichs bezogen war; zum anderen von "teutonisch", besonders im Bezug auch das "Regnum Teutonicum" (Deutsches Königreich). 

Ab etwa dem 16. Jahrhundert kam nach dem "Heiligen römischen Reich" die Nachsilbe "deutscher Nation" hinzu, 1815 gab es den deutschen Bund, 1866 den Norddeutschen Bund und im Jahre 1871 den ersten deutschen Staat, nämlich das Deutsche Kaiserreich. 1918 ging das Kaiserreich zu Grunde, 1919 kam die Weimarer Republik, genannt "Deutsches Reich". 1945 wurde das "Deutsche Reich" aufgelöst, 1949 die Bundesrepublik Deutschland und die DDR gegründet. Im Jahre 1990 kam es zur Wiedervereinigung. 

"Der Name „Teutonen“ wird häufig etymologisch falsch mit dem Volksnamen Deutsche in Verbindung gebracht. Der Begriff deutsch geht jedoch - wie das italienische tedesco - auf das Althochdeutsche theodisk, diutisc aus der germanischen Wurzel theoda für Volk oder Stamm zurück. Es bedeutete ursprünglich soviel wie zum Volk gehörig oder die Sprache des Volkes sprechend und wurde seit spätkarolingischer Zeit zur Bezeichnung der nicht-romanischsprechenden Bevölkerung des Frankenreichs aber auch der Angelsachsen benutzt." http://de.wikipedia.org/wiki/Teutonen

Neun mal sitzengeblieben, oder was??

Die Frage wurde nicht von ihm neugestellt... Den Mauszeiger zu bewegen sollte doch nicht so schwierig sein?

0
@Nik7778

Was für ein Mauszeiger? Die Frage tauchte plötzlich unter den aktuellen Fragen auf meinem Smartphone auf.

0

Weil in dieser Zeit es Deutschland heißt und so definiert wurde. Warum es damals Germanien hieß, wirst du nie erfahren, denn die Leute die es erfunden haben, leben logischerweise nicht mehr. Germanien kommt von german, dass ist wiederum englisch und heißt deutsch.

Germanien kommt mit Sicherheit nicht aus dem Englischen, sondern leitet sich von den Germanen ab, bzw. von der lateinischen/römischen Bezeichnung "Germania" (Land der Germanen)

0

Was möchtest Du wissen?