Haben die Nazis das Welt Bild von Österreichern und Deutschen ruiniert?
Bevor es die Nazis gab waren Österreich und Deutschland eigentlich für ihre guten Autos,Flugzeug und zahlreichen Erfindungen bekannt
Haben die Nazis das Welt Bild, eurer Meinung nach stark ins negative gelenkt ?
5 Antworten
Ich glaube, das wird etwas übertrieben. Viele schätzen Deutschland als innovatives Land und allgemein welches, dass eben recht kooperativ ist. Sicherlich kennen viele Ausländer auch Adolf Hitler, doch man verbindet das nicht immer automatisch schlecht. Deutschland und Österreich haben an sich einen guten Ruf. Österreich denke ich vor allem wegen der Berglandschaft und deren Leidenschaft für die Käse- und Schinkenherstellung.
Schon die Hunnenrede Wilhelms II. (1900) sowie die Niederschlagung von Aufständen der Herero und Nama in Deutsch-Südwestafrika (1904–1908) – laut vielen Historikern war es ein Genozid – schadeten dem Ansehen Deutschlands.
Der 1. Weltkrieg löste immensen Hass auf Deutschland aus (siehe z. B. Rape of Belgium). Viele US-Amerikaner mit deutschen Nachnamen nahmen englisch klingende Nachnamen an.
Natürlich verschlechterte der Nationalsozialismus das Bild Deutschlands in der Welt noch mehr.
Naja, zahlreiche Erfindungen gab es unter den Nationalsozialisten auch - die brachten halt zumeist nur den Tod. Aber ich verstehe, was du meinst, aber ich glaube das nicht. Die Amis zum Beispiel denken bei Deutschen meist eher zuerst an Bier und Lederhosen. 🥨🍻
Für einige schon. Aber kluge und ungebildete Menschen wissen, dass viele Deutsche und Österreicher nichts damit zu tun hatten udn selbst damit hatten nicht alle was damit zu tun. Zudem ist es zum Glück immer weniger ein Problem.
Ja sicher.
Jedem Ausländer fällt beim Sichwort Deutschland als erstes Hitler ein.
Allerdings können die meisten Vergangenheit und Gegenwart unterscheiden und pauschalieren die heutigen Deutschen nicht per se als Nazis.