Gab es in Deutschland sowas wie einen Wilden Westen?
Bin im Moment voll auf nem Western-Trip und habe mich gefragt ob es sowas wie Outlaws, Gangs und Schiesserien in der Mittagssonne (Klischeealarm! :D) auch hier in Deutschland gegeben hat. Denke nicht, weil es hier ja keinen Bürgerkrieg wie in Amerika gab, wo sich diese Banden herausgebildet haben, oder? Ansonsten wären allgemeine Infos über Ende 1800, Anfang 1900 interessant. Naja, vielleicht kennt ja jemand nen guten Link oder ist einfach ein Fachmann.
Gruß, Tom
11 Antworten
Die haben sich nicht im Bürgerkrieg gebildet, sondern lange vorher. Wenn du ein Land erschließt, geht das nicht gut unbewaffnet - das war bei den Römern ähnlich. Und wo jeder bewaffnet ist, kommt es eben auch zu solchen Entwicklungen. Ich bin ganz froh, dass sie hier viel länger her sind, dadurch ist das Bedürfnis bei den Menschen verschwunden, selbst jederzeit schießbereit zu sein.
Na gut, dann versuche ich es mal ernsthaft. (Obwohl ich auch das mit dem Ost-West etwas ernsthaft gemeint hatte).
Typisch für WildWest waren die Cowboys und Indianer. Logisch, die gabs hier nicht. Aber Durchaus ähnliche Abenteuer. Karl May sagt ja jedem Wildwestfan was. Der hat, was viele nicht wissen, nicht nur über Winnetou und Hadschi Halef, sondern durchaus auch über seine Heimat geschrieben. Dort waren es nicht Cowboys, sondern Schmuggler, die das Abenteuer brachten. Der bekannteste aus dem Erzgebirge dürfte wohl das Buschgespenst sein. Sicher dann was für dich.
<a href="http://tinyurl.com/66dzbuo" target="_blank">http://tinyurl.com/66dzbuo</a>
in deutschland in dieser form nicht
man hat früher zum ruhrpott aus spaß "wilder westen" gesagt.
insbesondere auch hinblick auf die konkurrenz im fußball zwischen schalke und dortmund
Klar gabs den. Aber nur kurze Zeit, so zwischen 1990 und 1995. Die Waffen waren aber nicht mehr Colts und Winchester und die Gegend war nicht der Westen, sondern der Osten. Da kamen dort, genau wie damals im Wilden Westen, haufenweise Glücksritter, Betrüger und Gauner um bei den kulturlosen Eingeborenen das große Geld zu machen. Erst später kamen echte Spezialisten, wie damals Marshals und Richter, um mit Hilfe der Urbevölkerung den Gaunern das Handwerk zu legen.
Sorry, das Kommentar sollte nicht an dich gehen xD
Kiefer, Bernd; Grob, Norbert (Hrsg.): Filmgenres – Western. Stuttgart: Reclam 2006.
Seeßlen, Georg: Western: Geschichte und Mythologie des Westernfilms. Marburg: Schüren 1995.
Informier dich doch vielleicht erstmal was ein Western ist, hoffentlich kannst du dir die Frage dann rasch selbst beantworten
Jeder weiß was ein Western ist.
Der Western ([ˈwɛstɐn], [ˈvɛstɐn]) ist ein Kino-Genre, in dessen Mittelpunkt der zentrale US-amerikanische Mythos der Eroberung des (wilden) Westens der Vereinigten Staaten im neunzehnten Jahrhundert steht
Aber du solltest dir vielleicht erstmal meine Frage richtig durchlesen. Es geht mir um Deutschland zu ungefähr dieser Zeit und was damals hier so passiert ist. Trotzdem danke für die Quellen.
Danke, genau so eine Antwort wollte ich nicht haben.
Antworte richtig oder wenn du keine Ahnung hast gar nicht.