Gab es in Deutschland sowas wie einen Wilden Westen?

11 Antworten

Die haben sich nicht im Bürgerkrieg gebildet, sondern lange vorher. Wenn du ein Land erschließt, geht das nicht gut unbewaffnet - das war bei den Römern ähnlich. Und wo jeder bewaffnet ist, kommt es eben auch zu solchen Entwicklungen. Ich bin ganz froh, dass sie hier viel länger her sind, dadurch ist das Bedürfnis bei den Menschen verschwunden, selbst jederzeit schießbereit zu sein.

Na gut, dann versuche ich es mal ernsthaft. (Obwohl ich auch das mit dem Ost-West etwas ernsthaft gemeint hatte).

 

Typisch für WildWest waren die Cowboys und Indianer. Logisch, die gabs hier nicht. Aber Durchaus ähnliche Abenteuer. Karl May sagt ja jedem Wildwestfan was. Der hat, was viele nicht wissen, nicht nur über Winnetou und Hadschi Halef, sondern durchaus auch über seine Heimat geschrieben. Dort waren es nicht Cowboys, sondern Schmuggler, die das Abenteuer brachten. Der bekannteste aus dem Erzgebirge dürfte wohl das Buschgespenst sein. Sicher dann was für dich.

<a href="http://tinyurl.com/66dzbuo" target="_blank">http://tinyurl.com/66dzbuo</a>

in deutschland in dieser form nicht

man hat früher zum ruhrpott aus spaß "wilder westen" gesagt.

insbesondere auch hinblick auf die konkurrenz im fußball zwischen schalke und dortmund

Klar gabs den. Aber nur kurze Zeit, so zwischen 1990 und 1995. Die Waffen waren aber nicht mehr Colts und Winchester und die Gegend war nicht der Westen, sondern der Osten. Da kamen dort, genau wie damals im Wilden Westen, haufenweise Glücksritter, Betrüger und Gauner um bei den kulturlosen Eingeborenen das große Geld zu machen. Erst später kamen echte Spezialisten, wie damals Marshals und Richter, um mit Hilfe der Urbevölkerung den Gaunern das Handwerk zu legen.


AtomicTom 
Beitragsersteller
 19.03.2011, 16:43

Danke, genau so eine Antwort wollte ich nicht haben.

Antworte richtig oder wenn du keine Ahnung hast gar nicht. 

AtomicTom 
Beitragsersteller
 19.03.2011, 16:47
@AtomicTom

Sorry, das Kommentar sollte nicht an dich gehen xD 

  • Kiefer, Bernd; Grob, Norbert (Hrsg.): Filmgenres – Western. Stuttgart: Reclam 2006.

  • Seeßlen, Georg: Western: Geschichte und Mythologie des Westernfilms. Marburg: Schüren 1995.

Informier dich doch vielleicht erstmal was ein Western ist, hoffentlich kannst du dir die Frage dann rasch selbst beantworten


AtomicTom 
Beitragsersteller
 19.03.2011, 16:41

Jeder weiß was ein Western ist.

Der Western ([ˈwɛstɐn], [ˈvɛstɐn]) ist ein Kino-Genre, in dessen Mittelpunkt der zentrale US-amerikanische Mythos der Eroberung des (wilden) Westens der Vereinigten Staaten im neunzehnten Jahrhundert steht

Aber du solltest dir vielleicht erstmal meine Frage richtig durchlesen. Es geht mir um Deutschland zu ungefähr dieser Zeit und was damals hier so passiert ist. Trotzdem danke für die Quellen.