Antwort
Der wilde Westen ist der Westen Amerikas während der Pionierzeit/Kolonialisierung, wo sich viele ihr Land mit der Faust oder dem Revolver "erkauften" und es einen Goldrausch gab, bis sich eben alles mal eingelebt hatte. Ach ja: zuvor wurden noch die Indianer vernichtet und Teile Mexikos zu den USA gemacht, um dann die Mexikaner als Immigranten zu verhöhnen, obwohl manche Familien nie ihr Land verlassen haben, sondern eben die Grenze der USA über ihr Land hinweg gesetzt wurde.