Antwort
Es gibt keine klar definierte Position des "Wilden Westens". Man bezeichnet damit einfach die Tatsache, dass es im Westen der Vereinigten Staaten es etwas rauer zuging als in dem "Zahmeren" Osten.