Meyers Großes Taschenlexikon in 25 Bänden
Wilder Westen
Wilder Westen,in Nordamerika während des 19. Jh. die im Lauf der Expansion nach W vorrückende Übergangsregion von organisiertem Siedlungsgebiet der weißen Einwanderer zu dem noch von Indianern behaupteten Land (Vereinigte Staaten von Amerika, Geschichte). Der W. W. ist in Romanen und Filmen (Western) vielfach glorifiziert worden.
Sie können einen Link zu dem Wort setzen

Ansicht: Wilder Westen