Duden - Das Bedeutungswörterbuch
Westen
Wes|ten ['vɛstn̩], der; -s:1. Himmelsrichtung, in der die Sonne untergeht:
von, nach, im Westen; die Sonne stand schon tief im Westen; die Wolken kommen von/vom Westen [her].
2.
a) im Westen (1) gelegener Bereich, Teil eines Landes:
wir fahren im Urlaub in den Westen Frankreichs;
der Wilde Westen: Gebiet im Westen Nordamerikas zur Zeit der Kolonisation im 19. Jh.:
in den Wilden Westen ziehen.
b) (besonders während des Kalten Kriegs) Westeuropa, Kanada und die USA im Hinblick auf ihre politische, weltanschauliche o. ä. Gemeinsamkeit:
eine Stellungnahme des Westens liegt noch nicht vor.
Sie können einen Link zu dem Wort setzen

Ansicht: Westen