Der Westen

Der Westen ist ein Oberbegriff, der sich auf die Westwelt bezieht, oder Westkultur oder Zivilisation sind auf europäischen Ursprung zurückzuführen gewesen.

Es kann auch bedeuten:

Siehe auch

  • Westen
  • Westen (Begriffserklärung)

Source is a modification of the Wikipedia article The West, licensed under CC-BY-SA. Full list of contributors here.
Antiterrorismus und Wirksames Todesstrafgesetz von 1996 / Peter Debye
Impressum & Datenschutz