Ein leidenschaftlicher Weckruf: Wenn Europa sich nicht bekehrt, wird es innerlich erodieren und von außen überwältigt werden, argumentiert der Historiker David Engels.
Michael K. Hageböck
Das Abendland, auch bekannt als der Westen, bezeichnet traditionell die Länder und Kulturen, die historisch vom römischen Reich und dem Christentum geprägt wurden. Es umfasst den westlichen Teil von Europa und steht oft in einem kulturellen und politischen Gegensatz zum sogenannten Morgenland oder dem Osten.