KAISERREICH DEUTSCHLAND
Die Gründung des
Deutschen Reiches im Jahre 1871 im Spiegelsaal von Versailles
beendete den preußisch-französischen Krieg ebenso wie die Existenz
zahlreicher deutscher Kleinstaaten. Der Enkel des Kaisers Wilhelm I.
betrieb eine Kolonisationspolitik mit dem Ziel aus Deutschland ein
Weltreich nach dem Vorbild des britischen Empires und Frankreichs zu
machen. Aufgrund des folgenden Wettrüstens der rivalisierenden
europäischen Großmächten, und mit dem Aufstieg der Nationalismen war
der Weltkrieg unausweichlich : ausgelöst wurde dieser durch das
Attentat von Sarajewo auf den österreichischen Thronfolger
Franz-Ferdinand und endete mit der Abdankung von Kaiser Wilhelm II.
im Jahre 1918.