Lexikon
Auswahl > Lexikon > Übersicht Deutsches Kaiserreich

Übersicht Deutsches Kaiserreich


Nach Preußens Sieg in den Einigungskriegen kam es 1871 zur Reichsgründung des Deutschen Kaiserreichs. Die ersten Jahre waren vor allem von Reichskanzler Bismarcks Innen– und Außenpolitik geprägt. Nach seiner Entlassung 1890 kam es zu einem Kurswechsel, als Kaiser Wilhelm II. eine immer expansivere Außenpolitik betrieb und Deutschland dadurch 1914 in den Ersten Weltkrieg führte. Folgende Artikel zum Kaiserreich sind im Lexikon erhalten:

Deutsches Kaiserreich

Verfasst von Fabio Schwabe

Unsere Buchempfehlungen

 

 

Sag' uns Deine Meinung!