Deutsche Kolonien
Deutschland war eine der letzten Mächte, die im 18. Jahrhundert Kolonien begründete. Dennoch besaß das Deutsche Reich um die vorletzte Jahrhundertwende herum eines der größten Kolonialreiche der Welt.
Deutschland verlor alle seine Kolonien nach dem Verlust des Ersten Weltkriegs 1918 durch den Vertrag von Versailles.
Die deutschen Kolonien waren:
- Bismarck-Archipel
- Deutsch-Ostafrika
- Deutsch-Südwestafrika
- Kaiser-Wilhelms-Land
- Kiau-Tschou
- Marshall-Inseln
- Nördliche Salomonen
- Kamerun
- Togo
Quelle: "Kleiner deutscher Kolonialatlas", Belrin 1899