Lexikon
Namibia
Namibia: Staatsflagge
© wissenmedia
Der junge Staat im Südwesten Afrikas, auf dessen Territorium die Wüste Namib, eines der trockensten Gebiete der Erde, liegt, gehörte zum deutschen Kolonialreich. Im 20. Jahrhundert musste sich Namibia gegen den Widerstand Südafrikas die Unabhängigkeit erkämpfen.
Weitere Artikel auf wissenschaft.de
Das Labor im All
Lunarer Begleitservice
Fische auf Wanderschaft
Warum erkältet man sich im Winter leichter?
Die Zukunft der Schifffahrt
Ein künstliches Herz