Deutschland in Afrika
· Deutschland in Afrika - Der Kolonialismus und seine Nachwirkungen. Dass Deutschland einmal Kolonien in Afrika besessen hat, ist aus dem nationalen Gedächtnis weitgehend verdrängt worden. Dabei war die imperialistische Expansion für Generationen von Deutschen eine nationale Schicksalsfrage.