Duden - Das große Wörterbuch der deutschen Sprache in 10 Bänden
dekolonisieren
de|ko|lo|ni|sie|ren : die politische, wirtschaftliche u. militärische Abhängigkeit einer Kolonie vom Mutterland beseitigen, aufheben.
Sie können einen Link zu dem Wort setzen

Ansicht: dekolonisieren