Duden ‒ Das große Wörterbuch der deutschen Sprache
dekolonisieren
de|ko|lo|ni|sie|ren :die politische, wirtschaftliche und militärische Abhängigkeit einer Kolonie vom Mutterland beseitigen, aufheben.
Sie können einen Link zu dem Wort setzen

Ansicht: dekolonisieren