Duden - Das Bedeutungswörterbuch
Kolonie
Ko|lo|nie [kolo'ni:], die; -, Kolonien [kolo'ni:ən]:1. Besitzung eines Staates (besonders in Übersee), die politisch und wirtschaftlich von diesem abhängig ist:
die ehemaligen französischen Kolonien in Afrika strebten nach Selbstständigkeit; Kolonien erwerben.
2. Gruppe von Ausländern gleicher Nationalität in einem fremden Staat oder einer fremden Stadt:
die deutsche Kolonie in Paris.
Sie können einen Link zu dem Wort setzen

Ansicht: Kolonie