Dekolonialisierung bzw. Dekolonisation bezeichnet den Prozess vor allem nach Ende des Zweiten Weltkriegs, in dessen Verlauf der Großteil der bisher von Kolonialmächten wie Großbritannien, Frankreich oder Belgien kontrollierten Gebiete in Afrika und Asien unabhängig wurde, wodurch neue souveräne Staaten entstanden.
Quelle: www.bpb.de