Définition du Colonialisme
Etymologie : du latin colonia, venant de colere, cultiver. Etymologiquement une colonie est une population qui s'installe sur une terre lointaine pour y cultiver la terre et pratiquer son culte.
Le colonialisme est une doctrine politique qui préconise ou cherche à justifier l'exploitation d'une colonie, d'un territoire ou d'un Etat par un Etat étranger. La souveraineté que le pays colonisateur exerce sur sa colonie se traduit par une domination politique (mise en place d'une administration, d'un gouverneur...), militaire et une exploitation économique au détriment des populations locales.
L'expansion des pays colonisateurs s'effectue sur des territoires moins développés ou militairement plus faibles. Les motivations du colonialisme peuvent être variées :
Les grandes puissances coloniales comme la France, l'Angleterre, la Belgique, l'Espagne, le Portugal ont longtemps considéré qu'il était de leur devoir, en tant que pays civilisés de race blanche, d'aller "apporter la civilisation à des races inférieures". Depuis la Seconde Guerre Mondiale, le colonialisme est perçu négativement car il s'oppose au droit des peuples à disposer d'eux-mêmes.
Le colonialisme antique, grec notamment, se distingue du colonialisme moderne (depuis le XVIe siècle) par un essaimage de colonies autonomes, mais porteuses de la culture de la métropole, alors que dans ce dernier l'exploitation de la colonie se fait surtout au profit de la métropole.
Le colonialisme est une forme d'impérialisme.
>>> Terme connexe : Impérialisme
>>> Terme connexe : Néocolonialisme