Définition

Le colonialisme est la domination directe (politique, militaire et économique) d'un Etat sur un autre territoire occupé.
Dans les années 60, les différentes colonies ont peu à peu gagné leur « indépendance ».
Mais ces territoires étaient source de trop de richesses pour que les pays colonisateurs les laisse réellement devenir indépendants.
Ils ont donc mis en place une politique de colonisation indirecte, ou néocolonialisme.
Le néocolonialisme est une domination détournée des « anciennes » colonies, par la voie économique (les pays colonisateurs possèdent les entreprises et la plupart des richesses du pays), financière (grâce aux politiques de la Banque Mondiale, du FMI, et de l'OMC) et culturelle (on essaye d'imposer le mode de vie occidental partout).

Références :


- Livres :

« Le livre noir du colonialisme », Marc Ferro, Hachette Littérature.

« Au mépris des peuples : le néocolonialisme franco-africain » - François-Xavier Verschave et Philippe Hauser, Broché.

- Internet - Films en streaming :

Discours de Thomas Sankara sur la dette des pays africains

"France-Algérie: crimes et mensonges d'état"


11/03/2010
0 Poster un commentaire

Inscrivez-vous au blog

Soyez prévenu par email des prochaines mises à jour

Rejoignez les 4 autres membres