L’évaluation est le violon d’Ingres de la dernière reforme de la solidarité internationale, par Corine Capdequi Peyranère
Les premiers subsides pour l’éducation au développement datent de 1980 environ. Cela s’appelait alors information et consistait à faire des séances d’information sur le terrain, des animations, des publications. Avant 1997, très peu de choses se faisaient en matière d’évaluation. C’était surtout les pouvoirs publics qui faisaient des missions de suivi et d’évaluation.
Les premières actions d’éducation au développement correspondent à l’arrêté de 1991. Une commission de concertation pour l’éducation au développement avait été créée alors comme il en existait pour l’envoi de coopérants et pour le partenariat. Cette commission se composait d’un ensemble d’experts indépendants, de membres de l’Administration et de représentants d’ONG pour un total de dix-huit membres, et elle s’occupait du suivi des actions d’éducation au développement. C’est la commission qui s’est le moins réunie. Il y avait manifestement une difficulté à trouver des experts et sans doute une difficulté à mobiliser des personnes de l’Administration.
Le démarrage des évaluations s’est fait surtout du côté des ONG néerlandophones, qui étaient financées principalement par la Région flamande, vers la moitié des années nonante. Ce furent principalement des études faites en collaboration ou par des universités, en suivant une tradition surtout anglophone. L’arrêté de 1991 a imposé une obligation d’évaluation conjointe entre ONG et l’Administration, mais le maître d’œuvre était celui qui payait, c’est-à-dire l’Administration.
La première évaluation conjointe a été faite sur les périodiques des ONG en 1994. Cela s’est fait à partir du constat de la multiplicité des périodiques et de l’augmentation du nombre de centres de documentation depuis 1983. Dans une évaluation conjointe, ce qui est conjoint, ce sont les termes de référence et l’accompagnement tout au long de l’évaluation, un comité de pilotage, donc. Les termes de référence sont les lignes de conduite de l’Administration : les objectifs de l’évaluation, la méthode de travail (qui fait quoi, dans quels délais). Les termes de l’échange sont autre chose que le cahier des charges qui est établit par l’Administration et qui doit répondre aux règles imposées par l’Etat. Ce cahier des charges est beaucoup plus technique.
Pour l’ensemble de la Belgique, vers le début des années quatre-vingt, les subventions pour l’éducation au développement étaient de 40 millions. Les ONG proposaient des projets en éducation au développement et l’Administration décidait lesquels d’entre eux étaient justifiés et les subventions suivaient a posteriori . Entre 1991 et 1997 le budget est passé à 150 millions. En 1999, il est passé à 370 millions et en 2000 à 400 millions. Cette augmentation demande un investissement accru en personnel d’animation, de conception pédagogique. Il serait peut-être judicieux à un moment donné de confronter le budget DGCI de l’éducation au développement qui est de plus ou moins de 150 millions pour les ONG francophones au budget beaucoup plus important de l’éducation en général —enseignement, éducation permanente— et se poser la question de savoir ce que peuvent apporter les ONG dans le système éducatif.
Lors de la réforme de 1997, l’idéal du Secrétaire d’Etat de l’époque, Reginald Moreels, était de créer un grand fond pour l’éducation au développement avec les enseignants, les ONG, les migrants, les médias. Et l’avatar de cette idée c’est la Maison Internationale, rue Haute à Bruxelles. Et le violon d’Ingres de Reginald Moreels a été l’évaluation. Un bureau d’études a été chargé d’évaluer les relations de partenariat, les actions en éducation au développement. Ces études ont servi surtout à faire un recensement des activités, une compilation d’informations, de données.
Une difficulté dans la mise en place de ces évaluations est liée à la terminologie : des termes comme « évaluation interne », « évaluation externe », « auto-évaluation », « experts indépendants » ne sont pas compris de la même manière partout [1]. Le budget correspondant à 1 % des subsides doit être utilisé étalé sur cinq ans, ce qui est la durée du programme, ou en une fois sur une année, en fonction du volume que cela représente.
Pour l’arrêté de 1997, en évaluation interne, le maître d’œuvre est l’ ONG. Elle décide ce qu’elle va évaluer, comment et avec qui. Mais certaines ONG se sont vu imposer des évaluations suite aux discussions menées en dialogues politiques sur leur plan d’action annuel avec le gestionnaire de leur dossier à la DGCI et l’expert chargé de l’appréciation du dossier de l’ONG. Dans ce cas, le risque c’est que le rôle de maître d’œuvre passe de l’ONG vers le pouvoir public et de mélanger évaluation et contrôle. Le résultat d’un contrôle négatif est de sanctionner l’ONG en l’amputant de subsides. Le résultat d’une évaluation critique est de faire évoluer les pratiques et méthodes de l’ ONG. Suite à l’arrêté de 1997, des questions comme l’impact, le groupe cible, le positionnement de l’ONG face aux autres ONG deviennent plus précises.
Avant 1998, les ONG étaient peu armées pour répondre aux demandes e l’Administration. Il a fallu mettre en place des critères d’appréciation comme la cohérence, la pertinence, la durabilité. Les ONG sont maintenant comparées les unes aux autres, mises sur un même pied par rapport à ces critères. C’est un exercice plus équilibré en matière d’éducation au développement, pour les publications et le travail avec les médias. C’est aussi une manière de mieux apprécier l’ensemble du paysage ONG en matière d’éducation au développement. Les ONG sont dès lors elles-mêmes appelées à se situer dans l’ensemble d’un paysage éducatif. Un des objectifs d’Acodev est de permettre des échanges entre personnes de terrain au sein des groupes sectoriels.
Tout au long des années 2000 et 2001, nous avons mené une phase d’adaptation de la réglementation de l’arrêté de 1997. Les fondements de la réforme sont intéressants car ils apportent des outils et une autre manière de travailler. L’approche par programme est intéressante, mais beaucoup de dispositions pratiques ne sont pas adaptées à cette approche, comme la manière de faire les rapports, les retards dans la remise des subsides, la manière d’apprécier a priori et de rendre compte a posteriori. L’Administration n’a pas reçu tous les moyens pour faire face à de tels changements.
Par rapport à la question du 1 % des subsides consacré à l’évaluation, se profile de plus en plus la pratique de réaliser des évaluations de plus grande ampleur au niveau des consortiums d’ONG, par exemple, en cumulant les 1 % des ONG, au lieu d’imposer le 1 % pour chaque ONG. C’est ce qu’ont fait les consortiums IDEeS, Atifa et Itinérans... Le groupement IDEeS a ainsi dès le début, en 1998, évalué la manière de travailler en consortium. Cela peut avoir une influence sur la manière d’envisager l’évaluation des actions d’éducation au développement. Une autre façon de « rentabiliser » ces subsides à l’évaluation, c’est de mener des évaluations d’une autre ampleur et d’un autre impact décidées ensemble au sein du groupe sectoriel au sein de la Fédération, ou mise au point au sein du Réseau d’éducation au développement RED...
Un autre élément qui évolue en Belgique et en Europe est la méthode concernant la mise au point des plans d’actions, celle du cadre logique. Cette méthode est appelée à se développer de plus en plus dans les organisations qui ne font que de l’éducation au développement, mais surtout à s’adapter au travail pédagogique, de sensibilisation, de mobilisation de mouvements....
Par ailleurs, les ONG seules ne peuvent faire de l’évaluation d’impact dans le long terme. Il faudrait envisager la question avec la collaboration des professeurs, anthropologues, sociologues. Car l’important est de voir l’impact que les ONG ont en termes d’éducation au développement, de changement de mentalité, d’engagement, comment s’y prendre et à quelles cibles s’adresser.
Ce qui reste encore anormal c’est que ce 1 % est pris sur le budget des frais administratifs et non sur un poste de fonctionnement du programme. Cette « anomalie » diminue la possibilité pour les ONG de se renforcer administrativement. Propos recueillis par Corine Capdequi Peyranère
[1] Voir à ce propos le Code déontologique pour les évaluations internes des ONG par des experts externes, pages 39 et 40 de ce numéro