CAIRN.INFO : Matières à réflexion

1La littérature relative à l’évaluation des politiques publiques présente généralement le Canada comme un précurseur en la matière. Il est vrai qu’il appartient, selon Hans-Ulrich Derlien, à la seconde vague de pays dans lesquels l’évaluation s’est développée [3], que de nombreux débats entourent le développement de cette pratique et qu’une comparaison internationale qualifie ce pays de pionnier, car il se caractérise par des degrés élevés de maturité et d’institutionnalisation de la pratique [4]. En s’appuyant sur ces constats positifs, l’objet de cette présentation est d’affiner, mais également de nuancer, ce portait en s’attardant sur le processus d’institutionnalisation et sur l’enseignement des exercices évaluatifs réalisés dans ce pays depuis une trentaine d’années [5].

2Ce texte se structure en deux parties. La première section retrace les grandes étapes de l’histoire de l’évaluation canadienne en s’attachant à mettre en lumière les aménagements apportés aux finalités et ambitions attribuées à la pratique évaluative. La seconde partie met l’accent sur les principales caractéristiques de l’évaluation canadienne et cherche à en identifier les spécificités en comparaison avec la situation observée en Europe [6], et plus particulièrement en France. La confrontation au cas français est intéressante en raison des similarités entre ces pays en termes d’institutionnalisation de la pratique. En effet, les indices d’institutionnalisation et de maturité de la pratique sont également élevés dans le cas de la France et les dispositifs institutionnels érigés depuis une quinzaine d’années ont eux aussi connu de profonds réaménagements [7]. Par contre, la finalité de l’évaluation est sensiblement différente comme nous allons le voir dans cet article.

3En préambule, il est utile de nous attarder brièvement sur la définition de l’évaluation, c’est-à-dire d’un instrument de gestion de l’action publique qui consiste à mesurer les effets propres d’un programme et, en fonction de critères bien définis (pertinence, efficacité, efficience, économie), à porter un jugement de valeur sur ces effets, qu’ils soient voulus ou pervers, directs ou indirects, induits à court ou à long terme [8]. Concrètement, cette ambition se traduit par une diversité de pratiques que l’on peut regrouper en deux catégories. La première est un ensemble « formalisé et assez normé » qui se matérialise au travers d’un dispositif institutionnel [9] animé par une communauté d’évaluateurs (commanditaires, évaluateurs, parties prenantes, société d’évaluation nationales ou régionales). La seconde est un ensemble plus « diffus et éparpillé » qui rythme la vie politico-administrative et qui s’incarne dans une multitudes d’instances qui alimentent le débat public et éclairent la formation d’un jugement de valeur sur la conduite de l’action publique. Cette dernière catégorie rassemble des initiatives entreprises par les comités parlementaires, les instances de vérification (ex. Vérificateur général, vérificateur interne) ou les organes spécialisés tels que le Commissaire aux langues officielles ou le Bureau du commissaire à l’éthique [10]. L’objet de cet article porte principalement sur la première catégorie même si, comme nous allons le voir, les activités de la seconde s’apparentent, à certains moments, à de l’évaluation et qu’elles encouragent le développement, les évolutions et les aménagements du dispositif institutionnel canadien d’évaluation.

UN PROCESSUS D’INSTITUTIONNALISATION CONTINU ET FLUCTUANT

4La principale caractéristique du processus d’institutionnalisation de l’évaluation canadienne est la recherche constante de la qualité et de l’utilité des exercices réalisés. Dans cette section, nous présentons un aperçu récapitulatif des principales étapes de ce mouvement.

5Certains auteurs font remonter les origines de l’évaluation des politiques publiques à la fin du XIXème siècle ou au début du XXème et plus particulièrement à l’adoption de la Loi du revenu consolidé et de la vérification (1931) qui normalisait la comptabilité en prévoyant un système d’autorisation des dépenses publiques [11]. De notre point de vue, ce type de réglementation, centrée sur le contrôle, peut difficilement être considérée comme constitutive d’un processus évaluatif [12] qui voit le jour au cours des années soixante et soixante-dix. La circulaire du Conseil du Trésor no 1977-47, intitulée Évaluation des programmes effectuée par les ministères et organismes, est traditionnellement présentée comme l’acte de naissance de l’évaluation au niveau fédéral. Préalablement à sa présentation, nous souhaitons relater les événements qui ont contribué à son adoption et qui permettent de comprendre les orientations qui seront empruntées au moment d’institutionnaliser la pratique [13].

6Comme nous l’avons démontré dans d’autres recherches sur l’institutionnalisation de l’évaluation [14], le développement de cette pratique bénéficie du concours de porteurs de projet qui s’impliquent dans sa promotion au sein de leurs organisations et parfois même à l’extérieur de celles-ci. En nous attardant sur ces « soutiers de l’évaluation » [15], nous ne cherchons pas à brosser un portrait héroïque de leur épopée mais tentons plutôt de comprendre leurs motivations et les moyens qu’ils déploient pour développer le recours à l’évaluation. En effet, comme pour bon nombre de politiques publiques, la manière dont le problème est construit affecte ensuite les solutions qui sont proposées et retenues. Parmi les entrepreneurs canadiens, Maxwell Henderson est sans conteste celui qui a joué un rôle déterminant. En 1960, il devient Vérificateur général du Canada, c’est-à-dire l’agent du Parlement en charge de l’inspection des dépenses gouvernementales [16]. En introduisant, dans les rapports annuels, ses propres commentaires et critiques sur la conduite de la gestion publique, il modifie les habitudes prises par ses prédécesseurs. Considérée comme une extension des compétences du Vérificateur général, cette initiative induit une triple conséquence. Elle attire l’attention des médias et popularise le travail du Vérificateur général, elle oriente l’évaluation, alors balbutiante, sur la voie de la recherche de la performance et surtout elle conduit le gouvernement libéral de Pierre Eliott Trudeau à inscrire à l’agenda politique la question des moyens de contrôle et de vérification de l’action administrative [17]. Ainsi, à la demande du gouvernement, une Commission royale d’enquête sur l’organisation du gouvernement (Commission Glassco) étudie en détail la gestion de la fonction publique fédérale. Parmi les recommandations contenues dans le rapport final, publié en 1962, la Commission suggère d’accroître la décentralisation des ministères et de mettre en place un véritable système de reddition des comptes publics, c’est-à-dire qui ne se limite pas à une simple finalité de contrôle [18]. En effet, selon les membres de cette commission, la validation des dépenses gouvernementales ne repose pas uniquement sur leur légalité mais doit également prendre appui sur leur efficience et leur efficacité aux yeux de la population [19]. Ces conclusions alimentent les réflexions et quatre années plus tard, le Secrétariat du Conseil du Trésor considère qu’il est nécessaire de disposer d’instruments de suivi et d’évaluation des programmes et de leurs performances. La première réponse apportée aux travaux de cette commission est l’introduction, à la fin des années soixante, du Planning Programming Budgeting System (PPBS) [20]. En plus d’instaurer une modélisation de l’action gouvernementale, cette méthode budgétaire favorise le recrutement d’analystes qui observent l’action publique sous un angle plus managérial et propagent les germes de l’évaluation de programme au sein de l’appareil administratif.

7Malgré cette première réponse, les critiques à l’encontre de la gestion publique se poursuivent. Les années soixante-dix consacreront l’institutionnalisation organisationnelle et normative de l’évaluation de programme au niveau fédéral. Ceci fait suite à de nouvelles appréciations critiques sur les exercices de vérifications internes contenues dans le rapport annuel du Vérificateur général. Dans son document adressé au parlement en 1976, James McDonnell explique sa préoccupation de voir le parlement — et même le gouvernement — perdre ou être sur le point de perdre la maîtrise des comptes publics. Bref, il trouve la gestion et les contrôles financiers dans l’administration « dangereusement » insuffisants [21]. Selon lui, il est indispensable de mettre en place des indicateurs de performance en vue de mesurer l’efficacité des programmes. Comme c’est souvent le cas, les critiques formulées par le Vérificateur général produisent un électrochoc auprès des responsables politicoadministratifs et donnent lieu à des aménagements organisationnels et politiques. Ainsi, une Commission royale sur la gestion financière et l’imputabilité est mise sur pied (Commission Lambert) [22] et le secrétariat du Conseil du Trésor charge tous les ministères et organismes d’améliorer et de renforcer leurs démarches évaluatives tant du point de vue de la mise en œuvre, de l’allocation des ressources que de la mesure de la performance [23].

8En 1977, le gouvernement Trudeau modifie la loi sur le Vérificateur général en élargissant l’étendue de la vérification aux questions d’efficacité, d’économie et d’efficience (communément appelées les « 3E ») et augmente l’autonomie du Contrôleur général du gouvernement dont le bureau se compose de trois directions générales : l’élaboration des politiques, les méthodes de gestion et l’évaluation de programmes. Le Bureau du Contrôleur général a pour mission de « surveiller le perfectionnement des pratiques et des contrôles de gestion, y compris l’établissement de la fonction de l’évaluation de programme dans les ministères et organismes » [24]. Ces aménagements étaient d’autant plus nécessaires que les conclusions de la Commission Lambert dénoncaient un affaiblissement, voire une rupture, de la chaîne de reddition des comptes et recommandaient une amélioration du programme fédéral d’évaluation.

9C’est donc dans ce contexte, mais sans attendre le rapport final de la Commission Lambert, qui sera publié en 1979, qu’est adoptée, le 30 septembre 1977, la circulaire no 1977-47 du Conseil du Trésor, intitulée Évaluation des programmes effectuée par les ministères et organismes. À la lecture de ce document, il apparaît que l’évaluation doit poursuivre différentes finalités telles que faciliter l’affectation des ressources, conduire à l’amélioration du programme (atteinte des objectifs et rendement de l’administration) et accroître l’imputabilité. En un mot, l’évaluation est conçue comme une aide à la décision et à la gestion. Cette circulaire prescrit aux responsables administratifs de réaliser des évaluations périodiques suivant un cycle quinquennal [25], dignes de foi et pertinentes des programmes dont ils assurent la gestion et de communiquer, dans des délais raisonnables, les résultats aux niveaux appropriés. L’attention est placée sur l’objectivité des exercices qui est recherchée à travers la rédaction de cahiers des charges adéquats, la sélection d’évaluateurs indépendants du contexte évalué et l’élaboration d’une procédure de suivi appropriée [26].

10Les principaux acteurs chargés de la mise en œuvre de cette nouvelle politique ont des rôles relativement bien délimités. Il y a tout d’abord, et bien évidemment, les hauts fonctionnaires des ministères et organismes (sous-ministres) qui doivent développer les structures adéquates en fonction de leur administration et alimenter le cycle évaluatif par des commandes mais également l’utilisation des rapports déposés. D’un point de vue organisationnel, signalons que cette politique encourage la création d’unités internes responsables de la gestion du processus évaluatif. Le Bureau du Vérificateur général du Canada — et plus particulièrement sa division d’évaluation de programme — s’assure de l’application de la politique au sein de l’appareil administratif et veille à la promotion de l’évaluation en général et des bonnes pratiques en particulier. En publiant, en 1981, le Guide sur la fonction de l’évaluation de programme et les Principes pour l’évaluation des programmes par les ministères et organismes fédéraux[27], le Bureau du Vérificateur général établit les lignes directrices devant s’appliquer en la matière [28]. Ce document contient un cadre qui tend à harmoniser le développement de la pratique à un moment où la formalisation de l’évaluation était encore embryonnaire [29]. Le Vérificateur général peut également s’attarder sur la qualité des évaluations réalisées par les départements et formuler des recommandations ou des conseils pour améliorer la pratique. Le Contrôleur général est quant à lui chargé de vérifier les compétences et les capacités des unités internes ainsi que la qualité des exercices accomplis. Il publie régulièrement des rapports sur cette question ou intègre des constations sur cet enjeu dans son rapport annuel [30]. Le processus de gestion budgétaire s’enrichit également des évaluations réalisées. Ainsi, il est demandé aux départements de transmettre au Conseil du Trésor les planifications annuelles ainsi que les résumés des exercices finalisés. De plus, sans bénéficier d’un pouvoir contraignant très fort, puisque le texte ne prévoit pas de sanction en cas de non-réalisation d’évaluation, le Conseil du Trésor encourage l’essor de la pratique en conditionnant les demandes de nouvelles enveloppes budgétaires à la présentation d’éléments sur le moment et la manière dont le nouveau programme ou le programme refinancé sera évalué même si les résultats des évaluations ne lui sont pas obligatoirement transmises [31]. Il est intéressant de constater que parmi tous ces acteurs, seuls les sous-ministres et leurs unités d’évaluation interne sont véritablement en charge de la gestion du cycle évaluatif qu’ils financent puisqu’ils sont habilités à déterminer ce qui doit faire l’objet d’une évaluation ainsi que le moment de sa réalisation [32] tandis que les autres intervenants exercent un contrôle sur les activités de ces derniers.

11Rappelons que cette politique évaluative est mise en place concomitamment à la crise économique, du début des années quatre-vingt, qui entraîne de nombreuses restrictions et suppressions de programmes [33]. Les initiateurs de cette politique considèrent l’évaluation comme un moyen de transmettre au Parlement une information sur les résultats des programmes de sorte que les parlementaires sont en mesure de réduire adéquatement les dépenses publiques [34]. C’est sans doute pour cette raison que les méthodes d’évaluation les plus employées sont de type coûts-avantages, coûts-efficacité ou « value for money ». Toutefois, au milieu des années quatre-vingt, la Commission d’études Nielsen qui examine les programmes [35] du point de vue de leur pertinence, de leur rendement et de leur efficacité conclut que les décideurs ont appliqué les mesures de compressions budgétaires de façon générale — voire aléatoire — sans tenir compte des détails de chaque programme puisqu’ils ne disposaient pas d’informations spécifiques sur le rendement de leurs activités [36]. La Commission estime que les dépenses gouvernementales sont fondées sur un principe de financement (Universal subsidy phenomenon) d’activités plutôt qu’orientées vers les résultats. Selon le rapport final de cette Commission, les évaluations de programmes sont inutiles et inadéquates car produites d’une manière routinière pour une (sous-)utilisation interne en se concentrant sur les effets des programmes sans s’attarder suffisamment sur leur fondement et leur raison d’être, c’est-à-dire leur pertinence ou leur opportunité [37]. Les conclusions de cette étude ont fait l’objet de vives critiques médiatiques et parlementaires qui ont forcé le gouvernement conservateur à prendre ses distances vis-à-vis de cet exercice. Dans les faits, cette entreprise n’a pas eu d’impacts directs sur la conduite de l’action publique. Toutefois, en alimentant le débat sur la responsabilité organisationnelle et individuelle des agents publics, les travaux de la Commission Nielsen représentent un jalon en matière d’analyse des programmes gouvernementaux.

12En 1989, le gouvernement conservateur de Martin Brian Mulroney, qui avait précédemment fait campagne contre la bureaucratie en la menaçant de « lui donner des avis de congédiements et des chaussures de course » [38], initie une large réflexion sur l’avenir de la fonction publique fédérale avec le lancement de l’opération de réforme Fonction publique 2000 dont l’objectif est le renouvellement de la fonction publique du Canada tant auprès des citoyens, en adoptant une gestion axée sur les usagers-clients, que des fonctionnaires qui sont amenés à changer la perception qu’ils ont d’eux-mêmes et de leur travail. À cet égard, l’évaluation est considérée comme une pratique utile aux gestionnaires publics. Ainsi, en 1991, le Bureau du Contrôleur général édicte un nouveau plan gouvernemental intitulé Aborder les années 90 : Perspectives gouvernementales pour l’évaluation de programmes qui stipule que l’évaluation doit être plus productive. Pour cela, elle doit s’adapter davantage pour répondre aux exigences de sa clientèle en étant principalement orientée sur une gestion courante plutôt que sur un examen périodique à visée rétrospective. Comme par le passé, l’attention est portée sur la mesure du rendement à laquelle s’ajoute l’étude de la raison d’être des programmes et une réflexion sur la définition d’alternatives, c’est-à-dire des programmes de rechange rentables.

13Un peu plus tard, l’examen des programmes (1994-1996), commandé par le gouvernement libéral, est d’une toute autre envergure que l’exercice de la Commission Nielsen puisqu’il vise un double objectif : restaurer la confiance des citoyens envers l’administration canadienne et réduire la dette publique au moyen d’une compression des dépenses gouvernementales [39]. Pour y parvenir, le gouvernement a constitué un comité ad hoc, composé de fonctionnaires et de politiciens fédéraux, chargé d’examiner les programmes à l’aune de six critères : « le programme étudié sert-il encore l’intérêt public ?; est-il légitime et indispensable que ce soit le gouvernement qui l’exécute ?; le rôle du gouvernement central est-il justifié ou le programme doit-il être repensé en fonction des provinces ?; le gouvernement devrait-il remplir son rôle de concert avec le secteur privé ou le secteur bénévole ?; comment pourrait-on restructurer le programme en question pour le rendre plus efficace ?; est-il abordable au regard de la capacité financière du gouvernement ? » [40]. À l’issue de cet exercice, de nombreux programmes sont abolis ou réformés. Ainsi, les objectifs de réduction du déficit public ont été atteints et même dépassés. Les chercheurs qui ont étudié le succès de cet examen des programmes considèrent que l’internalisation du processus [41], l’implication marquée des politiciens et la liaison étroite avec le budget ont permis de surmonter les écueils des exercices entrepris précédemment [42].

14Les changements apportés à l’évaluation au cours de ces entreprises sont loin d’être anodins puisqu’ils en transforment radicalement les finalités. La vision statisticienne et comptable qui prédominait jusque là est abandonnée au profit d’une évaluation qui met l’accent sur les buts et les objectifs poursuivis par la mise en œuvre de programmes publics. Dans la pratique, il s’agit principalement du passage d’une finalité centrée sur le contrôle à une évaluation de type managériale et non pas réflexive [43] comme le laisse à penser les intentions affichées. Cette perspective managériale caractérise encore la politique actuellement en vigueur au Canada. Cette dernière, adoptée en 2001, s’accompagne de nouvelles dispositions qui tendent à modifier l’architecture institutionnelle du dispositif existant. Comme c’était déjà le cas précédemment, une attention particulière est accordée au renforcement des capacités administratives au sein des ministères et organismes. De plus, cette politique s’accompagne de la création d’un Centre d’excellence en évaluation auprès du Secrétariat du Conseil du Trésor qui a pour mission d’offrir une assistance aux unités internes d’évaluation, d’orienter, de dynamiser [44] mais également de surveiller la mise en œuvre de la nouvelle politique évaluative. Durant ses premières années d’existence, le centre dispose d’un budget annuel d’un million et demi de dollars. Le véritable travail évaluatif est donc réalisé par les unités internes d’évaluation qui regroupent un peu moins de 300 évaluateurs pour l’ensemble du gouvernement fédéral. La figure suivante présente l’évolution des moyens financiers alloués à cette pratique au cours des vingt dernières années. En moyenne, plus de trente millions de dollars sont consacrés annuellement à l’évaluation.

Figure 1

Dépenses fédérales consacrées à l’évaluation [45]

Figure 1
Figure 1 : Dépenses fédérales consacrées à l’évaluation45 60 000 000 $ 50 000 000 $ 40 000 000 $ 30 000 000 $ 20 000 000 $ 10 000 000 $ 0 $ 1983-1984 1989-19 90 1991-1992 2 004-2005 Dépe nse s c oura nte s ($ ) $ con stant (200 5)

Dépenses fédérales consacrées à l’évaluation [45]

15Ce schéma illustre l’attention particulière qui est consacrée à l’évaluation depuis quelques années après un bref désintérêt à la fin des années quatre-vingt. Cette évolution est intéressante à constater puisqu’elle se produit dans une perspective de responsabilisation accrue des décideurs publics et non plus dans un climat d’austérité financière comme ce fut le cas précédemment [46].

16Pour conclure la présentation du paysage institutionnel canadien, mentionnons qu’au fil du temps, la culture de l’évaluation s’est propagée au sein de l’administration fédérale et que l’objectif général de reddition de comptes demeure une priorité du gouvernement comme en témoigne quelques exemples récents tels que le rétablissement de la fonction de contrôleur général du Canada auprès du Secrétariat du Conseil du Trésor (2003) ou l’adoption de la loi sur la responsabilité (2006).

LES SPÉCIFICITÉS DU DISPOSITIF CANADIEN

17Le dispositif d’évaluation canadien se distingue, à deux niveaux, de ceux érigés en Europe, depuis une vingtaine d’années. Tout d’abord, la lecture des différentes étapes constitutives de l’histoire du développement de l’évaluation montre qu’il existe au Canada un souci permanent, tant du gouvernement que du parlement, de disposer d’une information de qualité lors du processus décisionnel et de mise en œuvre des programmes. Les différentes adaptations apportées au dispositif institutionnel résultent, dans la plupart des cas, d’une émulation par l’insatisfaction comme en témoignent les nombreuses critiques portées à l’encontre du dispositif organisationnel et réglementaire en place. Ensuite, nous constatons que le modèle canadien est constamment et très fortement structuré autour d’une internalisation des compétences évaluatives.

Une évaluation interne à destination des gestionnaires

18La principale caractéristique de l’évaluation canadienne est d’être interne, c’est-à-dire réalisée par des agents qui sont membres de l’administration en charge de la mise en œuvre du programme qui fait l’objet d’une évaluation. Ce type d’évaluation se distingue de l’évaluation externe qui est confiée, le plus souvent, à la suite d’un appel d’offres public, à un évaluateur du secteur privé (université ou société de consultance) [47] ou à une instance gouvernementale spécialisée en évaluation mais indépendante de l’administration de mise en œuvre. Si les méthodes qui sont employées sont identiques, l’angle d’observation est radicalement différent puisque l’évaluation interne se concentre sur les attentes spécifiques des gestionnaires du programme alors que l’évaluation externe est, en règle générale, destinée à des tierces-parties comme les décideurs politiques ou les organismes subventionnaires dans le cas de programmes de coopération au développement par exemple. Au Canada, l’évaluation est institutionnalisée comme une pratique interne courante du processus de gestion organisationnelle, au même titre que la gestion par résultats ou par objectifs [48]. Il en ressort qu’elle attire moins l’attention, qu’elle suscite moins de polémiques ou de controverses et qu’elle est peu empreinte d’une dimension politique [49].

19Le recours à l’évaluation interne présente plusieurs avantages. Elle est considérée comme une bonne manière d’initier une démarche évaluative dans un contexte peu familiarisé avec cet exercice et de surmonter progressivement les appréhensions qui peuvent exister à l’égard de l’évaluation. La familiarité de l’évaluateur avec le milieu et les programmes qu’il évalue lui permette d’appréhender rapidement les tenants et aboutissants de l’exercice tout en étant proche des attentes des responsables de mise en œuvre. De plus, l’évaluation interne est souvent présentée comme un outil itératif d’apprentissage permettant aux organisations de détecter et de corriger les erreurs d’autant plus facilement qu’il semble que les structures administratives soient plus réceptives aux informations provenant de l’organisation que celles produites à l’extérieur [50].

20La principale critique qui est prononcée à l’encontre de l’évaluation interne est son manque de crédibilité et d’indépendance. D’ailleurs, lorsque l’évaluation s’inscrit dans une démarche d’imputabilité (accountability) à l’égard de tiers, l’entreprise est généralement confiée à un évaluateur externe. Ceci s’explique par la volonté d’éviter les possibles conflits d’intérêts [51]. La question de l’indépendance de l’évaluateur est évidemment centrale dans cette considération. Or, selon certains évaluateurs, l’implication étroite des gestionnaires dans le processus évaluatif risque de biaiser le travail accompli. Plus largement, la « capacité limitée des organisation de livrer des évaluations crédibles » [52] représente une des principales menaces qui plane sur le développement de la pratique évaluative au Canada.

21Le panorama historique, qui précède, montre que la dimension politique, qui consiste à fournir au parlement une information lui permettant de contrôler l’activité du gouvernement et de l’administration, a été remplacée par une ambition essentiellement managériale. En considérant l’évaluation comme un instrument indispensable à la gestion des programmes, les exercices entrepris tendent naturellement à se dérouler au sein de l’administration et ne favorisent pas la tenue d’un débat public sur leurs enseignements. La finalité première de l’évaluation de programme au niveau fédéral est d’éclairer la prise de décision des gestionnaires. Ceci a pour conséquence d’amenuiser les perspectives politiques d’une évaluation qui en constituent pourtant un élément non négligeable. En effet, indépendamment d’une rigueur méthodologique et d’une technicisation des enjeux, l’évaluation demeure politique et est affectée par l’environnement dans lequel elle se déroule [53]. Cette critique a d’ailleurs été formulée, au début des années quatre-vingt-dix, par un comité sénatorial qui estime que « l’évaluation dans l’administration fédérale se préoccupe trop de corriger les dysfonctionnements des programmes (aspect managérial) et trop peu de les restituer dans leur contexte global, en ne questionnant pas systématiquement à la fois leur raison d’être, leurs impacts et leur rendement relatifs et sociaux » [54].

22En observant la situation aux États-Unis, nous constatons que l’évaluation interne y est également très répandue [55]. Arnold Love estime qu’elle représente 75 % de l’ensemble des évaluations réalisées en Amérique du Nord et que cette prédominance s’explique par une désillusion à l’égard des évaluations externes, une compression des budgets alloués à la réalisation d’évaluations d’envergure et par une faible utilisation des résultats produits [56]. Cependant, en observant la pratique canadienne, il apparaît que l’internalisation du processus n’encourage pas nécessairement l’utilisation des résultats. Comme le rapporte le Globe and Mail, la plupart des rapports (annuels, d’activités ou d’évaluation) est plus lue avant la publication qu’après [57]. Il faut relativiser ce constat en ce qui concerne l’utilisation des produits des exercices évaluatifs. Une étude portant sur les travaux réalisés entre 1984 et 1991 démontre que la plupart des exercices débouchent sur des aménagements plus ou moins importants. Le spectre s’étend de l’absence d’utilisation (3 %) à la suppression du programme (4,5 %) en passant par une réforme radicale (15 %), des modifications opérationnelles (40 %) ou une confirmation du programme (9,5 %). À ces éléments s’ajoute une dynamique d’apprentissage (28 %) non négligeable qui même si elle n’entraîne pas une adaptation immédiate offre aux gestionnaires une matière à réflexion pour l’orientation de leurs actions ultérieures. De cette étude, il ressort que les évaluations induisent très souvent une réallocation des ressources au sein d’un programme en particulier ou de l’organisation chargée de sa mise en œuvre en général. De plus, la dynamique d’institutionnalisation qui désigne la hiérarchie administrative comme le principal bénéficiaire de l’évaluation concourt à un renforcement de l’apprentissage intra-organisationnel et permet d’éviter que le rapport d’évaluation soit oublié au fond d’un tiroir [58].

23Au-delà de ces indications encourageantes, il est nécessaire de rappeler, à la suite d’Aaron Wildavsky, que l’internalisation de l’évaluation nécessite une stratégie de marketing adéquate pour surmonter les appréhensions des gestionnaires et de sensibiliser les organisations à l’évaluation [59]. Nous savons peu de chose sur la faculté de persuasion des évaluateurs internes à convaincre les gestionnaires d’entreprendre une évaluation alors que traditionnellement ceux-ci sont réticents et parfois même hostiles à l’évaluation. En effet, de nombreux gestionnaires éprouvent une appréhension à l’égard de l’évaluation qu’ils perçoivent parfois comme une critique de leur travail.

La recherche de la qualité : une préoccupation constante

24Nous avons vu que la qualité de l’évaluation représente le principal facteur concourant à réaménager le dispositif institutionnel d’évaluation au Canada. Régulièrement, des états des lieux s’interrogent sur la qualité des centaines de commandes passées par les différents ministères et organismes. Dans cette section, nous présentons trois exercices différents qui offrent une perspective complémentaire sur la qualité de l’évaluation au Canada. Le premier revient sur une méta-évaluation réalisée au début des années quatre-vingt dix et dont les résultats peuvent être mis en relation avec ceux du dernier exercice réalisé par le Centre d’excellence en évaluation du Secrétariat du Conseil du Trésor. Entre les deux, nous présentons les conclusions d’un forum organisé, il y a deux ans, par la Société canadienne d’évaluation.

25Au début des années quatre-vingt-dix, le Bureau du Contrôleur général s’attarde sur trente-sept rapports d’évaluation rédigés par des évaluateurs chevronnés, entre 1988 et 1990, et qui sont considérés de très bonne qualité. L’analyse détaillée de ces évaluations laisse apparaître plusieurs lacunes de taille puisqu’elles ne prennent pas suffisamment en compte la raison d’être des politiques et que les recommandations, rassemblées dans une section « pistes à explorer » sont, la plupart du temps, trop sibyllines. Les raisons explicatives de ce constat résident dans la faiblesse des demandes provenant des hiérarchies ministérielles. À cet égard, François Lacasse résume très bien le dilemme auxquels sont confrontés les commanditaires : « [pour] que l’évaluation puisse générer une solution de rechange au programme permettant à la fois de conserver les fonds du ministère, de ne pas générer de coûts importants et imprévus (scandale, démoralisation, mobilisation de la clientèle, etc.) et de mieux satisfaire les mêmes personnes ou groupe qu’on est chargé de servir. Évidemment, les hauts fonctionnaires sont tout sauf naïfs : avant de consacrer des ressources à une évaluation, ils exigent d’en prévoir les conclusions » ainsi, « certains des principaux espoirs fondés sur la victoire institutionnelle de l’évaluation ont été phagocytés par l’immobilisme ministériel et le carriérisme des fonctionnaires » [60]. La conclusion de cet auteur est très intéressante puisqu’elle peut s’appliquer à de nombreux pays, y compris la France, où une énergie considérable est dépensée dans les réflexions et les luttes autour de l’architecture institutionnelle des dispositifs d’évaluation plutôt que sur des avancées théoriques ou méthodologiques [61].

26En 2003, lors de la conférence annuelle de la Société canadienne d’évaluation de programme, un atelier a réuni une douzaine de praticiens (fonctionnaires, universitaires et consultants privés). Ceux-ci ont présenté la situation telle qu’ils l’observaient concrètement à leur niveau de pouvoir et/ou dans leur ministère. Ils ont mis l’accent sur les forces, les faiblesses, les opportunités et les menaces qui pèsent sur le développement de la pratique. La multiplication des points de vue permet d’esquisser un portrait détaillé de l’évaluation au Canada [62]. En résumé, chaque observateur s’accorde à reconnaître que les compétences méthodologiques sur lesquelles s’appuient les évaluateurs tant en ce qui concerne la récolte des données que leur traitement ultérieur représentent la principale force dans la conduite de l’évaluation. Dotés d’un sens pratique et d’une bonne dose de pragmatisme, les « évaluateurs ne sont pas des théoriciens mais bien des observateurs de la réalité qui ont l’habitude d’affronter les compromis imposés par les incertitudes de la vie réelle et qui ont à cœur de fournir une information pertinente » [63]. Cependant, le pragmatisme devient une faiblesse lorsque les évaluateurs renoncent à leurs spécificités ancrées dans la diversité méthodologique en se restreignant à la mesure du rendement ou au simple suivi de programme. La principale faiblesse mise en évidence au sein de la communauté des évaluateurs est l’absence d’une identité propre qui compromet la pérennité de l’évaluation de programme [64]. Celle-ci apparaît d’autant plus menacée que l’évaluation est perçue comme un exercice ponctuel — voire ritualisé — dont le suivi des recommandations est lacunaire et qui semble déconnecté des besoins spécifiques et concrets des gestionnaires, c’est-à-dire les principaux commanditaires d’évaluation au Canada [65].

27Récemment, le Centre d’excellence en évaluation du Secrétariat du Conseil du Trésor a réalisé un Examen de la qualité des évaluations dans les ministères et les organismes. Considérant que la qualité des évaluations est primordiale, un groupe de travail s’est attardé sur une centaine d’évaluations réalisées au niveau fédéral depuis l’adoption, en 2001, de la nouvelle politique d’évaluation. De cette étude, il ressort que la qualité des évaluations est globalement acceptable (23 % étaient tout de même jugées inadéquates) et que les rapport sont bien rédigés. En termes d’orientation de l’analyse, la majorité des évaluations se concentrent sur la réussite (94 %), la pertinence (74 %) et la mise en œuvre (72 %). Par contre, les questions de rentabilité (44 %) et les pratiques de gestion (47 %) sont plus rarement au centre des travaux. Les principales forces et faiblesses des évaluations sont résumées dans le tableau ci-dessous.

Tableau 1

Les forces et faiblesses [66]

Tableau 1
Tableau 1 : Les forces et faiblesses66 Respect Plus Critères des critères Inadéquat Adéquat qu’adéquat (%) (%) (%) (%) Décrire le programme 98 16 35 49 Inclure des sources de données multiples 97 s.o. s.o. s.o. Présenter des recommandations qui découlent logiquement des 94 15 53 32 constations et des conclusions Décrire les bénéficiaires et les intéressés 93 14 61 25 Décrire l’objet de l’évaluation 91 16 52 32 Décrire les éléments et les questions d’évaluation 89 35 45 20

Les forces et faiblesses [66]

données

tableau im3
Respect Plus Critères des critères Inadéquat Adéquat qu’adéquat (%) (%) (%) (%) Décrire les résultats du programme et l’attribution du programme par 87 26 37 37 rapport à la réussite Conception convenable de la méthodologie 72 13 45 42 Examiner l’attribution des ressources 71 23 37 40 Équilibrer convenablement l’aspect qualitatif et quantitatif 65 s.o. s.o. s.o. Examiner d’autres facteurs qui contribuent aux résultats 61 14 50 36 Décrire le moment choisi pour l’évaluation 58 s.o. s.o. s.o. Contenir des données pour démontrer le besoin réel 57 15 45 40 (pertinence) Décrire la signification de l’évaluation 56 11 59 30 Décrire les méthodologies et les conceptions appliquées 56 46 32 21 Contenir des données pour démontrer qu’il n’y a pas double 34 18 54 28 emploi Inclure les perspectives des non intéressés 26 s.o. s.o. s.o. Examiner les résultats fortuits 25 14 60 21 Inclure une recommandation relative au financement global 25 s.o. s.o. s.o.

23 37 40

28À la lecture des résultats de ces différents exercices, nous constatons l’existence d’une critique permanente du dispositif institutionnel canadien. Celle-ci découle principalement de l’examen des évaluations de programmes réalisées dans les différents ministères et organismes. Les conclusions, parfois très dures, formulées à l’égard de la structure institutionnelle, des règles qui encadrent la pratique ou des évaluations — et par la même occasion des évaluateurs — ne conduisent cependant pas à une mise à l’écart temporaire ou à un rejet définitif de cet instrument de pilotage de l’action publique. Nous sommes confronté à une situation dans laquelle l’existence de la fonction évaluative, contrairement à d’autres techniques de gestion, n’est pas remise en question en tant que telle. En effet, la majorité des acteurs s’accordent sur le fait que l’évaluation de programme doit s’adapter pour répondre aux multiples attentes que suscite cet exercice. Ainsi, l’évaluation de programme au Canada évolue d’une manière incrémentale au fil des débats sans cesse renouvelés sur l’évaluation de la qualité.

29Une des particularités du dispositif institutionnel d’évaluation canadien que nous avons présenté est qu’il s’inscrit dans une vision globale de gestion et de responsabilisation axée sur les résultats, c’est-à-dire qu’il concourt à une amélioration de la gouvernance. Dans cette perspective, l’évaluation est associée aux mesures de rendement des résultats prévus et les évaluateurs sont amenés à collaborer avec les unités de suivi (monitoring) et d’audit interne au sein des différentes administrations [67]. Ainsi, l’ambition de cette politique est de s’assurer que l’évaluation, au moment opportun, « favorise la production de renseignements précis, objectifs et étayés de preuves pour aider les gestionnaires à prendre plus efficacement des décisions éclairées sur leurs politiques, programmes et initiatives afin de fournir des résultats aux Canadiens et aux Canadiennes ». Les bénéficiaires sont principalement les gestionnaires des programmes qui sont amenés à fonder leurs décisions sur les renseignements fournis par les évaluations. Par la même occasion, les évaluations canadiennes peuvent être utilisées pour légitimer la suppression, l’allocation ou la réallocation des moyens dévolus à un programme et sont donc également utilisées par les organismes centraux du gouvernement. En résumé, l’évaluation peut apparaître comme le principal moteur du changement opérationnel et ne participe pas (ou très peu) à la transparence administrative puisque la plupart des rapports ne sont pas destinés à être rendus publics. C’est à cet égard que l’évaluation canadienne se distingue le plus nettement du modèle français. En effet, au Canada, le paradigme démocratique, pluraliste et/ou participatif qui cherche à intégrer le point de vue des parties prenantes (stakeholders) à l’évaluation est moins développé. Au Canada, l’approche managériale prime sur l’approche démocratique [68] que l’on retrouve en France depuis le début des années quatre-vingt-dix sans susciter les controverses françaises qui sont parfois présentées comme un frein aux progrès et à la pérennisation de l’évaluation au sein de l’administration centrale dans ce pays. Toutefois, il est intéressant de constater que dans les deux cas, l’évaluation ambitionne de concourir à une responsabilisation des gestionnaires publics même si les moyens employés diffèrent quelque peu. En faisant de la transparence et de la participation les outils privilégiés de la reddition de comptes, le dispositif français vise à informer les citoyens des résultats de la gestion publique et privilégie donc une voie directe centrée sur le dévoilement des rouages administratifs. Au Canada, c’est au contraire d’une manière indirecte que les citoyens sont informés de la performance des administrations puisque la gestion par la performance ne nécessite pas systématiquement une implication citoyenne à la démarche [69]. Étant donné qu’il est communément admis que les gestionnaires sont peu enclins à fournir des informations qui peuvent conduire à une critique publique de leur action [70], il est préférable d’atténuer le risque d’une non implication, voire de tentatives de blocage, à la démarche évaluative. C’est pour surmonter cette « résistance des évalués » [71] que le dispositif institutionnel canadien privilégie de réaliser des évaluations à la demande et à l’attention des gestionnaires publics. Ces exercices visent, en fin de parcours, à améliorer la qualité des services rendus au public sans que celui-ci ne soit obligatoirement informé de l’ensemble du fonctionnement de la machine administrative.

30La plupart des observateurs de la situation canadienne s’accordent sur le fait que le modèle d’institutionnalisation retenu permet un développement de la pratique dans la plupart des ministères et organismes au niveau fédéral. Toutefois, la mise en œuvre de cette politique d’évaluation repose sur deux principes qui peuvent en affaiblir la portée : la flexibilité afin de permettre à chaque ministère et organisme de prendre en compte ses particularismes et la persuasion puisqu’il n’y a pas de sanction prévue en cas de non application de la politique. En conséquence, l’obligation d’évaluer repose sur la sensibilisation des gestionnaires et les exercices réalisés n’ont pas tous les mêmes ambitions ni les mêmes qualités d’autant plus qu’ils dépendent très souvent des compétences des membres du personnel de l’organisation [72]. Il s’agit des principaux défis que la communauté des évaluateurs canadiens devra relever au cours des prochaines années.

Notes

  • [1]
    Ce texte est une version remaniée d’une communication présentée lors du colloque « L’évaluation des politiques publiques : entre enjeu politique et enjeu de méthode » organisé à l’Institut d’études politiques de Paris le 24 mai 2005. L’auteur remercie les participants aux séminaires de recherche du Centre de recherche sur les politiques et le développement social (CPDS — Université de Montréal) et du Centre d’analyse des politiques publiques (CAPP — Université Laval) pour leurs commentaires qui lui ont permis d’enrichir ses propos.
  • [2]
    Steve. JJacob@ pol. ulaval. ca;www.stevejacob.net.
  • [3]
    Derlien (H.-U.), « Le développement des évaluations dans un contexte international », dans Bussmann (W.), Kloti (U.), Knoepfel (P.) eds, Politiques publiques : évaluation, Paris, Économica, 1998, p. 5.
  • [4]
    Varone (F.), Jacob (S.), « Institutionnalisation de l’évaluation et Nouvelle Gestion publique : un état des lieux comparatif », Revue internationale de politique comparée, 2004, vol. 11, no 2, p. 282.
  • [5]
    Cette présentation s’attarde essentiellement sur l’évaluation au niveau fédéral même si les expériences provinciales sont nombreuses et diversifiées dans l’ensemble des entités fédérées. Nous renvoyons le lecteur intéressé au numéro spécial que la Revue canadienne d’évaluation de programme a consacré à cette question en 2001.
  • [6]
    Une différence majeure entre les situations porte sur les objets d’analyse. L’évaluation au Canada se focalise sur des programmes et non pas sur des politiques comme c’est habituellement le cas en Europe. Un programme est « un ensemble de mesures récurrentes dont les budgets sont renouvelés annuellement et qui sont basés sur des lois spécifiques. Par exemple, on parlera de la politique agricole et des programmes qui la concrétisent année après année, tels que les programmes de soutien aux éleveurs, aux producteurs de lait, à la recherche, à la commercialisation des céréales ». F. Lacasse, « Gestion et émasculation des évaluations : le cas du Canada », Revue française d’administration publique, 1993, no 66, p. 271.
  • [7]
    Jacob (S.), Institutionnaliser l’évaluation des politiques publiques. Étude comparée des dispositifs en Belgique, en France, en Suisse et aux Pays-Bas, Bruxelles, PIE-Peter, 2005.
  • [8]
    Jacob (S.) et Varone (F.), « Cheminement institutionnel de l’évaluation des politiques publiques en France, en Suisse et aux Pays-Bas (1970-2003) », Politiques et management public, 2004, vol. 22, no 2, p. 136.
  • [9]
    Un dispositif institutionnel se compose d’organisations et de règles qui contribuent au développement et à la pérennité de la pratique évaluative dans un espace donné. Jacob (S.), op. cit.
  • [10]
    Juillet (L.), « The Office of Ethics Commissioner, Accountability and Public Trust », dans Doem (G. B.) ed., How Ottawa Spends 2004-05 : Mandate Change in the Martin Era, Kingston and Montreal, McGill-Queen’s University Press, 2004, pp. 296-316.
  • [11]
    Turgeon (J.), « L’évaluation des politiques et des programmes au niveau du gouvernement fédéral canadien », dans Conseil National de l’Évaluation, L’évaluation au service de l’avenir. Rapport annuel 1999, Paris, La Documentation française, 2000, p. 185.
  • [12]
    Müller-Clemm (W.), Barnes (M.), « A historical perspective on federal program evaluation in Canada », The Canadian Journal of Program Evaluation, 1997, vol. 12, no 1, p. 49.
  • [13]
    Segsworth (R.V.), « Evaluation in the Twenty-First Century : Two Perspectives on the Canadian Experience », dans Furubo (J.-E.), Rist (R.), Sandhahl (R.) eds, International Atlas of Evaluation, New Brunswick & Londres, Transaction Publishers, 2002, p. 177.
  • [14]
    Jacob (S.), « La volonté des acteurs et le poids des structures dans l’institutionnalisation de l’évaluation des politiques publiques (France, Belgique, Suisse et Pays-Bas) », dans Revue française de science politique, 2005, vol. 55, no 5-6, pp. 835-864.
  • [15]
    Chanut (V.), « L’évaluation : affaire d’État ou question d’organisation ? », Politiques et Management public, 2002, vol. 20, no 4, p. 7.
  • [16]
    Cette institution créée en 1878 afin d’examiner les opérations exécutées et d’approuver ou refuser l’émission de chèques du gouvernement dénonce, depuis les années cinquante, les paiements improductifs et signale « tout sujet qui, à son avis, doit être porté à l’attention de la Chambre des communes ». Loi sur l’administration financière, 1951. http :// www. oag-bvg. gc. ca/ domino/ autres. nsf/ html/ auqdn_hist_f. html.
  • [17]
    Müller-Clemm (W.), Barnes (M.), op. cit., p. 51.
  • [18]
    Segsworth (B.), « Out of sequence and out of sync : budgeting, auditing, and evaluation in Canada », dans Gray (A.), Jenkins (B.), Segsworth (B.) eds, Budgeting, auditing and evaluation. Functions and integration in seven governments, New Brunswick & London, Transaction Publishers, 1993, p. 91.
  • [19]
    Jordan (J.-M.), Sutherland (S. L.), « Assessing the results of public expenditure : Program evaluation in the Canadian federal government », Canadian Public Administration, 1979, vol. 22, no 4, p. 585.
  • [20]
    Segsworth (R.), « Policy and program evaluation in the Government of Canada », dans Rist (R.) ed., Program evaluation and the management. Patterns and prospects across eight nations, New-Brunswick & London, Transaction Publishers, 1991, p. 22.
  • [21]
    Segsworth (R.), « Auditing and evaluation in the government of Canada : some reflections », Canadian Journal of Program Evaluation, 1990, vol. 5, no 1, p. 45.
  • [22]
    La reddition des comptes est une notion polysémique qui peut se traduire de différentes manières. La volonté de clarifier et de préciser la responsabilité des agents publics constitue le point de convergence entre les différentes démarches entreprises par de nombreux gouvernements pour y parvenir. Par exemple, l’atteinte de cet objectif implique l’introduction de mesures du rendement des ministères et des organismes publics, de mécanismes d’examen et d’ajustement ou d’outils de communication et d’information. Bien souvent, l’évaluation est considérée comme un des instruments qui favorisent la reddition de comptes. Sutherland (S.), « Responsible government and ministerial responsibility : every reform is its own problem », Canadian Journal of Political Science, 1999, vol. 5, no 2, pp. 150-159; Gagne (R. L.), « Accountability and public administration », Canadian Public Administration, 1996, vol. 39, no 2, pp. 213-225; Davies (I.), « Evaluation and performance management in government », Evaluation; The International Journal of Theory, Research and Practice, 1999, vol. 5, no 2, pp. 150-159.
  • [23]
    L’évaluation n’est pas la seule solution envisagée à l’époque puisqu’au même moment, le Secrétariat du Conseil du Trésor encourage l’essor des mécanismes de vérification interne. Müller-Clemm (W.), Barnes (M.), op. cit., p. 55.
  • [24]
    BCG, Guide sur la fonction de l’évaluation de programme, Ottawa, BCG, 1981, p. 1.
  • [25]
    Leclerc (G.), « Efficacité — La communication et la vérification de l’information sur l’efficacité dans le secteur public. Un rapport de la Fondation canadienne pour la vérification intégrée (FCVI) », Revue canadienne d’évaluation de programme, 1988, vol. 3, no 1, p. 67.
  • [26]
    Müller-Clemm (W.), Barnes (M.), op. cit., p. 56.
  • [27]
    Le guide a été publié sous la forme d’une circulaire (no 1981-25) du Secrétariat du Conseil du Trésor et intégré à la politique de 1977.
  • [28]
    Mentionnons que c’est au cours de la même année (1981) qu’a été créée la Société canadienne d’évaluation de programme (SCE) qui regroupe actuellement près de deux mille praticiens qui proviennent de différents milieux (administrations, universités ou sociétés privées de conseil). Grâce à ses nombreuses activités, la SCE est devenue le principal agent de promotion de la pratique évaluative au Canada et le forum incontournable de ceux qui veulent échanger des connaissances en la matière. A titre illustratif, mentionnons qu’elle publie une revue scientifique bilingue, qu’elle recense les formations offertes par les différentes universités et les rapports disponibles sur internet. Cette société n’est pas indifférente à la qualité de la pratique. À cet effet, elle a adopté les standards développés par le Comité conjoint sur les standards d’évaluation et a rédigé son propre code d’éthique afin d’« assurer la qualité des services au public et aux clients de l’évaluation; protéger le public et les clients de l’incompétence et du manque d’éthique dans les pratiques ; identifier les évaluatrices et les évaluateurs compétents (...) [et] empêcher les évaluatrices et les évaluateurs compétents, et l’évaluation en général, d’être discrédités par l’incompétence de certains ; fournir un guide aux évaluatrices et aux évaluateurs pour les aider à résoudre les dilemmes auxquels ils seraient confrontés ». Par cette déclaration, la SCE affiche son engagement en faveur de l’amélioration de la qualité des évaluations et encourage ses membres à mener une réflexion visant à écarter les personnes qui risqueraient de décrédibiliser l’ensemble de la profession. Dans cette perspective, les réflexions sur la certification des évaluateurs font l’objet d’études approfondies. Société canadienne d’évaluation, « Des normes en évaluation de programme au Canada : une proposition pour fins de discussion », Revue canadienne d’évaluation de programme, 1992, vol. 7, no 1, p. 171.
  • [29]
    Maclean (L.), « Reflections on program evaluation, 35 years on », The Canadian Journal of Program Evaluation, 2000, vol. 15, Special issue, pp. 185-190.
  • [30]
    À la différence du General Accounting Off?ce américain, le Contrôleur général ne bénéficie pas d’un mandat lui permettant d’initier des évaluations de sa propre initiative. Par contre, la mission de vérification de la qualité des évaluations réalisées est identique à celle du National Audit Off?ce australien et du Contrôleur général néo-zélandais. Segsworth (B.), Volpe (S.), « Auditing the evaluation function in Canada », dans Schwartz (R.), Mayne (J.) eds, Quality matters : seeking confidence in evaluation, auditing and performance reporting, New Brunswick & London, Transaction Publishers, 2005, pp. 129-130.
  • [31]
    Segsworth (R.), « Policy and program evaluation in the Government of Canada », dans Rist (R.) ed., Program evaluation and the management. Patterns and prospects across eight nations, New-Brunswick & London, Transaction Publishers, 1991, p. 27.
  • [32]
    BCG, op. cit., p. 38.
  • [33]
    La dette passe 27,5 milliards de dollars en 1966 à 80 milliards en 1978 tandis que les dépenses publiques doublent durant cette période. Segsworth (B.), « Out of sequence and out of sync : budgeting, auditing, and evaluation in Canada », dans Gray (A.), Jenkins (B.), Segsworth (B.) eds, Budgeting, auditing and evaluation. Functions and integration in seven governments, New Brunswick & London, Transaction Publishers, 1993, p. 94.
  • [34]
    Sutherland (S.), « The evolution of program budget ideas in Canada : Does Parliament benefit from estimates reform ? », Canadian Public Administration, 1990, vol. 33, no 2, p. 147.
  • [35]
    La Commission Nielsen a étudié, durant un an, 989 programmes fédéraux représentant des dépenses annuelles de 92 milliards de dollars.
  • [36]
    Ressources naturelles Canada, « La fonction moderne de contrôleur — contexte historique » http :// www. nrcan. gc. ca/ css/ fmb/ modcomp03/ mc03ax3-f. htm.
  • [37]
    Macqueen (C.), « Program evaluation in the Canadian federal government », dans Hudson (J.), Mayne (J.) et Thomlison (R.) eds, Action-oriented evaluation in organizations : Canadian practices, Toronto, Wall & Emerson, 1992, pp. 28-47.
  • [38]
    Sutherland (S.), « Le rôle du greffier du Conseil privé », dans Commission d’enquête sur le programme de commandites et les activités publicitaires, Rétablir l’imputabilité : études, Montréal, 2006, vol. 3/3, p. 66; Zussman (D.), « Walking the tightrope : the Mulroney governement and the public service », dans Prince (M. J.) ed., How Ottawa Spends 1986-87 : Tracking the Tories, Toronto, Methuen, 1986, p. 255.
  • [39]
    Bourgault (J.) et Armit Bourgault (A.), « Le cas du Canada : anatomie d’une réforme : le cas de l’examen des programmes du gouvernement fédéral du Canada de 1994 à 1996 », dans Corkery (J.) et al. ed., La gestion de la réforme du secteur public : une étude comparative des expériences de divers pays en matière de gestion de programmes de réforme des institutions administratives du gouvernement central, Bruxelles/Maastricht, Institut international des sciences administratives/Centre européen de gestion des politiques de développement, 1998, pp. 179-210.
  • [40]
    Secrétariat du Conseil du Trésor, Repenser le rôle de l’État — Un gouvernement pour les Canadiens, Ottawa, Ministre des Travaux publics et Services gouvernementaux, 1997, p. 5.
  • [41]
    Même si ce processus était fermé à la consultation et à l’implication de parties prenantes, il semble que le comité ad hoc interne a permis d’éviter les blocages lors de l’adoption et de la mise en œuvre des changements proposés et a atténué la critique publique de la compétence des fonctionnaires. Charih (M.), « Les réformes administratives et budgétaires au gouvernement fédéral canadien : une comparaison des gouvernements Mulroney et Chrétien (1984-1997) », Téléscope, 1999, vol. 6, no 2, s.p.
  • [42]
    Paquet (G.) et Shepherd (R.), « The Program Review Process ; A. Deconstruction », dans Swimmer (G.) ed., How Ottawa Spends 1996-97 : Life Under the Knife, Ottawa, Carlton University Press, 1996, pp. 39-72.
  • [43]
    Jacob (S.), « Réflexions autour d’une typologie des dispositifs institutionnels d’évaluation », Revue canadienne d’évaluation de programme, 2005, vol. 20, no 2, p. 55.
  • [44]
    C’est dans cet esprit que le Centre d’excellence en évaluation organise une réunion annuelle des chefs de l’évaluation. La dernière en date portait sur le rôle de l’évaluation dans le processus décisionnel des cadres fondé sur des données probantes.
  • [45]
    Segsworth (R.), « Program Evaluation in the Government of Canada : plus ça change ... », The Canadian Journal of Program Evaluation, 2005, vol. 20, no 3, p. 182.
  • [46]
    Il est cependant difficile de brosser un état des lieux exhaustif des évaluations effectivement réalisées au Canada et de connaître le nombre d’évaluations commanditées annuellement. Cette information serait pourtant très éclairante dans l’appréciation du dispositif institutionnel canadien. Seules des données ponctuelles sont disponibles sans qu’il ne soit possible de s’assurer qu’elles mesurent toutes la même chose. A titre indicatif, mentionnons le nombre d’évaluations recensées : 30 en 1980,87 en 1982,100 en 1987,80 en 1991, 60 en 1997 et 130 en 2004. La difficulté de recenser les évaluations s’explique par le fait que de nombreux programmes sont évalués en interne par les unités d’évaluation des départements chargés de leur mise en œuvre sans que les rapports ne soient rendus publics. Nous allons revenir sur cette spécificité dans la section suivante de cet article. Segsworth (R.), op. cit., p. 182.
  • [47]
    Vedung (E.), Public policy and program evaluation, New Brunswick-London, Transaction Publishers, 2000, p. 115.
  • [48]
    Vedung (E.), op. cit., p. 285.
  • [49]
    De ce point de vue, l’évaluation s’apparente aux exercices d’audit ou de vérification qui généralement sont rendus publics et dont les rapports sont disponibles sur internet.
  • [50]
    Sonnichsen (R.), « Building Evaluation Capacity within Organizations », dans Boyle (R.), Lemaire (D.) eds, Building Effective Evaluation Capacity : lessons from practice, New Brunswick, Transaction Publishers, 1999, pp. 54-55.
  • [51]
    La crédibilité d’une évaluation ne se limite cependant pas à une simple distinction du rattachement de l’évaluateur et est éminemment complexe et subjective. Love (A.), Internal evaluation. Building organizations from within, New Burry Park, Sage, 1991, p. 5.
  • [52]
    Gauthier (B.) et. al., « The Lay of the Land : Evaluation Practice in Canada Today », The Canadian Journal of Program Evaluation, 2004, vol. 19, no 1, p. 174.
  • [53]
    House (E.), « The role of the evaluator in a political world », The Canadian Journal of Program Evaluation, 2004, vol. 19, no 2, p. 7.
  • [54]
    Turgeon (J.), op. cit., p. 189.
  • [55]
    Mayne (J.), « Utilizing evaluation in organizations : the balancing act », dans Leeuw (F.), Rist (R.), Sonnichsen (R.) eds, Can governments learn ? Comparative perspectives on evaluation and organizational learning, New Brunswick & London, Transaction Publishers, 1994, p. 21.
  • [56]
    Love (A.), Internal evaluation. Building organizations from within, New Burry Park, Sage, 1991, p. 1.
  • [57]
    Cité par Lindquist (E.), « Getting results right : reforming Ottawa’s estimates », dans Pal (L.) ed., How Ottawa spends 1998-1999 : balancing act : the post-deficit mandate, Don Mills, Oxford University Press, 1998, p. 153.
  • [58]
    Les résultats mentionnés sont la moyenne de ceux présentés par Mayne (J.), op. cit., p. 24.
  • [59]
    Wildavsky (A.), « The self-evaluating organization », dans Chelimsky (E.) ed., Program evaluation : patterns and directions, Washington, American society for public administration, 1985, pp. 246-265.
  • [60]
    Lacasse (F.), « Gestion et émasculation des évaluations : le cas du Canada », Revue française d’administration publique, no 66,1993, p. 274 et 276.
  • [61]
    Jacob (S.), Varone (F.), « Cheminement institutionnel de l’évaluation des politiques publiques en France, en Suisse et aux Pays-Bas (1970-2003) », Politiques et Management public, vol. 22, no 2,2004, p. 150.
  • [62]
    Gauthier (B.) et. al., « The Lay of the Land : Evaluation Practice in Canada Today », The Canadian Journal of Program Evaluation, vol. 19, no 1,2004, pp. 145-146.
  • [63]
    Gauthier (B.) et. al., op. cit., p. 170.
  • [64]
    Adaptation de Gauthier (B.) et. al., op. cit., pp. 174-175.
  • [65]
    Comme le soulignent les propos tenus lors du premier Forum annuel sur l’évaluation à l’intention des cadres de la fonction publique, le Canada doit s’appuyer sur les forces de son histoire pour relever les nouveaux défis qu’il rencontre actuellement. Au cours de cette réunion, qui a rassemblé 250 hauts fonctionnaires, provenant de soixante-sept ministères et organismes, Reg Alcok, président du Conseil du Trésor a souligné « l’importance de l’évaluation dans le processus décisionnel au plan stratégique puisqu’elle augmente la capacité du Canada à se tailler une place sur la scène internationale ». De son côté, Charles-Antoine Saint-Jean, Contrôleur général du Canada, était conscient que les évaluateurs doivent relever plusieurs défis tels que « veiller à ce que les fonctions de vérification et d’évaluation travaillent ensemble, standardiser la qualité des évaluations, concevoir de nouveaux outils d’évaluation, assurer l’indépendance des évaluateurs et améliorer l’utilisation de l’information tirée des évaluations ». Propos reproduits dans CEE, Bulletin communautaire du Centre d’excellence en évaluation, 2005, vol. 4, no 2, p. 2.
  • [66]
    Secrétariat du Conseil du Trésor, Examen de la qualité des évaluations dans les ministères et les organismes, Ottawa, SCT, 2004. Seuls les rapports qui respectent les critères ont été notés (n = 115).
  • [67]
    Secrétariat du Conseil du Trésor, Cadres de gestion et de responsabilisation axés sur les résultats : nouvelles directives pour 2005, wwww. tbs-sct. gc. ca. Pour approfondir la compréhension des ressemblances et des différences entre l’évaluation et les autres pratiques de mesure de la performance, voir Bourgault (J.) et Marsolais (I.), « Le suivi de la performance, de l’incantatoire au passage à l’acte : une étude du suivi de performance de six programmes d’aide aux entreprises », Administration publique du Canada, 2002, vol. 45, no 3, pp. 364-388.
  • [68]
    Jacob (S.), « Réflexions autour d’une typologie des dispositifs institutionnels d’évaluation », dans Revue canadienne d’évaluation de programme, vol. 20, no 2,2005, pp. 49-68.
  • [69]
    Haque (M.), « Significance of accountability under the new approach to public governance », International review of administrative science, 2000, vol. 66, no 4, p. 602.
  • [70]
    Gow (J.), « Accountability, rationality, and the new structures of governance : making room for political rationality », The Canadian Journal of Program Evaluation, vol. 16, no 2, p. 58.
  • [71]
    Cabatoff (K.), Bion (J.-Y.), « La gestion des évaluations : cinq leçons de l’expérience canadienne », Politiques et Management Public, 1992, vol. 10, no 4, p. 136.
  • [72]
    Mayne (J.), « Utilizing evaluation in organizations : the balancing act », dans Leeuw (F.), Rist (R.), Sonnichsen (R.) eds, Can governments learn ? Comparative perspectives on evaluation and organizational learning, New Brunswick & London, Transaction Publishers, 1994, p. 22.
Steve Jacob
Docteur en science politique, professeur adjoint, département de science politique, Centre d’analyse des politiques publiques, Université Laval, Québec [2]
  • [2]
    Steve. JJacob@ pol. ulaval. ca;www.stevejacob.net.
Pour citer cet article
Distribution électronique Cairn.info pour Institut national du service public © Institut national du service public. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...