CAIRN.INFO : Matières à réflexion

1 L’évaluation des politiques publiques s’est développée, depuis de nombreuses années, dans la plupart des démocraties occidentales. D’une manière générale, ce mouvement coïncide avec des réflexions théoriques et surtout méthodologiques de la communauté scientifique autour de cet instrument, traditionnellement présenté comme un outil de pilotage de l’action publique. Cependant, les réflexions concernant l’institutionnalisation de cette pratique demeurent sensiblement moins nombreuses [1]. Cet article s’inscrit dans la lignée des recherches récentes qui portent sur l’institutionnalisation de l’évaluation des politiques publiques [2]. Il s’attarde sur la situation en Belgique, en France, en Suisse et aux Pays-Bas. Il s’agit de quatre pays dans lesquels l’évaluation s’est développée à des moments distincts [3], qui ont donc une maturité de la pratique très différente [4] et dont les constructions institutionnelles en découlant sont variées et ont connu, dans la plupart des cas, des évolutions.

2En décidant d’étudier les dispositifs institutionnels d’évaluation des politiques publiques dans quatre pays, nous faisons le choix de la comparaison pour déterminer l’importance des traditions nationales dans les trajectoires empruntées par ce mouvement. La comparaison des processus permet la confrontation des situations problématiques aux réponses (dispositifs institutionnels) qui y sont apportées. De cette manière, il est possible de constater l’existence ou non de solutions identiques à des problèmes similaires. Si le degré d’institutionnalisation de l’évaluation est traditionnellement présenté comme un indicateur permettant de mesurer le développement de la pratique dans un pays, force est de constater qu’il ne reflète qu’une partie de la réalité qu’il convient de confronter à une analyse plus détaillée de la pratique effective.

3 Diverses motivations légitiment notre sélection de la Belgique, de la France, des Pays-Bas et de la Suisse. La comparabilité est l’élément central qui a guidé notre choix, puisque plusieurs traits communs caractérisent les cas retenus. À ce premier élément, il convient d’en ajouter deux autres. Primo, tous les pays sont situés dans un espace géographique rapproché où la Belgique, la France et les Pays-Bas sont des voisins géographiques quasi « naturels ». À l’évidence, des relations particulières existent de longue date entre les communautés linguistiques francophone et flamande de Belgique et leur voisin respectif. Ceci se traduit, par exemple, au travers des contacts répétés que nouent certains membres de la Société wallonne d’évaluation et de prospective (SWEP) avec leurs homologues français (de la Société française d’évaluation) ou à des échanges transfrontaliers au sein du milieu académique. Sans verser dans une vision étroite et naïve d’import-export institutionnel [5], il apparaît réaliste de penser que les « modèles » français et hollandais peuvent filtrer vers la Belgique. Secundo, la Suisse ressemble sous plusieurs aspects à la Belgique et aux Pays-Bas, à défaut d’être un de leurs voisins directs. Ces trois pays sont considérés comme de petits pays bâtis sur des clivages religieux et/ou linguistiques où prévaut le fédéralisme, ou qui sont considérés comme des états unitaires décentralisés. D’ailleurs, traditionnellement, ces pays sont présentés comme des exemples types de démocraties consociatives [6], c’est-à-dire profondément divisés en diverses sous-cultures, même si un mouvement de dépiliarisation est à l’œuvre depuis quelques années [7]. Cette caractéristique induit une tendance corporatiste avancée où l’État coopère de façon étroite avec un nombre limité et déterminé de groupes d’intérêt cohérents, bien organisés, qui sont non seulement reconnus par l’État, mais auxquels l’État délègue certaines responsabilités publiques.

L’institutionnalisation de l’évaluation : gage de pérénité de la pratique

4Dans cet article, nous cherchons à identifier, suite à une recherche empirique approfondie, les facteurs explicatifs de la variété des dispositifs institutionnels érigés au niveau central dans ces différents pays. La littérature contient en la matière quelques pistes exploratoires intéressantes. Éric Monnier considère ainsi que le développement de l’évaluation des politiques publiques s’explique par la convergence de trois éléments : la complexification de l’action publique, les difficultés de pilotage et de légitimation et le développement de l’analyse des politiques publiques qui en permet l’intelligibilité [8]. De son côté, Hans-Ulrich Derlien identifie quatre principaux facteurs explicatifs du développement de cette pratique : le changement de la situation fiscale, la constellation politique, le contexte constitutionnel et le contrôle financier [9]. D’autres auteurs soulignent l’influence prépondérante d’une culture administrative et, en particulier, de la formation en sciences sociales des fonctionnaires chargés de diffuser la pratique évaluative [10], comme facteur explicatif de son développement.

5Si ces déclarations permettent d’alimenter une première réflexion, ces assertions empreintes, a priori, de bon sens et de réalisme n’ont pas fait l’objet de validation empirique ou de test de causalité approfondi.

6 La prise en compte des institutions dans l’étude de l’évaluation des politiques publiques est relativement originale. Les nombreuses recherches concernant l’évaluation portent principalement sur des questions de méthode [11] ou relatent l’évolution historique de cette pratique dans un pays [12]. Dans cet article, nous abordons l’évaluation à travers le prisme de l’analyse institutionnelle. La conception et le choix du dispositif nous semblent aussi importants que le choix des méthodes adoptées. Au cours des dernières années, l’analyse institutionnelle montre que les efforts d’institutionnalisation tendent à s’autonomiser. L’État ne dispose pas d’un monopole en la matière et les institutions, sous l’influence de nombreux acteurs aux motivations multiples, se développent dans de nombreux secteurs, y compris ceux dans lesquels il bénéficiait d’une rente de situation dans la production des savoirs experts, comme en témoigne le rôle accru joué par quelques instituts d’experts indépendants.

7Selon Fritz Scharpf, l’étude des institutions encourage deux types de questionnement :

8

« One focusing on the consequences that institutions may have for actors and actions within their domains, the other one focusing on the genesis of and transformation of institutional arrangements themselves. » [l’un se concentrant sur les effets que les institutions peuvent avoir sur les acteurs et les actions au sein de leurs domaines, l’autre se concentrant sur la genèse et la transformation des arrangements institutionnels eux-mêmes] [13].

9 Ces deux dimensions seront illustrées dans la suite de cet article se concentrant sur le processus d’institutionnalisation de l’évaluation, qui se concrétise de différentes manières et qui ambitionne de favoriser la routinisation et donc la prévisibilité du recours à cet instrument [14]. Certains auteurs assimilent l’institutionnalisation d’un fait ou d’une pratique à sa « reconnaissance officielle » [15]. En ce qui concerne l’évaluation, celle-ci peut être uniquement de nature normative (telle l’adoption de clauses évaluatives qui imposent la réalisation d’une évaluation quelques années après la mise en œuvre de la politique considérée), alors que, pour d’autres, l’institutionnalisation s’apparente à un processus de bureaucratisation qui passe par la création d’instituts de recherche ou de services administratifs spécialisés et de corps de représentants qualifiés.

Une typologie idéale typique des configurations institutionnelles

10 Pour mettre en perspective l’(in)existence de ces relations, nous nous attardons sur les dispositifs institutionnels composés d’organisations et de règles contribuant au développement et à la pérennité de la pratique évaluative dans un espace donné. Ainsi, nous ne réduisons pas le concept de dispositif institutionnel aux seules organisations formelles. Ce serait, selon nous, trop réducteur, étant donné que, lorsque les acteurs mettent en place des règles ou des pratiques informelles, ils concourent, d’une manière différente de celle d’un gouvernement par exemple, à la stabilité de la pratique évaluative. Sans nécessairement assimiler une règle informelle à une instance formelle, il nous semble tout de même nécessaire de prendre en considération l’ensemble des éléments qui, par leurs spécificités propres, peuvent s’inscrire dans une même logique [16]. Concrètement, les mécanismes d’institutionnalisation de l’évaluation qu’il convient de mesurer sont de différents types. Il peut s’agir d’éléments de régulation (une clause d’évaluation, par exemple), de processus cognitifs (une connaissance particulière de certaines approches et méthodes de l’évaluation) ou normatifs (la diffusion de normes professionnelles, telles que les standards de qualité) [17].

11Parmi les nombreuses méthodes permettant l’étude des politiques publiques dans différents pays, la comparaison des politiques est particulièrement utile [18]. De manière schématique, nous pouvons la définir comme « the study of how, why, and to what effect different governments pursue a particular course of action or inaction » [l’étude de comment, pourquoi et pour quels effets différents gouvernements s’orientent vers un type d’action ou d’inaction] [19]. La démarche comparée favorisant la forme de « l’expérimentation indirecte », telle que la définit Émile Durkheim [20], nous semble la plus prometteuse [21] pour atteindre un des « buts essentiels de la recherche scientifique [qui] est la recherche des traits invariants dissimulés sous le désordre des faits empiriques » [22]. C’est également l’opinion de Bertrand Badie et Guy Hermet, pour qui la comparaison représente « un mode de questionnement de l’ensemble des phénomènes politiques, une manière de faire progresser l’analyse empirique et la théorie politique dans la totalité des secteurs de la connaissance » [23].

12 Ainsi, le recours à la comparaison permet de passer d’une approche purement descriptive à une approche explicative. Les descriptions des situations internationales ambitionnent de dépasser la collection (également qualifiée de comparaison « de bureau », ou « Canada dry » [24]) pour tendre vers une véritable comparaison, telle que l’entend Alex Inkeles lorsqu’il affirme que « individual country studies are therefore ‘cross national only in the sense they are conducted simultaneously » [les études par pays sont donc transnationales seulement dans le sens où elles sont conduites simultanément] [25]. En vue de débroussailler le maquis des informations collectées et de le transformer en jardin à la française, selon l’expression de Daniel-Louis Seiler [26], les comparatistes peuvent élaborer des typologies pour aborder la complexité du réel [27]. Pour cela, la classification est un moyen et non une fin en soi. En recourant à la notion d’idéal type [28], telle que conçue par Max Weber, nous cherchons à rendre intelligible la réalité observée afin de pouvoir ensuite l’interpréter [29]. D’un point de vue méthodologique, il est important de spécifier que, dans ce type de démarche, la question de la comparabilité est centrale [30]. C’est pourquoi l’élaboration d’une typologie des dispositifs institutionnels cherche à répondre à la question « qu’est-ce qui est comparable ? » [31] en considérant que « comparer, c’est à la fois assimiler et différencier par rapport à un critère » [32]. En effet, la classification permet « d’ordonner un univers donné en classes qui sont mutuellement exclusives et collectivement exhaustives » [33].

13 Afin de pouvoir comparer les dispositifs institutionnels entre eux (soit au sein d’un même pays, soit entre différents pays à une même époque ou encore entre les pays à des époques différentes), il est nécessaire d’établir une grille d’analyse systématique permettant d’élaborer une typologie qui prend en considération quelques attributs d’un dispositif, à savoir sa finalité et son degré d’ouverture. La mesure de la finalité du dispositif tient compte des ambitions qui sont assignées à l’évaluation. La littérature identifie traditionnellement plusieurs finalités, que nous regroupons en deux grandes catégories (contrôle et managériale). La première s’inscrit dans la continuité des modes classiques de contrôle de l’administration qui consiste essentiellement à obtenir une information sur le suivi des prestations et de l’action des pouvoirs publics. La deuxième, que nous qualifions de managériale, est orientée vers la mesure de la performance et des effets. Elle met davantage l’accent sur les processus de mise en œuvre et sur la qualité des réalisations administratives [34]. Le contrôle demeure, à cet égard, un élément prépondérant, même si, comme c’est le cas en France, il est tempéré par des considérations énoncées par les tenants d’une évaluation dite démocratique/ pluraliste [35]. En ce qui concerne l’appréciation du degré d’ouverture, les éléments qui sont pris en compte sont principalement l’association ou non de fonctionnaires, d’experts externes (académiques ou sociétés de conseil) et de représentants des parties prenantes à la réalisation des évaluations, ainsi que l’(in)existence d’une communauté épistémique [36]. C’est pour cette raison que, progressivement, la plupart des dispositifs accroissent leur degré d’ouverture puisque des sociétés nationales, mettant en réseau l’ensemble des acteurs énumérés, sont généralement constituées lorsque la pratique évaluative est déjà quelque peu institutionnalisée. En combinant ces deux éléments, il est possible de définir une matrice idéale typique qui distingue les dispositifs de nature technocratique, corporatiste, participative et libérale.

14– Ainsi : un dispositif technocratique est animé par une finalité de contrôle. Centré autour de quelques règles et organisations, son degré d’ouverture est restreint et se caractérise par l’exclusion délibérée de certains groupes. La domination de ce dispositif par des acteurs étatiques délivrant un savoir officiel nous rapproche du modèle technocratique défini par Luc Rouban [37].

15– Un dispositif corporatiste est animé par une finalité managériale. C’est cet élément qui le distingue du dispositif technocratique, avec lequel il a en commun un faible degré d’ouverture. L’accès à ce dispositif est limité aux « représentants fiables », relativement stato-centrés, qui y défendent leurs intérêts. Les éléments du dispositif reproduisent la différenciation existant au sein de l’État et privilégient la diversité sur la base d’une sectorialisation reconnue, c’est-à-dire d’une différentiation fonctionnelle des programmes d’action publique [38].

16 – Un dispositif participatif est animé d’une finalité de contrôle. Son degré d’ouverture est plus large. Il associe de nouveaux acteurs issus de la société civile ou des experts indépendants aux « représentants fiables » des dispositifs au degré d’ouverture restreint. Toutefois, même si l’État reconnaît le rôle croissant d’acteurs privés dans la conduite de l’action publique, ceux-ci participent plus qu’ils n’orientent la conduite du dispositif.

17– Un dispositif libéral est animé d’une finalité managériale. Son degré d’ouverture est large. Ce qui nous semble le plus important dans cet idéal type est contenu dans l’image qu’utilise Philippe Schmitter pour décrire les acteurs impliqués dans la gouvernance, à savoir « l’enchevêtrement des organisations en quelque chose qui ressemble à une société civile » [39]. De cette image, il ressort que le dispositif libéral, en associant des acteurs issus d’horizons différents, accepte d’eux qu’ils en influencent la conduite.

18 L’élaboration de ces configurations idéales typiques nous contraint à évacuer ou plutôt à ne pas insister sur certains éléments qui participent de l’analyse d’un dispositif institutionnel. Nous sommes conscient que la problématique de l’institutionnalisation englobe d’autres aspects (telle l’étude de la fiabilité ou de l’efficacité des dispositifs) et pourrait prendre en compte d’autres attributs caractéristiques d’un dispositif institutionnel (comme une nature organisationnelle ou procédurale, un dispositif centralisé ou pluraliste, conflictuel ou apaisé, autarcique ou perméable à son environnement, etc.). Le recours à une analyse typologique n’est pas guidé par une volonté d’évitement de la complexité de la problématique, mais au contraire, se justifie par un souci de précision et de clarté dans la présentation des fondements du mouvement – peu étudié, rappelons-le – d’institutionnalisation de l’évaluation. La typologie permet de comprendre le réel sans toutefois refléter le réel dans toute sa singularité. En procédant de la sorte, nous courrons le risque de heurter l’observateur avisé d’une situation nationale qui pourrait voir dans la condensation des caractéristiques retenues une description partielle, sommaire, voire même caricaturale de la réalité. Ce n’est bien évidemment pas l’objectif poursuivi. Au contraire, l’élaboration de cette typologie permet d’abord de présenter différentes configurations institutionnelles, de les classer, mais surtout de permettre d’en identifier leurs origines, d’en interpréter les fondements et les causalités constitutives. Ceci n’est possible que si le chercheur, tout en maîtrisant la complexité de chacun des cas, accepte de concentrer son analyse sur quelques traits caractéristiques et de se focaliser sur quelques facteurs explicatifs pertinents. C’est une des vertus de la comparaison mise en évidence par Patrice Duran, qui considère que, pour celui qui « s’attache essentiellement à comprendre la diversité, de manière générale, rien n’est vraiment perçu comme allant de soi et, finalement, la ressemblance est aussi problématique que la différence ; une des vertus exemplaires de la comparaison est de nous éclairer sur l’identité de chaque système » [40]. Pour être en mesure de saisir les traits caractéristiques et explicatifs de ces systèmes, il faut éviter « the danger of being overwhelmed by large numbers of variables and as, a result, losing the possibility of discovering controlled relationships, and it must therefore judiciously restrict itself to the really key variables, omitting those of only marginal importance » [le danger d’être enseveli par un grand nombre de variables, avec, comme résultat, l’impossibilité de découvrir des rapports contrôlés, et il faut donc se limiter judicieusement aux variables vraiment principales, négligeant celles d’importance seulement marginale] [41].

19Pour ce travail, une étude empirique des expériences nationales a bien évidemment été accomplie. Nous avons eu recours à une analyse documentaire approfondie et conduit une soixantaine d’entretiens semi-directifs. Cela nous a permis d’étudier et de décrire précisément les processus et les dispositifs d’institutionnalisation de l’évaluation des politiques publiques en Belgique, en France, en Suisse et aux Pays-Bas. De ces récits, il ressort que chaque pays emprunte, apparemment, une voie qui lui est propre pour construire son dispositif national d’évaluation. Le tableau 1 résume les éléments que nous avons pris en considération pour qualifier les dispositifs nationaux, puisque leur positionnement (sur la figure 1 p. 847) ne constitue pas un état de fait arbitraire, mais découle de l’appréciation des situations observées sur le terrain [42]. Les dispositifs que nous présentons ci-dessous sont au centre de notre comparaison. En effet, dans cet article, nous ne cherchons pas à réaliser une comparaison systématique entre les organisations ou les règles procédurales qui participent du processus d’institutionnalisation de l’évaluation, mais à comparer les configurations institutionnelles les unes par rapport aux autres.

20 D’un point de vue analytique, la lecture de ce tableau soulève une question quant à la relation existant entre la mobilisation des idéaux types et la présentation chronologique des dispositifs institutionnels. À cet égard, nous devons nous interroger sur la stabilité de l’idéal type et, éventuellement, envisager une évolution de la typologie esquissée. En effet, si la matrice idéale typique reflète bien la situation de la période couverte, il est tout de même possible d’imaginer que des changements puissent se produire. Par exemple, ceux-ci peuvent résulter d’une redéfinition fondamentale des finalités de l’évaluation. Puisque, depuis les travaux de Hans-Ulrich Derlien, nous savons que cette pratique se développe par vagues successives [43], il convient d’envisager de nouvelles conceptions de la pratique. Un élargissement paradigmatique probable, que l’on observe d’ailleurs dans certains pays anglo-saxons, est d’assigner à l’évaluation non plus une mission de contrôle ou de soutien aux gestionnaires, mais une finalité cognitive où l’évaluation apparaît comme un mode alternatif de transmission d’informations sur la gestion publique à destination des décideurs, des acteurs de mise en œuvre ou d’un large public de citoyens attentifs à la conduite de l’action publique. Pour rendre compte de cette nouvelle finalité, une adaptation de la typologie s’imposerait. De ce point de vue, il est intéressant de constater que malgré la prétention à la généralisation poursuivie par le modèle idéal typique, celui-ci reste, en partie, déterminé par l’environnement et le contexte dans lequel il voit le jour.

Tableau 1

Les dispositifs institutionnels d’évaluation [44]

Tableau 1
Dispositif Type Période Finalité Ouverture Belgique 1 Technocratique 1992- … Contrôle : les expériences d’évaluation qui se développent depuis quelques années veillent à contrôler la mise en œuvre de politiques (ex. IVG, euthanasie) Faible : les acteurs qui sont associés aux exercices évaluatifs sont, pour la plupart, issus de l’administration. Les appels d’offres publics et la participation des parties prenantes des politiques sont rares. France 1 Technocratique 1990-1997 Contrôle : en se développant, l’évaluation a vu s’affronter différents courants aux ambitions différentesa. Dans la pratique, les exercices évaluatifs mettent davantage l’accent sur le contrôle que sur une ambition managériale ou formative de l’évaluation Faible : dispositif structuré au-tour du Conseil scientifique de l’évaluation (CSE), à une époque où la pratique évaluative est une innovation placée sous tutelle par les grands corps. France 2 Participatif 1998-2004 Idem que France 1, même si les débats sur les finalités de l’évaluation animent régulièrement la communauté des évaluateurs Fort: dispositif structuré autour du Conseil national de l’évaluation (CNE), qui élargit sa composition, et des nombreux services ministériels en charge de l’évaluation. Émergence d’une communauté épistémique (Société française d’évaluation - SFE) Pays-Bas 1 Technocratique 1975-1990 Contrôle: dispositif qui s’inscrit dans une politique d’austérité budgétaire où l’évaluation justifie la réduction des dépenses publiques Faible : l’administration est le principal acteur chargé de la mise en œuvre de l’évaluation des politiques. Le ministère des Finances coordonne l’ensemble du dispositif. Pays-Bas 2 Corporatiste 1990- … Managériale : dispositif centré sur la performance publique Faible : malgré une généralisation de la pratique à l’ensemble des administrations, l’implication de la Cour des comptes et une ouverture vers les parties prenantes, le dispositif demeure sous le contrôle des acteurs accrédités par l’État. Émergence d’une communauté épistémique (Société hollandaise d’évaluation VIDE) Suisse 1 Corporatiste 1985-1995 Managériale : dispositif centré sur la performance publique Faible: à ses débuts, la réflexion sur l’évaluation n’associe que les administrations et les chercheurs chargés de démontrer l’(in)utilité de la pratique au sein d’un groupe de travail inter-ministériel Suisse 2 Libéral 1995- … Idem que Suisse 1 Fort : De nombreuses institutions réalisent des évaluations et coordonnent leurs efforts. Émergence d’une communauté épistémique (Société suisse d’évaluation SEVAL) a) M. Deleau (dir.), Évaluer les politiques publiques : méthodes, déontologie, organisation, Paris, La Documentation française, 1986. P. Viveret, L’évaluation des politiques et des actions publiques. Rapport au Premier ministre, Paris, La Documentation française, 1989.

Les dispositifs institutionnels d’évaluation [44]

Un mouvement qui oscille entre changement et stabilité

21Telle que nous l’abordons, l’institutionnalisation de l’évaluation est un processus dynamique par lequel des dispositifs sont créés, modifiés, voire supprimés. Sur une période plus ou moins longue, les initiatives concourant à la pérennisation de la pratique évaluative se multiplient. Il semble donc que la création de dispositifs institutionnels suscite un processus d’apprentissage en la matière et/ou nécessite des aménagements pour s’adapter à l’évolution de l’environnement dans lequel ils se trouvent. Ainsi, à l’instar de ce qu’observe Christine Musselin pour les universités françaises, nous pouvons considérer que :

22

« Les opportunités de changement sont fréquentes et multiples, car les configurations sont des dispositifs institutionnels “modérés” : elles “délimitent” les comportements, mais ne les déterminent pas ; elles produisent du sens et légitiment certains principes plutôt que d’autres, mais elles n’imposent pas un cadre cognitif unique, des valeurs, des normes strictement partagées et reconnues par tous » [45].

23Avant d’aller plus loin, il convient de définir trois catégories de processus d’institutionnalisation. La première est celle qui repose sur la stabilité du dispositif. L’absence de changement dans le dispositif illustre le processus lié au sentier de dépendance (« path dependency ») [46]. La deuxième catégorie regroupe les processus qui connaissent des évolutions « douces » par adaptations successives. Dans ce cas, nous avons à faire à un processus incrémental [47], tel que le définit Charles Lindblom, où les ajustements se produisent à la marge et de façon indirecte. Sur la base des éléments composant les idéaux types, nous considérons qu’un processus est incrémental si le changement ne concerne qu’une des deux dimensions retenues pour qualifier les dispositifs institutionnels. Enfin, si le changement influence les deux dimensions, nous sommes face à une évolution « radicale », proche de ce que certains auteurs qualifient de « path shifting » [48], voire de changement paradigmatique [49].

24 En conséquence, nous devons garder à l’esprit, lors de l’analyse de son architecture, que le dispositif est créé en fonction de l’avenir plus encore que du présent. En effet, le dispositif institutionnel veille, à un moment donné, à édicter des règles de conduite applicables à court terme, mais devant s’adapter ou être réformées en fonction d’événements particuliers. D’un point de vue théorique, quatre types de changement sont envisageables. Les modifications peuvent porter sur les finalités du dispositif (changement de type 1) et se concrétiser à travers le passage d’une finalité orientée sur le contrôle à des ambitions dirigées vers des considérations managériales et inversement. Ensuite, l’évolution peut porter sur le degré d’ouverture (changement de type 2), c’est-à-dire une augmentation ou une diminution du nombre de participants. Enfin, le changement peut induire des modifications simultanées des deux éléments (changement de type 3), voire aboutir à la disparition du dispositif (changement de type 4).

25L’étude des cas nationaux illustre deux de ces changements. Les dispositifs institutionnels français et suisses se caractérisent par une augmentation du nombre de participants (changement de type 2), tandis que le dispositif hollandais connaît un changement de type 3 en adoptant une finalité managériale et en accroissant son degré d’ouverture.

26Comme nous le voyons dans cette représentation, les dispositifs qui se trouvent dans une même case sont similaires, mais pas parfaitement identiques. En raison du nombre limité de classes que nous avons définies, les variations intra-classes sont plus grandes (pouvant contenir des « mêmes très différents » [50]). En effet, un dispositif proche de la limite droite du type technocratique est probablement plus familier d’un dispositif situé à la limite de la frontière gauche du dispositif corporatiste que d’un dispositif se trouvant à la limite gauche du type technocratique.

Figure 1

Les dispositifs institutionnels d’évaluation et leurs changements

Figure 1

Les dispositifs institutionnels d’évaluation et leurs changements

L’influence du terreau institutionnel sur les dispositifs évaluatifs

27La compréhension du phénomène d’institutionnalisation de l’évaluation des politiques publiques oblige à dresser un certain nombre de brefs constats, afin de dégager les principales tendances en la matière.

28 Le premier d’entre eux apparaîtra comme tautologique aux yeux de certains lecteurs, puisque nous considérons que les configurations des dispositifs institutionnels s’expliquent par une constellation de facteurs polymorphes. Ce premier enseignement est toutefois moins simpliste et naïf qu’il ne le laisse présager. En effet, de nombreux auteurs décrivant un processus national d’institutionnalisation énumèrent l’influence d’éléments conjoncturels (par exemple, la lutte contre les déficits publics, la perte de légitimité des pouvoirs publics, etc.). De la sorte, ces auteurs expliquent en partie le développement de l’évaluation des politiques publiques, c’est-à-dire sa mobilisation comme solution possible à une situation perçue ou présentée comme problématique, sans étudier l’impact de ces événements sur la configuration de l’évaluation. Il est évident que, pour les pays considérés, les facteurs conjoncturels contribuent à inscrire sur l’agenda gouvernemental l’évaluation comme une solution à un problème. Par exemple, aux Pays-Bas, au début des années 1980, c’est l’ampleur du déficit public qui constitue le principal argument en faveur du développement de l’évaluation. Toutefois, l’existence d’un déficit public n’est pas une condition suffisante à l’institutionnalisation de l’évaluation, puisque, à la même époque, la situation est moins bonne en Belgique et en France. En revanche, le fait que la controverse hollandaise soit alimentée par les analyses du ministère des Finances explique le rôle central que cette organisation joue ensuite dans l’animation du dispositif institutionnel et surtout la finalité de contrôle qui est associée à l’évaluation des politiques dans ce pays.

29 L’analyse structurale permet d’identifier les contraintes politiques institutionnelles et le poids de l’histoire sur la conduite de l’action publique. Pour cela, il est nécessaire de dégager les traits systémiques et intra-systémiques – tels que le type d’État, le système des partis, les modes de relation avec l’administration et le type de personnel administratif – affectant la définition et la réalisation des politiques publiques [51]. En prenant comme point de départ les enseignements des théories de l’institutionnalisme traditionnel [52], nous souhaitons attirer l’attention sur la manière dont les caractéristiques politico-administratives des régimes influencent l’institutionnalisation de l’évaluation. Afin de tester ces relations, nous allons, d’une manière schématique, résumer les principales relations et composantes du système politique pour identifier les éléments dominants afin de vérifier si le dispositif institutionnel originel se superpose ou non à cette situation. En cas de réponse positive, nous pouvons considérer que le dispositif s’est adapté au système politique. Dans l’autre cas, il est nécessaire de comprendre pourquoi la pratique évaluative est en décalage avec cette situation. À ce moment, une première piste explicative pourrait être un changement de référentiel anticipé par l’évaluation et non encore reproduit dans l’ensemble des structures nationales. Ce point de vue a été adopté par Luc Rouban, qui considère que le développement de l’évaluation des politiques publiques aux États-Unis s’explique par la séparation des pouvoirs et de la concurrence entre le Congrès et la Présidence [53]. Cette pratique permet donc un contrôle de l’action gouvernementale tant de la part de l’exécutif lui-même que du législatif. En conséquence, la prépondérance de l’exécutif peut influencer la nature de l’institutionnalisation de l’évaluation.

30 Enfin, en étudiant l’institutionnalisation d’une pratique qui peut, à terme, induire des adaptations du système politique, il est indispensable de comprendre son incorporation dans un paysage national empreint d’une certaine stabilité. À cet égard, il est compréhensible que l’intégration d’un nouveau dispositif produise quelques appréhensions, voire tensions au sein des organisations plus anciennes et que le processus d’institutionnalisation s’adapte à ces situations particulières. L’analyse des réactions des Cours des comptes, que nous effectuons ci-dessous, est sans doute ce qui illustre le mieux cette situation. D’un autre côté, l’architecture des dispositifs français est étroitement liée à l’engagement d’organisations spécifiques. De ce point de vue, l’exemple français du Commissariat général du Plan est emblématique. Au cours de la décennie écoulée, cet organisme a – pratiquement en vain – dépensé une énergie considérable pour apparaître comme l’acteur central du dispositif. Après l’échec du modèle de planification à la française, l’évaluation lui est apparue comme l’activité qui légitimerait son existence et assurerait sa survie. Il a donc bataillé pour jouer un rôle central dans les dispositifs interministériels en caressant l’espoir de jouir ainsi d’un monopole en matière d’évaluation. Brusquement, cette situation s’est modifiée en 2003, lorsque Alain Etchegoyen, nouveau commissaire au Plan, a suggéré que « l’évaluation des politiques publiques soit confiée à une instance indépendante et que les liens avec certains des organismes rattachés ou associés au Plan soient modifiés » [54]. La motivation de ce changement réside dans le fait que cette organisation entend se doter d’une nouvelle identité axée sur la prospective, afin de conseiller le gouvernement dans le choix de ses actions futures et d’être l’éclaireur d’un État stratège.

Le poids de la partitocratie belge

31En Belgique, les partis apparaissent comme l’acteur central du système politique. Ce sont eux qui sont les véritables organisateurs de l’action publique. Ils exercent une pression et un contrôle sur la sphère politique en désignant les ministres et en utilisant le parlement comme une chambre d’enregistrement de leurs volontés, sur la sphère administrative en recrutant les hauts fonctionnaires dont les nominations dépendent d’une distribution politisée et même sur la sphère associative par l’octroi de subventions et soutiens divers aux organisations ne dépendant pas uniquement des anciens piliers, mais également à celles qui sont actives auprès d’une « clientèle » possible du parti [55].

32 Le système politico-administratif est dominé par le cabinet de coalition, qui définit de grandes lignes de politiques communes pour mettre sur pied une majorité. Dans cette configuration prévaut une culture du compromis qui entraîne une sorte de marchandage, c’est-à-dire que les partis de la coalition font, sur certains dossiers, des concessions réciproques à leurs partenaires. Les priorités du gouvernement sont contenues dans un accord de coalition. À de rares exceptions près, ce document trace les grandes lignes politiques pour la législature qui s’annonce sans mentionner d’objectifs précis. Cette absence rend difficile l’évaluation des réalisations entreprises. Il n’est d’ailleurs pas de coutume ni dans la presse ni par les partis (de la majorité ou de l’opposition) de dresser un état des lieux du gouvernement sortant. Ainsi, l’idée, bien ancrée en Belgique, selon laquelle un gouvernement de coalition impose « une stratégie de recherche de consensus et de dépolitisation des problèmes rencontrés » [56] prime sur la transparence à l’égard de la population.

33 Le parlement ne s’implique pas dans l’évaluation des politiques. Ni les commissions permanentes ni les commissions d’enquête concourent au développement de la pratique évaluative, puisque les instances d’évaluation particulières sont composées à l’extérieur du parlement (par exemple, la commission nationale sur l’IVG ou sur l’euthanasie). Il est intéressant de constater que, dans ce pays, au moment où la crise de légitimité est la plus grande, suite à l’affaire Dutroux, le parlement s’est faiblement mobilisé en direction de l’évaluation et qu’il a privilégié le recours à une commission parlementaire chargée de débusquer les dysfonctionnements ou les incompétences et de désigner des responsables, voire des coupables. Ce choix atteste d’un caractère formel et d’une volonté de contrôle très affirmée, mais également d’une volonté parlementaire de rester le « maître du jeu », en évitant de s’adresser à des tiers dont l’objectivité pourrait être contestée et dont les résultats auraient peut-être mis plus de temps à être fournis. De plus, en s’en tenant à l’affaire Dutroux, la médiatisation des travaux de la commission (dont les rediffusions des débats en direct à la télévision) poursuit un objectif de transparence, mais également de « thérapie collective ». Cette commission parlementaire ne s’est que faiblement attardée sur les causes profondes de cette situation, en s’interrogeant sur des éléments tels que les formations des policiers et des gendarmes, les montants des budgets alloués à ces services, etc. Ainsi, une ambitieuse réforme des polices est initiée sans s’appuyer sur des éléments objectifs en la matière.

34Sans grande surprise par rapport à cette situation, l’évaluation des politiques publiques se développe très lentement en Belgique. Le dispositif est orienté vers une finalité de contrôle et son degré d’ouverture est complètement limité aux acteurs politico-administratifs ou à des chercheurs provenant d’institutions proches de la mouvance partisane du commanditaire. Dans ce système qui semble extrêmement « cadenassé », il est intéressant de constater que des initiatives ponctuelles parviennent à émerger. Elles sont le fait d’acteurs politisés qui s’écartent des normes établies et qui initient un processus « sauvage » d’évaluation. C’est par exemple le cas de l’évaluation au sein du ministère de l’Emploi, coordonnée directement par le Secrétaire général, qui entend disposer d’une information pour le pilotage de l’action de son administration [57]. En agissant de la sorte, ce haut fonctionnaire va à l’encontre du système des cabinets ministériels qui, traditionnellement, court-circuitent l’administration et produisent une expertise pour le ministre [58]. Nous observons que le poids des acteurs est déterminant dans la structuration du débat en matière d’évaluation et que les parcours individuels influent, directement ou indirectement, sur les constructions institutionnelles.

Le « poldersmodel »

35 Aux Pays-Bas, la vie politico-administrative est organisée autour des ministères, qui élaborent les projets de loi et de réglementation pour le parlement et le gouvernement. Les différents départements disposent d’une très large autonomie et sont dirigés par des hauts fonctionnaires qui, depuis 1995, sont regroupés au sein d’un collège, l’« Algemene Bestuurdienst » (ABD). Cette structure unifiée de la haute fonction publique apparaît comme une révolution dans le paysage administratif. Elle vise à encourager la mobilité, à réduire la compartimentation et à insuffler une dose de généralistes au sommet de l’appareil administratif [59]. Les membres de l’ABD sont mandatés, au sein d’un ministère, pour exercer une mission temporaire. Toutefois, cette évolution est trop récente pour que nous puissions parler d’un véritable corps de hauts fonctionnaires néerlandais. Traditionnellement, ceux-ci bénéficient d’une expertise qu’ils accumulent au cours de leur carrière, qui se déroule parfois au sein du secteur associatif [60]. Ces associations sont régulièrement amenées à fournir une expertise sectorielle à l’administration [61]. Celle-ci s’appuie également sur une source académique ou sur les bureaux de conseil pour obtenir une aide ponctuelle. Les clients de ces experts ne se situent pas exclusivement au sein de l’administration, puisqu’il arrive que le gouvernement cherche à obtenir des éléments précis pour la mise en œuvre des politiques.

36 Ce modèle se superpose bien à la configuration du premier dispositif institutionnel d’évaluation des politiques publiques, qui est faiblement ouvert sur l’extérieur et structuré autour de l’administration. À ce sujet, il est intéressant de constater que l’administration développe au fil du temps un savoir-faire de plus en plus précis en la matière. Ensuite, des réglementations générales concourent à la pérennisation du dispositif, en y associant la Cour des comptes, mais en excluant d’autres partenaires extérieurs. Nous nous situons donc dans un cadre évaluatif où l’administration occupe de manière très claire la position centrale. En poursuivant le raisonnement au-delà de la seule pratique évaluative, nous constatons que l’administration est l’acteur pivot de la plupart des phases du cycle traditionnel des politiques publiques, puisqu’elle élabore, met en œuvre et évalue les politiques [62]. Toutefois, en ce qui concerne l’évaluation, nous sommes face à un paradoxe. La littérature nous enseigne que, dans ce pays, il n’existe pas de procédure de coordination entre les administrations, or, en matière d’évaluation, il existe un dispositif administratif informel, mais fortement hiérarchisé et coordonné par le ministère des Finances. L’origine de cette centralité du ministère des Finances au sein des dispositifs institutionnels remonte au début des années 1980 et à son rôle dans l’initiation de la procédure de reconsidération [63] pour laquelle des comités composés de fonctionnaires issus des différents départements procèdent, sous la direction de ce ministère, à l’évaluation des programmes en vue d’assainir les finances publiques.

37En fin de compte, ce système quasiment « autarcique » est faiblement mobilisé par le parlement – marginalement impliqué dans la démarche évaluative – et bénéficie d’une caution de la part de la Cour des comptes, qui, à l’aide de méta-évaluations [64], veille à la qualité des évaluations et moins aux effets des politiques publiques.

38 Sans doute est-ce en raison de la centralité du contrôle sur les pratiques (à savoir les méta-évaluations de la Cour des comptes) que les administrations décident de collaborer pour suivre un canevas identique lors de la réalisation d’évaluations. Il semble donc que, sur des enjeux précis, les différents départements, pourtant largement autonomes, décident de mettre leur compétence en commun afin d’avancer dans la même direction. Dans le même ordre d’idées, il existe un intranet dressant un état des lieux de la pratique évaluative au niveau central, qui concourt à une standardisation de la pratique et à un échange d’informations lors de réunions informelles organisées par le ministère des Finances. Ceci explique sans doute plus qu’ailleurs pourquoi il n’existe pas de grandes différences sectorielles au niveau de l’évaluation, mais également la raison pour laquelle l’ensemble du dispositif évolue au même rythme sur un axe horizontal passant du contrôle à l’évaluation managériale lorsque les principes de base sont assimilés. Il semble donc exister un « cercle vertueux », alimenté essentiellement par le ministère des Finances et la Cour des comptes, et partagé ensuite conjointement par l’ensemble des départements ministériels [65].

La pesanteur des grands corps français

39 Le système politique français s’organise autour du pouvoir exécutif et plus particulièrement des figures du président de la République et du Premier ministre, qui disposent du pouvoir réglementaire et d’exécution des lois [66]. Le gouvernement soumet au parlement la plupart des textes qui y sont adoptés et, dans les limites de ses moyens, ce dernier contrôle l’action gouvernementale. La nature de ce contrôle est variable en fonction de la composition de l’Assemblée nationale, même si, d’une manière générale, il apparaît que les parlementaires souffrent d’un déficit de compétences en raison d’une extrême technicisation des dossiers. En effet, il existe un déséquilibre d’expertise entre les pouvoirs, puisque l’exécutif sollicite régulièrement l’expertise d’universitaires ou de hauts fonctionnaires qui consignent leurs résultats dans un rapport structurant le débat politique et dont le dépôt est parfois organisé avec un certain décorum. Du point de vue de l’institutionnalisation de l’évaluation, des offices sont mis en place sur le modèle des commissions parlementaires. Ainsi, il semble que le parlement n’entend pas être dépassé par le mouvement initié, au niveau exécutif, par Michel Rocard. Toutefois, en l’absence d’une volonté politique forte d’utiliser ces offices, certains ont été supprimés après une période de léthargie plus ou moins longue. Ainsi, la raison de l’échec de l’Office parlementaire d’évaluation des politiques publiques est, selon Alain Lambert, président de la Commission des finances du Sénat, à trouver dans un fonctionnement bicaméral insatisfaisant aux yeux des membres de l’Assemblée nationale [67]. Toutefois, la Commission des finances du Sénat, qui est « très favorable à un développement des prérogatives de ces membres en matière de contrôle de l’exécution des lois de finances » [68], n’abandonne pas l’idée de l’évaluation puisqu’elle se dote d’un comité d’évaluation, aux moyens relativement limités. Il en est de même à l’Assemblée nationale, où est créée une Mission d’évaluation et de contrôle (MEC) [69] qui a pour but de mieux exercer les prérogatives reconnues au parlement en matière du contrôle de l’utilisation des crédits votés en loi des finances [70].

40 À côté du gouvernement, il est un autre acteur qui jouit d’une influence considérable sur la vie politico-administrative française. Il s’agit des grands corps, dont les membres sont pour la plupart socialisés au sein des grandes écoles (Ena [71], Polytechnique, etc.) et qui « colonisent » les lieux du pouvoir [72]. La majorité des hauts fonctionnaires français sont diplômés de l’École nationale d’administration. La formation dispensée dans cette école est générale (histoire politique, droit public, sciences économiques, relations internationales, etc.) et, de l’avis même des anciens élèves, faiblement professionnalisée, c’est-à-dire peu orientée vers les techniques les plus récentes de la GRH, du management d’équipe, de la conduite de projets, ou de l’analyse financière et comptable [73]. Ceci explique sans doute pourquoi les hauts fonctionnaires français apparaissent comme particulièrement frileux à l’égard de nouvelles pratiques de management public et de l’évaluation en particulier.

41 Le premier dispositif institutionnel reflète la morphologie du système politique. En effet, comme nous venons de le dire, celui-ci est alimenté par une « expertise officielle » produite, dans la plupart des cas, par les membres des grands corps. Dans cette situation, il est donc nécessaire que l’évaluation reçoive l’« accréditation » de ceux-ci. À la fin des années 1980, les premiers développements de cette pratique sont soutenus par le Premier ministre qui s’implique personnellement dans la démarche, et par quelques hauts fonctionnaires, qui cherchent à sensibiliser les grands corps à ce nouvel instrument. Cependant, indépendamment de ce parrainage, la greffe prend difficilement, probablement parce que le nouveau dispositif s’organise autour d’une instance (le Conseil scientifique de l’évaluation), dirigée par un professeur d’université, qui échappe à la tutelle des grands corps, même si cette instance cherche, par mimétisme, à calquer son comportement sur les us et coutumes en vigueur. En effet, il est intéressant de constater que, dès le départ, ce Conseil reproduit la « mise en scène traditionnelle » de la commande d’expertise ministérielle lors de chaque nouvel exercice évaluatif (séance officielle d’installation de l’instance en présence d’un ministre, cérémonie de dépôt du rapport final, etc.). L’analyse de cette dramaturgie du pouvoir, sur laquelle nous ne nous attardons pas, mériterait d’être entreprise de manière systématique et étendue à d’autres zones de production de savoirs experts. En tout cas, elle atteste qu’une nouvelle pratique qui cherche à légitimer son existence adopte très rapidement et presque naturellement le conformisme de son environnement. La faible implication de la Cour des comptes dans le second dispositif contraste avec l’effervescence qui avait marqué la composition du CSE lors de la mise en place du premier dispositif. D’ailleurs, à cette époque, le premier président de la Cour considérait qu’elle s’était « délibérément orientée vers l’évaluation des politiques publiques, s’inspirant de l’évolution en cours dans plusieurs organismes étrangers homologues » [74]. Faut-il considérer que cette attitude témoigne du fait que la Cour ne considère plus l’évaluation comme une menace pesant sur le monopole de l’expertise légitime dont elle jouit ? Sur ce point, Bernard Perret estime que cette attitude lui permet « de tenir sa position d’expert sans avoir à s’expliquer sur son questionnement et ses méthodes » [75]. De son côté, Étienne Audebrand pense que ce désintérêt ne vise pas l’évaluation des politiques publiques dans son ensemble, mais uniquement l’évaluation inter-ministérielle [76].

42À la lecture de ce qui précède, nous voyons qu’au sein de la sphère politico-administrative, l’évaluation constitue un enjeu dont aucun acteur ne veut abandonner le monopole à un autre. Ceci aboutit à une surabondance de dispositifs qui ne bénéficient pas toujours des moyens suffisants pour remplir correctement leur mission. Comme l’explique l’ancien rapporteur général du Conseil national de l’évaluation, la prolifération désordonnée de ces organes induit « une perte de visibilité et freine l’élaboration d’une doctrine et d’une méthodologie commune » [77]. C’est d’ailleurs un constat partagé par la Mission d’évaluation et de contrôle de l’Assemblée nationale, qui a rédigé un rapport d’information sur les organismes publics d’évaluation et de prospective économiques et sociales dans lequel elle s’interroge sur la multiplicité et le développement, qu’elle juge excessifs, des structures de conseil gouvernemental et d’évaluation. Dans le même temps, elle dénonce la nature embryonnaire des procédures d’évaluation, qui « lui ont semblé excessivement lourdes et déconnectées des préoccupations parlementaires » [78].

43 En conclusion, les dispositifs institutionnels français sont étroitement dépendants des caractéristiques du système politique, puisque leur pérennité est liée à l’intérêt que leur porte le pouvoir exécutif et à sa reconnaissance par les grands corps. Dès que celle-ci décline, nous constatons que le dispositif est paralysé (comme ce fut encore le cas avec l’expérience du Conseil national de l’évaluation) avant d’être éventuellement réaménagé ou disséminé au sein des différents départements ministériels. Depuis la reconnaissance de l’échec du deuxième dispositif institutionnel, une nouvelle phase de réflexion est initiée afin d’élaborer une nouvelle construction institutionnelle. Ce mouvement est dénoncé par le responsable d’une de ces instances, qui considère que « l’on s’est beaucoup appliqué à faire des bilans de “ce qui ne marchait pas” sans s’investir en proportion dans les moyens de mieux faire marcher ce qui existe déjà : il est toujours plus valorisant de produire un texte “réformateur” que de se salir les mains dans la mécanique graisseuse des pratiques de fonctionnement des réformes » [79].

44Depuis une quinzaine d’années, le développement de l’évaluation en France « a toujours été présenté comme passant nécessairement par la création d’un dispositif institutionnel dont le fonctionnement serait régi par une procédure préétablie » [80]. Ce mouvement centralisateur, empreint d’une certaine lourdeur, a conduit à des échecs successifs sans pour autant paralyser l’essor de la pratique évaluative au sein de certains ministères ou dans plusieurs régions.

La décentralisation en Suisse

45En Suisse, c’est également le pouvoir exécutif qui est considéré comme l’acteur central du système politique, même si les relations entre les acteurs y sont multiples et que les interactions sont très variées [81]. Celles-ci sont consacrées à l’élaboration des politiques, phase durant laquelle se joignent les associations et les experts, mais également à la mise en œuvre et au contrôle des activités des uns et des autres. Cette réciprocité assumée conduit à une fragmentation du système politique où chaque acteur intervient aux différentes étapes du cycle d’une politique [82].

46Cette situation se reflète dans la construction institutionnelle en matière d’évaluation des politiques publiques, puisqu’après une phase d’apprentissage, alimentée par plusieurs programmes de recherche, durant laquelle s’est construit le premier dispositif, le second est extrêmement fragmenté, non pas en raison d’une concurrence entre les différents partenaires, mais d’une recherche de complémentarité, que l’on observe d’une manière générale dans la vie politico-administrative suisse.

47Toutefois, le dispositif institutionnel n’est pas entièrement influencé par le système politique. En l’absence d’un acteur central qui supplante largement les autres pour leur « imposer » une construction institutionnelle, nous observons des phénomènes d’isomorphisme. Un exemple d’héritage est « le “départementalisme” au niveau des ministères et la tendance au cloisonnement des offices fédéraux, qui sont des phénomènes informels, mais néanmoins bien réels. Ils confirment la règle selon laquelle chaque service administratif est porté à cultiver son particularisme et cherche à renforcer sa puissance » [83]. Dans un tel contexte, il est difficile de pouvoir introduire un dispositif volontaire d’évaluation à l’échelon fédéral. Il est donc nécessaire de travailler au sein des offices ou bien d’encourager l’adoption de clauses évaluatives générales, telles que l’article 170 de la Constitution qui stipule que « l’Assemblée fédérale veille à ce que l’efficacité des mesures prises par la Confédération fasse l’objet d’une évaluation » [84].

48 Le développement de l’évaluation des politiques publiques pallie la faiblesse des contrôles parlementaires et s’explique par le fait que le « Conseil fédéral est soumis à un contrôle intra-organique » [85]. À cet égard, la loi sur l’organisation de l’administration de 1978 précise que le Conseil fédéral doit instituer un service d’information à l’attention de la population [86]. Dans l’hypothèse où une évaluation, dont la finalité est centrée sur le contrôle, met en évidence des carences manifestes dans la mise en œuvre d’une politique et que cette évaluation ne donne pas lieu à des « sanctions », alors il est envisageable que les finalités du dispositif institutionnel s’orientent dans des perspectives managériales, voire réflexives, c’est-à-dire qui privilégient la discussion et la participation. En effet, dans ce cas, les enseignements de l’évaluation concourent à une amélioration de la gestion publique ou est une source d’apprentissage rétrospectif sur les politiques publiques adoptées et mises en œuvre.

S’adapter pour survivre

49Comme nous l’avons mentionné, l’institutionnalisation est un processus évolutif composé de plusieurs étapes. La première est celle de l’émergence et de la construction d’un dispositif. Si le fonctionnement de ce dernier est considéré comme satisfaisant par les acteurs impliqués – situation exceptionnelle –, il connaît peu de modifications. Dans le cas contraire, il est soit abandonné, soit adapté [87]. Cette adaptation éventuelle constitue le point de départ de la seconde étape, qui aboutit à la construction d’un nouveau dispositif institutionnel.

50 L’origine de cette seconde étape postule la problématisation du dispositif en tant que tel. C’est parce que des difficultés ou des blocages résultent de ce dernier que des voies d’aménagement sont recherchées. Jusqu’à présent, aucun des pays occidentaux qui pratiquent l’évaluation n’a abandonné cet instrument en raison de l’échec d’un dispositif. Ainsi, un échec avéré induit une adaptation sous la forme d’une nouvelle tentative d’institutionnalisation. À l’inverse des dispositifs, l’évaluation ne semble pas représenter un problème aux yeux des acteurs confrontés à cette pratique, même si, dans l’ensemble des pays étudiés, les attentes et missions de l’évaluation connaissent, au fil du temps, des évolutions plus ou moins importantes. En conséquence, et d’un point de vue général, cette dernière partie a comme point de départ le fait que la pérennité de l’institutionnalisation de l’évaluation des politiques publiques semble conditionnée par l’existence de facultés d’adaptation. Même si le changement des dispositifs institutionnels se mesure à l’aune des éléments hérités du dispositif précédent, ce sont sur les facteurs du changement que nous nous concentrons maintenant et plus particulièrement sur ceux liés aux modifications de la finalité ou du degré d’ouverture du dispositif institutionnel.

Les motivations du changement

51En ce qui concerne l’institutionnalisation de l’évaluation des politiques publiques, la notion de conflictualité peut se matérialiser à un double niveau : en externe, c’est-à-dire entre le dispositif institutionnel et son environnement, ou en interne, c’est-à-dire entre les éléments du dispositif institutionnel. À cet égard, les sources de conflits sont diverses.

52 Tout d’abord, elles peuvent provenir d’une non-adhésion aux valeurs promues par le dispositif. Les finalités de l’évaluation des politiques publiques sont multiples et la mise en place d’un dispositif institutionnel opère un arbitrage entre différentes conceptions, ce qui peut induire des frustrations chez certains acteurs impliqués dans le dispositif ou qui ne l’ont pas intégré, car ils n’adhèrent pas à sa finalité.

53Dans cette perspective, il nous faut mesurer le degré de participation des uns et des autres (tant à l’intérieur qu’à l’extérieur du dispositif) afin de déterminer l’existence potentielle d’une source d’aménagement du degré d’ouverture. Plusieurs cas de figure sont envisageables. Le premier consiste à vérifier si tous les acteurs qui souhaitent participer au dispositif y sont associés. En cas de réponse négative, nous devons être attentif aux stratégies qu’ils vont alors mobiliser pour investir, voire supplanter le dispositif. Par exemple, il arrive que des organisations veulent être identifiées au mouvement (apparemment) positif de l’évaluation. Ceci induit une augmentation du nombre d’organisations dans le dispositif. Toutefois, il est nécessaire de rappeler que le degré d’ouverture du dispositif ne se limite pas au nombre d’organisations, mais tient également compte de la nature des participants. Par exemple, un dispositif confisqué par l’administration avec un degré d’ouverture très faible n’évolue pas s’il s’adjoint la participation d’autres administrations non désireuses d’ouvrir le dispositif. Dans ce cas, le nombre d’acteurs augmente sans aucune répercussion sur la nature du degré d’ouverture.

54 Ensuite, si une composante du dispositif n’est pas en harmonie avec la (non-) dynamique du dispositif, alors la phase de changement risque de lui être préjudiciable. Par exemple, si une organisation s’accroche à un statu quo alors que le dispositif est dans une phase dynamique et volontariste à l’initiative d’autres éléments constitutifs, nous pouvons nous attendre à une marginalisation de l’organisation « conservatrice ». De plus, il est nécessaire de prendre en compte un élément plus ponctuel, mais probablement significatif dans l’adaptation des finalités des dispositifs sous l’influence d’un réseau international. En effet, peu de représentants nationaux investissent ce genre de forum en l’absence d’une pratique évaluative dans leur pays, étant donné que la plupart des échanges portent sur le partage des expériences propres. En conséquence, les pays dans lesquels l’évaluation est institutionnalisée sont généralement représentés par des ressortissants issus de l’une ou l’autre organisation (par exemple, la Société européenne d’évaluation).

55Il en est de même au niveau national, où le regroupement des acteurs impliqués dans les démarches évaluatives peut conduire à la formation d’une communauté épistémique active dans la promotion de certaines finalités évaluatives ou de règles de conduite (par exemple, sous la forme de standards de qualité). Ces activités peuvent induire des modifications au sein du dispositif institutionnel.

56 Enfin, il arrive que la construction du dispositif institutionnel n’associe pas l’ensemble des acteurs qui souhaitent y participer. Leur intégration peut se faire soit en douceur à un moment propice à l’élargissement du dispositif, soit en réponse à une crise ou défaillance avérée de celui-ci. Ainsi, si une institution historiquement ancrée voit son rôle remis en question ou aménagé, elle s’efforce de justifier son existence en recourant à de nouvelles missions et tente de se positionner dans un dispositif d’évaluation. Dans le même temps, l’évolution du cadre cognitif modifie la perception que l’on peut avoir d’une institution. Par exemple, le mouvement de la nouvelle gestion publique incite les décideurs à l’autonomisation et/ou la délégation de certaines missions. Dans ce cadre, des institutions traditionnelles peuvent également apparaître comme « inutiles », car trop contraignantes en regard du nouveau cadre de l’action publique. Dans ce cas, il est nécessaire de mettre en relation les préférences et les stratégies des acteurs, qui sont notamment guidées par la perception qu’ils ont à l’égard de leur propre rôle [88]. Ainsi, si une institution traditionnelle perd de son « influence » et que l’évaluation bénéficie d’une image progressiste, alors elle la mobilise pour apparaître « moderne » [89].

57D’un autre côté, nous pouvons, dans certains cas, être confronté à une ritualisation de la pratique évaluative, c’est-à-dire que les institutions, dotées d’un instinct de survie, adaptent leur comportement, en faisant parfois des procédures une fin plutôt qu’un moyen de leur action. Ainsi, nous observons en France et en Belgique que les institutions traditionnelles (Cour des comptes, Commissariat général du Plan) qui s’investissent dans des missions évaluatives reproduisent les procédures et modes de travail qu’elles connaissaient jusqu’alors sans considérer l’évaluation comme une pratique pouvant être pluraliste et transparente. Dans ce cas, nous assistons à un détournement de l’instrument évaluatif.

L’adaptation des configurations institutionnelles

58 Tous les dispositifs institutionnels évoluent. Les dispositifs français et hollandais qui émergent sous la forme d’un dispositif technocratique évoluent respectivement vers les types participatif et corporatiste, tandis que le dispositif suisse passe du type corporatiste au type libéral. Toutefois, et contrairement à ce que nous pensions d’un point de vue théorique, les changements institutionnels ne sont pas aussi saillants que nous l’imaginions. Le changement entre les dispositifs institutionnels est présent, mais rarement radical. Les évolutions qui se produisent sont le fruit d’un aménagement du processus originel et aucun dispositif n’est supprimé. Ceci s’explique principalement par la durée de la période observée, où les changements de finalité au sein d’un dispositif sont peu répandus. Le seul cas observé d’évolution des finalités s’est produit aux Pays-Bas, où la pratique évaluative est plus ancienne et où la conduite de l’action publique a connu de considérables réorientations au cours de la période considérée [90]. C’est pour cette raison que l’évaluation passe d’une phase d’apprentissage orientée sur le contrôle à une étape où la finalité managériale est dominante.

59Pour le reste, le changement le plus fréquemment observé consiste en un accroissement du degré d’ouverture. Il s’explique principalement par l’élargissement du nombre d’acteurs qui sont tentés de prendre part à une pratique qui jette un regard novateur sur la conduite de l’action publique, par la mise en réseau et la constitution de communautés épistémiques nationales et internationales et par la structuration progressive du « marché » [91] qui se constitue.

60 C’est donc essentiellement l’apprentissage découlant des premières expériences qui constitue le moteur du changement. Dans certains cas, un conflit sert de détonateur pour une modification substantielle (par exemple, en France) ou marginale (par exemple, en Suisse) de la configuration d’un dispositif institutionnel. Cependant, l’explication du changement en raison de l’existence de tensions internes ou externes aux dispositifs n’est guère convaincante. Tout d’abord, il existe des dispositifs qui évoluent dans une situation complètement apaisée (Pays-Bas). Ensuite, des dispositifs conflictuels peuvent le demeurer malgré des aménagements qui y sont apportés (France) ou évoluer vers une situation apaisée et voir leur degré d’ouverture augmenter, comme en Suisse.

61En revanche, l’hypothèse relative à la mobilisation d’organisations traditionnelles en perte d’influence autour de la question évaluative semble plus prometteuse. En effet, nous constatons clairement que les dispositifs aux ambitions de contrôle avérées (technocratique et participatif) regroupent les pays au sein desquels les organes de contrôle traditionnels sont en perte de vitesse, tandis que cette situation est inversée pour les dispositifs animés d’une finalité managériale (corporatiste et libéral). De plus, en considérant l’exemple hollandais, nous constatons que, lorsque la position qu’occupe la Cour des comptes évolue, le dispositif voit sa finalité réorientée. Ce sont donc les buts organisationnels et l’image que véhiculent les organisations vis-à-vis de leur environnement qui semblent être les éléments déterminants en la matière.

62À cet égard, nous partageons le point de vue d’Olivier Benoît qui, en étudiant les chambres régionales des comptes en France, constate que les institutions « ne deviennent pas ce pour quoi elles furent créées » [92]. Selon cet auteur, les « institutions échappent partiellement ou complètement à leurs créateurs », c’est-à-dire que des changements se produisent à l’instigation de différentes impulsions. En effet, l’évaluation, en se développant, fait naître de nouvelles attentes (transition entre les finalités) et produit de nouvelles compétences qui cherchent à s’intégrer au dispositif existant (élargissement du degré d’ouverture).

63 Ce qui nous semble tout de même mériter une attention particulière est le poids de certains acteurs, qui apparaissent comme des entrepreneurs, dans la diffusion de la pratique évaluative, puis dans la construction et la réorientation d’un dispositif, ainsi que la capacité d’adaptation dont font preuve les dispositifs pour transcender les conflits et les blocages éventuels qui en découlent. L’action individuelle de certains intervenants permet de comprendre les engagements organisationnels plus larges et, par conséquent, la configuration du dispositif institutionnel. En identifiant les acteurs individuels, il est possible d’étudier leurs relations et leur influence au sein de l’organisation qui les emploie, ainsi que leur faculté à mobiliser d’autres membres de celle-ci dans la diffusion de leurs idées et/ou pratiques. Dans certains cas, cette opération s’apparente à un travail d’entomologiste, puisqu’il est nécessaire d’observer les comportements dans leurs moindres détails. En effet, il est possible de trouver des indices « dans les choix qu’ils opèrent, dans les rôles qu’ils endossent, dans les contraintes qu’ils cherchent à faire peser sur leurs partenaires, dans les petites règles qu’ils utilisent pour faire aboutir des décisions concrètes, et surtout dans les savoirs et les croyances auxquels ils recourent pour entrer dans des jeux de négociations » [93].

64 De plus, il existe un « folklore de l’évaluation avec ses us et ses coutumes » [94], c’est-à-dire que des rituels et des cérémonials rythment les étapes d’une évaluation. Par extension, nous avons constaté que ce phénomène est également présent en ce qui concerne l’institutionnalisation de la pratique. En effet, chaque dispositif entraîne son flot de discours de légitimation et d’auto-justification. Les acteurs qui y sont associés se mobilisent pour en vanter l’organisation avant que la confrontation au réel ne leur donne raison ou tort. Dans ce cas, d’autres discours cherchent à énoncer un diagnostic et à suggérer une marche à suivre pour opérer un revirement. Il est intéressant de constater que l’institutionnalisation suit un parcours incrémental durant lequel les acteurs en présence changent peu. En règle générale, les rôles sont redistribués dans un espace des possibles très limité. Toutefois, à cet égard, Jean Leca édicte une mise en garde contre une trop grande personnalisation politique du porteur de projet. Selon lui, il convient de :

65

« Se sortir de l’idée que l’évaluation peut être un truc inventé par un homme politique, histoire de faire un coup médiatique ou symbolique et d’embêter les autres, ce qui aboutit automatiquement alors à ce qu’un autre homme politique qui lui succédera dira “ce truc-là, je le mets de côté parce que ce n’est pas ma chose” et ceci revient à quelque chose qui est extrêmement vieux : à partir du moment où une politique publique est simplement considérée comme la propriété d’un acteur politique, alors cette politique publique à toutes chances dans nos sociétés modernes de devenir hélas rapidement archaïque » [95].

66La situation qu’évoque Jean Leca s’est produite en France à l’égard du Conseil scientifique de l’évaluation, puis du Conseil national de l’évaluation. Ces deux exemples sont les plus illustratifs puisque, dans les deux cas, les dispositifs sont soutenus par un Premier ministre (Michel Rocard, puis Lionel Jospin) dont les échecs électoraux sonnent le glas des instances, non pas par une suppression radicale, mais par la mise en sommeil, par le non renouvellement des membres des instances, c’est-à-dire un lent glissement vers une léthargie euthanasique [96].

67**

68 La manière d’institutionnaliser l’évaluation n’est pas une « préoccupation mondaine » [97], même si elle ne fait guère l’objet de réflexions scientifiques. En réalité, l’institutionnalisation représente un véritable enjeu, tant dans une dimension structurelle que cognitive. D’une part, l’appropriation de l’évaluation apparaît comme une préoccupation pour des acteurs ou des organisations qui entendent se positionner à l’égard de cette pratique ; d’autre part, indépendamment de la finalité que poursuit un dispositif institutionnel, le développement de l’évaluation véhicule une image positive d’un État pour lequel la prise en compte du « souci de soi », selon l’expression de Philippe Bezes [98], passe par une réflexivité sur ses activités.

69Étant donné la contestation des institutions, nous constatons que, dans la plupart des cas, les décideurs s’accordent sur le fait que l’évaluation, productrice d’informations et de connaissances, participe de la modernisation de l’administration [99], elle « permet […] de rendre relativement cohérente une action publique en miettes et donc de redonner un sens à la notion de contrôle démocratique » [100]. À cet égard, le développement de l’évaluation au niveau central requiert deux conditions :

70

« Qu’il y ait une durée de l’impulsion ; si l’impulsion s’arrête, l’évaluation retombera dans sa vitesse ordinaire (la dérive des glaciers étant irrépressible, l’évaluation continuera parce que c’est une espèce de contrainte sociale peut-être liée aux crises de régulation des sociétés occidentales), mais il y aura à ce moment un arrêt de l’évaluation officielle ; la deuxième condition est qu’il faut que l’acteur qui donne l’impulsion ait une légitimité dans l’appareil d’État, suffisante pour que l’évaluation puisse se développer sans apparaître comme une machine de guerre d’un pouvoir contre un autre ou d’un segment contre un autre segment » [101].

71 Ce sont ces deux éléments que nous avons cherché à mettre en évidence dans les processus nationaux étudiés. Sur cette base, l’explication première des différentes voies nationales suivies repose sur le poids respectif de réformateurs qui croient au « mythe » [102] de l’évaluation, dans le sens où, d’une part, ils adhèrent aux idées de modernisation du secteur public que sous-tend l’évaluation des politiques (aspiration réformatrice) et, d’autre part, jugent possibles sa mise en œuvre et sa pérennisation (faisabilité politique). Les changements semblent possibles, car aucun dispositif n’est doté d’une force stabilisatrice suffisante pour annihiler les opportunités de changement. Dans le même ordre d’esprit, le développement de l’évaluation des politiques publiques dépend, dans l’ensemble des cas observés, du soutien que lui accordent certains acteurs qui décident de s’investir dans sa promotion. La configuration du dispositif est fortement déterminée par le profil et l’affiliation institutionnelle d’un porteur de projet qui tente d’en assumer le leadership. Il convient de tenir compte du rôle prépondérant que jouent les « soutiers de l’évaluation » [103]. Toutefois, le poids et la légitimité de ces derniers sont déterminants dans le développement de la pratique évaluative. En effet, l’activité militante est vouée à l’échec si elle reste déconnectée des lieux de prise de décision. Il est donc important de tenir compte des acteurs et, plus particulièrement, des porteurs de projets dans l’initiation, voire la promotion de l’évaluation à ses débuts. De ce point de vue, il serait utile de poursuivre la réflexion en vue d’identifier les conditions qui encouragent ou freinent l’intervention des acteurs. Pour qu’un dispositif soit créé ou modifié, en plus de la mobilisation de porteurs de projet, il est nécessaire que le cadre dans lequel ils agissent soit propice au changement. Ceci laisse à penser que la configuration même des dispositifs oriente le comportement des acteurs [104]. Nous pouvons imaginer qu’un dispositif libéral est plus enclin au changement qu’un dispositif technocratique, mais encore faut-il en faire la démonstration. Dans le même ordre d’esprit, ce n’est pas parce qu’un acteur n’est pas en harmonie avec les finalités du dispositif évaluatif qu’il va automatiquement initier un processus réformateur. Il peut préférer l’inaction ou tenter de paralyser le fonctionnement du dispositif sans proposer d’alternatives.

72 En conclusion, à travers cet exemple, nous posons la délicate question des relations unissant l’agent et la structure [105]. Plusieurs courants théoriques alimentent cette réflexion. Parmi ceux-ci, nous retrouvons notamment les théories du choix rationnel. D’une manière schématique, pour les tenants de cette approche, l’acteur mû par ses intérêts se conforme à la pesanteur des institutions lorsque celles-ci lui assurent des gains (théorie des coûts de transaction [106]) et va les réformer lorsqu’elles ne lui garantissent plus un intérêt suffisant. Le fondement de la rationalité qui guide cet acteur a été contesté par de nombreux auteurs et il est vrai que, confrontée aux évolutions de la post-modernité, la figure de l’acteur rationnel semble de moins en moins valide, si ce n’est dans une perspective conceptuelle [107]. D’autres pistes doivent dès lors être empruntées. En prenant comme point de départ la conclusion de Roger Sibeon qui précise que l’explication d’un fait politique requiert l’examen des structures sociales et du comportement des acteurs [108], notre contribution semble répondre à cette recommandation. Cependant, face à un schème explicatif de nature causale, ce point de vue se heurte très rapidement aux liens unissant ces deux éléments. Comme l’ont rappelé, depuis quelques années, les théoriciens du néo-institutionnalisme, l’activité sociale se déroule dans un cadre prédéfini par les structures sociales existantes où les institutions distribuent les ressources et les intérêts entre les différents acteurs en présence [109]. Toutefois, comme nous le montrons dans cet article, qui met l’emphase sur les changements produits par le processus d’institutionnalisation, les structures sont des éléments qui orientent l’action individuelle sans nécessairement la contraindre [110]. En effet, à certaines occasions, des acteurs s’appuient sur des phénomènes conjoncturels favorables à leur dessein (par exemple, un déficit public, une réforme de l’État, etc.) et parviennent à redessiner le cadre existant. Il semble donc que les structures sociales contiennent un « ventre mou » à partir duquel il est possible de les contester et de les réformer. Ceci est possible à condition que les acteurs disposent des ressources nécessaires mises à disposition par la fonction qu’ils occupent [111], c’est-à-dire par une partie de la structure sociale qui va être réformée. Plutôt que de voir dans ce phénomène un serpent qui se mord la queue, l’analyse de cette récursivité enrichit la compréhension du phénomène. En examinant l’action individuelle dans une perspective contextuelle, c’est-à-dire dans un lieu précis et à un moment particulier, il est possible de surmonter la pesanteur du déterminisme qui caractérise de nombreuses analyses néo-institutionnelles. Cette entreprise s’enrichit considérablement en tenant compte de l’influence des structures sur les acteurs. C’est en combinant ces deux aspects qu’il est possible de comprendre le « cercle du changement ».

Notes

  • [1]
    Une recherche bibliographique atteste de la situation. En effet, il y a peu d’articles consacrés à l’institutionnalisation de l’évaluation dans les revues nationales et internationales de science politique (Revue française de science politique, Revue suisse de science politique, Res publica en Belgique et Acta politica aux Pays-Bas) et administrative (Revue internationale des sciences administratives, Revue française d’administration publique). La revue Politiques et management public représente une exception en la matière. En effet, PMP fait figure de pionnier dans le monde francophone puisque, dès sa création, elle consacre des articles à l’évaluation des politiques publiques. En revanche, l’évaluation donne lieu à la publication de plusieurs revues spécialisées (Evaluation and program planning, Evaluation review, Evaluation practice, Evaluation), qui confirme les développements méthodologiques pluridisciplinaires (éducation, psychologie, économie, etc.) en évaluation.
  • [2]
    R. Boyle, D. Lemaire (eds), Building Effective Evaluation Capacity. Lessons From Practice, New Brunswick, Transaction Publishers, 1999. F. Varone, S. Jacob, « Institutionnalisation de l’évaluation et nouvelle gestion publique : un état des lieux comparatif », Revue internationale de politique comparée, 11 (2), 2004, p. 271-292. En ligne
  • [3]
    Elle est récente en France et en Suisse (fin des années 1980-début des années 1990) en comparaison avec la situation hollandaise où l’évaluation est plus ancienne (fin des années 1970-début des années 1980) et par rapport à la Belgique où l’évaluation connaît depuis peu (milieu des années 1990) quelques balbutiements. Cf. S. Jacob, F. Varone, « Cheminement institutionnel de l’évaluation des politiques publiques en France, en Suisse et aux Pays-Bas (1970-2003) », Politiques et management public, 22 (2), 2004, p. 135-152. Sur ce sujet, voir aussi les vagues d’institutionnalisation de H.-U. Derlien, « Le développement des évaluations dans un contexte international », dans W. Bussmann et al. (dir.), Politiques publiques : évaluation, Paris, Économica, 1998, p. 5-12.
  • [4]
    J.-E. Furubo, R. Rist, R. Sandhal (eds), International Atlas of Evaluation, New Brunswick/Londres, Transaction Publishers, 2002.
  • [5]
    D. Dolowitz, C. Greenwood, D. Marsh, « Policy Transfer : Something Old, Something New, Something Borrowed, But Why Red, White and Blue ? », Parliamentary Affairs, 52 (4), 1999, p. 719-730.
  • [6]
    A. Lijphart, Patterns of Democracy : Government Forms and Performance in Thirty-Six Countries, New Haven, Yale University Press, 1999 ; D.-L. Seiler, « Un système consociatif exemplaire : la Belgique », Revue internationale de politique comparée, 4 (3), 1997, p. 601-623 ; et « Un État entre importation et implosion : consociativité, partitocratie et lotissement dans la sphère publique en Belgique », dans P. Delwit, J.-M. De Waele, P. Magnette, Gouverner la Belgique. Clivages et compromis dans une société complexe, Paris, PUF, 1999, p. 15-51.
  • [7]
    J. De Munck, « La Belgique sans ses piliers ? Du conflit des modèles au choix d’une politique », Les semaines sociales du MOC. Piliers, réseaux et démocratie, Bruxelles, Vista, 2002, p. 95-115.
  • [8]
    E. Monnier, Évaluation de l’action des pouvoirs publics, Paris, Économica, 2e éd., 1992, p. 54.
  • [9]
    H.-U. Derlien, « Le développement des évaluations dans un contexte international », dans W. Bussmann et al. (dir.), Politiques publiques…, op. cit., p. 7-11.
  • [10]
    « Our evidence suggests that there is an interesting degree of correspondence between the pace in the institutionalization of evaluation and the degree to which the dominant administrative philosophies, expressed in HRM (Human Resource Management’s) policies, are open to innovation. Where the administrative-legal culture is clearly dominant and HRM is hesitant (or repressed) in different values and academic specialities, the acknowledgement of evaluation is seriously hindered » [Nos résultats suggèrent qu’il y a un degré intéressant de correspondance entre l’avancée de l’institutionnalisation de l’évaluation et le degré d’ouverture à l’innovation des philosophies administratives dominantes, exprimées en politiques de gestion des ressources humaines. Là où la culture administrative-légale est clairement dominante et la gestion des ressources humaines hésitante (ou réprimée) au niveau des différentes valeurs et spécialités universitaires, la reconnaissance de l’évaluation est sérieusement affectée] : M.-L. Bemelmans-Videc, B. Eriksen, N. Golenberg, « Facilitating Organizational Learning : Human Resource Management and Program Evaluation », dans F. Leeuw, R. Rist, R. Sonnichsen (eds), Can Government Learn ? Comparative Perspective on Evaluation and Organizational Learning, New Brunswick, Transaction Publishers, 1994, p. 179.
  • [11]
    M. Conan, L’évaluation constructive : théorie, principes et éléments de méthode, La Tour d’Aigues, L’Aube, 1998. P. Warin, Les usagers dans l’évaluation des politiques publiques : étude des relations de service, Paris, L’Harmattan, 1993. W. Bussmann, Accompagner et mettre à profit avec succès les évaluations des mesures étatiques, guide de réflexion, Genève, Georg, 1995. P. Lascoumes, M. Setbon, L’évaluation pluraliste des politiques publiques : enjeux, pratiques, produits, Paris, GAPP/CNRS/Commissariat général du Plan, 1995. V. Spenlehauer, L’évaluation de politique, usages sociaux. Trois études de cas d’évaluation, Paris, L’Harmattan, 1995. F. Rangeon et al., L’évaluation dans l’administration, Paris, PUF, 1993.
  • [12]
    E. Monnier, Évaluation…, op. cit. V. Spenlehauer, « L’évaluation des politiques publiques, avatar de la planification », thèse de science politique, Institut d’études politiques de Grenoble, 1998.
  • [13]
    F. W. Scharpf, « Institutions in Comparative Policy Research », MPifG working paper, 3, mars 2000, p. 2.
  • [14]
    Ceux qui s’intéressent à l’institutionnalisation dans une perspective de mise en œuvre de capacités évaluatives (« capacity building ») peuvent consulter R. Boyle, D. Lemaire (eds), op. cit., 1999.
  • [15]
    R. Lenoir, « L’invention de la démographie et la formation de l’État », Actes de la recherche en sciences sociales, 108, 1995, p. 36-61, notamment p. 44. Dans le même ordre d’idée, François Dubet présente l’institutionnalisation comme « la reconnaissance légale, constitutionnelle ou réglementaire, des acteurs sociaux invités à participer à la table des négociations, des groupes et des individus entrant dans les divers dispositifs formels de constitution d’un débat public et d’une scène politique. Conçue de cette façon, l’institutionnalisation est indissociable du développement de l’espace démocratique, qui n’a cessé d’intégrer de nouveaux acteurs et de nouveaux problèmes dans le jeu de ces institutions. A contrario, le défaut d’institutionnalisation engendrerait les conflits et les protestations de groupes souhaitant voir leurs demandes entendues et reconnues comme légitimes » (F. Dubet, Le déclin de l’institution, Paris, Le Seuil, 2002, p. 23.)
  • [16]
    S. Jacob, « Réflexions autour d’une typologie des dispositifs institutionnels d’évaluation », Revue canadienne d’évaluation de programme, 20 (2), automne 2005, p. 49-68.
  • [17]
    Ces trois éléments recouvrant la définition même des institutions formulée par W. Richard Scott, « The adolescence of institutional theory », Administrative Science Quarterly, 32 (4), 1987, p. 493-511.
  • [18]
    Il existe de nombreux ouvrages présentant la méthode comparée. Parmi ceux-ci, mentionnons B. Badie, G. Hermet, La politique comparée, Paris, Armand Colin, 2001 ; T. Landman, Issues and Methods in Comparative Politics : An Introduction, Londres, Routledge, 2000 ; A. Stepan, Arguing Comparative Politics, Oxford, Oxford University Press, 2001. La comparaison présuppose plusieurs objets d’analyse puisque l’on compare une chose à ou avec une autre : L. Sigelman, G. Gadbois, « Contemporary Comparative Politics : an Inventory and Assessment », Comparative political studies, 16, 1983, p. 275-305, notamment p. 281.
  • [19]
    A. Heidenheimer, H. Heclo, C. Adams, Comparative Public Policy : the Politics of Social Choice in America, Europe and Japan, New York, St Martin’s Press, 3e éd., 1990, p. 3.
  • [20]
    « Quand ils [les phénomènes] peuvent être artificiellement produits au gré de l’observateur, la méthode est l’expérimentation proprement dite. Quand, au contraire, la production de faits n’est pas à notre disposition et que nous ne pouvons que les rapprocher tels qu’ils se sont spontanément produits, la méthode que l’on emploie est celle de l’expérimentation indirecte ou méthode comparative » : É. Durkheim, Les règles de la méthode sociologique, Paris, PUF, 1986, 1re éd., 1937, p. 124.
  • [21]
    Plus radicale est la conception de Guy Swanson qui considère que penser sans faire de comparaison est proprement impensable et qu’en l’absence de comparaisons, il ne peut y avoir de pensée et de recherche scientifique : G. Swanson, « Frameworks for Comparative Research : Structural Anthropology and the Theory of Action », dans I. Vallier (ed.), Comparative Methods in Sociology : Essays on Trends and Applications, Los Angeles, University of California press, 1971, p. 141-202.
  • [22]
    E. Morin, M. Piatelli-Palmarini, L’unité de l’homme, Paris, Le Seuil, 1974, t. 1, p. 9.
  • [23]
    B. Badie, G. Hermet, Politique comparée, Paris, PUF, 1990, p. 9.
  • [24]
    P. Hassenteufel, « Deux ou trois choses que je sais d’elle. Remarques à propos d’expériences de comparaisons européennes », dans CURAPP, Les méthodes au concret, Paris, PUF, 2000, p. 105-124.
  • [25]
    A. Inkeles, « Cross Cultural Research Confronts the Needs of Policymaker », dans M. Dierkes et al. (eds), Comparative Policy Research : Learning from Experience, Gower, Aldershot, 1987, p. 51.
  • [26]
    D.-L. Seiler, La méthode comparative en science politique, Paris, Armand Colin, 2004, p. 165.
  • [27]
    L’analyse des politiques publiques n’échappe pas à ce mouvement, puisque « policy typologies are one of the most durable analytical frameworks in political science » [les typologies de politiques publiques constituent l’un des cadres analytiques les plus persistants en science politique]. Cf. K. Smith, « Typologies, Taxonomies, and the Benefits of Policy Classification », Policy Studies Journal, 30 (3), 2002, p. 379-395, notamment p. 379. Une des plus célèbres typologies en la matière est celle établie par Theodore Lowi, qui distingue les politiques en fonction de la volonté coercitive du gouvernement (directe ou indirecte) et de l’étendue du groupe cible concerné (individuel ou collectif). Cf. T. Lowi, « American Business, Public Policy, Case Studies, and Political Theory », World politics, 16 (4), 1964, p. 677-715. Ce travail a souvent été repris et commenté par de nombreux chercheurs. Mentionnons, entre autres, A. Schneider, H. Ingram, Policy Design for Democracy, Lawrence, University of Kansas Press, 1997 ; C. Mooney, L. Mei-Hsien, « A Morality Policy Reinvention : State Death Penalties », Annals of the American Academy of Political and Social Science, 566, 1999, p. 80-92. Pour un point de vue critique, cf. G. Greenberg, J. Miller, L. Mohr, B. Vladeck, « Developing Public Policy Theory : Perspectives from Empirical Research », American Political Science Review, 71 (4), 1977, p. 1532-1543 ; et P. Steinberger, « Typologies of Public Policy : Meaning Construction and their Policy Process », Social Science Quarterly, 61 (1), 1980, p. 185-197.
  • [28]
    « On obtient un idéal-type, en accentuant unilatéralement un ou plusieurs points de vue et en enchaînant une multitude de phénomènes donnés isolément, diffus et discrets, que l’on trouve tantôt en grand nombre, tantôt en petit nombre et par endroits pas du tout, qu’on ordonne selon les précédents points de vue choisis unilatéralement pour former un tableau (« Bild ») de pensée homogène. On ne trouvera nulle part un pareil tableau dans sa pureté conceptuelle, il est une utopie » : M. Weber, Essais sur la théorie de la science, Paris, Plon, 1965, p. 196. Pour une analyse détaillée de cette notion et de ses répercussions en sciences sociales, cf. S. Hekman, Weber, the Ideal Type and Contemporary Social Theory, Notre Dame, University of Notre Dame Press, 1983.
  • [29]
    D.-L. Seiler, « Science politique, comparaison et universaux ou ce que comparer veut dire… », Revue internationale de politique comparée, 1 (1), 1994, p. 91-110, notamment p. 104.
  • [30]
    A.-P. Frognier, « Logique(s ?) de l’explication comparative », Revue internationale de politique comparée, 1 (1), 1994, p. 61-91, notamment p. 63.
  • [31]
    Sur ce point, C. Osgood cherche à savoir « quand le même est-il réellement le même ? » et inversement, « quand ce qui est différent est-il vraiment différent ? » : C. Osgood, « On Strategy of Cross-National Research into Subjective Culture », Social Science Information, 6 (1), 1967, p. 5-37, notamment p. 7.
  • [32]
    G. Sartori, « Bien comparer, mal comparer », Revue internationale de politique comparée, 1 (1), 1994, p. 19-36, notamment p. 22.
  • [33]
    G. Sartori, ibid., p. 23.
  • [34]
    Cette distinction renvoie à ce que Christopher Pollitt observe dans l’évolution des organismes supérieurs de contrôle des finances publiques. Le titre de son ouvrage distingue les activités orientées vers la « compliance » [conformité], qui relèvent des missions traditionnelles des Cours des comptes depuis leurs origines, de celles qui sont mises en évidence par les audits de « performance ». Ces derniers sont plus récents et s’inscrivent dans le courant de modernisation de l’État. C. Pollitt, X. Girre, J. Lonsdale et al., Performance or Compliance ? Performance Audit and Public Management in Five Countries, Oxford, Oxford University Press, 1999.
  • [35]
    J.-C. Boual, P. Brachet (dir.), L’évaluation démocratique, outil de citoyenneté active, Paris, L’Harmattan, 2000. Q. Delaunay, « Évaluation démocratique ou nouvelle rhétorique du politique », dans M. Baslé, C. Guignard-Hamon (dir.), Évaluation et gouvernance. Actes du colloque de Rennes des 15 et 16 juin 2000, SFE, 2000, p. 71-84.
  • [36]
    Sur cette notion, cf. P. Haas, « Introduction : Epistemic Communities and International Policy Coordination », International organization, 46 (1), 1992, p. 1-35.
  • [37]
    L. Rouban, La fin des technocrates ?, Paris, Presses de Sciences Po, 1998.
  • [38]
    P. Schmitter, « Still the Century of Corporatism », dans P. Schmitter, G. Lehmbruch, Trends Toward Corporatist Intermediation, Londres, Sage, 1979, p. 7-51. P. Le Galès, « Les réseaux d’action publique entre outil passe-partout et théorie de moyenne portée », dans P. Le Galès, M. Thatcher (dir.), Les réseaux de politiques publiques. Débat autour des policy networks, Paris, L’Harmattan, 1995, p. 13-28.
  • [39]
    P. Schmitter, « Réflexions liminaires à propos du concept de gouvernance », dans C. Gobin, B. Rihoux, La démocratie dans tous ses états. Systèmes politiques : entre crise et renouveau, Louvain-la-Neuve, Academia Bruylant, 2000, p. 51-59, notamment p. 59.
  • [40]
    P. Duran, « Les développements récents de l’analyse comparative dans le domaine de l’administration publique : l’administration, entre l’État et les politiques publiques », Politiques et management public, 2 (3), 1984, p. 27-43, notamment p. 31.
  • [41]
    A. Lijphart, « Comparative Politics and the Comparative Method », American political science review, 65 (3), 1971, p. 682-693, notamment p. 690.
  • [42]
    Le lecteur intéressé peut avoir une description plus détaillée des cas nationaux en consultant S. Jacob, F. Varone, Évaluer l’action publique : état des lieux et perspectives en Belgique, Gand, Academia Press, 2003, p. 127-180.
  • [43]
    H.-U. Derlien, « Le développement des évaluations dans un contexte international », cité, p. 5-6.
  • [44]
    La littérature présentant les histoires nationales est très développée. Nous mentionnons ci-après, quelques articles qui ont alimenté notre réflexion. J.-E. Furubo, R. Rist, R. Sandhal (eds), op. cit. ; P. Duran, E. Monnier, « Le développement de l’évaluation en France, nécessités techniques et exigences politiques », Revue française de science politique, 42 (2), avril 1992, p. 235-262 ; S. Le Bouler, « Panorama de la situation en France : les institutions, les acteurs, les promoteurs », Informations sociales, 110, 2003, p. 26-33 ; W. Bussmann, « Evaluationen und intensive demokratische Beteiligung : Ergänzung oder Ersatz ? », Revue suisse de science politique, 3 (2), 1997, p. 83-101 ; K. Horber-Papazian (dir.), Évaluation des politiques publiques en Suisse : Pour quoi ? Pour qui ? Comment ?, Lausanne, Presses polytechniques et universitaires romandes, 1990 ; K. Van Aeken, S. Jacob, F. Varone, « Beleidsevaluatie : een sturingsinstrument voor het overheidshandelen », Vlaams tijdschrift voor Overheidsmanagement, 4, 2003, p. 29-37 ; M.-L. Bemelmans-Videc, R. Elte, E. Koolhaas, « Policy Evaluation in the Netherlands : Context and State of Affairs », dans R. Rist (ed.), Program Evaluation and the Management of Government : Patterns and Prospects Across Eight Nations, New Brunswick, Transaction Publisher, 1998, p. 105-118.
  • [45]
    C. Musselin, La longue marche des universités françaises, Paris, PUF, 2001, p. 179.
  • [46]
    P. Pierson, « Increasing Returns, Path Dependence, and the Study of Politics », American Political Science Review, 94 (2), 2000, p. 251-267.
  • [47]
    C. Lindblom, « The Science of Muddling Through », Public administration review, 16, 1959, p. 79-88.
  • [48]
    P. Pierson, « The Path to European Integration : A Historical Institutionalist Analysis », Comparative Political Studies, 29 (2), 1996, p. 123-163. Y. Surel, « Comparer des sentiers institutionnels : les réformes des banques centrales au sein de l’Union européenne », Revue internationale de politique comparée, 7 (1), 2000, p. 135-166.En ligne
  • [49]
    D’après Thomas Kuhn, une révolution scientifique se définit par l’apparition de schémas conceptuels nouveaux, de « paradigmes », des aspects qui passaient inaperçus auparavant ou même qui étaient supprimés par la science dominante de l’époque. Cf. T. S. Kuhn, The Structure of Scientific Revolutions, Chicago, University of Chicago Press, 1962.
  • [50]
    G. Sartori, art. cité, p. 23.
  • [51]
    D. E. Ashford, « The Structural Analysis of Policy, or Institutions Do Really Matter », dans D. E. Ashford (ed.), Comparing Public Policies, Beverly Hills, Sage, 1978, p. 81-98.
  • [52]
    P. Selznick, « Institutionalism “old” and “new” », Administrative science quarterly, 41 (2), 1996, p. 270-277. B. Rockman, « The Institutionalism and the Old Institutions », dans D. Lawrence, C. Jilson (eds), New Perspectives on American Politics, Washington, Congressional Quarterly Press, 1994, p. 143-161.En ligne
  • [53]
    L. Rouban, « L’État et les transformations de l’action publique : des politiques de réforme aux nouvelles théories politiques », dans A. Sedjari (dir.), Quel État pour le 21e siècle ?, Paris, L’Harmattan-GRET, 2001, p. 91-107, notamment p. 101.
  • [54]
    <http:// www. plan. gouv. fr/ actualites/ actu4. php> [consulté le 27 décembre 2003].
  • [55]
    L. De Winter, P. Dumont, « Belgium : Delegation and Accountability under Partitocratic Rule », dans K. Strøm, W. C. Müller, T. Bergman (eds), Delegation and Accountability in Parliamentary Democracies, Oxford, Oxford University Press, 2003, p. 253-280. L. De Winter, « Party Encroachment on the Executive and Legislative Branch in the Belgian Polity », Res Publica, 38 (2), 1996, p. 325-352.
  • [56]
    F. Van der Meer, J. Raadschelders, « Politisation ou pratiques politiques habituelles ? Les Pays-Bas », Revue française d’administration publique, 86, 1998, p. 281-292, notamment p. 283.
  • [57]
    M. Jadot, « L’évaluation des politiques fédérales de l’emploi », dans C. de Visscher, F. Varone (dir.), Évaluer les politiques publiques : regards croisés sur la Belgique, Louvain-la-Neuve, Academia-Bruylant, 2001, p. 87-94.
  • [58]
    C. Pelgrims, « Ministeriële kabinetten als flexibele brug tussen politiek en administratie. Een onderzoek naar de instroom in de ministeriële kabinetten », Res Publica, 44 (4), 2002, p. 627-650.
  • [59]
    F. Van der Meer, J. Raadschelders, art. cité, p. 205.
  • [60]
    W. Kickert, F. Van Vucht, « The Study of Public Policy and Administration : Context and History », dans W. W. Kickert, F. Van Vucht, Public Policy and Administration Sciences in the Netherlands, Hertfordshire, Prentice Hall, 1995, p. 9-25.
  • [61]
    R. Andeweg, G. Irwin, Dutch Government and Politics, Londres, Macmillan, 1993. R. Andeweg, « Institutional Conservatism in the Netherlands : Proposals For and Resistance to Change », dans H. Daalder, G. Irwin (eds), Politics in the Netherlands. How Much Change ?, Londres, Frank Cass, 1989, p. 42-60. M. de Vries, « La gestion de la participation publique dans le processus politique : l’exemple des Pays-Bas », Revue internationale des sciences administratives, 63 (2), 1997, p. 161-182.
  • [62]
    F. Leeuw, P. Rozendal, « Policy Evaluation and the Netherland’s Government : Scope, Utilization and Organizational Learning », dans F. Leeuw, R. Rist, R. Sonnichsen (eds), Can Governments Learn ? Comparative Perspectives on Evaluation and Organizational Learning, New Brunswick, Transaction Publishers, 1994, p. 67-86.
  • [63]
    Cette procédure intervient, en 1982, à un moment où le gouvernement entend maîtriser les dépenses publiques et procéder à des économies budgétaires. Cette procédure stimule une forte demande d’évaluations, étant donné que deux cent quatre-vingt études de reconsidération sont réalisées par des comités qui bénéficient d’une indépendance d’action et de jugement garantie par un accord conclu entre les membres du gouvernement qui prévoit qu’aucun ministre n’interférera dans leur travail. Cf. M.-L. Bemelmans-Videc, « Dutch Experience in the Utilization of Evaluation Research : The Procedure of Reconsideration », Knowledge in Society, 2, 1989, p. 31-49.En ligne
  • [64]
    Algemene Rekenkamer, Staat van de Beleidsevaluatie 2002, La Haye, 2002.
  • [65]
    M.-L. Bemelmans-Videc, « Evaluation in The Netherlands 1990-2000 : Consolidation and Expansion », dans J.-E. Furubo, R. Rist, R. Sandhal (eds), op. cit., p. 93-114.
  • [66]
    M. Duverger, Le système politique français, Paris, PUF, 1996. Y. Meny, Le système politique français, Paris, Montchrestien, 1999.
  • [67]
    A. Lambert, « Renforcer le contrôle du Parlement sur l’exécutif », communication présentée lors de la réunion des présidents des commissions parlementaires des finances des pays membres de l’OCDE, Paris, 24-25 janvier 2001, p. 2.
  • [68]
    A. Lambert, ibid., p. 2.
  • [69]
    D. Hochedez, « La mission d’évaluation et de contrôle (MEC). Une volonté de retour aux sources du Parlement : la défense du citoyen contribuable », Revue française de finances publiques, 68, 1999, p. 261-276.
  • [70]
    « Les premiers pas de cette mission d’information, créée au sein de la Commission des finances, traduisent bien l’effort de rénovation du contrôle parlementaire souhaité. En revanche, la démarche évaluative devra être approfondie afin que les travaux de la MEC puissent devenir un véritable outil au service des parlementaires dans le débat budgétaire. Parmi les aspects positifs de la MEC, j’en soulignerai deux : le co-pilotage entre la majorité et l’opposition et un recours accru à l’expertise de la Cour des comptes » : D. Migaud, « Le contrôle de la dépense publique en France », dans M. Baslé, C. Guignard-Hamon (dir.), Évaluation et gouvernance. Actes du colloque de Rennes des 15 et 16 juin 2000, SFE, 2000, p. 34-41, notamment p. 37.
  • [71]
    Une présentation détaillée de l’influence de l’Ena sur la socialisation des hauts fonctionnaires français est fournie par J.-M. Eymeri, La fabrique des énarques, Paris, Économica, 2001. Une description plus anthropologique de cette école est rédigée par I. Bellier, L’Ena comme si vous y étiez, Paris, Le Seuil, 1993.
  • [72]
    J.-M. Eymeri, ibid., M.-C. Kessler, Les grands corps de l’État, Paris, Presses de Sciences Po, 1986.
  • [73]
    J.-M. Eymeri, Pouvoir politique et haute administration. Une comparaison européenne, Maastricht, EIPA, 2001, p. 22.
  • [74]
    Allocution d’André Chandernagor du 24 janvier 1991, citée par F. Game, « La mise en place de dispositifs institutionnels d’évaluation des politiques publiques au niveau local en France : les cas des régions Rhône-Alpes et Bretagne, et du département de l’Hérault », mémoire inédit de DEA, Institut d’études politiques de Paris, 1992, p. 31.
  • [75]
    B. Perret, « L’évaluation dans les administrations d’État : éléments pour un diagnostic. Communication au premier congrès de la SFE », Marseille, juin 1999, <http:// perso. wanadoo. fr/ bernard. perret/ texte3. htm> [consulté le 27 janvier 2004].
  • [76]
    E. Audebrand, L’évaluation en réforme : la relance du dispositif national d’évaluation des politiques publiques, Mémoire inédit de DEA, sous la direction de Jean-Claude Thoenig, École normale supérieure de Cachan, septembre 1999, p. 118.
  • [77]
    V. Chanut, « L’évaluation : affaire d’État ou question d’organisation ? », Politiques et management public, 20 (4), 2002, p. 1-32, notamment p. 9.
  • [78]
    MEC, Rapport d’information sur les organismes publics d’évaluation et de prospectifs économiques et sociales, Paris, 2003, p. 18.
  • [79]
    Propos d’entretien.
  • [80]
    V. Spenlehauer, « Une approche historique de la notion de “politiques publiques”. Les difficultés d’une mise en pratique d’un concept », Informations sociales, 110, 2003, p. 44-45.
  • [81]
    H. Kriesi, Le système politique suisse, Paris, Économica, 1995.
  • [82]
    D. Butschi, S. Cattacin, « The Third Sector in Switzerland : The Transformation of the Subsidiarity Principle », West European Politics, 16 (3), 1993, p. 362-379.
  • [83]
    R. Germann, Administration publique en Suisse : l’appareil étatique et le gouvernement, Berne/Stuttgart/Vienne, Haupt, 1996, p. 69-70.
  • [84]
    C.-A. Morand, « L’évaluation des effets des mesures étatiques », dans D. Thurer, J.-F. Aubert, J. Muller (dir.), Droit constitutionnel suisse, Zurich, Schuthess, 2001, p. 1124-1125.
  • [85]
    H. Kriesi, op. cit., p. 203.
  • [86]
    Cette disposition est affinée par la loi sur l’organisation du gouvernement et de l’administration de 1995 modifiée en 2000, qui stipule que : « Le Conseil fédéral assure l’information de l’Assemblée fédérale, des cantons et du public. Il l’informe de manière cohérente, rapide et continue sur son appréciation de la situation, sa planification, ses décisions et les mesures qu’il prend. Les dispositions particulières relatives à la sauvegarde des intérêts prépondérants, publics ou privés, sont réservées (article 10). Le chancelier de la Confédération assure la coordination d’affaires interdépartementales (article 33). Le porte-parole du Conseil fédéral prend, en collaboration avec les départements, les mesures nécessaires à l’information du public. Le chancelier de la Confédération assure l’information interne entre le Conseil fédéral et les départements (article 34) » : « Loi sur l’organisation du gouvernement et de l’administration », Recueil systématique, 172.010, 2000.
  • [87]
    Selon Kathleen Thelen, différentes formes d’adaptation sont envisageables. Elle distingue la sédimentation, la conversion et la recombinaison institutionnelles. Cf. K. Thelen, « Comment les institutions évoluent : perspectives de l’analyse comparative historique », dans Association recherche et régulation, L’année de la régulation. Économie, institutions, pouvoirs, Paris, Presses de Sciences Po, 2003, p. 13-43.
  • [88]
    Sur la notion de rôle, voir J. Lagroye, « On ne subit pas son rôle », Politix, 38, 1997, p. 7-17.
  • [89]
    Pour le cas des Cours des comptes, cf. C. Pollitt et al. (Performance or Compliance ?…, op. cit.), qui comparent les situations en Angleterre, en France, en Suède, aux États-Unis et aux Pays-Bas.
  • [90]
    W. Kickert, F. Van Vucht, op. cit.
  • [91]
    F. Leeuw, J. Toulemonde, A. Brouwers, « Evaluation Activities in Europe : A Quick Scan of the Market in 1998 », Evaluation, 5 (4), 1999, p. 487-496.
  • [92]
    O. Benoît, « Les chambres régionales des comptes face aux élus locaux. Les effets inattendus d’une institution », Revue française de science politique, 53 (4), août 2003, p. 535-558, notamment p. 535.
  • [93]
    O. Nay, A. Smith, « Les intermédiaires en politique. Médiation et jeux d’institutions », dans O. Nay, A. Smith (dir.), Le gouvernement du compromis. Courtiers et généralistes dans l’action politique, Paris, Économica, 2002, p. 1-28, notamment p. 8.
  • [94]
    V. Chanut, « Contes et mécomptes d’une connaissance ordinaire », Pouvoirs locaux, 57 (2), 2003, p. 99-105.
  • [95]
    J. Leca, « L’évaluation dans la modernisation de l’État », Politiques et management public, 11 (2), 1993, p. 161-172, dont p. 172.
  • [96]
    D. Gaxie, P. Laborier, « Des obstacles à l’évaluation des actions publiques et quelques pistes pour tenter de les surmonter », dans P. Favre, J. Hayward, Y. Schemeil (dir.), Être gouverné. Études en l’honneur de Jean Leca, Paris, Presses de Sciences Po, 2003, p. 201-224.
  • [97]
    J.-C. Thoenig, « L’évaluation en actes : leçons et perspectives », Politiques et management public, 20 (4), 2002, p. 33-50, notamment p. 47.
  • [98]
    P. Bezes, « Aux origines des politiques de réforme administrative sous la Cinquième République : la construction du “souci de soi” de l’État », Revue française d’administration publique, 102, 2003, p. 307-325.
  • [99]
    J.-C. Thoenig, art. cité, p. 681.
  • [100]
    L. Rouban, La fin des technocrates ?, Paris, Presses de Sciences Po, 1998, p. 113.
  • [101]
    J. Leca, art. cité, p. 170.
  • [102]
    P. Bezes, « Les hauts fonctionnaires croient-ils à leurs mythes ? L’apport des approches cognitives à l’analyse des engagements dans les politiques de réforme de l’État. Quelques exemples français (1988-1997) », Revue française de science politique, 50 (2), avril 2000, p. 307-332.
  • [103]
    Cette expression a été formulée par l’une d’entre eux, Véronique Chanut, ancien rapporteur général du Conseil national de l’évaluation (CNE). Cf. V. Chanut, « L’évaluation… », art. cité, p. 7.
  • [104]
    F. W. Scharpf, Games Real Actors Play. Actor-Centered Institutionalism in Policy Research, Oxford, Westview, 1997.
  • [105]
    Margaret Archer considère que le problème ontologique majeur de ce débat réside dans le « lien micro-macro », c’est-à-dire dans la fusion de ces deux éléments, qui exclut les relations bilatérales entre eux. Elle plaide pour une approche générique non fusionniste applicable à une analyse des faits sociaux de courte ou de longue durée qui se produisent aussi bien au niveau micro que macroscopique. Cf. M. Archer, « Théorie sociale et analyse de la société », Sociologie et sociétés, 30 (1), 1998, p. 9-22.
  • [106]
    O. Williamson, S. Masten, The Economics of Transaction Costs, Cheltenham, Elgar, 1999. D. Allen, « What are Transaction Costs ? », Research in Law and Economics, 14, 1991, p. 1-18. R. Ovin, « Why Institutional Change Should Be Rapid : A Transaction Costs Perspective », Communist Economies and Economic Transformation, 10 (1), 1998, p. 63-79.
  • [107]
    D. Coole, « Rethinking Agency : A Phenomenological Approach to Embodiment and Agentic Capacities », Political Studies, 53 (1), 2005, p. 124-142, notamment p. 126.En ligne
  • [108]
    R. Sibeon, « Agency, Structure and Social Chance as Cross-Disciplinary Concepts », Politics, 19 (3), 1999, p. 139-144.
  • [109]
    P. Hall, R. Taylor, « Political Science and the Three Institutionalisms », Political Studies, 44, 1996, p. 936-957, notamment p. 941. D. Marsh, M. Smith, « Understanding Policy Networks : Towards a Dialectical Approach », Political Studies, 48 (1), 2000, p. 4-21, notamment p. 6 ; P. Lewis, « Agency, Structure and Causality in Political Science : A Comment on Sibeon », Politics, 22 (1), p. 17-23, notamment p. 19.
  • [110]
    P. Lewis, ibid., p. 19. Cet auteur illustre ce point en prenant pour exemple un individu qui se trouve en Angleterre et qui souhaite communiquer avec d’autres personnes. Afin de se faire comprendre, cet individu doit utiliser les règles grammaticales anglaises pré-existantes sans que celles-ci ne déterminent son discours.
  • [111]
    D. Coole, art. cité, p. 126.
Français

Résumé

L’évaluation des politiques publiques est devenue, ces dernières années, une pratique courante dans de nombreuses démocraties occidentales. Toutefois, en étudiant les histoires nationales de son développement, il apparaît que les processus d’institutionnalisation de cette pratique empruntent des cheminements différents. Cet article présente l’influence du système politico-administratif sur ces processus d’institutionnalisation en Belgique, France, Suisse et aux Pays-Bas. L’institutionnalisation étant abordée dans une perspective dynamique, les variations observées dans les différents pays sont également analysés. Afin de répartir les cas étudiés, on propose une typologie des configurations institutionnelles qui tient compte de la finalité et du degré d’ouverture des dispositifs mis en place.

Steve Jacob
Steve Jacob, docteur en science politique, est professeur adjoint au département de science politique de l’Université Laval (Québec – Canada) et membre du Centre d’analyse des politiques publiques (CAPP). Il est notamment l’auteur (avec Frédéric Varone) de Évaluer l’action publique : état des lieux et perspectives en Belgique, Gand, Academia Press, 2003, et a dirigé (avec Jean-Louis Genard) Expertise et action publique, Bruxelles, Éditions de l’Université de Bruxelles, 2004. Ses recherches portent sur l’administration publique à travers l’étude de la modernisation et des mutations de l’État, ainsi que sur l’analyse des politiques publiques et, plus particulièrement, de leur évaluation (<Steve.Jacob@pol.ulaval.ca>).
Pour citer cet article
Distribution électronique Cairn.info pour Presses de Sciences Po © Presses de Sciences Po. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...