CAIRN.INFO : Matières à réflexion

Introduction

1L’article 5 de la Charte de l’environnement a consacré l’application du principe de précaution « face à des dommages, incertains en l’état des connaissances scientifiques, mais potentiellement graves et irréversibles ». Son adoption avait suscité de fortes controverses, par rapport à ses implications éventuelles en termes de responsabilité pour les acteurs économiques, et par rapport à la crainte qu’il soit interprété in fine comme un principe extrême de risque zéro, conduisant à se prémunir vis-à-vis de scénarios ou de peurs non fondés sur un minimum de faits scientifiquement documentés. S’en suivait la préconisation, plutôt unanime, que, confronté à ce type de situation, il convenait de développer les recherches et l’expertise, pour améliorer l’état des connaissances, et assurer ainsi que les décisions prises en application du principe de précaution soient fondées sur des éléments scientifiques certes incertains mais sérieux, au sens où l’entendent Henry et Henry [2004].

2Cette approche a fondé, par exemple, la mise en place, en France, d’une agence de sécurité sanitaire environnementale. Les travaux du giec-ipcc ont aussi montré à quel point cette démarche pouvait être féconde (Godard et Henry [1998]) pour éclairer les négociations sur le changement climatique. Dans de nombreux cas, on constate cependant que la mise en place des dispositifs nécessaires pour améliorer la connaissance des risques en situation de précaution est difficile, ou moins consensuelle, que l’on pourrait l’imaginer a priori.

3Ainsi, les recommandations de cette nature qu’avait pu faire le comité Prévention Précaution du ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer, par exemple pour les perturbateurs endocriniens ou pour les nanotechnologies, n’ont pas eu de suite immédiate. La mise en place d’un équivalent du giec pour la biodiversité s’avère aussi difficile, alors que la rapidité de l’extinction des espèces est actuellement sans précédent. On peut remarquer enfin qu’en dépit de l’acuité des débats suscités les éléments de connaissance sur l’impact sur la santé des radiotéléphones, ou sur celui des organismes génétiquement modifiés, demeurent souvent limités. De plus, les programmes de recherche ou d’expertise qui permettraient de les compléter tardent souvent à être engagés, laissant le champ à la « démocratie d’opinion ».

4Les obstacles à cet essor de l’expertise en situation de précaution sont divers. Il faut évidemment compter avec les intérêts divergents des acteurs et les enjeux potentiels de telles expertises, en termes de responsabilité juridique. On rencontre aussi des divergences de conception sur la manière d’organiser ce type d’expertise, comme l’a montré le Grenelle de l’Environnement [2007]. Les uns craignent les experts, les autres s’inquiètent des risques de décision mal informée, ou que l’argument de la sécurité prime et bride exagérément la compétitivité économique. Ces derniers invoquent le nécessaire recours à l’expertise, mais souvent sur le mode incantatoire.

5Les difficultés à résoudre ne sont pas seulement celles suggérées ci-dessus, d’agrégation des préférences, incitatives, ou d’économie politique. Il apparaît fréquent que, sur un même sujet, à partir des mêmes connaissances et sans intérêts privés manifestes en jeu, les approches des experts eux-mêmes divergent fortement dans ce type de contexte : les uns préconisent de développer la recherche ; les autres considèrent qu’il n’y a pas lieu de dépenser de l’argent pour mieux connaître les caractéristiques de scénarios catastrophiques, que l’on peut simplement écarter en interdisant tel type d’innovation, par exemple.

6Ces difficultés reflètent différentes interprétations possibles du principe de précaution (Chevé et Congar [2003], Bureau et Massé [2006]). L’énoncé qui en a été retenu dans la Charte de l’environnement les combine, sans s’interroger sur d’éventuelles distinctions à opérer, entre risque et incertitude notamment.

7Ainsi la recommandation en faveur d’un processus d’acquisition d’information semble s’inspirer de la notion de valeur d’option (Henry [1974], Arrow et Fisher [1974], Jones et Ostroy [1984], Gollier, Jullien et Treich [2000]), qui fournit un cadre bien établi, lorsqu’on peut pondérer, en termes de probabilités, les dommages encourus. Dans celui-ci, des actions représentant un coût à court terme peuvent se justifier, si elles permettent de mieux cerner les conditions d’une décision partiellement irréversible, ou si elles procurent une plus grande flexibilité pour s’y adapter. Cette approche permet d’évaluer rigoureusement, en termes de « valeur d’option », des décisions telles qu’un moratoire, une politique de traçabilité ou d’autorisation de mise sur le marché, ou encore l’opportunité d’engager les travaux de recherche et d’expertise évoqués ci dessus, si les scénarios sont « probabilisables ».

8Cependant, le type d’incertitude visé par le principe de précaution est souvent plus radical. Face à ces situations, comme on a pu y être confronté par exemple avec l’esb et la possibilité ou non qu’elle franchisse les « barrières d’espèces » (cf. Henry et Henry [2004]), ou actuellement pour les nanoparticules dans le système lymphatique, les modèles d’évaluation probabilisés classiques (de von Neuman-Morgenstern et Savage), formalisés en termes de maximisation d’une espérance d’utilité, se sont avérés progressivement inappropriés. Les travaux d’Ellsberg [1961] ont mis en évidence l’incapacité de l’espérance subjective d’utilité à représenter les préférences, en présence d’incertitude non probabilisée. Il est apparu alors que les critères de décision à prendre en compte étaient plutôt de type MaxMin (Gilboa et Schmeidler [1989]), ou devaient intégrer partiellement ce type de critère pour refléter « l’aversion à l’ambiguïté » des agents économiques (cf. Tallon et Vergnaud [2007] pour une introduction, Etner, Jeleva et Tallon [2010] pour une revue très complète de ces modèles).

9L’intuition première est qu’en renforçant le pessimisme dans le processus de décision les valeurs d’« option » à considérer pour évaluer, par exemple, l’intérêt de développer tôt les expertises sur la dangerosité de certaines technologies nouvelles serait renforcé si l’on intègre cette aversion à l’ambiguïté des agents. Les éléments de contexte concrets rappelés ci-dessus montrent qu’en pratique l’engagement de ces expertises tarde souvent.

10Au niveau théorique, différents travaux récents incitent aussi à la prudence vis-à-vis de ce type d’intuition, ou, plus généralement, de la transposition, aux situations d’ambiguïté, des résultats de la théorie du risque. Ainsi Treich [2010] observe que, si la prise en compte d’une aversion à l’ambiguïté accroît les valeurs statistiques de la vie humaine, l’impact sur les bilans coûts-avantages resterait modeste, contrairement à ce que les politiques environnementales tendent à considérer. Gollier [2009] montre, lui, que l’impact de l’aversion à l’ambiguïté sur les choix financiers de portefeuille n’est pas univoque, même si elle conduit le plus souvent à réduire la part des actifs incertains.

11Ceci suggère qu’une analyse explicite de la valeur de l’information en situation d’incertitude radicale est nécessaire, comme l’avait pointé Lange [2003], ou, plus récemment, Snow [2010]. Mais ces études conduisent à des résultats très contradictoires avec, dans certains cas, des valeurs d’information qui peuvent apparaître négatives, et, dans d’autres, des valeurs accrues avec l’aversion à l’ambiguïté du décideur. Ces divergences tiennent aux critères d’évaluation considérés (Bouglet, Lanzi, et Vergnaud [2006]), ou aux hypothèses faites pour formaliser la dynamique des problèmes considérés. Plus fondamentalement, elles reflètent les controverses qui demeurent sur l’interprétation de ces critères de décision, en termes d’objectivité ou de subjectivité des croyances, et de rationalité des choix (Al-Najjar et Weinstein [2009], Gajdos, Hayashi, Tallon et Vergnaud [2008]).

12Avec cette perspective, nous revenons ici sur l’évaluation de la valeur de l’information qui serait associée à la levée de l’ambiguïté sur les probabilités. L’ensemble de l’analyse considère les choix d’un décideur unique, agent privé ou « autorité publique ». La dimension collective des choix de précaution est ainsi laissée de côté. À ce titre, l’analyse proposée n’est qu’une étape vers une formalisation des choix en situation de précaution.

13La première partie considère le cas extrême d’un critère purement « Maxmin » des espérances d’utilité, et évalue, dans ce contexte, la valeur associée à la résolution totale de l’ambiguïté. Elle met en évidence des résultats contrastés, selon les caractéristiques du problème de décision à résoudre que l’analyse d’un cas particulier permet ensuite de préciser. On souligne ainsi que la valeur de l’information sur les scénarios en situation d’ambiguïté ne peut se concevoir comme un simple « renforcement » des résultats traditionnels sur les valeurs d’information, en situation de risque.

14La seconde partie élargit le champ des modèles de représentation des préférences considérés, en examinant ce même problème dans le cadre du modèle de Klibanoff, Marinacci, et Mukerji [2005]. Elle permet de montrer comment ces deux types d’éléments se combinent alors, en fonction du degré d’aversion à l’ambiguïté des agents.

La valeur de l’information en situation d’incertitude radicale

Notations, et rappel de l’analyse classique

15Le problème de décision considéré est le choix d’un niveau approprié de prévention ou d’effort (x) face à un danger. Le revenu de l’agent est formalisé comme une fonction R(x, l) de ce niveau d’effort, et de la gravité des dommages, dont on note (l) une réalisation quelconque.

16Dans un cadre classique, on suppose que ce niveau de gravité est une variable aléatoire (L), et que l’agent choisit le niveau d’effort x maximisant son espérance d’utilité (u), avec u? > 0 et u? ? 0 en cas d’aversion pour le risque. De manière générale, on notera : VP(x) = EP[u(R(x, L))] cette espérance d’utilité pour la distribution de probabilités considérée sur L ; equation im1 la valeur de la décision optimale ; et equation im2 la valeur correspondante de l’espérance d’utilité.

17On considère ici que ce danger est incertain, en ce sens où deux scénarios (i = 1 ou 2), ou théories, s’opposent à propos de cette distribution de probabilités P. Les distributions associées à ces deux scénarios seront notées respectivement P1 et P2.

18Dans ce contexte, l’approche classique consisterait à probabiliser la survenue des deux scénarios, soit (p) pour le scénario 2, et donc(1 – p) pour le scénario 1. De cette manière, le décideur établit implicitement une distribution de probabilités ex ante (P0) sur L, et son évaluation d’une décision devient :

19

equation im3

20Comme equation im4 pour tout x, et en particulier pour equation im5, on a :

21

equation im6

22Cette inégalité s’interprète en termes de valeur de l’information associée à la connaissance du « vrai » scénario. En effet, le terme de gauche correspond au niveau d’espérance d’utilité atteint si l’agent doit prendre sa décision ex ante, sur la base de la distribution de probabilités P0 reflétant les probabilités qu’il a assignées aux deux scénarios. Le terme de droite correspond à cette même espérance d’utilité, par rapport à P0, s’il peut choisir son niveau d’effort, conditionnellement, après avoir eu connaissance du vrai scénario, et l’adapter en conséquence. En effet, s’il pouvait prendre sa décision après avoir été informé que le vrai scénario est « i », i = 1 ou 2 (mais sans connaître la réalisation l du dommage), il choisirait le niveau equation im7 approprié, compte tenu de cette information. Le terme de droite correspond donc à son espérance d’utilité, calculée ex ante, quand il sait qu’il aura la possibilité de ne décider de son niveau d’effort qu’après avoir eu connaissance du scénario pertinent.

23L’écart étant positif, celui-ci serait prêt à sacrifier sûrement une part de son revenu pour se trouver dans la seconde situation. La somme maximale correspondante, qui sera notée G, reflète les bénéfices dont il faut créditer une recherche qui permettrait de lever l’incertitude entre les deux scénarios. L’opportunité d’engager cette recherche devrait alors résulter de la comparaison de ces avantages avec les dépenses que réclame la réalisation d’une telle recherche.

24Ces bénéfices sont ici similaires à toute autre information qui permettrait d’affiner la distribution de probabilités sur L. En effet, dans ce cadre, il n’y a pas de différence de nature entre l’incertitude sur les dommages, au sein de chaque scénario, et celle sur les scénarios : les deux sont probabilisées, et concourent à la construction de la distribution de probabilités P0.

25Cependant, un résultat robuste en économie expérimentale, depuis les travaux d’Ellsberg au début des années 1960, est que les individus sont averses à l’ambiguïté sur les probabilités. En d’autres termes, ils récusent souvent la démarche retenue ci-dessus, consistant à poser des probabilités sur les scénarios. Dans ces conditions, celle-ci n’apparaît pas adaptée pour répondre à des questions telles que : combien est-on prêt à dépenser pour une recherche qui résoudrait définitivement la controverse entre causes anthropiques versus cycliques ou volcaniques des évolutions observées des concentrations de gaz à effet de serre dans l’atmosphère ? Ou pour une recherche qui permettrait de choisir entre des modèles avec ou sans effet de seuil, pour les relations « dose-effet » intervenant dans un problème écotoxicologique grave ?

26L’objet des développements qui suivent est d’apprécier la valeur de cette information sur le scénario lorsqu’on considère des modèles plus généraux de représentation des préférences, différenciant le « risque » (probabilisable), et l’incertain non probabilisable (« ambiguïté »). L’analyse sera menée en considérant des agents neutres ou averses au risque (soit u? > 0 et u? ? 0). Par ailleurs, on supposera que les fonctions R(x, l) sont deux fois différenciables et strictement concaves par rapport à la variable de décision, et en conséquence les fonctions VP(x).

Critère de type MaxMin

27Tout d’abord, on considère le critère de Gilboa et Schmeidler [1989], suivant lequel les agents évaluent leurs décisions en considérant l’espérance d’utilité correspondant au scénario le plus défavorable.

28Dans l’hypothèse où l’incertitude sur les scénarios peut être levée, grâce à la réalisation d’une recherche appropriée, et que l’agent choisit ex post son niveau d’effort conditionnellement au résultat de cette recherche, il retiendra, comme précédemment, la décision qui maximise son espérance d’utilité pour la distribution de probabilités sur L associée au vrai scénario, donc equation im8 ou equation im9, selon que le vrai scénario est « 1 » ou « 2 ». Ex ante, il considérera alors l’espérance d’utilité pour le scénario le plus défavorable, soit la valeur equation im10. Par convention, on supposera que le scénario défavorable – catastrophique ou d’alerte – est « 2 », donc que equation im11. La connaissance du scénario vrai au moment du choix de l’effort x permet donc d’atteindre la valeur equation im12 pour le critère considéré ex ante, c’est-à-dire au moment où serait engagée la recherche.

29Si l’agent doit choisir son niveau d’effort dans l’incertitude sur le vrai scénario, il résout le programme suivant :

30

equation im13

31Supposant equation im14, la solution x* de ce programme, et la valeur correspondante du critère (W), sont déterminées dans les conditions suivantes :

  • l’optimum se situe nécessairement dans l’intervalle equation im15 car, à gauche de celui-ci, les fonctions VPi(x) sont toutes deux croissantes de x, et elles sont toutes deux décroissantes à droite. Par conséquent, il en va de même pour la fonction minimum de ces deux fonctions ;
  • dans cet intervalle, VP2(x) est croissante et VP1(x) décroissante. Donc (VP2(x) – VP1(x)) est une fonction croissante de x. De plus, elle est négative en equation im16, puisque l’on a equation im17.
Il y a alors deux cas à considérer :

32Cas 1. equation im18 « Estimez ces deux cas : si vous gagnez, vous gagnez tout, et si vous perdez, vous ne perdez rien ; gagez donc qu’il est sans hésiter. »

33La fonction (VP2(x) – VP1(x)) est encore négative en equation im19. Le minimum des deux fonctions (VP1(x), VP2(x)) est donc la fonction VP2(x) sur l’ensemble de l’intervalle considéré. Celle-ci atteint son maximum pour equation im20. W vaut donc equation im21, résultat identique à celui obtenu lorsque les décisions d’effort pouvaient être conditionnelles à la révélation du vrai scénario. En d’autres termes, la valeur de l’information sur le scénario apparaît nulle lorsqu’on considère ce critère (cf. fig. 1).

Figure 1

Configuration avec equation im22 (cas 1)

Figure 1

Configuration avec equation im22 (cas 1)

34Cas 2. equation im24 « Et nous regardions Charybde, car c’était d’elle que nous attendions notre perte ; mais, pendant ce temps, Scylla enleva de la nef creuse six de mes plus braves compagnons. »

35La fonction (VP2(x) – VP1(x)) s’annule sur l’intervalle considéré pour une valeur intermédiaire, que nous notons ?. À gauche de celle-ci, le minimum des deux fonctions est obtenu avec VP2(x), fonction croissante de x. À droite, il l’est avec VP1(x), fonction décroissante de x. Le maximum du critère est donc obtenu pour x* = ?, et l’on a equation im25. La valeur de l’information sur le scénario apparaît donc positive dans ce cas (cf. fig. 2).

Figure 2

Configuration avec equation im26 (cas 2)

Figure 2

Configuration avec equation im26 (cas 2)

36Si equation im28, l’analyse est similaire, si ce n’est que la position relative de ces deux variables, et le sens de variation de la fonction (VP2(x) – VP1(x)), sont inversés. On aboutit donc au même résultat, la seule chose qui change en fait étant l’interprétation de la variable x, dont un accroissement va alors dans le sens de la moindre précaution. Ainsi :

  • la valeur de l’information sur le scénario est exactement nulle avec le critère MaxMin si equation im29 ;
  • elle est positive dans le cas contraire, la possibilité de choisir la variable d’effort x après avoir eu connaissance du vrai scénario permettant d’accroître ex ante le critère W de equation im30.
L’intuition de ce résultat est assez simple. Le critère MaxMin considère le scénario le plus « défavorable ». Le premier cas reflète l’idée qu’améliorer l’espérance d’utilité dans les autres scénarios ne compte donc pas. Cependant, ce qu’est le scénario le plus défavorable n’est pas prédéfini en général. Il dépend du niveau d’effort considéré. Le second cas reflète les situations où ce basculement entre scénarios est déterminant pour choisir le bon niveau de l’effort ex ante.

Exemple

37Une application, à un exemple où l’on peut calculer explicitement les valeurs de l’information sur le scénario en termes monétaires, permet de mieux appréhender ces résultats. Celui-ci considère un agent neutre vis-à-vis du risque (u(R) = R), et la fonction de revenu suivante :

38

equation im31

39En d’autres termes, l’agent dispose d’un revenu brut w, et il subit un coût (?l + (lx)2) si la réalisation du dommage vaut l, et qu’il a choisi le niveau d’effort x. Face à cette réalisation, l’effort de protection parfaitement adapté serait donc x = l, laissant un coût de dommages résiduel ?l, croissant avec l. À ce coût irrésistible, s’ajoute un coût de désajustement éventuel (lx)2 entre l’effort de protection choisi et le niveau d’aléa réalisé.

40Cette fonction R(x, l) vérifie les hypothèses postulées ci-dessus. Elle est en particulier concave par rapport à la variable de contrôle equation im32. On a, par ailleurs, pour toute distribution P de L, VP(x) = EP[w – ?L – (L – x)2] d’où :

41

equation im33

42Si l’on considère que l’agent affecte une probabilité (1 – p) au scénario 1 et (p) au scénario 2, la distribution de probabilité P0 a comme espérance EP0(L) = (1 – p)EP1(L) + pEP2(L), et comme variance :

43

equation im34

44L’analyse classique s’en déduit :

  • si l’agent doit choisir son niveau de protection dans l’incertitude sur le vrai scénario, il choisit equation im35, et obtient l’espérance equation im36 de revenu définie par les formules (4) et (5) ;
  • s’il peut disposer préalablement de l’information sur le vrai scénario, son espérance de revenu ex ante vaut equation im37.
La différence d’espérance de revenu entre les deux situations vaut :

45

equation im38

46Elle correspond directement au revenu sûr que l’agent serait prêt à sacrifier pour disposer de la connaissance sur le vrai scénario, ou, en d’autres termes, au montant maximal de la dépense qu’il est prêt à consentir pour une recherche qui permettrait de disposer de cette information. Le gain s’identifie ici à la suppression de la variance « inter » scénarios dans la variance de P0. Le paramètre ? n’intervient pas dans ce gain, car le terme ?L correspond à un dommage qui n’est pas affecté par le choix de x.

47Avec le critère de Gilboa et Schmeidler, ce terme joue, en revanche, un rôle important si les espérances de la variable L diffèrent entre les deux scénarios, puisque la détermination de l’effort optimal découle de la comparaison des espérances de revenu définies par (4). Comme on l’a vu, la valeur de l’information avec ce critère dépend de la position de equation im39 par rapport à equation im40, qui est ici déterminée par le paramètre (positif) :

48

equation im41

49En effet, dans cet exemple, les deux courbes VP1(x) et VP2(x) ont une unique intersection en x = ? vérifiant :

50

equation im42

51Pour ? = 1, celle-ci se trouve à la valeur critique telle que equation im43. Si ? ? 1, ? se trouve entre equation im44 et equation im45. Il est extérieur à cet intervalle si ? > 1.

52Le cas « 1 » correspond à ? > 1. Il reflète une situation dans laquelle le scénario 2 est intrinsèquement catastrophique. L’espérance maximale du revenu dans ce scénario (2), atteinte pour equation im46, demeure en effet inférieure à l’espérance du revenu qui serait obtenue avec cette décision, mais dans l’autre scénario (1), en dépit de la mauvaise adaptation de ce choix de niveau d’effort à ce contexte. Un tel résultat est obtenu : si le numérateur de ? est élevé, c’est-à-dire si l’espérance de revenu maximale diffère fortement entre les deux scénarios ; ou si l’écart, au dénominateur de ?, entre les niveaux de contrôle optimaux des deux scénarios demeure faible, et par là le coût de l’écart sur la variable de contrôle, si le vrai scénario est en fait le plus favorable (1). Ces éléments poussent à retenir equation im47, lorsqu’il faut choisir le niveau d’effort dans l’ignorance du vrai scénario. Ce niveau de protection étant aussi choisi ex post, lorsque le scénario catastrophique est avéré, la valeur de l’information (G) sur le scénario est nulle, au regard du critère MaxMin : tout se passe comme si, ex ante, seul le plus mauvais scénario comptait.

53Le cas « 2 » correspond à ? ? 1. Là, les écarts d’espérance de revenu entre les scénarios sont faibles, relativement à l’impact sur les dommages d’un désajustement sur la décision (x), par rapport à celle qui serait idéalement souhaitable dans chaque scénario. La décision optimale ex ante est x* = ?, valeur intermédiaire entre equation im48 et equation im49, où les deux scénarios procurent le même niveau d’espérance du revenu. Le fait de pouvoir choisir en connaissance du vrai scénario est équivalent à un gain monétaire :

54

equation im50

55La fonction G est continue par rapport à ? (G = 0 si ? = 1). Par ailleurs, sa valeur maximale, par rapport à cette variable, est atteinte dans la situation où les deux scénarios sont « également » catastrophiques, soit ? = 0. La valeur de l’information calculée avec ce critère apparaît alors supérieure à celle que considérerait un décideur classique (équation 6) puisque p(1 – p) ? 1/4. Tout se passe, en effet, comme si le décideur averse à l’ambiguïté considérait alors comme équiprobables les deux scénarios.

Implications pour la mise en œuvre du principe de précaution

56La référence au critère MaxMin est souvent critiquée comme faisant la part trop belle au « catastrophisme ». L’analyse qui précède tend à nuancer cette assertion en soulignant le besoin d’analyser plus finement la structure des scénarios.

57Certes, on a mis en évidence un cas où un seul scénario du « pire » compte pour la décision, y compris pour évaluer l’opportunité de recherches visant à lever l’incertitude sur les scénarios. Dans ce cas, la valeur d’une telle expertise est nulle, car elle permet de réduire les dommages dans l’autre scénario, mais cela n’a pas d’impact sur le critère considéré. En d’autres termes, il n’y aurait pas, au regard de ce critère, de « coût » à décider en situation d’ambiguïté dans ce cas.

58L’idée, qui est suggérée par l’article 5 de la Charte de l’environnement, que le recours à l’expertise va permettre d’écarter des scénarios du pire très coûteux apparaît alors douteuse. Elle risque fort de buter sur le fait que ceux qui considèrent ce scénario comme plausible ne verront pas d’intérêt à ce type d’expertise, et ce indépendamment de tout biais ou intérêt, mais simplement parce qu’ils sont très averses à l’ambiguïté.

59Cependant, on a vu que ce cas était extrême. En effet, il apparaît que la comparaison des valeurs accordées à l’expertise par les deux types de décideurs, « savagien » ou extrêmement averse à l’ambiguïté, n’est pas univoque. Face à un « pire dominant », la recommandation en faveur d’un développement déterminé de l’expertise ne va pas de soi si l’on se réfère au critère MaxMin. En revanche, cette intuition redevient valide dans un contexte où l’on est en fait confronté à des scénarios contradictoires, la valeur de l’information pouvant se trouver alors accrue par rapport à ce qu’estimera un décideur classique.

60Si l’on cherche à illustrer ce qui précède à propos des gaz à effet de serre, les deux menaces à considérer seraient, d’un côté, les conséquences du changement climatique, et, de l’autre, celui de « casser » la croissance pour l’atténuer. Cependant, une fois établie la nécessité de prendre en compte le risque climatique par les travaux du giec, la tendance a été à la revalorisation des menaces et, au contraire à estimer que les coûts de mitigation pouvaient demeurer raisonnables. Ceci était le message du rapport Stern. Les débats qui l’ont suivi ont amené à requalifier ces menaces, en mettant l’accent justement sur l’éventualité des scénarios catastrophiques. Il y a ainsi un consensus relatif pour reprendre les objectifs définis dans les scénarios du giec. Même si la mise en œuvre reste difficile (car chaque État a intérêt à se comporter en passager clandestin du processus), on peut suggérer que l’on se trouverait plutôt dans une configuration du « premier type », justifiant de se fixer, par exemple, un niveau d’accroissement de température à ne pas dépasser, de 2 °C par exemple, compte tenu des dommages potentiellement graves si l’on dépasse ce seuil.

61Les « bio » et les « nano » technologies relèvent en l’état plutôt du second cas : risque de ne pouvoir nourrir 9 milliards d’hommes d’un côté, contre risque de détruire les conditions le permettant de l’autre ; enjeux thérapeutiques contre risque de dérives eugéniques éthiquement insupportables en matière de diagnostic préimplantatoire ; ou, encore, marchés potentiels considérables pour de nouveaux produits, grâce à leurs qualités de résistance, de flexibilité, d’adhésion ou de répulsion, voire d’applications thérapeutiques, contre risques de pathologies pulmonaires, etc.

62Dans ces situations, les débats sur la mise en œuvre du principe de précaution sont souvent stériles, parce que chaque partie ne veut entendre parler que du scénario qu’il juge, lui, le pire, alors que l’on se trouve en fait dans des situations « bilatérales » où il faudrait : instruire « à charge et à décharge » ; et bien mettre en place l’expertise permettant de lever l’incertitude (et, évidemment, identifier les politiques qui permettraient d’alléger les conflits d’objectifs entre les scénarios, en identifiant tôt les conditions de sûreté pour ces nouvelles technologies, par exemple).

63La mise en place de l’expertise concernerait donc d’abord les situations bilatérales. La condamnation de l’État dans le cas de l’amiante, au motif justement qu’il n’avait pas engagé de programme sérieux d’évaluation des risques, devrait alors être vu, non pas comme une obligation générale de recours à l’expertise, mais dans le cadre d’une alternative : soit vous considériez que vous étiez dans le premier cas, et vous auriez dû réglementer tôt ; soit vous mettiez en avant une situation bilatérale, et alors l’expertise devenait essentielle.

64L’idée que, dans les situations unilatérales, la valeur de l’information pourrait être nulle doit par ailleurs être investiguée plus avant, car elle traduit le caractère extrême du critère MaxMin, qui considère une aversion à l’ambiguïté probablement excessive par rapport à ce qui est pertinent pour fonder les politiques de précaution.

L’apport de critères de décision plus souples

Cadre d’analyse

65Le critère MaxMin n’est pas un critère de risque zéro, ou de scénario totalement extrême, qui privilégierait l’hypothèse la plus catastrophique au niveau de l’aléa. Cohen et Tallon [2008] soulignent ainsi que le critère de Gilboa et Schmeidler est souvent « rejeté » à partir d’une mauvaise compréhension, car le critère s’applique aux espérances d’utilité dans les différents scénarios (et non aux événements). L’acquis de la théorie de von Neuman-Morgenstein pour tout ce qui est probabilisable (i.e. relève du risque, donc ici au sein de chaque scénario) est donc conservé. Par ailleurs, le caractère pessimiste ou non du critère dépend en pratique du champ des distributions de probabilités (« croyances » ou priors) sur lequel il est appliqué.

66Des développements plus récents considèrent cependant des critères permettant de refléter une aversion à l’ambiguïté moins extrême que le critère MaxMin. Klibanoff et al. [2005] ont proposé un critère de décision qui permet de passer continûment du critère classique « Savagien », sans aversion à l’ambiguïté, au critère de type MaxMin, de Gilboa et Schmeidler. Celui-ci permet aisément de prolonger notre analyse. Il consiste à postuler que le bien-être de l’agent est évalué par une fonction s’exprimant de la forme :

67

equation im51

68avec ? strictement croissante et concave. Cette concavité caractérise l’aversion à l’ambiguïté de l’agent, avec comme cas-limite le critère MaxMin.

69On postule donc un critère à deux étages : le premier (VP) intègre le comportement habituel vis-à-vis du risque, associé à des calculs d’espérance d’utilité ; le deuxième étage agrège les espérances d’utilité atteintes dans les différents scénarios, dans des conditions qui caractérisent le souci du décideur de se couvrir vis-à-vis de l’ambiguïté. De ce point de vue, l’intérêt de la formulation est de distinguer en plus deux dimensions dans les comportements face à l’ambiguïté : la concavité de ? qui traduit l’attitude générale de l’agent vis-à-vis de l’ambiguïté ; et l’analogue d’une probabilité « subjective » p, qui reflète la crédibilité attribuée à chacun des deux scénarios. Si ? est affine (neutralité à l’ambiguïté), ce paramètre s’interprète complètement comme une probabilité sur les scénarios, et on retrouve le critère d’espérance d’utilité classique, pris comme référence initiale dans la partie précédente. Mais il n’en va donc plus de même si ? est strictement concave, car alors les deux étages ne sont pas réductibles à un seul.

70Un agent appliquant ce critère choisira ex ante le niveau d’effort (x*) qui maximise la valeur de W par rapport à cette variable de contrôle. La condition nécessaire correspondante s’écrit ?– 1 · ??(x*) = 0, avec ?(x) = (1 – p)?(VP1(x)) + p?(VP2(x)), d’où :

71

equation im52

Application

72Pour appliquer cette approche à l’exemple donné plus haut, où l’agent était supposé neutre au risque, mais averse à l’ambiguïté, on considère que ? est une fonction reflétant une aversion à l’ambiguïté constante (? ? 0) soit :

73

equation im53

74La condition (11) appliquée aux espérances d’utilité de cet exemple, caractérisées par les expressions (4), définit (implicitement) la valeur optimale du contrôle x. Elle s’écrit ici, compte tenu de la valeur de ? définie par (8) :

75

equation im54

76Pour ? = 0 (neutralité à l’ambiguïté) on retrouve equation im55, et pour ? ? ?, les résultats obtenus avec le critère MaxMin, à savoir equation im56 si ? > 1, et x* = ? si ? ? 1. Lorsque ? croît de 0 à l’infini, x* se déplace de manière monotone de l’une à l’autre de ces valeurs limites. Si ? > 1, ceci est bien conforme à l’idée que l’accroissement de l’aversion à l’ambiguïté ? se traduit par un niveau d’effort plus précautionneux. Si ? ? 1 et ? situé entre equation im57 et equation im58, c’est encore le cas, si ce n’est que la limite pour ? ? ? est ?, compte tenu du coût potentiel à aller au-delà si le scénario 1 se réalisait.

77Mais il y a une autre configuration, où ? se trouve extérieur à l’intervalle compris entre equation im59 et equation im60. Le scénario favorable est ici jugé moins plausible. La précaution consiste cependant à le prendre en compte pour choisir le niveau d’effort. Celui-ci sera alors inférieur à ce que retiendrait un décideur classique.

78La figure 3 illustre l’analyse correspondante pour le premier cas [1], qui souligne que les paramètres clés pour les valeurs extrêmes de ? sont fondamentalement différents : probabilité p pour le décideur « classique », neutre à l’ambiguïté, d’un côté ; paramètre ? reflétant le catastrophisme relatif des deux scénarios pour le critère MaxMin. Ainsi, il faut concevoir l’impact de ? en termes de poids relatif accordé à ces paramètres, plutôt que, directement, en termes de niveau d’effort.

Figure 3

Choix de x avec le critère souple

Figure 3

Choix de x avec le critère souple

Impact du degré d’aversion à l’ambiguïté

79L’analyse des variations de la valeur de l’information (G) en fonction du paramètre d’aversion à l’ambiguïté ? conforte cette intuition. Les décisions ex post étant toujours les valeurs equation im62 appropriées, et les Vp étant ici des espérances du revenu, G vérifie en effet :

80

equation im63

81Cette valeur, associée à la levée complète de l’incertitude sur le vrai scénario, est ici toujours positive, car, vis-à-vis de chaque scénario, l’espérance du dommage sera réduite si la décision peut être prise ex post, et ? est une fonction croissante. Contrairement à ce que l’on obtenait avec le critère MaxMin, celle-ci est même strictement positive, la valeur nulle n’étant atteinte qu’à la limite, lorsque l’aversion à l’ambiguïté tend vers l’infini. On a plus précisément :

82

equation im64

83Les valeurs limites du modèle « souple » s’en déduisent aisément, et sont bien celles calculées précédemment :

84equation im65 si ? = 0, (analyse classique),

85G ? 0, si ? > 1 et ? ? ?, (cas 1 du critère Maxmin),

86equation im66, si ? ? 1 et ? ? ?, (cas 2 du critère Maxmin).

87Il n’y aura donc pas de sens de variation univoque de G en fonction de ?, celui-ci dépendant des positions relatives de ces valeurs limites.

Valeur d’une expertise incomplète

88Qu’en est-il de la valeur d’une recherche susceptible d’apporter des éléments d’information en faveur de l’une ou l’autre des deux théories en présence (en améliorant la précision des modèles climatiques, ou en confrontant plus finement les observations récentes aux données passées, par exemple, s’il s’agit des politiques climatiques) mais sans apporter des éléments de preuve définitifs sur leur validité ? Peut-on en particulier assurer que la valeur « brute » d’une telle recherche, c’est-à-dire ses avantages, conserveront toujours une valeur positive ou nulle, comme il en allait ci-dessus en cas de révélation complète du scénario ?

89Une extension minime du modèle fournit des éléments de réflexion en ce sens, en en montrant a contrario la limite, tant que le modèle considéré demeure statique. L’intérêt est cependant de souligner que l’évaluation de valeurs de l’information en situation de précaution nécessite des hypothèses à deux niveaux : sur les préférences des agents ; et sur le processus de révision de leurs croyances en fonction de l’information qu’ils reçoivent, tels les résultats d’une recherche, par exemple. Dans ce qui précède, cette seconde dimension a été occultée par le fait que l’on supposait la levée totale de l’ambiguïté. Les décisions optimales ex post allaient alors de soi.

90L’extension du modèle consiste à supposer que chacun des deux scénarios, ou théories, constitue un cadre suffisamment élaboré, et qu’il est donc possible, au sein de chacun de ceux-ci, d’établir les probabilités a priori que l’expérience conduise à tel ou tel résultat. Par ce terme, on entend donc la probabilité que la recherche conduise à un certain résultat, si l’on se place dans un scénario donné, considéré comme étant le « vrai ».

91De manière plus précise, on suppose que la réalisation de la recherche ou expérience est susceptible de produire des résultats qui appartiennent à un ensemble de signaux indicés par j, dont on est capable de définir les probabilités a priori d’apparition lorsqu’on se place dans chacun des scénarios, puisqu’on est alors dans le domaine du « risque » probabilisable. On note qj // i la probabilité d’apparition du résultat de recherche « j », si l’on suppose vrai le cadre représenté par le scénario « i » [2].

92Le fait de disposer des résultats d’une telle recherche permet potentiellement d’adapter les niveaux d’effort aux signaux observés, soit xj pour le niveau de protection qui serait choisi ex post conditionnellement à l’observation du signal « j ». Pour un vecteur X = ((xj)) quelconque de ces niveaux d’efforts conditionnels, on peut aussi calculer l’espérance d’utilité ex ante associée dans chaque scénario. Si l’on suppose que la recherche est conçue exclusivement pour aider à lever l’ambiguïté, les résultats de la recherche (j) et la réalisation des dommages (l) étant des variables indépendantes [3], au sein de chaque scénario, elle vaut pour le scénario i :

93

equation im67

94L’agent peut alors déterminer le vecteur X* de décisions conditionnelles aux signaux j qui conduirait, ex ante, à la valeur maximale du critère W. Il peut ainsi obtenir une évaluation (par rapport à ce critère) de l’opportunité de cette recherche, en comparant les valeurs maximales atteintes par celui-ci, selon qu’il décide de son niveau d’effort ex ante (x*), ou qu’il peut ajuster celui-ci (X*) aux résultats (j) de la recherche. On est ainsi conduit à considérer les résultats des deux programmes suivants :

95

equation im68

96Ceux-ci appellent quatre remarques :

  • si chaque signal ne peut être observé qu’exclusivement dans l’un ou l’autre des scénarios, la recherche permet en fait une révélation parfaite du scénario, et l’on retrouve bien l’analyse précédente. À ce titre, le cadre proposé constitue une extension du modèle considéré ci-dessus ;
  • si les probabilités d’apparition de chaque signal j sont identiques dans chacun des scénarios, la recherche envisagée n’a pas de valeur discriminante entre les deux scénarios. Les décisions optimales conditionnelles aux signaux sont alors inchangées par rapport à la décision ex ante, et la valeur d’une telle recherche est naturellement nulle ;
  • si ? est une fonction affine (neutralité à l’ambiguïté), on retrouve un modèle de décision classique, probabilisé, d’espérance d’utilité. Les décisions conditionnelles optimales s’identifient alors à celles qui seraient prises par un agent révisant son estimation de p en appliquant la loi de Bayes, car p est alors une probabilité au sens usuel. Dans ce cas, on peut attribuer aussi des probabilités globales a priori aux différents résultats de la recherche, et cette règle de révision bayésienne est telle que l’espérance des probabilités ex post sur chaque scénario, compte tenu de ces probabilités, est égale à la probabilité initiale (prior) du scénario considéré [4].
  • enfin, on observe que le premier programme revient à imposer une contrainte d’égalité de tous les (xj) dans le second. Suivant cette démarche, la valeur de l’information incomplète serait donc toujours positive ou nulle. La tendance à la nullité pourra, par ailleurs, avoir deux origines, le caractère non discriminant de la recherche envisagée, comme dans un cadre classique, ou la combinaison d’une aversion à l’ambiguïté extrême et d’un scénario particulièrement défavorable.
Toutefois, il faut souligner que cette évaluation de la valeur d’une recherche est estimée ici de manière statique, en supposant que l’agent appliquerait ex post les décisions conditionnelles optimales, maximisant le critère ex ante. Il s’agit donc d’une valeur d’information « maximale ». Si l’agent prend ses décisions ex post sur la base d’une règle quelconque de révision de ses croyances sur p, la valeur de la recherche estimée par rapport à ce critère sera inférieure, et éventuellement même négative.

97Ceci illustre la tension qui demeure, avec ces modèles d’aversion à l’ambiguïté, pour définir des principes d’évaluation pour des décisions dynamiques. Il faut en effet choisir entre la règle de Bayes et la cohérence temporelle. Implicitement, c’est cette dernière que nous avons privilégiée ici, d’où la mise en avant de valeurs toujours positives pour l’information sur les scénarios.

Conclusion

98En situation de précaution, il est communément admis qu’il convient de développer des recherches ou des expertises pour améliorer l’état des connaissances scientifiques. Les modèles d’espérance d’utilité n’apparaissent pas bien appropriés pour évaluer ou qualifier, du point de vue économique, la valeur de tels projets de recherche, car ces critères ne différencient pas le risque et l’incertain.

99Dans cette perspective, on a examiné, notamment à partir d’un exemple, la valeur de l’information en incertitude pour différents modèles de représentation des préférences. À cet égard, le critère de maximisation du minimum de l’espérance d’utilité pour l’ensemble des distributions de probabilités jugées possibles apparaît extrême, seul comptant alors le scénario le plus catastrophique. Il est cependant noté que, même avec ce critère, la valeur de l’expertise peut se trouver accrue, par rapport à l’analyse qu’en ferait un décideur classique, lorsque l’ensemble des scénarios est complexe. En termes de méthode pour l’application du principe de précaution, ceci conduit donc à insister sur la nécessité d’examiner soigneusement les risques des différentes stratégies, pour ne pas manquer les situations où l’analyse doit être plus « bilatérale », qu’« unilatérale ».

100On a considéré aussi le modèle souple de Klibanoff, Marinacci et Mukerji [2005]. Ce type de représentation plus « proportionnée » semble fournir des perspectives prometteuses pour des applications empiriques, en dépit des questions qui demeurent, sur la définition de l’ensemble des croyances, leur révision dans le temps, ou leur agrégation pour les décisions collectives : le fait de disposer d’un cadre cohérent, permettant d’analyser ces choix, apparaît déjà très précieux si l’on veut éviter que, d’un domaine à l’autre, les critères utilisés ne soient trop divergents, et ainsi se prémunir contre les risques de capture des décisions, particulièrement aigus en situation de précaution.

101Notre analyse s’est placée du point de vue de l’évaluation, en termes coûts-avantages, de l’expertise scientifique. Mais on peut en tirer aussi quelques implications, en termes d’organisation de la décision publique, sur les conditions de mobilisation de l’expertise. Faut-il, par exemple, déléguer la décision aux comités d’experts, ou, dans le langage des gestionnaires en charge de ces problèmes, intégrer les fonctions d’évaluation et gestion, et les confier à des autorités indépendantes ?

102Maskin et Tirole [2004] ont ouvert la voie à l’analyse économique de ce type de problème en considérant les critères pour choisir entre trois types d’institutions pour la décision publique : la démocratie directe ; la délégation de la décision à des agents informés, et soumis au contrôle d’un processus électoral ; la délégation de la décision à des agents informés, au sein d’une autorité indépendante. Dans leur modèle, il y a une séparation forte entre le public, par nature mal informé, et des agents informés, mais n’ayant pas nécessairement les mêmes préférences que le public. Il est supposé, par ailleurs, que les agents informés n’ont pas la capacité de « prouver » au public que ce qu’ils proposent est bon pour lui. Cette hypothèse n’est pas irréaliste dans le contexte décisionnel en situation de controverse scientifique.

103Prenant en compte ces éléments, Maskin et Tirole montrent que la délégation à une autorité indépendante est préférable : lorsque le public est mal informé sur la décision optimale ; que l’acquisition de cette information est coûteuse, de même que celle sur la qualité des décisions prises ; ou que la décision risque de toucher particulièrement une minorité. Mais ils montrent aussi qu’il faut limiter le pouvoir de discrétion de telles autorités, et ne pas leur confier les décisions les plus importantes. La difficulté rencontrée pour établir de bonnes institutions pour la décision environnementale, lorsqu’elle concerne les biens globaux, ou pour organiser les systèmes de sécurité sanitaire, n’apparaît ainsi pas surprenante, ces recommandations apparaissant justement contradictoires dans ce cas. Toutefois, leur étude s’inscrit dans un contexte qui n’aborde pas la question du principe de précaution, le modèle de décision étant un modèle classique, probabilisé.

104Ce que suggère notre analyse est que l’argument concernant la non-délégation des décisions les plus importantes se trouverait renforcé en situation d’incertitude radicale, avec le critère MaxMin, dans le cas où l’un des scénarios est particulièrement catastrophique. En effet, l’expertise permettant de lever l’incertitude sur les scénarios n’est alors pas créditée d’une valeur positive. La délégation de la décision à un expert ayant cette capacité, mais pouvant avoir des biais par rapport aux préférences de l’agent, n’apparaît donc pas souhaitable. En revanche, dans l’autre cas, il faut évaluer l’arbitrage entre le bénéfice de confier la décision à un agent ayant la connaissance du vrai scénario, et le coût de ses biais éventuels.

105Cependant, face à ce type de situation, les gouvernances à mettre en place sont probablement plus élaborées qu’une simple délégation : il faut organiser l’articulation entre l’expertise et la décision. Trannoy et Van Straeten [2001] avaient examiné, dans cette perspective, le fonctionnement de l’agence française de sécurité alimentaire. Ceci les conduisait à mettre l’accent sur les difficultés résultant d’avoir à gérer deux niveaux d’agrégation délicats : d’une part, l’agrégation des préférences du public, souvent très hétérogènes, et l’agrégation des connaissances d’autre part. Leur recommandation allait à la claire identification de ces deux processus et à leur renforcement, pour éviter les deux risques, de la décision technocratique où l’expert impose au public ses préférences d’un côté, et de la décision mal informée de l’autre. Il faut cependant établir aussi une supervision efficace de l’expertise, et préciser l’organisation de la décision appropriée.

106Beaucoup reste donc à faire. Mais la disponibilité de modèles économiques rigoureux pour formaliser le principe de précaution constitue un élément incontournable pour tout progrès en ce domaine. Les approches qui ont été testées dans cette étude, focalisée sur un aspect particulier qui est celui de l’évaluation des recherches, permettant de passer d’une science « incertaine mais fiable » à une science stabilisée (pour reprendre les termes d’Henry et Henry [2004]), suggèrent que cela commence à être le cas.

Notes

  • [*]
    Conseil économique pour le Développement durable, et École Polytechnique, Ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer, 3 place de Fontenoy, 75007 Paris. Courriel : Dominique.bureau@developpement-durable.gouv.fr.
    L’auteur remercie, sans les impliquer évidemment, Ch. Gollier, J.-M. Tallon, et N. Treich pour leurs éclairages, et les deux rapporteurs de la Revue pour leurs remarques sur la version préliminaire de cet article.
  • [1]
    Les autres s’en déduisent en déplaçant la position de ? dans la figure.
  • [2]
    Étant rappelé qu’il n’y a pas, ici, de probabilités classiques mises sur les scénarios, les deux niveaux d’agrégation du risque et de l’ambiguïté étant distincts. D’où cette notation spécifique, pour éviter toute confusion avec le cas où l’on poserait directement des probabilités usuelles sur les scénarios.
  • [3]
    Hypothèse simplificatrice pour la clarté de l’exposé, dont la pertinence est à juger en fonction de la nature de la recherche. Sinon, les espérances d’utilité doivent être calculées avec les distributions conditionnelles de L aux signaux j, au sein de chaque scénario, sachant qu’alors la recherche apporte à la fois de l’information par rapport à l’ambiguïté, et par rapport au risque.
  • [4]
    Dans le cas général, p ne s’interprète pas comme une probabilité, et on ne peut pas, en conséquence, définir des probabilités a priori globales d’apparition des signaux j. Par ailleurs, il n’y a plus alors d’identité entre les décisions conditionnelles optimales calculées ex ante, et les décisions qui seraient prises ex post sur la base de croyances révisées sur p, en appliquant la loi de Bayes. Hanany et Klibanoff [2009] ont proposé une règle alternative de révision des croyances (« smooth rule ») sous l’hypothèse de consistance temporelle des choix (i.e. que les décisions conditionnelles optimales ex ante soient optimales par rapport aux préférences réévaluées).
Français

Résumé

En situation de précaution, il est communément admis qu’il convient de développer des recherches ou expertises pour améliorer l’état des connaissances scientifiques. Mais les modèles d’espérance d’utilité n’apparaissent pas bien appropriés pour évaluer ou qualifier, du point de vue économique, la valeur de tels projets de recherche, car ces critères ne différencient pas le risque et l’incertain.
Dans cette perspective, l’article examine, principalement à partir d’un exemple, la valeur de l’information en incertitude pour différents modèles de représentation des préférences. À cet égard, le critère de maximisation du minimum de l’espérance d’utilité pour l’ensemble des distributions de probabilités jugées possibles apparaît extrême, seul comptant alors le scénario le plus catastrophique. Il est cependant noté que, même avec ce critère, la valeur de l’expertise peut se trouver accrue, par rapport à l’analyse qu’en ferait un décideur classique, lorsque l’ensemble des scénarios est conflictuel.
On considère aussi le modèle de Klibanoff, Marinacci et Mukerji [2005]. Il est suggéré que ce type de représentation plus « proportionnée » fournit des perspectives prometteuses pour des applications empiriques.

Références bibliographiques

  • En ligneAl-Najjar N. et Weinstein J. [2009], « The Ambiguity Aversion Literature: a Critical Assessment », Economics and Philosophy, 25, Spécial Issue 03, novembre, p. 249-284.
  • En ligneArrow K. J. et Fisher A. C. [1974], « Environmental Preservation, Uncertainty, and Irreversibility », Quarterly Journal of Economics, 88, p. 312-319.
  • En ligneBouglet T., Lanzi T. et Vergnaud J.-C. [2006], « Incertitude scientifique et décision publique : le recours au principe de précaution », Recherches économiques de Louvain, 72, 2, p. 109-127.
  • Bureau D. et Massé E. [2006], « Principe de précaution et décision médicale », Document de travail D4E, Ministère de l’Écologie.
  • En ligneChevé M. et Congar R. [2003], « La gestion des risques environnementaux en présence d’incertitudes et de controverses scientifiques : une interprétation du principe de précaution », Revue économique, 54, p. 1335-1352.
  • Cohen M. et Tallon J.-M [2008], « Probabilités imprécises et décisions rationnelles », Mimeo, Paris School of Economics et université Paris I. Rapport au meddat, programme sciences économiques et environnement.
  • En ligneEllsberg D. [1961], « Risk, Ambiguity and the Savage Axioms », Quarterly Journal of Economics, 75, p. 643-649.
  • Etner J., Jeleva M. et Tallon J.-M. [2010], « Decision Theory under Ambiguity », Journal of Economic Surveys, à paraître.
  • Gajdos T., Hayashi T., Tallon J.-M. et Vergnaud J.-C. [2008], « Attitude towards imprecise information », Journal of Economic Theory, 110, p. 585-603.
  • En ligneGilboa I. et Schmeidler D. [1989], « Maxmin Expected Utility with a Non Unique Prior », Journal of Mathematical Economics, 18, p. 141-152.
  • Godard O. et Henry C. [1998], « Les instruments des politiques internationales de l’environnement : la prévention du risque climatique et les mécanismes de permis négociables », Rapport au Premier ministre sur la « fiscalité de l’environnement », Conseil d’analyse économique, n° 7, La Documentation française.
  • En ligneGollier C., Jullien B. et Treich N. [2000], « Scientific progress and irreversibility: An economic interpretation of the Precaution of Precautionary Principle », Journal of Public Economics, 75.
  • Gollier C. [2009], « Portfolio choices and asset prices: the comparative statics of Ambiguity Aversion », Mimeo, Toulouse School of Economics.
  • Hanany E. et Klibanoff P. [2009], « Updating Ambiguity Adverse Preferences », B.E. Journal of Theoretical Economics, 1.
  • Henry C. [1974], « Investment Decisions under Uncertainty: the Irreversibility Effect », American Economic Review, 64, p. 1006-1012.
  • Henry C. et Henry M. [2004], « L’essence du principe de précaution : La science incertaine mais néanmoins fiable », Entreprises et biens publics, n° 13, iddri.
  • Grenelle de l’environnement [2007], « Construire une démocratie écologique : institutions et gouvernance », Rapport du groupe présidé par N. Notat. meeddm.
  • En ligneJones R.A et Ostroy J.M. [1984], « Flexibility and Uncertainty », The Review of Economic Studies, 51 (1), janvier.
  • En ligneKlibanoff P., Marinacci M., Mukerji S. [2005], « A smooth model of decision making under ambiguity », Econometrica, 6, p. 1849-1892.
  • Lange A. [2003], « Climate Change and the Irreversibility Effect: Combining Expected Utility and Maxmin », Environnmental and Resource Economics, 25, p. 417-434.
  • Laffont J.-J. [1985], « Économie de l’incertain et de l’information », Cours de théorie microéconomique, vol. II, Paris, Economica.
  • En ligneMaskin E. et Tirole J. [2004], « The Politician and the Judge. Accountability in Gouvernment », American Economic Review, 94 (4), p. 1034-1054.
  • Snow A. [2010], « Ambiguity and the Value of Information », Journal of Risk and Uncertainty, à paraître.
  • En ligneTallon J.-M. et Vergnaud J-.C. [2007], « Incertitude et information en économie de l’environnement. Choix privés et attitudes individuelles », Revue française d’économie, 32 (2), p. 3-56.
  • Trannoy A. et Van Straeten K. [2001], « Choix collectifs et risque globaux », Risques, 47, p. 82-86.
  • En ligneTreich N. [2010], « The Value of Statistical Life under Ambiguity Aversion ». Journal of Environnemental Economics, 1, p. 15-26.
Dominique Bureau [*]
  • [*]
    Conseil économique pour le Développement durable, et École Polytechnique, Ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer, 3 place de Fontenoy, 75007 Paris. Courriel : Dominique.bureau@developpement-durable.gouv.fr.
    L’auteur remercie, sans les impliquer évidemment, Ch. Gollier, J.-M. Tallon, et N. Treich pour leurs éclairages, et les deux rapporteurs de la Revue pour leurs remarques sur la version préliminaire de cet article.
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 11/10/2010
https://doi.org/10.3917/reco.615.0875
Pour citer cet article
Distribution électronique Cairn.info pour Presses de Sciences Po © Presses de Sciences Po. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...