Couverture de REDP_174

Article de revue

Quelques leçons d'un essai à risque, l'évaluation des dommages climatiques par Sir Nicholas Stern

Pages 533 à 545

Notes

  • [*]
    CIRED : Centre International de Recherches sur l’Environnement et le Développement (UMR CNRS - EHESS - Agroparistech - Université Paris Est - UMR Cirad). Email : hourcade@ centre-cired. fr
  • [**]
    Development Economics Research Group, the World Bank. Les opinions exprimées dans le présent document n’engagent que l’auteur. Elles ne reflètent pas nécessairement les opinions de la Banque Mondiale, des ses Administrateurs ni des pays qu’ils représentent.
  • [1]
    Cf. Nordhaus et Boyer ([2000], chap. 2, p. 14). Dans les versions ultérieures, la Préférence Pure pour le Présent décroît dans le temps, d’une valeur initiale de 3 % à 1,8 % après 200 ans.
  • [2]
    Ambrosi et al. [2003] intègrent directement l’amplitude du réchauffement comme argument de la fonction d’utilité pour intégrer une préférence pour la stabilité du climat.
  • [3]
    Le même type de confusion est fait lorsque la concavité de la fonction d’utilité est interprétée comme une mesure de l’aversion à l’inégalité interpersonnelle.
  • [4]
    La métaphore de l’assurance est utile mais en partie trompeuse parce qu’il n’existe pas de compagnie d’assurance où cotiser pour qu’elle nous rembourse en cas de problème majeur.

1Sans doute, le succès médiatique du rapport Stern, en plus de la mine d’informations qu’il recèle et du prestige de son auteur ancien Économiste en Chef à la Banque Mondiale est du à son message alarmant sur les dommages du changement climatique. C’est sur ce point que se concentrèrent les commentaires, négligeant les autres messages du rapport.

2Les critiques ont pu viser telle ou telle donnée, comme le choix d’un scénario de référence très émetteur, des valeurs élevées de la sensibilité du climat à l’augmentation des concentrations atmosphériques de GES ou encore la quantification de tel ou tel impact. Mais, pour l’essentiel elles portent sur la méthodologie suivie et la dépendance des résultats aux choix faits sur deux paramètres, la préférence pure pour le présent (PPP) et la courbure de la fonction d’utilité et que d’aucuns vont juger très arbitraires voire (Weitzman [2007]) choisis ad nutum pour justifier une thèse préétablie.

3Le point de vue que nous adoptons ici est que le rapport Stern souffre d’une sous-exploitation, par la méthode utilisée pour la quantification monétaire, de l’analyse qui est faite de la nature des risques encourus. Les analyses de la deuxième section du rapport donnent en effet de nombreux arguments contre les travaux concluant à des valeurs faibles des dommages (Mendelsohn et al. [2000] ; Nordhaus et Boyer [2000] ; Tol [2002a, b]) et qui en fait reposent sur l’hypothèse d’une adaptation au « nouveau » climat, sans coûts de transition notoires. Il est remarquable qu’un économiste du développement de premier plan mette sérieusement en doute le réalisme d’une telle hypothèse, en particulier dans le cadre d’économies fragilisées comme celle de nombreux pays du tiers monde. Il est d’autant plus regrettable que les outils utilisés par Stern, le modèle PAGE et une analyse Monte Carlo, ne puissent produire un coût monétaire global des dommages cohérent avec ce diagnostic sans un ensemble d’ajustements « héroïques » que la critique peut aisément présenter comme biaisés.

4C’est ce que nous expliquons en cinq points, qui sont autant d’éléments d’un agenda de recherche conjoint pour la modélisation intégrée économieclimat et pour la théorie économique.

1. Arbitrage entre court et long terme : le rôle du progrès technique et des préférences

5Le Rapport Stern a retenu une valeur extrêmement faible pour la PPP et c’est certainement le choix qui a fait couler le plus d’encre « académique ». En considérant à la suite de Ramsey, Sen ou Solow que le seul motif valable d’un point de vue moral pour placer un taux d’escompte sur l’utilité des générations futures reste l’incertitude sur leur existence, Stern retient la valeur de 0,1 % par an, en l’interprétant comme une probabilité de 90,5 % que l’espèce humaine existe encore dans 100 ans. Il considère qu’il est difficile de calibrer cette valeur selon une approche à prétention descriptive, à partir de taux d’épargne plausibles – notamment parce ces derniers reflètent les préférences individuelles sur l’horizon d’une vie et pas des préoccupations trans-générationnelles. Cette approche descriptive conduit à des valeurs supérieures d’un ordre de grandeur : 1 % chez Arrow (1995), 3 % chez Nordhaus dans les versions originales des modèles DICE et RICE. [1]

6Pour sortir de ce débat entre approche normative et ambition descriptive, il est ici utile de se rappeler que l’égalité de Ramsey r = ? ? ?g articule à un niveau certes abstrait les deux paramètres très concrets que sont les préférences (la PPP ( ? ) et l’élasticité de l’utilité marginale de la consommation ( ? ) ) et le progrès technique (la productivité marginale du capital ( r ) et le taux de croissance de la consommation ( g ) permis par le capital accumulé). Le point important est, sans nier l’enjeu éthique, qu’une valeur de ? n’a de sens qu’au sein d’une vision cohérente des préférences et technologies futures.

7Prenons d’abord la question des préférences. La formule de Ramsey dérive d’un modèle de croissance à un seul bien. Or il est presque paradoxal (Guesnerie [2004] ; Heal [2005]) d’étudier les termes de l’arbitrage consommation/environnement sans faire de l’environnement l’un des arguments de la fonction d’utilité. Ne raisonner que sur l’utilité de la consommation revient à négliger le fait que le consentement à payer pour préserver l’environnement peut croitre dès lors que les générations futures deviennent plus riches et que l’environnement se dégrade : crainte de trop s’écarter du régime climatique actuel auxquelles elles sont peu ou prou adaptées [2] ou hésitation devant une expérience d’altération des grands équilibres de l’environnement qui ressemble à un pari Faustien, celui qu’on ne reprends pas.

8Avec une fonction d’utilité à deux biens, un bien composite (la production marchande) et un bien environnemental (la qualité du climat), on tient compte, dans l’arbitrage entre consommation présente et future, du fait que le bien environnemental devient un bien supérieur à partir d’un certain niveau, ceci en raison de la décroissance de l’utilité marginale du revenu (Guesnerie [2004]). La valeur actuelle des dommages de long terme dépend alors de deux forces antagonistes, l’effet déflateur de la PPP et l’effet inflateur lié à l’accroissement de la valeur relative, par rapport à celle de la consommation, de l’utilité marginale de la préservation de l’environnement. On peut alors arguer que, dans un modèle de croissance à un seul bien, retenir une valeur faible pour la PPP est nécessaire pour intégrer ce type de mécanisme (voir l’encadré 1).

Encadré 1. Équivalente entre spécifications des fonctions d’utilité et préférence pure pour le présent

Un calcul simple permet d’établir les équivalences entre une spécification de la fonction d’utilité en UC ) comme chez Stern et en UC, E ).
La valeur présente d’une perte de consommation de 1 % en 2100 suite à un dommage climatique est, avec une PPP de 0,1 % et la spécification de Stern :
equation im1

Avec une fonction d’utilité logarithmique on trouve :
equation im2

Prenons maintenant la spécification UC, E ) avec une PPP de 2 %. La valeur présente de la perte d’utilité de la seule consommation devient 0,14 % au lieu de 0,905 %. Pour assurer l’équivalence des deux calculs en termes de perte totale d’utilité il suffit que les pertes d’aménités environnementales (en équivalent de consommation présente) soient de 0,77 = 0,91 – 0,14 soit 5,5 fois les pertes de consommation.
Il est bien sûr impossible de trancher sur la plausibilité d’une telle part des dommages non monétaires sur les dommages totaux. Elle résulte à la fois du quantum d’impact reçu et de sa transformation en perte d’utilité, celle-ci dépendant elle-même du taux de substitution entre consommation et environnement chez les générations de 2100. Pour se figurer ce qu’elle représente, on peut calculer quelle perte d’aménité environnementale due à un impact subi aujourd’hui donnerait une perte totale d’utilité égale à la valeur présente de l’impact subi dans un siècle (pour les deux spécifications). En supposant comme dans le rapport Stern que la consommation 2100 est 3,63 supérieure à la consommation actuelle, les pertes d’aménité environnementales devraient représenter 5,5/3,63 = 1,63 fois les pertes de consommation soit 61 % des dommages (car aujourd’hui l’utilité marginale de la consommation est plus élevée). Un tel ratio ne semble pas si excessif qu’on ne puisse admettre qu’une PPP de 0,1 % soit un moyen acceptable de pallier l’absence de valeur de l’environnement dans une spécification UC ) (avec une PPP de 1 % PTP cette part tomberait à 29 %).

9On peut ensuite arguer, à la défense de Stern, que la PPP, qui mesure l’impatience d’une génération, devrait décroître avec le revenu par tête. Un exercice économétrique hâtif confirme cette intuition, à partir d’une analyse transversale des trusts observés aujourd’hui dans différents pays du monde. Il convient cependant d’extrapoler avec prudence cette tendance. En effet, dès les premières tentatives d’utiliser des modèles à la Ramsey à des fins de planification dans les années soixante, on imposait une valeur élevée de ? afin d’éviter le sacrifice de la génération présente au nom d’un avenir radieux. Or, cette même contrainte ne peut pas ne pas s’appliquer à toute génération suivante. Ainsi, s’il existe des raisons d’ordre anthropologique pour retenir des PPP décroissants dans le temps, on ne peut les adopter sans vérifier que les hypothèses concernant la productivité du capital et le capital deepening ne rendent pas une valeur basse de ? incompatible avec des valeurs acceptables du taux d’épargne en tout point du temps.

10Venons-en maintenant à la deuxième caractéristique du monde futur représentée dans l’équation de Ramsey, la technologie. La discussion la plus importante, s’agissant d’un futur lointain, concerne l’incertitude sur la productivité globale, incertitude intrinsèque du changement technique à laquelle se rajoute celle qui porte sur l’impact même du changement climatique. Weitzman [1998] a montré comment, en cas d’incertitude sur la croissance, donc sur la productivité marginale du capital, l’espérance mathématique des taux d’actualisation se situait à un niveau beaucoup plus proche des taux pessimistes. L’intuition de ce résultat peut se résumer ainsi : dans un calcul d’actualisation, le « monde » à forte croissance disparaît plus vite que le « monde » à faible croissance. Newell et Pizer [2001] ont repris ce résultat pour montrer que cela revenait à réévaluer à la hausse les bénéfices à très long terme de la prévention des dommages climatiques. On remarquera cependant ici que, si la croissance est faible, les émissions, donc les dommages, le seront aussi. Dès lors le seul calcul qui fait sens est celui, pour une PPP et des coûts d’abattement donnés, de l’espérance mathématique des trajectoires optimales de prix du carbone associés aux divers scénarios. Cela implique de ne plus chercher une correction back of the envelope du taux d’actualisation et de passer à des exercices de modélisation intégrée stochastique sur lequel nous reviendrons plus tard.

2. Pondération interindividuelle et solidarité intra générationnelle : une question d’éthique ou d’intérêts bien compris ?

11Une critique moins fréquente mais tout aussi importante qu’on adresse au Rapport Stern est l’utilisation d’une pondération unitaire pour agréger le bien-être des membres d’une même génération. Or les implications d’un tel choix, dont le contenu éthique est évident, ont une importance pratique qu’on néglige très souvent. Comme l’utilité marginale du revenu est décroissante, une équi-pondération des individus va conduire le « planificateur central », qui calcule le niveau et la répartition des efforts qui maximiseraient le bien-être social, à faire porter l’intégralité du fardeau des politiques climatiques sur les pays les plus riches jusqu’à ce que les niveaux de revenus soient égalisés Si on donne le même poids à deux individus en effet, maximiser le bien-être total implique d’égaliser leurs revenus. Outre son manque de réalisme politique, une telle procédure peut également être critiquée d’un point de vue normatif. Comme le remarque le deuxième rapport du GIEC (Bruce et al. [1996]) la distribution actuelle des revenu peut bien sûr être contestée mais il n’y a aucune raison que les politiques climatiques soit l’occasion et l’instrument d’une redistribution généralisée des revenus.

12Mais, l’alternative théoriquement correcte – qui consiste à utiliser des poids de Neigishi – n’est pas sans soulever d’autres objections éthiques. Le recours à une fonction d’utilité logarithmique donne, en effet, un poids proportionnel au niveau de richesse, ce qui bloque toute redistribution du revenu (la distribution actuelle est jugée sinon optimale du moins intouchable) ; en contrepartie, on en vient à donner une valeur plus faible aux dommages subis par les populations défavorisées (et dans des proportions qui peuvent aller de un à trente). Cela aurait conduit à une valeur globale des dommages nettement plus faibles dans le rapport Stern puisque ce sont les pays pauvres qui en subissent la plus grande part. Le débat éthique paraît insoluble et cette difficulté ne peut être surmontée que par un changement d’approche qui permette une prise en compte plus réaliste des mécanismes de propagation des dommages (Lecocq et Hourcade [2004]).

13Le rapport Stern a le grand mérite de donner de nombreux exemples de dommages climatiques susceptibles d’une telle propagation, ne serait-ce qu’en raison de l’accélération des flux migratoires, aux régions avoisinantes (voir le rôle de la sécheresse dans l’affaire du Darfour), d’où de sérieux problèmes de sécurité, locaux comme globaux (voir les chapitres 3 et 4). Ceci revient à reconnaître qu’en définitive une part des dommages affectant les régions pauvres peuvent se transmettre aux régions industrialisées et qu’en conséquence ces dommages transmis devraient être pris en compte, cette fois en leur affectant les poids de Neigishi des « riches ». Une telle approche tend à relever la valeur des dommages subis par les régions pauvres sans s’exposer à une critique d’absence de réalisme ou d’imposition arbitraire de jugements de valeurs par ailleurs au reste du monde. Elle ne présume pas une conversion préalable des pays riches à plus de bénévolence mais, de façon plus cynique, prend en compte leur intérêt bien compris.

3. Traitement de l’incertain : au-delà des tirages Monte-Carlo

14À la différence des nombreuses études publiées antérieurement, le Rapport Stern prend en compte la cascade des incertitudes en jeu dans l’évaluation des dommages et des risques. Dans la mesure où certains impacts pourraient remettre en cause la subsistance des populations dans certaines régions, (parce que la mise en œuvre de l’adaptation y est compromise, parce qu’il n’existe pas de mécanismes d’assurance (Guesnerie [2003], p. 33) ou parce que l’assistance internationale ne permettra pas de réparer « à temps »), on doit veiller à la prise en compte des risques extrêmes et ne pas se contenter des valeurs moyennes. L’approche choisie pour ce faire est un tirage Monte Carlo de plus 1 000 scénarios envisageables par combinaison des hypothèses plausibles.

15Une première ligne de critique porte sur la courbure de la fonction d’utilité, Gollier suggérant par exemple d’adopter ? = 2 pour mieux intégrer l’aversion au risque. Il y a là cependant un risque de confusion entre l’utilité marginale du revenu dans le certain et l’utilité marginale d’une perte ou d’un gain dans une loterie (la fonction d’utilité au sens de Von Neumann-Morgenstern). La fonction d’utilité en univers certain traduit simplement nos préférences entre, par exemple, un scenario où le revenu par tête en 2030 atteindrait 150 (contre 100 aujourd’hui) et un scenario alternatif ou le revenu par tête atteindrait cette fois 180. Un calcul d’utilité espérée, va donner un résultat plus proche de 150 que de 180 ce qui ressemble à une forme d’aversion au risque. En fait cela manque le point central qui est celui du choix entre un scenario risqué conduisant en espérance à un revenu par tête de 180 mais avec une forte variance et un scenario ou le revenu par tête en 2030 atteindrait avec certitude 150. [3] Une solution pour séparer ces deux aspects est d’employer des fonctions d’utilité récursives (Ha-Duong et Treich [2004] ; ou encore Lecocq et Hourcade [2004]), une alternative encore peu suivie dans les travaux empiriques.

16En fait, quelles que soient les opinions sur des valeurs « acceptables » pour ?, ?, r et g, il demeure de toutes façons difficile de prétendre réduire les marges d’incertitude (sans parler des controverses liées a des jugements de valeurs) à un point tel que l’on puisse décrire ces paramètres a l’horizon du siècle avec assez de confiance. Sur un siècle, une différence d’un demi point pour le taux d’actualisation induit dans l’évaluation des dommages une différence au moins aussi grande que leur incertitude intrinsèque. C’est l’une des nombreuses raisons pour lesquelles beaucoup sont sceptiques quant à l’emploi des analyses coûts-bénéfices pour évaluer les politiques climatiques et c’est l’argument central qui se dégage de la critique incisive de Weitzman [2007] en particulier quand il montre qu’un meilleur traitement des risques de catastrophe l’emporte très nettement sur le choix de telle ou telle valeur du taux d’actualisation.

17En fait la seule réponse possible pour le calcul économique est un changement de problématique. Compte tenu des incertitudes (que se passe t’il notamment pour des niveaux de réchauffement au-delà de 2-3 °C), l’enjeu n’est pas tant de définir aujourd’hui la meilleure stratégie pour les cent années à venir mais, en suivant une approche de décision séquentielle, de définir une stratégie de court terme qui préserve des ajustements futurs en fonction de l’arrivée de nouvelles informations, que ce soit par des objectifs plus contraignants en cas de « mauvaise nouvelle » ou à l’inverse par un relâchement des efforts si les risques s’avéraient surestimés. Ce genre d’analyse dont la première application notable remonte à Manne et Richels [1992] et leur Buying Greenhouse Insurance[4], requiert de résoudre les modèles intégrés selon un mode stochastique, avec un jeu de probabilités subjectives reflétant les croyances du planificateur sur les états du monde futurs, pour mettre en balance les coûts d’une action prématurée et les coûts d’une action retardée.

18Dans de telles approches, la valeur de l’information (ou, en miroir, le coût de la flexibilité) joue un rôle au moins aussi important pour la décision de court-terme que l’actualisation ou la courbure de la fonction d’utilité. Ce point à été historiquement présent dans un débat publié en 1996 et 1997 dans Nature entre d’un côté Wigley, Richels et Edmonds, et Ha-Duong, Grubb et Hourcade de l’autre. Ces derniers montrent que considérer 550 ppm comme l’espérance entre trois cibles en concentration équiprobables, 450 ppm, 550 ppm et 650 ppm, plutôt qu’un objectif de long-terme connu ex-ante, conduit à des efforts de réduction des émissions à courtterme bien supérieurs, ceci pour éviter les coûts d’une accélération de la décarbonisation de l’économie si finalement 450 ppm s’avérait une cible souhaitable. Cette analyse coût-efficacité fait apparaître trois paramètres au moins aussi importants que l’actualisation : (a) l’inertie des systèmes productifs qui pénalise toute accélération des efforts de réduction d’émissions, (b) la date d’arrivée de l’information à propos de seuils de danger objectifs et (c) les probabilités subjectives attachées à chaque cible en concentration (qui servent de proxy des dommages). Tout se joue ici sur le jeu antagoniste entre irréversibilité environnementale (plus nous retardons les efforts de réduction des émissions, plus nous abandonnons la possibilité de stabiliser les concentrations à une valeur basse) et irréversibilité des investissements (à l’exception des actions sans regret, tout investissement pour réduire les émissions ou s’adapter au changement se fera au détriment d’autres objectifs, comme l’éducation ou la santé).

19Dans une même approche séquentielle mais appliquée dans un cadre coût-bénéfice, le choix du taux d’actualisation est plus a priori plus décisif car il influence la valeur des dommages après l’arrivée d’information. Mais là encore, son influence réelle sur la décision de court-terme dépend, en sus de l’inertie des systèmes productifs, de deux paramètres. L’un est la probabilité d’occurrence d’une catastrophe et le profil de la distribution de probabilité d’un tel événement (les « queues épaisses » de Weitzman). L’autre est la courbure de la fonction qui lie les dommages à la température moyenne globale. Avec les fonctions les plus communes (des polynômes de degré n), des dommages importants ne sont atteints qu’à très long terme et ne justifient pas d’action précoce pour des taux d’actualisation de l’ordre de 2 a 5 % par an. Ceci est du au fait que la croissance économique « absorbe » alors sans difficultés ces dommages naissants. Cependant, de telles fonctions supposent une croissance régulière des dommages, sans seuils de vulnérabilité ou phases d’accélération. Or, si on introduit de tels seuils on revient à des résultats de même type que ceux obtenus en coût-efficacité, à savoir une réponse de court terme significative même avec des taux d’actualisation « raisonnables » et ceci sans faire l’hypothèse de catastrophe climatique à long-terme (Ambrosi et al. [2003]). En d’autres termes, les hypothèses sur la forme de la fonction dommage importent plus que les hypothèses sur le niveau de ces mêmes dommages. C’est un point crucial pour le débat public car il permet une argumentation en faveur de l’action sans recours à une rhétorique catastrophiste qui peut être accusée de vouloir imposer une dictature sur le présent au nom de lendemains qui déchantent (voir les critiques a l’encontre de Hans Jonas ([1998]) et qui peut s’avérer inefficace (voir l’accueil réservé aux prophéties de Cassandre par ses compatriotes troyens).

4. Non-linéarités dans les dommages, la question des régimes de croissance et des anticipations

20Dans la compréhension des sources de non-linéarité dans les dommages, il convient de bien distinguer ce qui relève des impacts physiques du réchauffement de ce qui relève de la transformation des impacts en dommages. Comme le montrent Hallegatte et al. [2006], les hypothèses sur la fragilité économique des économies affectées et sur la qualité de leurs processus d’anticipation et de décision collective sont au moins aussi importantes. Sauf catastrophe majeure, il n’y a en effet pas de raison que le changement climatique soit un réel danger si les impacts sont toujours anticipés, si les marchés fournissent en temps voulu les informations nécessaires, si le moteur de croissance économique absorbe aisément toutes les difficultés et si l’humanité est assez solidaire pour que les gagnants compensent volontiers les perdants. Faire une telle hypothèse est quelque peu hardi si on tient compte (1) du fait que l’incertitude des scénarios régionaux de changement climatique est d’un ordre de grandeur supérieure à celle des scénarios globaux, (2) de l’effet de masque de la variabilité du climat qui peut impliquer une détection tardive et une interprétation erronée du signal, (3) de l’inertie socio-économique qui peut retarder la mise en œuvre des stratégies d’adaptation (souvent intensives en capital) et, (4) des risques de « mal-adaptation »en raison de mauvaises anticipations sur la direction et le rythme du changement. De manière plus générale, on ne peut oublier les barrières financières, institutionnelles et techniques à l’adaptation dans les pays en développement et le rapport Stern est un outil excellent pour nous les rappeler.

5. De la nécessité de modéliser les déséquilibres

21La discussion qui précède montre la nécessité de se doter, pour l’évaluation des politiques climatiques, de modèles capables de représenter des déséquilibres transitoires et des économies dont la stabilité du sentier de croissance n’est pas garantie par construction. Les trajectoires de croissance que nous utilisons aujourd’hui proviennent de modèles construits à partir de la métaphore de l’âge d’or, et leur calibrage sur séries historiques revient à faire comme si les grandeurs observées dans la (sous optimale) réalité étaient celles d’une économie sans risque oscillant autour d’un sentier de croissance équilibré. Or, puisque « economic cycles are not optimal responses to random shocks around an optimal pathway » (Solow [1987]) il est légitime de se demander si raisonner sur des économies avec déséquilibres ne change pas les deux termes de l’analyse coût-bénéfice des politiques climatiques.

22Du côté des bénéfices l’enjeu est de mesurer les conséquences en bien-être de trajectoires de croissances non régulières. En termes de bien-être en effet, un sentier de croissance conduisant d’un revenu 100 à 150 en l’espace de 25 ans selon une croissance régulière de 1,6 % par an ne saurait être équivalent à un sentier de croissance conduisant au même revenu cumulé mais passant par des phases d’accélération et de récession. Chaque phase de récession ou de simple ralentissement s’accompagne en effet de tensions que traduisent aussi bien les réactions des marchés quand les prévisions de croissance sont révisées de quelques dixièmes de point que l’inquiétude des ministres des finances quant à l’équilibre des comptes publics. Se pose alors la question d’une mesure du bien-être qui puisse en rendre compte. On saisit les limites de nos techniques actuelles si on remarque que, en utilisant les séries de PIB de Maddisson, le coût pour la France de la Première Guerre mondiale atteint seulement ? 0,3 % du PIB sur 70 ans (en débutant le calcul en 1871, et en actualisant a 3 % par an sur la période 1871-1939). Après tout, l’interprétation originelle de la PPP par les praticiens était non « l’impatience » mais la volonté de ne pas sacrifier les générations présentes sur l’autel du long terme. Or le même raisonnement devrait conduire tout autant à refuser aussi le sacrifice d’une quelconque génération future. Il est donc urgent de travailler sur des techniques capables de capter la dépendance du bien-être à la trajectoire de revenu suivie et d’introduire une préférence pour une croissance stable et soutenue.

23Du côté des coûts de la décarbonisation de l’économie, des modèles avec déséquilibres sont décisifs pour détecter les effets leviers potentiels entre politiques climatiques et politiques de développement. On sait que l’adhésion des pays en développement aux politiques climatiques ne pourra être emportée sans coupler ces politiques à la lutte contre la pauvreté. Or l’équation est sans solution si on part de modèles qui placent ces économies sur leur frontière théorique de production. Sauf d’importants transferts nets Nord-Sud, tout investissement pour réduire les émissions passe alors par un ralentissement du développement. Les termes de l’arbitrage changent si on intègre les multiples sources de sub-optimalité dans ces économies, ne serait-ce que leur fragilité face aux fluctuations des marchés énergétiques. Un exemple majeur est celui des tensions que pourrait provoquer l’inversion de la pyramide des âges en Chine après 2025 avec une décroissance du volume de l’épargne et une grande fragilité de ce pays aux marchés pétroliers si, entre temps, il s’est doté d’infrastructures énergivores et par ailleurs coûteuses à maintenir. Un autre exemple est fourni par Ramana et al. [2001] qui simulent l’utilisation des revenus de la vente de crédits carbone pour payer les coûts de transaction d’une coopération entre pays du Sud-Est asiatique visant à optimiser l’exploitation du potentiel hydro-électrique de l’Himalaya. Cela permettrait d’énormes économies d’investissement et, en même temps une réduction des émissions de GES aussi importante que celle que l’on attendait d’un respect absolu des engagements de Kyoto.

6. Un agenda commun pour la modélisation intégrée et l’économie publique

24Les controverses sur les choix paramétriques du Rapport Stern, pour importantes qu’elles soient, ne suffisent pas à réfuter le diagnostic qu’il pose sur les dommages climatiques. Ces choix peuvent en effet s’interpréter comme des palliatifs aux limites actuelles de la boîte à outil la plus communément disponible chez les économistes. Le Rapport Stern aura ainsi constitué une exploration à risque qui débouche sur une provocation intellectuelle pour les praticiens de la modélisation intégrée et l’économie théorique.

25Axiomatiquement, la PPP est un prix (le taux de change entre un actif donné entre deux périodes consécutives) qui ne fait sens qu’au sein de tous les prix nécessaires pour caractériser les états du monde possibles en tout point du temps. Il faut alors développer une nouvelle génération de modèles intégrés capables de les prendre compte d’une manière plus rigoureuse : valeur des aménités environnementales vis-à-vis de la consommation, valeur des coûts d’abattement en fonction des inerties engendrées par les décisions passées, valeur de l’information (pour hiérarchiser les incertitudes vis-à-vis de la décision d’aujourd’hui), déploiement temporel des non linéarités dans les dommages et l’éventualité de catastrophes à grande échelle.

26Ceci ne peut se faire en l’absence d’avancées théoriques pour affiner nos outils numériques : faire de l’environnement un argument de la fonction d’utilité et introduire les bases d’une préférence pour une croissance stable et soutenue, développer des modèles de croissance avec frictions et déséquilibres, évaluer les grands risques du changement climatique. Sur ce dernier point, les tentatives de se départir du cadre Bayesien en faveur d’approches utilisant les probabilités floues restent encore exploratoires en matière de changement climatique (O’Neill et al. [2005]). Il est pourtant essentiel de les approfondir, pour prendre en compte les incertitudes concernant les occurrences rares mais catastrophiques et la possibilité de surprises (un événement initialement affecté d’une probabilité nulle).

27Enfin, il convient de poursuivre le développement de modèles de contrôle optimal stochastique de façon à alimenter le dialogue entre visions contradictoires. Il y a peu d’espoir en effet pour qu’un consensus soit atteint à temps sur les critères éthiques (équité inter et intra générationnelle), sur les scénarios de croissance à long-terme, sur l’ampleur des impacts du changement climatique et sur les capacités d’adaptation. Il importe donc de clarifier, et le contrôle optimal stochastique peut y aider mieux que des techniques Monté-Carlo, quels compromis peuvent raisonnablement être acceptés à court-terme sur les décisions à prendre collectivement « hors de toute connaissance de cause ».

Bibliographie

Références bibliographiques

  • AMBROSI Ph., HOURCADE J.-C., HALLEGATTE S., LECOCQ F., DUMAS P., HA-DUONG M. [2003], « Optimal control models and elicitation of attitudes towards climate damages », Environmental Modeling and Assessment, 8, pp. 133-47.
  • ARROW K.J. [1995], « Inter-generational equity and the rate of discount in long-term social investment », paper at IEA World Congress [December], available at www. econ. stanford. adu/ faculty/ workp/ swp97005. htm.
  • BRUCE J.P., LEE H., HAITES E.F. (eds.) [1996], Climate Change 1995 – Economic and Social Dimensions of Climate Change, Cambridge University Press, Cambridge.
  • GUESNERIE, R. (éd.) [2003], Kyoto et l’Économie de l’Effet de Serre, La Documentation Française, Paris, 265 p.
  • GUESNERIE R. [2004], « Calcul Économique et Développement Durable », Revue Économique, 55, p. 363-382.
  • HA-DUONG M., TREICH N. [2004], « Risk Aversion, Intergenerational Equity and Climate Change », Environmental and Resource Economics, 28, pp. 195-207.
  • HA-DUONG M, GRUBB M., HOURCADE JC. [1997], « Influence of Socioeconomic Inertia and Uncertainty on Optimal CO2-Emission Abatement », Nature, 390, pp. 270-274.
  • HALLEGATTE S., HOURCADE J.-C., AMBROSI Ph. [2006], « Using Climate Analogues for Assessing Climate Change Economic Impacts in Urban Areas », Climatic Change, 82, pp. 47-60.
  • HEAL G. [2005], « Intertemporal Welfare Economics and the Environment », in : K.-G. Maler and J.R. Vincent [eds], Handbook of Environmental Economics, Volume 3, Elsevier.
  • JONAS H. [1998], Le Principe de Responsabilité, collection Champs – Flammarion.
  • LECOCQ F, HOURCADE J.C. [2004], « Le Taux d’Actualisation Contre le Principe de Précaution ? Leçons à Partir du Cas des Politiques Climatiques », L’Actualité économique, 80.
  • MANNE A.S., RICHELS R.G. [1992], Buying Greenhouse Insurance, MIT Press, Cambridge, Massachusetts.
  • MENDELSOHN R., MORRISON W., SCHLESINGER M., ANDRONOVA N. [2000], « Country-Specific Market Impacts of Climate Change », Climatic Change, 45, pp. 553-569.
  • NEWELL R.G., PIZER A.W. [2001], « Discounting the Benefits of Climate Change Mitigation », Pew Center on Global Climate Change, Washington DC, 37p.
  • NORDHAUS W., BOYER R. [2000], « Warming the World : Economic Models of Climate Change », MIT Press, Cambridge, Massachusetts.
  • O’NEILL B.C., CRUTZEN P., GRUBLER A., HA-DUONG M. et al. [2006], « Learning and Climate Change », Climate Policy, 6, pp. 585-589.
  • RAMANAS V.P., SINHA C.S., SHUKLA P.R. [2001], « Renewable Energy Technologies and Climate Change Policies in India », International Journal of Environmental Technology and Management, 1, pp. 424-443.
  • SOLOW M.R. [1987], « Prize lecture, Growth Theory and After », The Sveriges Risksbank Prize in Economic Sciences in Memory of Alfred Nobel 1987.
  • TOL R.S.J. [2002a], « New Estimates of the Damage Costs of Climate Change, Part I : Benchmark Estimates », Environmental and Resource Economics, 21, pp. 47-73.
  • TOL R.S.J. [2002b], « New Estimates of the Damage Costs of Climate Change, Part II : Dynamic Estimates », Environmental and Resource Economics, 21, pp. 135-160.
  • WEITZMAN M. [1998], « Why the Far-Distant Future Should be Discounted at its Lowest Possible Rate », Journal of Environmental Economics and Management, 36, pp. 201-208.
  • WEITZMAN M. [2007], « The Stern Review of the economics of Climate Change », p preliminary draft of a review for the Journal of Economic Literature.
  • WIGLEY T.M.L., Richels R., Edmonds J.A. [1996], « Economic and Environmental Choices in the Stabilization of Atmospheric CO2 Concentrations », Nature, 379, pp. 240-243.

Mots-clés éditeurs : modélisation intégrée, décision séquentielle, actualisation, changement climatique, équité

Mise en ligne 01/01/2009

https://doi.org/10.3917/redp.174.0533

Notes

  • [*]
    CIRED : Centre International de Recherches sur l’Environnement et le Développement (UMR CNRS - EHESS - Agroparistech - Université Paris Est - UMR Cirad). Email : hourcade@ centre-cired. fr
  • [**]
    Development Economics Research Group, the World Bank. Les opinions exprimées dans le présent document n’engagent que l’auteur. Elles ne reflètent pas nécessairement les opinions de la Banque Mondiale, des ses Administrateurs ni des pays qu’ils représentent.
  • [1]
    Cf. Nordhaus et Boyer ([2000], chap. 2, p. 14). Dans les versions ultérieures, la Préférence Pure pour le Présent décroît dans le temps, d’une valeur initiale de 3 % à 1,8 % après 200 ans.
  • [2]
    Ambrosi et al. [2003] intègrent directement l’amplitude du réchauffement comme argument de la fonction d’utilité pour intégrer une préférence pour la stabilité du climat.
  • [3]
    Le même type de confusion est fait lorsque la concavité de la fonction d’utilité est interprétée comme une mesure de l’aversion à l’inégalité interpersonnelle.
  • [4]
    La métaphore de l’assurance est utile mais en partie trompeuse parce qu’il n’existe pas de compagnie d’assurance où cotiser pour qu’elle nous rembourse en cas de problème majeur.
bb.footer.alt.logo.cairn

Cairn.info, plateforme de référence pour les publications scientifiques francophones, vise à favoriser la découverte d’une recherche de qualité tout en cultivant l’indépendance et la diversité des acteurs de l’écosystème du savoir.

Avec le soutien de

Retrouvez Cairn.info sur

18.97.14.84

Accès institutions

Rechercher

Toutes les institutions