Notes
-
[*]
Cf. dans ce numéro, la présentation par la Rédaction du dossier « Adaptation aux changements climatiques ».
-
[1]
Après l’échec de la CoP 15 à Copenhague en décembre 2009, nous pensons à la prochaine conférence des Nations unies sur le changement climatique (CoP 16) à Cancun, fin novembre et début décembre 2011.
Introduction
1Jusqu’à ces dernières années, réduction des gaz à effet de serre (GES) et adaptation au changement climatique semblaient constituer deux stratégies distinctes, voire contradictoires. À la volonté politique de l’Union européenne de ne pas dépasser une augmentation moyenne de la température de 2 ?C d’ici à la fin du siècle et, partant, une concentration de dioxyde de carbone (CO2) de 450 ppm, s’opposaient l’administration Bush, son refus de Kyoto et de toute espèce de contrainte carbone, et ce au nom de la préservation du mode de vie et de la croissance américains et d’un credo en la toute-puissance des technologies. Or, une telle opposition n’a plus de sens. Les derniers temps de l’administration Bush avaient été marqués par une inflexion du discours. L’administration Obama affiche quant à elle des objectifs ambitieux (réduction de 80 % des émissions étatsuniennes de GES d’ici à 2050), que le Sénat américain n’avalisera cependant peutêtre jamais.
2À cela s’ajoute une donne nouvelle. Au lieu de diminuer, la consommation mondiale d’énergie a explosé ces dernières années. Son rythme annuel de croissance atteignait 3,4 % avant la crise, alors qu’il était resté inférieur à 2 % jusqu’à la fin du siècle dernier. Par ailleurs, les connaissances relatives au changement climatique en cours, et le changement lui-même, s’accélèrent. Le risque nous paraît désormais sensiblement plus élevé qu’au début même de l’année 2007, lors de la réunion à Paris du groupe I du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) pour son quatrième rapport. Nous nous attendons à une montée du niveau des mers d’ici à la fin de ce siècle située entre 1 et 2 m. Il nous apparaît de plus en plus difficile de ne pas dépasser les 450 ppm.
3Nous avons rappelé le rythme actuel de l’augmentation de la consommation mondiale d’énergie. Un seul exemple : selon l’Agence internationale de l’énergie, les activités informatiques devraient consommer en 2030 trois fois plus d’énergie qu’aujourd’hui. Plus inquiétant encore, quand bien même nous ne dépasserions pas les fatidiques 450 ppm, les risques de dépasser une augmentation moyenne de température de 2 à 2,5 °C ne sont pas nuls.
4Enfin, comme l’ont montré James Hansen et son équipe (Hansen et al., 2008), nous avons d’ores et déjà dépassé le seuil de dangerosité si l’on considère les effets de la concentration atmosphérique des GES au long cours : 450 ppm signifient sur le long cours 75 m d’élévation du niveau des mers ; 550 ppm, une hausse moyenne de la température planétaire de 6 °C, toujours sur le long cours. Rappelons qu’au Pliocène, la température était de 3 °C supérieure à ce qu’elle était au xxe siècle, avec une concentration de dioxyde de carbone de 360 ppm, d’où la préconisation de James Hansen de redescendre à 350 ppm.
5Il n’y a donc plus aucune raison d’opposer désormais réduction et adaptation. Nous devrons recourir aux deux, et dans une proportion qui variera en fonction de la hauteur de nos efforts et de la sensibilité du système climatique à nos émissions. Nous nous intéresserons ici à l’apport éventuel de la géo-ingénierie à l’effort général d’adaptation, et aux difficultés spécifiques qu’il pose. Pour ce faire, nous recourrons à une scénarisation qui nous conduira à revisiter le principe de précaution.
6Précisons : nous distinguerons ici nettement la réduction de l’adaptation. Nous entendons par réduction une démarche proactive, qui consiste à anticiper un événement dommageable pour précisément en réduire l’intensité par un infléchissement des comportements, mais aussi par un apport technologique. Nous entendons par adaptation une démarche réactive, qui présuppose la réalisation d’un événement auquel il conviendra de réagir, de manière principalement technologique.
7En matière climatique, les choses se complexifient. La réduction vise à réduire le niveau d’émissions de CO2 et autres GES. Ce type d’action, au-delà des instruments économiques comme les taxes et les quotas, comprend également toutes les innovations touchant différents secteurs, comme l’isolation du bâti, l’efficacité énergétique, le développement des énergies renouvelables, l’élaboration de nouveaux supports de mobilité, de nouveaux appareils domestiques à faible consommation énergétique, etc. Toutes ces actions ne parvenant pas à réduire suffisamment le réchauffement en cours, elles s’saccompagneront aussi de toute une palette d’actions adaptatives : construction de digues, végétalisation des rues et toits des villes, etc. La pure adaptation consisterait, au contraire, à laisser filer les émissions de GES, mais à réagir à l’échelle globale en contrecarrant le réchauffement grâce à des technologies de géo-ingénierie. À ces deux scénarios, s’en ajoute naturellement un troisième, celui qu’ouvrirait l’échec du scénario de réduction.
La géo-ingénierie : bref état des lieux
8Le terme de « geo-ingénierie » recouvre un ensemble de technologies apparues dans le cadre de mesures envisagées pour lutter à l’avenir contre le réchauffement climatique. Le but commun de ces technologies est de ralentir, voire de stopper le réchauffement de la biosphère par le biais d’une manipulation à l’échelle globale du système Terre (Keith et Dowlatabadi, 1992; Keith, 2001). Les moyens envisagés pour atteindre cet objectif peuvent être classés selon deux visées principales : soit l’on agit sur le réfléchissement solaire, soit l’on agit sur la concentration de CO2 dans l’atmosphère.
9Tous les projets prévoyant une intervention sur la concentration de CO2 ne relèvent pas de la géo-ingénierie strico sensu. Le captage et le stockage du carbone constituent une technologie déjà utilisée à l’échelle locale. Elle consiste à séparer le CO2 de la fumée de combustion issue des centrales à charbon, par exemple, pour le séquestrer dans le sol ou dans les grands fonds marins, principalement en lieu et place des réservoirs de gaz et de pétrole prélevés. Les spécialistes ne rangent pas d’ordinaire une telle technologie dans le domaine de la géo-ingénierie (Volken, 2008). De même, le projet du physicien Klaus Lackner (2009) envisage de prélever les molécules de CO2 de l’air ambiant à l’aide de filtres géants décrits généralement sous le nom d’ « arbres artificiels ». La technique permettrait de prélever le CO2 indépendamment des sources d’émission. En réalité, elle est complémentaire de la technique de séquestration, puisque le CO2 absorbé par les filtres serait en définitive stocké dans le sol ou les profondeurs marines. Dans un registre similaire, des projets d’intégration à large échelle d’algues dans l’environnement urbain (le long des facades d’immeubles, par exemple) débouchent sur le même effet de séquestration (Jacob et al., 2007).
10En revanche, il existe d’autres propositions de séquestration du CO2 qui nous semblent relever clairement de la géo-ingénierie. La première vise une fertilisation des océans par un épandage à large échelle de sulfate de fer (Jin et Gruber, 2003 ; Jin et al., 2008). Il en résulterait une croissance significative du phytoplancton marin consommateur de CO2. Ce dernier serait partiellement compensé par l’absoprtion de CO2 atmosphérique, diminuant ainsi sa présence dans l’air ambiant. Un autre projet, proposé récemment par James Lovelock (Lovelock et Rapley, 2007), consiste à accroître l’absorption du CO2 par les océans en brassant l’eau de mer. Ce brassage serait effectué par des pompes flottant verticalement dans la mer, lesquelles transporteraient l’eau profonde, riche en substances nutritives, à la surface des océans. Une fertilisation des algues s’ensuivrait, captant ainsi, comme dans le projet précédent, le CO2 présent dans l’atmosphère.
11D’autres technologies de la géo-ingénierie visent non pas le stockage de CO2 atmosphérique, mais le réfléchissement solaire. L’une d’elles, celle du prix Nobel hollandais Paul Crutzen (2006), s’inspire des effets des éruptions volcaniques. Elle consiste à projeter plusieurs millions de tonnes d’hydrogène sulfuré (H2S) dans la stratosphère. La réaction avec l’air produirait du dioxyde de soufre (SO2) qui resterait ainsi en suspension. Il se formerait alors, à l’image de l’éruption du volcan Pinatubo en 1991, un écran permettant de diminuer sensiblement la température au sol durant une période de un à deux ans. Les tonnes d’hydrogène sulfuré seraient transportées dans la stratosphère par des ballons.
12Le projet des physiciens anglais John Latham et Stephen H. Salter (2007) envisage une densification des nuages à l’aide d’un système de rejet de vapeur d’eau de mer dans l’atmosphère. Le phénomène physique présupposé ici est que de fines gouttelettes d’eau réfléchissent mieux le rayonnement solaire que le même volume d’eau distribué en gouttelettes plus grosses. Or, la condensation observée au-dessus des océans se compose de gouttelettes plus fines que celles observées dans la condensation au-dessus des surfaces terrestres. Les deux scientifiques suggèrent donc d’augmenter la couverture nuageuse sur les océans par une pulvérisation des gouttelettes d’eau de mer, les aérosols salins servant de noyaux de condensation. En doublant le nombre de gouttelettes, l’albédo des nuages augmenterait de 5,6 %. Cette pulverisation serait effectuée par une flotte de voiliers propulsés par des tuyères à air.
13Le dernier projet que nous désirons évoquer est celui proposé par l’astronome de l’université d’Arizona Roger Angel (2006). L’idée consiste à bloquer 1,8 % du rayonnement solaire au moyen d’un parasol constitué de disques de 60 cm de diamètre, fabriqués en matériau optique ultraléger. Ces disques seraient propulsés par la force électromagnétique, puis déployés au point Lagrange L1. Ils formeraient par leur nombre une sorte de nuage. Lancés par lots de 800 000 (jusqu’à concurrence de 16 milliards), ils resteraient en fonction dans l’epace durant 50 ans, constituant un véritable écran de plus de 100 000 km de long.
14Les quatre derniers projets relèvent clairement des techniques de géo-ingénierie : leur souci est d’atténuer le réchauffement climatique en agissant à l’échelle globale de la biosphère. Soulignons cependant ce fait : aucune de ces technologies ne cherche à agir sur les émissions de CO2. Elles s’efforcent simplement d’en diminuer la concentration dans l’atmosphère (fertilisation des océans, brassage de l’eau de mer) ou d’agir sur la cause matérielle de l’effet de serre – le rayonnement solaire – dans l’optique de refroidir le sol et la basse atmosphère. Cette remarque est importante et il faudra s’en souvenir lorsque nous discuterons de la place occupée par la géoingénierie au sein des trois scénarios politiques retenus dans la suite de notre réflexion.
15Il va sans dire que les projets de géo-ingénierie ne sont pas unanimement acceptés, loin s’en faut. Outre le coût financier exorbitant estimé pour leur réalisation, l’ignorance actuelle rattachée aux risques à moyen et long terme rend ces projets pour le moins problématiques. Dans le cas qui nous occupe, l’ignorance est due non seulement à la complexité des interactions, à la variabilité des conditions initiales, à l’inertie des systèmes environnementaux, mais encore au degré d’échelle (global) de l’intervention. De plus, les projets de lutte contre le rayonnement solaire n’évitent pas les effets négatifs d’une concentration accrue de CO2 dans l’atmosphère (l’acidification des océans, par exemple).
16Dans son dernier rapport, le GIEC émet du reste un jugement emprunt de scepticisme (Barker et al., 2007 ; GIEC, 2007). La Royal Society (2009) adopte, quant à elle, une attitude de prudence dans son dernier rapport. Elle y encourage certes à soutenir des travaux de recherches à large échelle dans ce domaine. Mais elle insiste néanmoins sur le fait que priorité doit être donnée à une réduction des émissions de CO2 et que cet effort doit être poursuivi coûte que coûte. Tout en donnant sa préférence aux technologies agissant sur la concentration du CO2 dans l’atmosphère, son jugement actuel sur les effets positifs escomptés par l’application des techniques de géo-ingénierie est plutôt mitigé.
17Plus fondamentalement, ces technologies tentent de nous conforter dans l’idée qu’elles auront, une fois de plus, raison d’un problème qu’une partie de l’humanité a elle-même engendré. Une logique prométhéenne habite de façon sous-jacente tous ces projets censés fournir un remède, alors que ladite logique est, paradoxalement, la cause du mal. Et pourtant, selon les politiques mises en place à brève échéance [1], il est probable, comme le soulignent plusieurs des scientifiques évoqués ci-dessus, que nous n’ayons d’autre choix que de soigner le mal par le mal.
Le scénario de l’adaptation exclusive
18Un usage précoce des technologies de géo-ingénierie viserait à laisser filer les émissions de GES tout en cherchant à se protéger du réchauffement climatique des deux manières suivantes : soit par une diminution de la concentration des GES dans l’atmosphère, soit par un refroidissement de la température au sol ou de la basse atmosphère. C’est là la signification de l’adaptation exclusive envisagée par la géo-ingénierie : on renonce à toute action sur la cause, mais on se concentre sur les effets.
19Ce sens donné à l’adaptation par la géo-ingénierie permet de mettre en évidence deux postulats inhérents à ce type de projets. Le premier porte sur une vision bien précise de l’économie, axée sur la croissance. En ne visant pas prioritairement les émissions de CO2, l’objectif est clair. Il s’agit de ne pas mettre en péril les activités économiques majoritairement dépendantes aujourd’hui des énergies fossiles, que cela soit pour la production d’électricité, la transformation des matières, le transport, etc. Le second postulat concerne le progrès technologique. La géo-ingénierie parie sur une solution technologique fondée, elle-même, sur l’idée selon laquelle la nature doit être maîtrisée, soumise à la volonté humaine en raison d’une sorte d’hostilité de principe des phénomènes naturels envers les activités humaines. Le paradigme dans lequel sont conçus l’apport et le sens de la technique est clairement « prométhéen », par opposition à une vision « orphique » des choses, selon l’expression du philosophe Pierre Hadot (2004). Une vision « orphique » de la nature exprime la conscience que prend l’homme d’appartenir au tout de la nature, le désir de s’intégrer à ce tout et, par son activité, de « s’initier à ses secrets » (ibid., p. 106).
20Nous pourrions prolonger cette réflexion du côté de l’anthropologie. Elle permettrait de comprendre, sur la base du modèle élaboré par l’anthropologue Philippe Descola (2005), comment la vision holistique proposée par la géo-ingénierie réduit l’interdépendance entre l’homme et les autres éléments de la biosphère à un phénomène purement naturel. Par là même, elle radicalise à l’extrême la volonté de domination prométhéenne au lieu de viser, dans un « esprit orphique », un dépassement de l’opposition – manifestée par la modernité – entre l’homme et la nature.
21Du point de vue socioéconomique, un tel scénario entérine le modèle utilitariste de l’économie néoclassique, fondée sur la recherche de l’utilité maximale, soit une augmentation de la consommation individuelle et du confort. Il est l’expression du postulat d’une croissance indéfinie, corrélative d’une augmentation des flux de matières et d’énergie, elle-même inséparable de la croyance démesurée dans le progrès technique. Or, nous savons que les ressources naturelles sur lesquelles se fonde la croissance sont finies. L’économie du futur devra apprendre à créer de la valeur avec un stock de ressources qui diminuera drastiquement selon les ressources envisagées. Le scénario de l’adaptation exclusive nous incitera, au contraire, à poursuivre sur une voie sans issue.
22L’aspect financier des projets de géo-ingénierie ne saurait non plus être éludé. Les investissements nécessaires à leur réalisation se chiffrent à plusieurs milliards de dollars. Qui financera ces projets ? L’intervention étatique semble être programmée pour assurer la viabilité des technologies, présentées par ailleurs comme une échappatoire aux risques majeurs du réchauffement climatique. Non seulement la géo-ingénierie deviendra le garant d’une économie mondiale saine (c’est-à-dire à forte croissance), mais elle permettra encore la survie d’une partie de la population. Telles seront sans doute, parmi d’autres, les justifications des partisans de la géoingénierie pour légitimer les dépenses des États.
23Une question se pose néanmoins. Les sommes colossales qui plomberont les budgets des États pour faire face de manière technologique au réchauffement climatique devront être assumées en dernière instance par les futurs contribuables. Pour ceux-ci, les investissements consentis deviendront par nécessité une priorité, laquelle présuppose la suppression d’alternatives encore réelles actuellement. L’option exclusive de la technologie était le choix de l’administration Bush, et il n’est pas exclu que l’administration Obama n’y soit contrainte par les États charbonniers actifs au sein du Sénat. Un tel choix est-il politiquement et éthiquement défendable ?
24En outre, on est en droit de penser que seuls des pays technologiquement développés et financièrement aisés seront à même de procéder à des dépenses de cet ordre de grandeur. Cela risquera de soulever un problème de relation entre les pays en possession des technologies de géo-ingénierie – les pays développés – et ceux qui en deviendront dépendants – les pays en voie de développement –, en raison notamment du marché émergent du carbone dans le cadre de la compensation financière des émissions de CO2. Les pays émergents ne combleront pas leur retard sur les pays développés ; au contraire, ils s’enliseront dans de nouvelles relations de servitude.
25Dans une perspective politique, il serait difficilement concevable d’envisager les activités de géo-ingénierie sans faire appel au principe de précaution. C’est du reste un problème majeur auquel est confronté également le scénario du désespoir. Nous y reviendrons au terme de notre réflexion. Dans le contexte d’un scénario d’adaptation exclusive, l’usage problématique de la précaution peut être encore relativement bien circonscrit. Les effets des technologies de géo-ingénierie ne connaissent pas de frontière : ils sont globaux. De plus, leur globalité implique l’incertitude, l’irréversibilité et la gravité des dommages potentiels. Le soutien et l’accord de la communauté internationale s’avéreraient nécessaires. Or, la précaution est une approche normative reconnue par la déclaration de Rio, mais elle n’est acceptée comme un principe de droit positif, contraignant, que par certains États, notamment ceux de l’Union européenne.
26Hormis le problème d’un désaccord éventuel au sein de la communauté internationale, dû à une interprétation divergente de la précaution, les activités de géo-ingénierie présupposeront une version affaiblie de la précaution. S’il est parfaitement justifié de présumer des risques déraisonnables associés à de telles activités, l’absence de certitude n’impliquera pas, toutefois, l’interdiction de l’usage technologique, mais une analyse et une évaluation rigoureuses des risques, du rapport coût/bénéfice et des mesures d’accompagnement. Un consensus au sujet de telles études sera-il réalisable ? Pourra-t-on vraiment s’entendre à l’échelle internationale sur des mesures d’accompagnement ? Et, alors que les effets sont globaux, qui, de la communauté internationale, s’engagera à financer de telles mesures ? Ne risquera-t-on pas de retrouver un clivage entre pays en voie de développement et pays industrialisés similaire à celui que l’on a constaté lors de la conférence de Copenhague ?
27À la difficulté d’instaurer un débat sur le plan international, portant sur les risques du recours à des projets de géo-ingénierie, s’ajoutera celle, à l’échelle d’un État, du débat public. Comment intégrer toutes les parties en présence lorsque les risques encourus sont diffus, difficilement identifiables, tant sur le plan spatial que temporel, et que l’incertitude n’est pas probabilisable, pas plus subjectivement qu’objectivement ? Que penser dans ce cas du rôle des experts et des autres acteurs essentiels (industrie, agriculture, ONG, etc.) dans le débat ? Ne verrait-on pas émerger un débat dont la stérilité pourrait bien nous conduire à regretter amèrement un ralliement trop tardif au scénario de la prévention ?
Le scénario préventif et durable
28Le scénario durable est pour l’heure celui que semblent vouloir soutenir la plupart des États. Il s’agit très explicitement d’un scénario préventif. L’objectif affiché par la communauté internationale est bien, en effet, la réduction des émissions mondiales de GES par 2 d’ici à 2050, pour ne pas dépasser d’ici à la fin du siècle une augmentation de la température moyenne à la surface du globe de 2 à 2,5 °C. Plus précisément, l’objectif est de ne pas excéder les 450 ppm de CO2, alors que le degré de concentration de dioxyde de carbone dans l’atmosphère atteint déjà les 387 ppm, avec un rythme d’augmentation pour l’heure de 2 ppm par an.
29Il est désormais acquis que les objectifs de ce scénario ne sauraient être atteints grâce au seul développement de technologies pauvres en carbone. Il y a trois raisons essentielles à cet état de fait. La première est attachée à la physique même du changement climatique. En effet, plus nous tarderons à réduire nos émissions, plus haut sera le degré de concentration de GES que nous finirons par atteindre au cours de ce siècle et, in fine, plus élevé sera le niveau de température moyenne provoqué. Il faudrait ainsi réduire rapidement et sensiblement nos émissions, ce qu’on ne saurait faire avec l’état de nos techniques. Si l’on voulait, par exemple, baisser rapidement les émissions dues aux transports, il faudrait jouer sur le volet comportement : rouler moins vite et moins. Le remplacement du parc automobile mondial prendrait, en revanche, une quinzaine d’années, avec des progrès peu sensibles les premières années compte tenu de l’offre automobile actuelle, qui ne permet guère que des progrès incrémentaux.
30La deuxième raison est proche de la première en ce sens qu’elle découle également de l’état présent des technologies. Nous dépendons, pour la satisfaction de nos besoins en énergie primaire, pour plus de 80 % des énergies fossiles. Les énergies renouvelables n’excèdent guère 1 % pour l’heure, à l’échelle mondiale. On ne saurait passer de 1 à 30 %, par exemple, en quelques années. Rappelons en outre que les investissements pour la production d’énergie, l’électricité au premier chef, sont des investissements lourds, conçus pour durer plusieurs décennies. Le changement en la matière comporte donc une importante inertie.
31La troisième raison de limitation de l’impact du changement technologique est l’effet rebond, direct et indirect. Prenons un exemple d’effet rebond direct. Un ordinateur consomme aujourd’hui moins d’énergie qu’il y a cinq, dix ou quinze ans, mais la puissance requise, les types d’usage et le nombre d’utilisateurs n’ont cessé d’augmenter, si bien que la consommation globale d’énergie due à l’informatique s’accroît ; elle triplera d’ici 2030, selon l’Agence internationale de l’énergie.
32Il conviendra donc, au-delà de l’adoption de technologies pauvres en carbone, d’encadrer les comportements des consommateurs. Tel est déjà l’objectif des dispositifs de taxes carbone adoptés par des pays comme la Grande-Bretagne, la Suède (pionnière en la matière), la Suisse (mais pour les seuls combustibles), la Norvège, la Finlande, le Danemark, et par la province canadienne de Colombie-Britannique. Ces politiques visent à encadrer et faire diminuer les émissions diffuses, et donc, pour une grande partie, les nôtres, celles des citoyens (Criqui et al., 2009).
33Soulignons ici l’ambiguïté de ce qu’on appelle le développement durable. Ce dernier a été conçu à une époque où l’équation problèmes d’environnement/pollution était encore prégnante. Or, les problèmes de pollution sont des problèmes techniquement solubles. Ce qui n’est pas le cas, ou du moins que partiellement, des problèmes de flux. Face à des ressources limitées, comme l’avait montré en son temps Garrett Hardin (1968), les techniques autorisent au contraire un épuisement plus rapide. Or, nous sommes désormais systématiquement confrontés à des problèmes de flux et de limites de la biosphère : face aux capacités d’absorption de nos GES (ni le CO2 ni le CH4 ne sont des polluants), en termes de ressources fossiles ou minérales, en termes de disponibilité géographique de l’eau douce, concernant la dégradation des services éco-systémiques, etc. Devant ces difficultés, une croissance tous azimuts, fût-elle verte, n’a aucun sens. Il nous faudra faire décroître nos flux de matière et d’énergie, ce qui signifiera au bout du compte non seulement consommer mieux, mais également consommer moins.
34Force est donc de constater que le développement durable, sauf à le réduire à un oxymore (Méheust, 2009), implique un changement profond de valeurs. La modernité avait ouvert un espace infini à l’action humaine ; d’où l’abandon de la liberté comme autonomie, la loi que l’on s’impose à soi-même, au profit de la pure et simple indépendance individuelle. Il va nous falloir apprendre à vivre dans un monde à nouveau clos. À quoi s’ajoute la mobilisation par un tel scénario du principe de précaution dans son acception forte (Bourg et Papaux, 2007). Par ailleurs, la vision orphique de la nature se fait également entendre.
35Soulignons toutefois les difficultés de ce scénario. Il est tout sauf évident que nous parvenions, même à l’issue d’un accord au Mexique, à réaliser l’objectif des 450 ppm. Relevons que nombre de pays ne parviendront à honorer les objectifs de Kyoto qu’en achetant auprès de pays tiers des crédits carbone, et parfois jusqu’à 50 % comme le Japon. Et pourtant, rappelons-le, les accords de Kyoto ne permettront à l’horizon 2050 qu’une réduction de la température moyenne de 0,06 °C, alors que le rythme d’augmentation est actuellement de 0,2 °C par décade ! Autre difficulté : même avec 450 ppm, les risques d’avoir une augmentation de 3 °C, voire 4 °C, ne sont pas nuls. Enfin, last but not least, nous avons déjà dépassé la zone dangereuse si l’on considère les rétroactions à long terme, comme nous l’avons indiqué dans notre introduction. D’où l’objectif revendiqué par Hansen (2009), suivi par des ONG, de revenir à 350 ppm.
Le scénario du désespoir
36Compte tenu des difficultés du scénario préventif, il n’est, de loin, pas absurde de supposer l’échec de ce scénario. Dès lors, l’humanité se verrait confrontée à un avenir climatique aussi proche qu’insupportable. Imaginons ce qu’il pourrait advenir dans une situation aussi désespérante que désespérée.
37En nous appuyant sur le travail de synthèse de Mark Lynas (2008) dans Six degrés, illustrons rapidement les conséquences que nous devrions affronter avec une augmentation de la température moyenne de 1 °C, puis de 2 °C et de 3 °C et plus. Avec 1 °C, l’Ouest des États-Unis, du Texas au Dakota, pourrait redevenir ce qu’il fut il y a quelques millénaires : un immense désert de sable. La disparition de la banquise estivale arctique déplacera le front polaire vers le Nord. Il en résultera un changement non moins perturbant du régime des pluies, asséchant par exemple régulièrement et sur de longs mois l’Angleterre. Les ouragans qui ont fait leur apparition sur les côtes du Brésil et au Sud de l’Europe seront plus nombreux et pourraient s’étendre à la Méditerranée. Etc.
38Avec 2 °C, la Chine sera en proie à un manque chronique d’eau, les océans deviendront plus acides, au point de mettre en danger la chaîne alimentaire marine. En Europe, plus de la moitié des étés deviendront bien plus chauds qu’en 2003 – rappelons pour mémoire que le Sud-Est de la Suisse a connu, le 2 août 2003, un maximum de température de 41,1 °C. Les pénuries d’eau seront chroniques dans le bassin méditerranéen, la plupart des glaciers achèveront de fondre et les rendements agricoles connaîtront une baisse quasi générale. Rappelons que la production végétale s’était effondrée de 30 % durant la canicule de 2003, etc.
39Avec 3 °C, comme au Pliocène, l’Arctique et l’Antarctique deviendront beaucoup plus chauds qu’aujourd’hui, au point de se couvrir progressivement de forêts. En revanche, la forêt amazonienne deviendra une zone aride et disparaîtra peu à peu en déstockant de gigantesques quantités de dioxyde de carbone et de méthane. Les famines se généraliseront. Le climat, soumis à des rétroactions positives successives, s’emballera et deviendra incontrôlable (cheminées de méthane). La température moyenne ne cessera de monter, au point de réduire l’écoumène à des îlots de civilisation en Arctique.
40Sans attendre ces extrémités, la pression populaire en faveur d’un recours à toutes les ressources de la technoscience se fera très pressante. Les scénarios de géo-ingénierie se multiplieront. Dans ce contexte, qu’adviendrait-il du principe de précaution ?
Conclusion
41Il va de soi que, si l’on devait ouvrir la boîte de Pandore du changement climatique, la question de la précaution se poserait en de tout autres termes. La précaution a en effet été conçue pour gérer deux types d’incertitude. En premier lieu, celle de la hauteur des dommages que l’on est censé redouter dans une situation dangereuse ; tel était, par exemple, le cas du changement climatique dans les années 1980 et 1990. En second lieu, l’incertitude générée par une technique puissante dans les premiers temps de sa mise en œuvre ; tel est, par exemple, le cas avec les plantes génétiquement modifiées (PGM) et la transgénèse.
42Dans le premier cas, il convenait de choisir entre mobiliser des moyens lourds pour éviter un danger extrême, avec le risque, au second degré, de surdimensionner lesdits moyens au regard d’un danger au bout du compte moins élevé que prévu. Ce qui pouvait être ramené à l’alternative suivante : soit risquer de perdre beaucoup en n’agissant pas face à un danger gravissime mais incertain ; soit perdre, mais sensiblement moins, en agissant au-delà de ce qui était nécessaire. Peu ou prou, cette logique a été suivie, mais avec une mollesse certaine.
43Dans le second cas, celui des PGM, les choses paraissent plus simples : soit on prend le risque d’une perte non négligeable pour tous au nom du profit pécuniaire certain d’un petit nombre, actionnaires et industriels ; soit c’est le statu quo, qui se traduit en pertes pécuniaires certaines pour le même petit nombre, mais en une absence de risque pour le grand nombre.
44Tout autres seraient les termes du choix face à une dégradation lourde, et forcément vouée à s’alourdir, du climat. Il n’y aurait que trois possibilités : s’abstenir de recourir à toute forme de géo-ingénierie, et donc se condamner à un avenir toujours plus insupportable ; recourir à la géo-ingénierie et, en cas de succès, alléger le présent ; ou, en cas d’insuccès, redoubler l’horreur du présent. Ici, la seule issue positive passerait par une prise de risque supplémentaire. Cela ne ruinerait pas toute forme de prudence technologique, mais inciterait à une prise de risque supplémentaire, qui paraît en revanche relativement irrationnelle dans les deux cas d’application classique.
45Cette rationalité propre à la prise de risque dont nous parlons, nous ne pouvons néanmoins l’envisager qu’appuyée sur une réflexion d’ordre éthique et politique. Il serait certes irrationnel de ne pas assumer le choix du risque, mais certainement pas de manière inconditionnelle. Et c’est d’abord à l’éthique qu’incomberait la tâche de définir ces conditions.
46L’enjeu éthique est d’autant plus important que ce scénario du désespoir serait très favorable à l’ouverture d’une autre boîte de Pandore, celle du transhumanisme, de son absurdité et de son inhumanité.
Bibliographie
Références
- Angel, R., 2006. Feasability of cooling the Earth with a cloud of small spacecraft near the inner Lagrange point (L1), PNAS, 103, 46, 17184-17189 (http://www.pnas.org/content/103/46.toc).
- Barker, T., et al., 2007. Technological options for cross-sectoral mitigation: Description and characterization, in Metz, B., et al. (Eds). Climate Change 2007: Mitigation. Contribution of Working Group III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Cambridge, Cambridge University Press, 624-625.
- Bourg, D., Papaux, A., 2007. Des limites du principe de précaution : OGM, transhumanisme et détermination collective des fins, Économie publique / Public Economics, 21, 95-123 (http://economiepublique.revues.org/7932).
- Criqui, P., Faraco, B., Grandjean, A., 2009. Les États et le carbone, Paris, PUF.
- Crutzen, P.J., 2006. Albedo Enhancement by stratospheric sulfur injections: A contribution to resolve a policy dilemma, Climate Change, 77, 211-219.
- Descola, P., 2005. Par-delà nature et culture, Paris, Gallimard.
- GIEC, 2007. Bilan 2007 des changements climatiques : contribution des Groupes de travail I, II et III au quatrième Rapport d’évaluation du Groupe intergouvernemental d’experts sur l’évolution du climat (Pachauri, R.K., Reisinger, A. [Eds]), GIEC, Genève.
- Hadot, P., 2004. Le Voile d’Isis : essai sur l’idée de Nature, Paris, Gallimard.
- Hansen, J., 2009. Strategies to address global warming & Is sundance kid a criminal?, www.columbia.edu/~jeh1/mailings/ 2009/20090713_Strategies.pdf-2009-07-13.
- Hansen, J., et al., 2008. Target atmospheric CO2:Where should humanity aim?, www.columbia.edu/~jeh1/ 2008/TargetCO2_20080407.pdf.
- Hardin, G., 1968. The Tragedy of Commons, Science, 162, 3859, 1243-1248 (http://www.sciencemag.org/content/vol162/issue3859/index.dtl).
- Jacob, L., et al., 2007. Rates of CO2 removal by Aphanathece Microscopia Nageli in Tubular Photobioreactors (Biochemical Engineering Laboratory, Universidade Estadual de Campinas, Sao Paulo). Cité par l’Institution of Mechanical Engineers, 2009, Geo-Engineering: Giving Us the Time to Act? Report (http://www.imeche.org/about/keythemes/environment/Climate+Change/Geoeng.htm).
- Jin, X., Gruber, N., 2003. Offsetting the radiative benefit of ocean iron fertilization by enhancing N2O emissions, Geophysical Research Letters, 30, 24, 2249.
- Jin, X., et al., 2008. The impact on atmospheric CO2 of iron fertilization induced changes of the biological pump, Biogeosciences, 5, 385-406.
- Keith, D.W., 2001. Geoengineering and carbon management: Is there a meaningful distinction?, in Williams, D., et al. (Eds), Greenhouse Gas Control Technologies: Proceedings of the 5th Internatonal Conference, Collingwood, CSIRO Publishing, 1192-1197.
- Keith, D.W., Dowlatabadi, H., 1992. A serious look at geoengineering, Eos, 73, 27, 292-293.
- Lackner, K.S., 2009. Carbon dioxide capture from ambient air, in Blum, W., Keilhacker, M., Platt, U., Roether, W. (Eds), The Physics Perspective on Energy Supply and Climate Change: A critical Assessment, Bad Honnef, Springer.
- Latham, J., Salter, S.H., 2007. The reversal of global warming by the increase of the albedo of marine stratocumulus cloud, Engineering and Technology, August, 28-31.
- Lovelock, J.E., Rapley, C.G., 2007. Ocean pipes could help the Earth to cure itself, Nature, 49, 27, 403.
- Lynas, M., 2008. Six degrés : que va-t-il se passer ?, Paris, Dunod.
- Méheust, B., 2009. La Politique de l’oxymore : comment ceux qui nous gouvernent nous masquent la réalité du monde, Paris, La Découverte.
- Royal Society, 2009. Geoengineering the Climate: Science, Governance and Uncertainty, www.royalsociety.org/ Geoengineering-the-climate/
- Volken, E., 2008. La géoingénierie pour combattre le réchauffement climatique : un dilemme entre possibilités et risques, Climate Press, 24 (http://www.proclim.ch/4dcgi/proclim/fr/news?33619).
Notes
-
[*]
Cf. dans ce numéro, la présentation par la Rédaction du dossier « Adaptation aux changements climatiques ».
-
[1]
Après l’échec de la CoP 15 à Copenhague en décembre 2009, nous pensons à la prochaine conférence des Nations unies sur le changement climatique (CoP 16) à Cancun, fin novembre et début décembre 2011.