LONDRES – Le Royaume-Uni est désormais légalement tenu d’éliminer totalement ses émissions nettes de gaz à effet de serre d’ici 2050. Au Parlement, les opposants à cette mesure plaidaient pour une analyse coûts-bénéfices plus approfondie avant de prendre un tel engagement, et le prix Nobel d’économie William Nordhaus affirme qu’une telle analyse démontre que le rythme optimal de réduction des émissions est beaucoup plus lent.
L’accord de Paris sur le climat, conclu en 2015, ambitionne de contenir la hausse de la température planétaire « nettement en dessous de 2° C par rapport aux niveaux préindustriels », tandis que le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) plaidait en 2018 pour une augmentation plafonnée à 1,5° C. Le modèle de Nordhaus suggère en revanche de limiter le réchauffement à 3,5° C d’ici 2100. Si cet objectif était retenu, il deviendrait acceptable de reporter bien au-delà de 2050 celui de parvenir à la nullité des émissions nettes.
Mais la méthode employée par Nordhaus n’est qu’une application erronée d’une modélisation complexe d’aide à la prise de décision dans des situations d’incertitude extrême. Tous les modèles dépendent des hypothèses qui les alimentent. À mesure du réchauffement de la Terre, les rendements agricoles augmenteront dans les régions plus froides et diminueront dans les plus chaudes. Toute estimation des conséquences économiques nettes est sujette à caution et à d’importantes marges d’erreur ; S’il est absurde d’imaginer que les bénéfices qu’engrangerait telle ou telle région soient transférés à telle autre qui serait durement touchée, la modélisation peut du moins nous aider à évaluer l’ampleur possible de ces conséquences.
Nombre de risques, parmi les plus graves, sont en revanche impossibles à modéliser. Le réchauffement climatique provoquera des changements majeurs des cycles hydrologiques, qui se solderont par des précipitations beaucoup plus importantes comme par des sécheresses plus longues et plus graves. Des conséquences initiales défavorables pourraient à leur tour entretenir l’instabilité politique existante et provoquer des tentatives de migration à grande échelle.
Prétendre modéliser les effets directs et induits avec quelque précision relève de l’illusion. Les observations empiriques fournies par l’histoire humaine ne nous seront non plus d’aucune aide pour nous adapter à un monde qui se sera réchauffé dans les proportions soi-disant optimales de Nordhaus. Car une élévation globale de température de 3,5° C au-dessus des niveaux préindustriels nous conduirait à une situation que la Terre n’a pas connue depuis plus de deux millions d’années, avant même que l’humanité moderne ne commence son évolution.
Les estimations modélisées des effets défavorables sont également incapables de prendre en compte le risque d’un renforcement auto-entretenu du réchauffement global, qui s’accompagne de probabilités non triviales de catastrophes capables de mettre en péril la vie humaine sur la Terre. Les tendances récentes des températures arctiques confirment le modèle prévoyant que le réchauffement sera plus intense aux latitudes élevées. S’il résulte de cet écart une fonte de grande ampleur du permafrost, les énormes quantités de méthane enfermées dans ce dernier seront relâchées dans l’atmosphère, et accéléreront le changement climatique. Plus élevée sera l’augmentation de température, plus forte sera la probabilité d’un réchauffement accru, rapide et incontrôlable. Les modèles ont toujours du mal à saisir ces forts effets endogènes et non linéaires, mais le point optimum de Nordhaus, fixé à 3,5° C pourrait marquer un équilibre extrêmement instable.
Avant la crise de 2008, de nombreux économistes, et des prix Nobel parmi eux, pensaient que les modèles de plus en plus sophistiqués du calcul de la perte maximale potentielle (value et risk – VaR) avaient rendu plus sûre la planète financière. Alan Greenspan, qui présidait alors la Réserve fédérale des États-Unis, en était lui-même convaincu. En 2005, il notait, rassurant, que « la mise en œuvre de procédures plus fines de mesure et de gestion du risque » était l’un des « facteurs clés du renforcement de la résilience de nos institutions financières les plus importantes ».
Mais ces modèles ne fournirent aucun signe avant-coureur de la catastrophe pourtant proche. Bien au contraire, ils induisirent en erreur les dirigeants des banques, les banquiers centraux et les autorités de régulation, en les persuadant que les risques pouvaient être prévus, mesurés et maîtrisés avec précision. Les modèles de VaR étaient incapables d’évaluer le danger d’un effondrement brutal résultant de boucles de rétroaction endogènes auto-entretenues au sein d’un système complexe et potentiellement fragile. Il en va de même des modèles soi-disant fins qui permettraient de déterminer un niveau optimal du réchauffement global.
Les coûts économiques que supposerait la neutralité carbone au milieu du siècle sont également incertains. Mais nous pouvons en estimer un ordre de grandeur maximum avec beaucoup plus de vraisemblance qu’il n’est permis dans l’évaluation des coûts induits par les effets défavorables du changement climatique.
Pour parvenir à une économie totalement décarbonée, une hausse considérable du recours à l’énergie électrique dans le monde est indispensable. Il faudrait passer de 23 000 térawattheures consommés aujourd’hui à 90 000 térawattheures au milieu du siècle. Pour produire cette électricité sans émettre de carbone, d’énormes investissements seront nécessaires, mais, comme l’a montré la Commission des transitions énergétiques (Energy Transitions Commission, ETC), une telle évolution est techniquement, physiquement et économiquement réalisable. Même si la totalité de ces 90 000 térawattheures était produite par des panneaux solaires, l’espace total nécessaire ne représenterait que 1 % de la surface des terres émergées. Et avec la mise aux enchères concurrentielle de l’énergie, telle qu’elle est organisée dans la réalité, les fournisseurs de solaire et d’éolien se sont d’ores et déjà engagés à vendre l’électricité à des prix voisins et parfois même inférieurs au coût de production à partir de combustible fossile.
Les estimations du coût total doivent aussi prendre en compte le stockage de l’énergie ou la mise en place de capacités complémentaires nécessaires pour répondre aux besoins lorsque le vent ne souffle pas et que le soleil ne brille pas, et considérer la question complexe de la décarbonisation des secteurs de l’industrie lourde comme l’acier, le ciment et la pétrochimie.
Si l’on additionne tous les secteurs économiques, il est manifeste que le coût total de la décarbonisation de l’économie mondiale ne peut excéder 1 % à 2 % du PIB mondial. En fait, les coûts réels seront presque certainement très inférieurs, car la plupart des estimations négligent, par précaution, la possibilité d’avancées technologiques fondamentales et s’en tiennent aux hypothèses actuelles quant au temps nécessaire à la réduction des coûts liés aux principales technologies. En 2010, l’Agence internationale de l’énergie prévoyait une baisse de 70 % du coût des équipements photovoltaïques d’ici 2030. Elle était atteinte en 2017.
Plutôt que de s’appuyer sur des modèles apparemment très élaborés, les mesures destinées à maîtriser le changement climatique doivent se fonder sur une capacité de juger dans un environnement incertain. Les tendances actuelles font craindre les conséquences défavorables les plus graves, mais celles-ci demeurent intrinsèquement imprévisibles. La limitation du réchauffement à un niveau nettement inférieur à 2° C coûtera tout au plus 1 % à 2 % du PIB, et ces coûts s’abaisseront si une forte volonté de réduire les émissions de gaz à effet de serre libère le progrès technologique et les effets de la courbe d’apprentissage. Si l’on tient compte de ces réalités, l’objectif zéro carbone d’ici 2050 est économiquement rationnel.
Traduit de l’anglais par François Boisivon
LONDRES – Le Royaume-Uni est désormais légalement tenu d’éliminer totalement ses émissions nettes de gaz à effet de serre d’ici 2050. Au Parlement, les opposants à cette mesure plaidaient pour une analyse coûts-bénéfices plus approfondie avant de prendre un tel engagement, et le prix Nobel d’économie William Nordhaus affirme qu’une telle analyse démontre que le rythme optimal de réduction des émissions est beaucoup plus lent.
L’accord de Paris sur le climat, conclu en 2015, ambitionne de contenir la hausse de la température planétaire « nettement en dessous de 2° C par rapport aux niveaux préindustriels », tandis que le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) plaidait en 2018 pour une augmentation plafonnée à 1,5° C. Le modèle de Nordhaus suggère en revanche de limiter le réchauffement à 3,5° C d’ici 2100. Si cet objectif était retenu, il deviendrait acceptable de reporter bien au-delà de 2050 celui de parvenir à la nullité des émissions nettes.
Mais la méthode employée par Nordhaus n’est qu’une application erronée d’une modélisation complexe d’aide à la prise de décision dans des situations d’incertitude extrême. Tous les modèles dépendent des hypothèses qui les alimentent. À mesure du réchauffement de la Terre, les rendements agricoles augmenteront dans les régions plus froides et diminueront dans les plus chaudes. Toute estimation des conséquences économiques nettes est sujette à caution et à d’importantes marges d’erreur ; S’il est absurde d’imaginer que les bénéfices qu’engrangerait telle ou telle région soient transférés à telle autre qui serait durement touchée, la modélisation peut du moins nous aider à évaluer l’ampleur possible de ces conséquences.
Nombre de risques, parmi les plus graves, sont en revanche impossibles à modéliser. Le réchauffement climatique provoquera des changements majeurs des cycles hydrologiques, qui se solderont par des précipitations beaucoup plus importantes comme par des sécheresses plus longues et plus graves. Des conséquences initiales défavorables pourraient à leur tour entretenir l’instabilité politique existante et provoquer des tentatives de migration à grande échelle.
Prétendre modéliser les effets directs et induits avec quelque précision relève de l’illusion. Les observations empiriques fournies par l’histoire humaine ne nous seront non plus d’aucune aide pour nous adapter à un monde qui se sera réchauffé dans les proportions soi-disant optimales de Nordhaus. Car une élévation globale de température de 3,5° C au-dessus des niveaux préindustriels nous conduirait à une situation que la Terre n’a pas connue depuis plus de deux millions d’années, avant même que l’humanité moderne ne commence son évolution.
Les estimations modélisées des effets défavorables sont également incapables de prendre en compte le risque d’un renforcement auto-entretenu du réchauffement global, qui s’accompagne de probabilités non triviales de catastrophes capables de mettre en péril la vie humaine sur la Terre. Les tendances récentes des températures arctiques confirment le modèle prévoyant que le réchauffement sera plus intense aux latitudes élevées. S’il résulte de cet écart une fonte de grande ampleur du permafrost, les énormes quantités de méthane enfermées dans ce dernier seront relâchées dans l’atmosphère, et accéléreront le changement climatique. Plus élevée sera l’augmentation de température, plus forte sera la probabilité d’un réchauffement accru, rapide et incontrôlable. Les modèles ont toujours du mal à saisir ces forts effets endogènes et non linéaires, mais le point optimum de Nordhaus, fixé à 3,5° C pourrait marquer un équilibre extrêmement instable.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
Avant la crise de 2008, de nombreux économistes, et des prix Nobel parmi eux, pensaient que les modèles de plus en plus sophistiqués du calcul de la perte maximale potentielle (value et risk – VaR) avaient rendu plus sûre la planète financière. Alan Greenspan, qui présidait alors la Réserve fédérale des États-Unis, en était lui-même convaincu. En 2005, il notait, rassurant, que « la mise en œuvre de procédures plus fines de mesure et de gestion du risque » était l’un des « facteurs clés du renforcement de la résilience de nos institutions financières les plus importantes ».
Mais ces modèles ne fournirent aucun signe avant-coureur de la catastrophe pourtant proche. Bien au contraire, ils induisirent en erreur les dirigeants des banques, les banquiers centraux et les autorités de régulation, en les persuadant que les risques pouvaient être prévus, mesurés et maîtrisés avec précision. Les modèles de VaR étaient incapables d’évaluer le danger d’un effondrement brutal résultant de boucles de rétroaction endogènes auto-entretenues au sein d’un système complexe et potentiellement fragile. Il en va de même des modèles soi-disant fins qui permettraient de déterminer un niveau optimal du réchauffement global.
Les coûts économiques que supposerait la neutralité carbone au milieu du siècle sont également incertains. Mais nous pouvons en estimer un ordre de grandeur maximum avec beaucoup plus de vraisemblance qu’il n’est permis dans l’évaluation des coûts induits par les effets défavorables du changement climatique.
Pour parvenir à une économie totalement décarbonée, une hausse considérable du recours à l’énergie électrique dans le monde est indispensable. Il faudrait passer de 23 000 térawattheures consommés aujourd’hui à 90 000 térawattheures au milieu du siècle. Pour produire cette électricité sans émettre de carbone, d’énormes investissements seront nécessaires, mais, comme l’a montré la Commission des transitions énergétiques (Energy Transitions Commission, ETC), une telle évolution est techniquement, physiquement et économiquement réalisable. Même si la totalité de ces 90 000 térawattheures était produite par des panneaux solaires, l’espace total nécessaire ne représenterait que 1 % de la surface des terres émergées. Et avec la mise aux enchères concurrentielle de l’énergie, telle qu’elle est organisée dans la réalité, les fournisseurs de solaire et d’éolien se sont d’ores et déjà engagés à vendre l’électricité à des prix voisins et parfois même inférieurs au coût de production à partir de combustible fossile.
Les estimations du coût total doivent aussi prendre en compte le stockage de l’énergie ou la mise en place de capacités complémentaires nécessaires pour répondre aux besoins lorsque le vent ne souffle pas et que le soleil ne brille pas, et considérer la question complexe de la décarbonisation des secteurs de l’industrie lourde comme l’acier, le ciment et la pétrochimie.
Si l’on additionne tous les secteurs économiques, il est manifeste que le coût total de la décarbonisation de l’économie mondiale ne peut excéder 1 % à 2 % du PIB mondial. En fait, les coûts réels seront presque certainement très inférieurs, car la plupart des estimations négligent, par précaution, la possibilité d’avancées technologiques fondamentales et s’en tiennent aux hypothèses actuelles quant au temps nécessaire à la réduction des coûts liés aux principales technologies. En 2010, l’Agence internationale de l’énergie prévoyait une baisse de 70 % du coût des équipements photovoltaïques d’ici 2030. Elle était atteinte en 2017.
Plutôt que de s’appuyer sur des modèles apparemment très élaborés, les mesures destinées à maîtriser le changement climatique doivent se fonder sur une capacité de juger dans un environnement incertain. Les tendances actuelles font craindre les conséquences défavorables les plus graves, mais celles-ci demeurent intrinsèquement imprévisibles. La limitation du réchauffement à un niveau nettement inférieur à 2° C coûtera tout au plus 1 % à 2 % du PIB, et ces coûts s’abaisseront si une forte volonté de réduire les émissions de gaz à effet de serre libère le progrès technologique et les effets de la courbe d’apprentissage. Si l’on tient compte de ces réalités, l’objectif zéro carbone d’ici 2050 est économiquement rationnel.
Traduit de l’anglais par François Boisivon