Schon 1974: Sorge um CO2-Konzentration

Schon vor 46 Jahren erkannte William D. Nordhaus: “Menschengemachte Emissionen beeinflussen Klima”

Es ist alles schon lange bekannt: Schon 1974 entwarf der spätere (2018) Nobelpreisträger William D. Nordhaus, ein makroökonomisches Modell des langfristigen Wachstums. Seine bahnbrechende Arbeit “Resources as a Constraint on Growth”, erschienen in der American Economic Review, enthielt als erste eine Darstellung der Kohlendioxidkonzentration und des Klimas in einem solchen makroökonomischen Rahmen und analysierte, wie der Klimawandel zu möglichst geringen Kosten eingedämmt werden konnte – weiterentwickelt 1975 unter dem Titel “Can we conrol carbon dioxide?”. 1977 definierte Nordhaus die sogenannte Zwei-Grad-Grenze (solarify.eu/zwei-grad-grenze – s.u.).

Auf die erste Untersuchung folgte die Konstruktion eines der ersten Bewertungsmodelle des Klimawandels. Modelle sind entscheidend für das Verständnis der Natur des Klimawandels und wie man ihm begegnet, denn das Thema beinhaltet physikalische, chemische und wirtschaftliche Zusammenhänge, die ohne klaren Rahmen nicht vollständig erfasst werden könnten. Mit seinem ersten integrierten Bewertungsmodell – dem Dynamic Integrated Model of Climate and Economy (DICE) – bot Nordhaus genau einen solchen Rahmen. Das einzige Modell enthält alle Verbindungen zwischen der Kohlendioxidkonzentration, dem Klima, den wirtschaftlichen Schäden durch den Klimawandel und einem Modell der Wirtschaft, die Kohlendioxidemissionen produziert – und schließt damit den Kreis (Nordhaus 1992). Ein solches Unterfangen bestand darin, Physik und Chemie in die wirtschaftliche Modellierung einzubringen, um eine für die Politik entscheidende Frage zu klären: Was ist die optimale Politik zur Bewältigung des Klimawandels?

Keeling-Kurve, gemessen am Mauna Loa, Hawaii – Grafik © Delorme, eig. Werk, Data from Tans, NOAA_ESRL and Keeling, Scripps Institution, CC BY-SA 4.0, commons.wikimedia.org

Nordhaus zitierte den schon 1958 von Charles D. Keeling (s.o.: Keeling-Kurve, Mauna Loa!) nachgewiesenen Treibhauseffekt und stellte damals für das Thema “Energie” drei wichtige Fragen bezüglich der Energieressourcen, die er zur Beurteilung des zukünftigen langfristigen Wachstums als wichtig ansah; diese beträfen deren “Verfügbarkeit, ihren Preis und die Auswirkungen auf die Umwelt” (damals herrschte in Bezug auf die Atomenergie noch großer Optimismus):

  1. Die erste Frage ist, ob es ausreichende Energieressourcen gibt, um die Weltwirtschaft auf unbestimmte Zeit zu betreiben. Leider hängt eine vollständige Antwort von den Antworten auf die nächsten beiden Fragen ab, aber für eine grobe Antwort können wir einfach die Mengen der Energieressourcen berechnen… Es ist ziemlich klar, dass die schiere Auskömmlichkeit der Energieressourcen davon abhängt, ob bestimmte zukünftige Technologien verfügbar werden. Selbst mit aktuellen Technologien gibt es bei der gegenwärtigen Verbrauchsrate Ressourcen für mehr als 8.000 Jahre. Bei Brütereaktoren, und noch dramatischer bei einer Fusionstechnologie, steht praktisch unbegrenzte Energie zur Verfügung.
  2. Die zweite Frage betrifft den Preis, zu dem die Energieressourcen langfristig zur Verfügung stehen werden. Die neue Sichtweise des Wachstums sieht eine Zukunft, in der die Energieressourcen extrem teuer werden, da der Bergbau auf immer minderwertigere Energieressourcen umgestellt wird. So mag es durchaus sein, dass zwar Ressourcen verfügbar sind, aber so teuer und Ressourcen-zehrend, dass eine schwindende Menge an Output für den tatsächlichen Verbrauch übrig bleibt… Die effiziente Lösung zeichnete einen Übergang zur endgültigen Technologie nach, wobei die endgültige nukleare Technologie letztlich etwa 150 Jahre dauern würde. Der interessanteste Teil war der Preispfad. In den folgenden 50 Jahren stieg der errechnete Preisindex der Endenergieprodukte jährlich um 2,2 Prozent im Vergleich zum allgemeinen Preisniveau. Die Wachstumsrate der Energiepreise im Verhältnis zum allgemeinen Preisniveau betrug in den folgenden 100 Jahren 1,3 Prozent jährlich – demnach waren die Energiepreise im Verhältnis zum allgemeinen Preisniveau konstant…. Unter den Annahmen des Modells scheinen die langfristigen Aussichten für die Energiepreise günstig zu sein, wenn auch weniger günstig als in den vergangenen Jahrzehnten. (Die Annahme eines Wettbewerbsverhaltens ist eindeutig unrealistisch. Ein Kartell von Ölproduzenten würde den kurzfristigen Preis in die Höhe treiben. Aber wie Robert Solow festgestellt hat, sind die Monopolisten die besten Freunde der Umweltschützer: höhere Preise führen zu einem geringeren Verbrauch, einer Ausdehnung der endlichen Ressourcen und möglicherweise sogar zu niedrigeren Preisen in der Zukunft).
  3. Die letzte und wahrscheinlich schwierigste Frage betrifft die Umweltauswirkungen der Energienutzung.
    a) Bisher wurde den “lokalen” Umweltproblemen – insbesondere den Schwefelemissionen aus stationären Quellen und den Emissionen von Stickoxiden, Kohlenmonoxid und Kohlenwasserstoffen aus Kraftfahrzeugen – große Aufmerksamkeit geschenkt. Die Anpassung einer Technologie an diese neuen Zwänge hat sich als schwierig und kostspielig erwiesen, aber es scheint breite Übereinstimmung darüber zu bestehen, dass – mit genügend Zeit und Geld – die Emissionen mit jedem vernünftigen Satz von Normen in Einklang gebracht werden können.

    Erderwärmung – Abschmelzen des Schnees – Foto © Gerhard Hofmann, Agentur Zukunft für Solarify

    b) Eine zweite Reihe von Umweltstandards betrifft “globale” Standards, von denen der wichtigste der Wärmehaushalt der Erde ist. Der Bericht über die Auswirkungen des Menschen auf die globale Umwelt überprüft sehr gründlich das Wissen über die möglichen negativen globalen Auswirkungen des Energieverbrauchs. Die wichtigsten davon für den Energiebereich waren ein möglicher “Treibhauseffekt“, der sich aus einer starken Zunahme der Produktion von Kohlendioxid (CO2) aus fossilen Brennstoffen und dem Problem des globalen Wärmehaushalts ergibt. Obwohl es große Unsicherheiten gibt, deuten meteorologische Studien darauf hin, dass eine Änderung der Durchschnittstemperatur um zwei Grad Celsius die Größenordnung ist, die “Albedo-Instabilitäten” auslösen könnte, die zu schmelzenden Eiskappen oder einer “Äquator-zu-Pol-Eisbedeckung” führen könnten. Studien berichten, dass ein solcher Temperaturanstieg durch eine Verdoppelung des atmosphärischen CO2 oder durch Netto-Abwärme von etwa 3 Prozent der gesamten Sonneneinstrahlung entstehen könnte. Diese Schwellenwerte liegen weit über dem derzeitigen Niveau menschlicher Aktivitäten. Darüber hinaus schränkt unser begrenztes Angebot an fossilen Brennstoffen die Produktion von CO2 auf ein akzeptables Niveau ein. Ich habe eine grobe Berechnung der atmosphärischen Konzentration von CO2 entlang des oben beschriebenen effizienten Pfades durchgeführt. Unter der Annahme, dass 10 Prozent des atmosphärischen CO2 jährlich absorbiert werden (G. Skirrow), würde die Konzentration voraussichtlich von 340 ppm im Jahr 1970 auf 487 ppm im Jahr 2030 ansteigen – ein Anstieg um 43 Prozent. Obwohl unter der schicksalhaften Verdoppelung der CO2-Konzentration, könnte es durchaus zu knapp werden, um sich zu trösten.

Folgt: William D. Nordhaus: Können wir Kohlendioxid kontrollieren?