Wie realistisch sind Klimamodellvorhersagen?



8. Januar 2014


Seit ca. 25 Jahren hören wir, dass wegen der vom Menschen verursachten CO2 Emissionen eine dramatische Erwärmung des Weltklimas drohe, bis hin zu einer Klimakatastrophe. Und seit ca. 25 Jahren tobt in der Wissenschaft und in der Öffentlichkeit die Diskussion darüber, wie realistisch diese Vorhersagen sind.
Die Politik hat seit ca. 20 Jahren beschlossen, dass die Klimamodellvorhersagen einer dramatischen Erwärmung realistisch sind und hat entsprechende Massnahmen eingeleitet, wie z. B. die Bundesregierung mit ihren Beschlüssen vom 13. Juni und vom 7. November 1990, die CO2 Emissionen Deutschlands bis 2005 um 25% zu reduzieren, die UN mit der Verabschiedung der Klimarahmenkonvention von 1992 und dem Kyoto – Protokoll von 1997.
In Europa und besonders in Deutschland wurden die klimapolitischen Beschlüsse seither mehrfach verschärft.

Ungeachtet der politischen Aktivitäten auf verschiedenen Ebenen ging und geht die öffentliche und mediale Debatte über den Klimawandel in den letzten Jahren in zuletzt zunehmender Schärfe weiter.
Diejenigen, die von Modellen gerechnete dramatische Erwärmungsraten auf der Grundlage von Klimabeobachtungen und -messungen hinterfragen, werden von den Verfechtern der Klimakatastrophe als „Klimaleugner“ oder „Marionetten der fossilen Energiewirtschaft“ gebrandmarkt, letztere wiederum von den „Leugnern“ als Klimaideologen und „Warmisten“. Eine sachliche Debatte findet in diesem stark ideologisierten Umfeld schon seit langem nicht mehr statt.

Auch der kürzlich veröffentlichte neue Bericht des IPCC bringt wenig Licht in dieses Dunkel, denn obwohl man dort anerkennt, dass sich das Klima in den vergangenen 15 Jahren wenig oder sogar gar nicht erwärmt hat, beharrt man nach wie vor darauf, dass sich die kommenden Jahrzehnte drastisch erwärmen werden. Das wirkt wenig überzeugend , solange nicht klar ist, weswegen die Modelle nicht nur für die vergangenen 15 Jahre, sondern auch für die letzten Jahrzehnte allgemein mit wesentlich höheren Erwärmungsraten gerechnet haben, als man beobachtet hat.

In diesem Zusammenhang ist ein Beitrag von Bob Tisdale interessant, der auf Whatsupwiththat.com veröffentlicht wurde.
Tisdale zitiert in seinem Beitrag eine Reihe von Arbeiten aus der Fachliteratur, die sich der Frage widmen, inwieweit Klimamodelle in der Lage waren, in beobachteten Klimaschwankungen der letzten Jahrzehnte menschliche Einflüsse von natürlichen zu trennen. Das Ergebnis war nicht sehr ermutigend, je nachdem aus welcher Perspektive man es betrachtet.

Zwei dieser Arbeiten widmen sich der Frage, ob Modelle die Erwärmungspause bzw. die geringe Erwärmung der vergangenen Jahrzehnte erklären können.
Die erste dieser Arbeiten von v. Storch et al. kommt zum Ergebnis, dass die Erwärmungspause durch die gängigen IPCC Klimamodelle mit hoher statistischer Sicherheit nicht mehr erklärt werden kann und nennt drei mögliche Gründe für dieses Modellversagen:

1. Die natürliche Klimavariabilität ist größer, als die in den Modellen zugrunde gelegte. Die Modelle wurden für das 20. Jahrhundert „getuned“, die vergangenen 12 Jahre lagen außerhalb dieser „Tuningperiode“

2. Externe Forcing Faktoren, wie Vulkanausbrüche oder stark abgeschwächte Solarstrahlung könnten das Klima abgekühlt haben, was aber wenig wahrscheinlich erscheint, da es nach 2000 keine größeren Vulkanausbrüche gab, die Sonnenaktivität zwar abgeschwächt war, man aber keine überzeugenden Wirkungsmechanismen kennt, die auf der Erde zu einer Abkühlung geführt haben könnten.

3. Die Klimasensitivität der Modelle auf Klimagase könnte zu hoch angesetzt sein.

Die Autoren wollten an dieser Stelle nicht entscheiden, welche der drei Gründe zutreffen könnte.

Zu einer vergleichbaren Schlussfolgerung gelangen Fyfe et al., wenn man sowohl den Zeitraum 1993 – 2012 als auch 1998 – 2012 betrachtet. Die Trenddifferenzen zwischen modelliert – beobachtet betragen für 1993 – 2012 0,3 – 0,14 und für 1998 – 2012 0,2 – 0,05 °C pro Jahrzehnt. Das bedeutet, die modellierten Erwärmungsraten in diesen Zeiträumen waren 2 – 4 mal so groß, wie die gemessenen.
In den betrachteten aktuellen IPCC Modellen CMIP5 werden natürliche Forcing Faktoren, wie Vulkanausbrüche (Pinatubo 1991) und ENSO Phasen, aber auch die bekannten anthropogenen Forcing Faktoren, wie Treibhausgase, Aerosole etc. berücksichtigt.

Die Autoren zitieren vergleichbare Gründe wie v. Storch et al. als Ursache für die überhöhten Modellvorhersagen; die Autoren meinen abschließend, man müsse entweder warten, bis mehr Daten verfügbar sind (evtl. in der Hoffnung, dass es sich vielleicht doch noch drastisch erwärmt in den nächsten Jahren), oder bis man die gegenwärtige Modellgeneration neu „getuned“ hat mit den aktuellen, jetzt verfügbaren Daten.

Diese Arbeiten sind aus zwei Gründen wichtig. Erstens, weil sie inhaltlich zeigen, dass es gegenwärtig nicht möglich ist, zu sagen, weswegen die Modelle in den letzten Jahrzehnten zu hohe Erwärmungsraten errechnet haben und es deswegen im weiterführenden Schluß auch nicht möglich ist, wie noch im neuen IPCC Bericht geschehen, zu behaupten, die für die kommenden Jahrzehnte errechneten hohen Erwärmungsraten seien realistisch.
Zweitens ist wichtig, dass diese Arbeiten vom klimatologischen IPCC „Mainstream“ veröffentlicht wurden; einer der Ko-Autoren von v. Storch ist Klaus Hasselmann, quasi der „Pate“ der deutschen Klimamodellierer.

Niemand kann behaupten, die Autoren dieser Arbeiten seien „Klimaleugner“, obwohl sie im Ergebnis jetzt das im Wesentlichen bestätigen, was viele „Leugner“ bereits seit vielen Jahren der Öffentlichkeit zu vermitteln versuchten: Nämlich dass die beobachtete Erwärmung viel geringer ist, als die modellierte und dass einer der Gründe hierfür eine zu hohe Klimaempfindlichkeit auf Treibhausgase sein könnte.

Alles in allem erscheint es immer unwahrscheinlicher, dass man in den nächsten Jahrzehnten mit dramatischen Erwärmungsraten zu rechnen hat; keiner der beobachteten Erwärmungstrends der letzten Jahrzehnte (egal, ob man 1950, 1960, 1970, 1980 oder 1990 zum Ausgangspunkt einer Trendberechnung nimmt) liefert Hinweise darauf, dass Erwärmungsraten von mehr als 0,2 °C pro Jahrzehnt, also mehr als 2,0 °C in 100 Jahren realistisch sind.
Da der Zusammenhang zwischen der atmosphärischen CO2 Konzentration und der Temperatur logarithmisch ist, wird auch künftig ein gleicher prozentualer Anstieg dieser Konzentration wie in der Vergangenheit mit keinen höheren Erwärmungsraten einhergehen als in der Vergangenheit. Deswegen gibt es auch keinen überzeugenden Grund für die Annahme, das Klima werde sich um mehr als 2°C in den nächsten 100 Jahren erwärmen.

Forderungen nach einer drastischen Dekarbonisierung der Weltwirtschaft, um „das 2 °C Ziel“ einzuhalten, wird damit immer mehr der Boden entzogen, ebenso wie noch extremeren, aber de facto wirkungslosen Forderungen, die auf einzelne Staaten begrenzt bleiben.