Aktuelle Klimatrends und mögliche Schlussfolgerungen für die Zukunft

29. Februar 2020

Vor einigen Jahren (2014) haben wir hier die seinerzeitigen Klimatrends analysiert und mit den von Klimamodellen errechneten verglichen. Wir gelangten zu der Einschätzung, dass für keinen der betrachteten Zeiträume zwischen 1979 und 2013 ( siehe die Tabelle hier ) ein Temperaturanstieg beobachtet wurde, der auch nur in die Nähe der modellierten Trends kam.

Modelliert wurden ca. 0,2 – 0,3°C pro Jahrzehnt, abhängig von den Modellannahmen, und dem Einfluss anderer Parameter als Treibhausgase, wie z. B. einer Abkühlung durch Schwefelemissionen, die bei der Verbrennung von Kohle und Öl neben dem CO2 ebenfalls emittiert werden.

Beobachtet (gemessen) wurden maximal 0,13° C pro Jahrzehnt in den Bodendaten und 0,18°C pro Jahrzehnt in den Satellitendaten der Troposphäre (2 – 8 km Höhe), wobei der Trend im Laufe der Zeit immer kleiner wurde und zwischen Ende der 1990er und Beginn der 2010er Jahre fast durchweg unter 0,10° pro Jahrzehnt, teilweise sogar unter Null lag, also eine Abkühlung anzeigte. Deswegen sprach man seinerzeit von einer Erwärmungspause (“warming hiatus”).

Diese Abkühlungspause ist mit dem kräftigen El Nino Ereignis in 2015/2016 zu Ende gegangen. Das Jahr 2016 war in den Bodentemperaturmessungen sogar erheblich wärmer als das bisherige Rekordjahr 1998, den Satellitendaten der Universität von Alabama/Huntsville zufolge war 2016 nur geringfügig und nicht signifikant wärmer als 1998.

Wir hatten bereits hier die Frage gestellt, wie realistisch es sein kann, dass 2016 den Bodenmessungen zufolge 0,3 – 0,4°C wärmer sein kann als 1998, in den Satellitendaten aber nur geringfügig wärmer. Diese Frage ist wohl auch bis heute nicht abschliessend geklärt.

Nach dem Rekord El Nino Jahr 2015/2016 kam es nicht wie in den vorangegangenen Jahrzehnten zu ein bis zwei ausgeprägten La Nina Jahren, die im globalen Mittel kühler als normal waren (wie z. B. 1974 – 1976, 1989 – 1990, 1999 – 2000, 2008 – 2009, siehe dazu die ONI Daten auf den Seiten 21 und 22 im Link ), sondern nur zu recht schwachen La Nina Ereignissen Ende 2016 und Ende 2017 bis Anfang 2018.

Die Jahresmitte 2017 erreichte schon fast wieder den Wert von 0,5 in den ONI Daten, die die Grenze zwischen dem neutralen ENSO Zustand und einem El Nino Ereignis markieren. 2017 war auch deswegen weltweit erheblich wärmer, als man unter Berücksichtigung des ENSO Verhaltens (starkes La Nina nach starkem El Nino) in der Vergangenheit erwartet hätte.

In der zweiten Jahreshälfte 2018 und der ersten Jahreshälfte 2019 trat dann bereits ein weiteres El Nino Ereignis auf, das etwa so stark war wie das von 2004/2005.

Auch bedingt durch dieses Ereignis war 2019 global ein warmes Jahr, in den Statistiken der Bodentemperaturen sogar das zweitwärmste seit Beginn der weltweiten Wetteraufzeichnungen Mitte des 19. Jahrhunderts.

Wir wollen uns jetzt der Frage zuwenden, wie sich die globalen Temperaturtrends seit unserer Betrachtung Anfang 2014 geändert haben.

Hierzu greifen wir nunächst auf eine Arbeit von Bob Tisdale zurück, der Temperaturtrends aus verschiedenen Datensätzen zwischen 1979 und Ende 2018 analysiert und graphisch dargestellt hat.

In seiner Abb. 6 vergleicht er die Temperaturtrends 1979 – 2018 der verschiedenen Datensätze. Die Schwankungsbreite reicht von 0,127 – 0,198°C pro Jahrzehnt. Im Mittel liegt der Trend bei 0,167°C pro Jahrzehnt, also deutlich höher als in unserer Betrachtung von Anfang 2014, in der wir für die UAH Satellitendaten für den Zeitraum 1979 – 2013 0,14 und für die Jones et al Bodendaten 0,13° C pro Jahrzehnt ermittelt hatten.

Aus Abb. 6 hier geht hervor, dass der Trend der UAH Date bis Ende 2018 bei 0,127°C pro Jahrzehnt liegt, also etwas weniger als der Trend 1979 – 2013, in den HadCrut Daten, die eine Weiterentwicklung der hier in 2014 verwendeten Jones et al Daten darstellen, 0,171 in 1979 – 2018 statt 0,13 im Zeitraum 1979 – 2013.

Wie kann es sein, dass in den Bodendaten der Temperaturtrend zunimmt, in den UAH Satellitendaten der Troposphäre aber leicht abnimmt? Besonders während El Nino Ereignissen, wie 2016, sind die Temperaturabweichungen in der freien Troposphäre, die von den Satelliten gemessen werden, höher als die Bodentemperaturabweichungen, also sollte auch der von Satelliten gemessene Temperaturtrend zwischen Anfang der 2010er und Ende der 2010er Jahre größer sein, als der Bodentemperaturtrend.

Einer der Gründe für diese Diskrepanzen ist offenkundig der, den wir hier bereits angesprochen haben, nämlich die starke Differenzen zwischen den Bodentemperaturen und den troposphärischen Temperaturen im Jahre 2016.

So liegt der Jahresmittelwert 2016 in diesem Datensatz (GISS – NASA ) 0,4° höher als 1998, in den UAH Satellitendaten aber nur 0,04° höher als 1998.

Ferner ist in den Satellitendaten 2019 (0,05°C kühler als 1998) nur das drittwärmste Jahr nach 2016 und 1998, den Bodendaten zufolge aber das zweitwärmste (0,37°C wärmer als 1998).

Die Differenzen zwischen den Boden- und den Satellitendaten haben in den Jahren seit 2013 also deutlich zugenommen. 2013 waren die Trends der Bodendaten niedriger als die der UAH Satellitendaten, seit 2016 sind sie höher.

Was sind die Ursachen? Sind es tatsächliche physikalische oder sind es, wie man in der Medizin sagen würde, iatrogene, also vom Arzt verursachte? In diesem Fall natürlich von Klimaforschern und ihren Analysemethoden selbst verursachte Veränderungen.

Mit Sicherheit ist einer der Gründe, dass, wie wir bereits hier erläutert haben, sowohl die Boden- als auch die Satellitendaten von den verschiedenen Arbeitsgruppen immer wieder überarbeitet, revidiert und korrigiert werden, weswegen ein Vergleich dieser Datensätze in der Version von 2013 mit der Version 2019 eigentlich überhaupt nicht möglich ist.

Diese Problematik wird auch hier eingehender beleuchtet und diskutiert.
Hier ist noch dazu interessant, dass sich die Troposphäre den RSS Satellitendaten zufolge zwischen 1998 und 2015 sogar abgekühlt hat, dann aber bis Ende 2018 die stärkste Erwärmungsrate überhaupt zeigt, ein Ergebnis, das Fragen hinsichtlich der Analysemethode aufwirft und verwundert, wenn parallel dazu die UAH Daten bis 2015 mit die größte Erwärmungsrate aufwiesen und bis Ende 2019 dann die geringste.

Denn praktisch alle Datensätze sind seit 2013 überarbeitet worden: In den Bodendaten und in einem der Satellitendatensätze (RSS) mit dem Ergebnis, dass die Trends in den vergangenen Jahrzehnten nach der Korrektur größer wurden, und in einem der Datensätze (UAH) kleiner wurden.
Auffällig ist, dass die UAH Satellitentrends 2013 größer waren, als die RSS Satellitentrends, was jetzt genau umgekehrt ist. Die möglichen Ursachen hierfür werden hier andiskutiert.

Auffällig ist ferner, dass die Korrekturen der Bodendaten allgemein so erfolgte, dass die aktuelle Wärmephase stärker erscheint als vergangene Wärmephasen (z. B. 2016 vs. 1998).

Jedoch auch der Erwärmungstrend Anfang des 20. Jahrhundets wurde so korrigiert, dass er jetzt kleiner ist, als vorher. Deswegen ist der Temperaturtrend insgesamt zwischen Ende des 19. Jahrhunderts und heute größer, als vorher und “paßt besser” auch im zeitlichen Verlauf zur modellierten Erwärmung.

Die Korrekturmethoden sind allerdings sehr intransparent und von Klimawissenschaftlern, die mit dieser speziellen Materie nicht vertraut sind, schwer nachvollziehbar.
Man kann diese Korrekturen glauben oder nicht glauben, was an die wissenschaftliche Basis rührt: Glauben kann man in der Kirche, hier geht es um Daten, Zahlen, Fakten.

Die Konsequenz daraus ist, dass man keinem dieser Temperaturtrends “glauben” kann, sondern dass man sie mit einer Unsicherheitsbandbreite versehen muss.

Wenn sich der Bereich der Temperaturtrends zwischen 1979 und 2018 auf 0,127 und 0,198°C pro Jahrzehnt erstreckt, dann könnte der “wahre” Wert bei etwa 0,163 +/ - 0,03°C liegen. Das ist etwas mehr, als der Wert, den wir bisher als beobachtete Erwärmungsrate angenommen haben und der bei 0,15 liegt.

An dieser Stelle führen wir die Betrachtung, die wir 2014 in der dort gezeigten Tabelle dargestellt haben (Globale Temperaturtrends 1979 – 2013) bis 2019 weiter, um zu zeigen, wie sich die Trends seither im zeitlichen Verlauf entwickelt haben.

Abweichend von 2014 führen wir das auf Basis der GISS Daten durch, da diese bis einschliesslich Januar 2020 vorliegen.

Zusätzlich dazu betrachten wir die Trends auf der Grundlage der Jones et al Daten, die in dieser Form nur bis 2016 veröffentlicht wurden nur bis einschliesslich 2015 vorliegen.

Zunächst zeigen wir zum Vergleich die gleiche Tabelle wie 2014 erweitert um die Jones et al (2016) und die aktuellen (Januar 2020) GISS Daten (wie auch immer angepasst, korrigiert oder bearbeitet).

Die Zahlen in der Tabelle stellen den Temperaturtrend in °C pro Jahrzehnt für den angegebenen Zeitraum dar.


MSU 2LT 5.6 Jones 2014 Jones 2016 GISS 2020
1979 - 2013 0,14 0,13 0,16 0,16
1981 - 2013 0,15 0,13 0,16 0,17
1983 - 2013 0,16 0,13 0,17 0,17
1985 - 2013 0,16 0,13 0,17 0,18
1987 - 2013 0,15 0,11 0,15 0,16
1989 - 2013 0,18 0,12 0,15 0,18
1991 - 2013 0,18 0,10 0,15 0,19
1993 - 2013 0,17 0,08 0,14 0,19
1995 - 2013 0,12 0,04 0,10 0,15
1997 - 2013 0,09 0,01 0,06 0,13
1998 - 2013 0,06 0,00 0,05 0,13
1999 - 2013 0,14 0,04 0,08 0,16
2001 - 2013 0,05 -0,04 0,00 0,07
1979 - 2015 n.v. n.v. 0,17 0,17
1979 - 2016 n. v. n. v. n. v. 0,18
1979 - 2017 n. v. n. v. n .v. 0,18
1979 - 2018 n. v. n. v. n. v. 0,18
1979 - 2019 n. v. n. v. n. v. 0,19
1998 - 2016 n. v. n. v. n. v. 0,20


n. v. = nicht verfügbar

Man sieht sofort, dass die neuen GISS Daten fast in allen Zeitabschnitten zwischen 1979 und 2013 deutlich höhere Erwärmungstrends zeigen, als sowohl die Jones et al (2014) oder die UAH Satellitendaten, wie z. B. 1979 – 2013 0,16°C im Vergleich zu 0,13° bzw 0,14°.

Betrachtet man nun zusätzlich die Jones et al (2016) Daten, dann weisen diese nun ebenfalls und abweichend von den 2014 veröffentlichten Daten zwischen 1979 und 2013 einen Trend von 0,16°C pro Jahrzehnt auf. Dieser Trend steigt bis 2015 auf 0,17° an, genauso, wie in den GISS Daten.

Das heißt, nicht nur in den GISS Daten sondern auch in den Jones et al (2016) Daten ist die Trendzunahme zwischen 1979 und 2013 das Ergebnis einer Überarbeitung der Daten nach 2013.

Man sieht darüber hinaus, dass die Stärke eines Trends sehr stark von den Anfangs- und Endpunkten abhängt.

Die GISS Daten zeigen eine stärkere Erwärmung als die Jones et al 2016 Daten in fast allen Teilabschnitten des Zeitraums 1979 - 2015.

Lange Zeit galt 1998 als das global wärmste Jahr. In den GISS Daten waren jedoch nahezu alle Jahre nach 1998 wärmer als 1998, die Differenz ist am augenfälligsten zu den UAH Satellitendaten, in denen nur 2016 knapp, 0,04° wärmer war als 1998, in den GISS Daten hingegen 0,41°.
Betrachtet man die Trends 1998 – 2015 in den GISS und den Jones et al Daten (2016), dann betrug der Trend in den GISS Daten 0,17°, in den Jones et al Daten jedoch nur 0,10°.
Auch dies ist ein Hinweis darauf, dass die GISS Daten stärker “erwärmt” wurden, als die Jones et al Daten.

Inwieweit diese Überarbeitungen realistisch sind, sei dahingestellt. Es ist lediglich wichtig zu wissen, dass die Trendverstärkung Ergebnis einer Überarbeitung der Daten war und nicht notwendigerweise das Ergebnis einer tatsächlichen Erwärmung, die man vorher so nicht erkannt hat.

Ferner zeigt sich, dass nicht nur Klimamodellabschätzungen unsicher sind, sondern dass auch die Beobachtungsdatenbasis recht unsicher ist, da jede neue Überarbeitung neue Trendabschätzungen hervorbringen kann, wie das offensichtlich in den letzten Jahren mehrfach der Fall war.

Auch in Zukunft sollte man jederzeit damit rechnen, dass die Temperaturdaten erneut überarbeitet werden – mit welchem Ergebnis, weiß man heute nicht.

Wie dem auch sei, zwischen 1979 und 2019 beträgt der Trend in den GISS Daten 0,19°C pro Jahrzehnt und in den UAH Satellitendaten 0,13°.

Es beschleicht einen der Verdacht, dass eine dieser Messreihen nicht stimmen kann, vielleicht sogar beide nicht. Denn Unterschiede in den Trendstärken von knapp 50% sind schwierig erklärbar, vor allem nicht über Zeiträume von 40 Jahren hinweg.

Da wir an dieser Stelle die Diskrepanzen zwischen diesen Trends nicht auflösen können, bleiben wir bei der obigen Bewertung, dass die Erwärmungstrends der letzten Jahrzehnte bei 0,163° pro Jahrzehnt liegen mit einer Unsicherheitsbandbreite von +/ - 0,03°.

Die Trendbeschleunigung in den GISS Daten fand insbesondere zwischen 2014 und 2019 statt, von 0,16 auf 0,19. Nach 2014 sprangen die Temperaturen im GISS Datensatz um ca. 0,2°C nach oben, sodass die zweite Hälfte der 2010er Jahre etwa 0,2°C wärmer war als die erste Hälfte. Die globale Erwärmungspause, die zumindest in den Nicht-GISS Daten bis 2014 erkennbar war, bevor auch diese korrigiert wurden, ging 2015 zu Ende.

Die Hauptursache dafür war das Super El Nino 2015 – 2016.

Aber auch im gesamten Zeitraum 2015 – 2019 war der ozeanische Nino Index ONI (S. 21 - 22) signifikant größer als 2010 – 2014, nämlich 0,493 statt – 0,32. Positive Werte über 0,5 kennzeichnen ein El Nino Ereignis, negative Werte unter -0,5 ein LA Nina Ereignis.

2015 – 2019 befand sich also überwiegend in einem El Nino Zustand, während 2010 – 2014 mehr in Richtung La Nina neigte.


Aus vielen Analysen ist bekannt, dass die globale Mitteltemperatur in El Nino Jahren signifkant höher ist, als in La Nina Jahren. Deswegen kann man davon ausgehen, dass ein Teil der Erwärmung zwischen Anfang und Ende der 2010er Jahre auf das verstärkte Auftreten von El Nino Ereignissen zurückgeführt werden kann.

Zusammenfassend läßt sich die Trendbeschleunigung zwischen 2013 und 2019 durch zwei wesentliche Faktoren erklären:

1. Eine Korrektur/Überarbeitung der Temperaturdaten hat auch für den Zeitraum bis 2013 zu einer Erwärmung geführt, wobei nicht abschliessend geklärt werden kann, ob diese Überarbeitung realistisch ist; Trendzunahme von ca. 0,13 auf 0,16° C pro Jahrzehnt in den Bodendaten und RSS

2. Starke El Nino Ereignisse 2015 - 2019, Trendzunahme von ca. 0,16 auf 0,19°C pro Jahrzehnt in den Bodendaten und RSS

Welche Schlussfolgerungen kann man aus den Temperaturtrends der vergangenen Jahrzehnte auf die Zukunft ziehen?


Wir haben auf diesen Seiten wiederholt die Auffassung vertreten, dass sich die globale Mitteltemperatur in den nächsten drei Jahrzehnten, also bis 2050 um etwa ein halbes Grad erhöhen wird, wenn man die gegenwärtigen Trends in die Zukunft extrapoliert. Diese Einschätzung ist auch unter Berücksichtigung der aktuellen Trends noch gültig, denn drei mal 0,163 ergibt 0,49°C in 2050.

Wenn man die hier abgeleitete Bandbreite im Trend von +/- 0,03°C anlegt, gelangt man entweder zu etwa 0,4 oder knapp 0,6°C gegenüber heute, also keine dramatischeren Klimaänderungen als in den vergangenen 30 Jahren.

Diese Einschätzung war und ist die massgebliche Grundlage dafür, dass wir die Klimapanik, Klimahysterie und den Begriff der “Klimakrise” genausowenig nachvollziehen können, wie die klimapolitischen Massnahmen, die auf eine Total – Dekarbonisierung von Wirtschaft und Gesellschaft sowohl in Deutschland als auch in Europa abzielen – ungeachtet der Kosten und der wirtschaftlichen und sozialen Auswirkungen.

An der auf diesen Seiten seit 2010 vertretenen Auffassung , dass nicht der Klimawandel Deutschland bedroht, sondern die Klimapolitik, hat sich nichts geändert.

Einen etwas anderen und komplexeren Weg als eine einfache Trendfortschreibung wählt Judy Curry in ihrer Darstellung von plausiblen Klimaszenarien bis 2050.

Auf der Grundlage verschiedener CO2 Emissionsszenarien und Klimaempfindlichkeiten gelangt sie zu der Einschätzung, dass die wahrscheinlichste Erwärmung von 2020 bis 2050 zwischen 0,4 – 0,6°C liegen wird – recht genau der Wert, zu dem wir durch eine einfache Trendfortschreibung gelangt sind – was wenig überrascht, denn der in den vergangenen Jahrzehnten beobachtete Temperaturanstieg erfolgte ja auch in Reaktion auf den gestiegenen Spurengasgehalt in der Atmosphäre.
Eine Trendfortschreibung ähnlicher plausibler Emissionsraten wie in der Vergangenheit wird auch zu vergleichbaren Temperaturanstiegen führen, besonders, wenn man sich daran erinnert, dass die Treibhauswirkung von CO2 mit dem Logarithmus der CO2 Konzentration ansteigt, also langsamer als linear.

Judy Curry betrachtet zusätzlich noch den möglichen oder sogar wahrscheinlichen Einfluss natürlicher Parameter auf die Klimaentwicklung zwischen 2020 und 2050.

Hierbei spielen zwei Parameter eine größere Rolle. Der eine ist die sog. AMO, eine Schwankung der atlantischen Ozeantemperatur. Die AMO schwankt mit einer Periode von etwa 60 Jahren. Sie ist Mitte der 1990er Jahre in eine positive Phase getreten, die Schätzungen zufolge bis etwa 2030 andauern wird, anschliessend wird mit einem Übergang in eine negative Phase gerechnet.

Allgemein wird davon ausgegangen, dass der Phasenwechsel der AMO von negativ zu positiv zwischen 1920 und 1940 sowie zwischen 1990 und 2010 einer der Gründe für den Temperaturanstig in diesen Zeitabschnitten war.

Zwischen 1950 und 1970 trat die AMO in eine negative Phase, eine Zeit, in der die globalen Mitteltemperaturen etwas zurückgingen; in der Nordhemisphäre stärker als in der Südhemisphäre.

Tritt die AMO nach 2030 wieder in eine negative Phase, würde dies den Treibhausgas bedingten Temperaturanstieg dämpfen.

Der nächste Punkt ist die solare Aktivität. Die Rolle solarer Schwankungen wird von den meisten Klimaforschern eher zurückhaltend bewertet, weil die direkten Schwankungen im solaren Strahlungsausstoß so gering sind, dass sie für das Klima keine Rolle spielen sollen.

Physikalisch lässt sich ein solarer Einfluss auf das Klima nur durch Verstärkungsmechanismen, wie z. B. die Beeinflussung der kosmischen Strahlung durch den solaren Wind, erklären.

Andrerseits gibt es aus vielen, meist statistischen Studien zahlreiche Hinweise darauf, dass es einen Zusammenhang zwischen der solaren Aktivität und dem irdischen Klima gibt. So war die Sonnenfleckenaktivität während des Höhepunktes der kleinen Eiszeit im 17. Jahrhundert deutlich reduziert (Maunder Minimum). Ferner gibt es Hinweise darauf, dass die Sonnenaktivität während der mittelalterlichen Wärmeperiode erhöht war.

Einigen Untersuchungen zufolge hat die Sonnenaktivität zwischen den 1950er und den frühen 2000er Jahren den höchsten Wert der letzten 1000 Jahre erreicht. Einige der für die solare Aktivität relevanten Parameter, wie die Sonnenfleckenrelativzahl, haben sich zwischen Ende des 19. und dem Ende des 20. Jahrhunderts verdoppelt.

In den letzten 20 Jahren hat sich die solare Aktivität jedoch deutlich abgeschwächt, während die globale Mitteltemperatur weiter gestiegen ist. Somit können Schwankungen der solaren Aktivität keinen Beitrag zur Erwärmung der letzten 20 Jahre geleistet haben. Das letzte solare Maximum war das schwächste seit mehr als 100 Jahren.

Astrophysikalischen Untersuchungen zufolge könnte die Sonnenaktivität in den nächsten Jahrzehnten auf ein ähnliches Minimum absinken, wie während des Maunder Minimums.

Sollte sich die solare Aktivität tatsächlich in diesem Ausmass abschwächen, hätte dies ebenfalls dämpfende Auswirkungen auf den Treibhaus bedingten Temperaturanstieg bis 2050.

Das heißt, beide der bekannteren natürlichen Einflussparameter auf das Klima werden in den kommenden 30 Jahren einen dämpfenden Einfluss auf den Treibhausgas bedingten Temperaturanstieg ausüben, sodass schlussendlich eher die untere Bandbreite des weiter oben abgeleiteten Temperaturanstieges eintreten könnte und nicht die obere.

Wie dem auch sei, es gibt auch nach Berücksichtigung natürlicher Parameter keinen Grund zur Annahme, dass in den kommenden drei Jahrzehnten bis 2050 ein größerer Temperaturanstieg eintreten wird, als in den letzten drei Jahrzehnten.

Diese Erkenntnis wird es natürlich nicht in den politischen Mainstream schaffen, weil der auf die Einhaltung der Pariser Vorgabe eines 2 Grad oder jetzt sogar eines 1,5 Grad Zieles fixiert ist.

Wenn man davon ausgeht, dass der Temperaturanstieg seit dem 19. Jahrhundert ca. 1°C beträgt und man ferner animmt, dass der gesamte Anstieg auf Treibhausgase zurückzuführen ist (was mit Sicherheit unzutreffend ist, s. die Erwärmung in der ersten Hälfte des 20. Jahrhunderts) dann würde man ein 1,5 Grad Ziel bis 2050 gerade einhalten oder gerade reissen, je nachdem welcher Bereich der Bandbreite von 0,4 bis 0,6°C eintreten würde.

Fakt ist, dass es sich bei den Pariser Zielen um politisch vereinbarte Ziele handelt, aber nicht um naturgesetzlich definierte.

Forderungen, die CO2 Emissionen bis 2030 gegenüber 2010 zu halbieren, oder bis 2050 völlig einzustellen, sind völlig unrealistisch, weil sie zu einem Zusammenbruch der Weltwirtschaft führen würden und zu mehr Armut und Elend, als es Klimaänderungen von einem halben Grad jemals tun würden. Sie verkennen, wie sehr die Weltwirtschaft von der Nutzung fossiler Energieträger abhängt, und dass man das Gesamtsystem nicht in 30 Jahren umstürzen kann, ohne massive Wohlstandsverluste in Kauf zu nehmen.

Die Absurdität derartiger Forderungen zeigt sich u. a. auch dadurch, dass selbst ein Ersatz der gegenwärtigen Energieversorgung durch Kernenergie den Bau eines Kernkraftwerkes in den kommenden 30 Jahren erforderlich machen würde - PRO TAG!

Deswegen ist auch die Einschätzung des normalerweise gut informierten Finanzwissenschaftlers Nouriel Roubini demonstrabel falsch, der Klimawandel würde schon in Kürze ein unterschätztes Risiko für die Finanzmärkte darstellen.
Roubini, normalerweise ein klarer Durchblicker, ist der Propaganda der Fake News Medien erlegen, wenn er schreibt: "It (Climate change) is a threat in the here and now, as demonstrated by the growing frequency and severity of extreme weather events", eine Einschätzung, die sich im Lichte der wissenschftlichen Erkenntnisse nicht aufrechterhalten lässt.

Die wirkliche Gefahr für die Finanzmärkte geht von der Klimapolitik aus, die sich disruptiv auf die Geschäftsgrundlage vieler Unternehmen auswirkt, aber auch auf die finanzielle Situation der einzelnen Bürger. Was für Energie mehr ausgegeben werden muss, kann nicht für andere Dinge ausgegeben werden.

Die gesamte Energieinfrastruktur der Welt ist auf der Nutzung fossiler Energieträger aufgebaut. Fossile Energieträger weisen eine hohe Leistungsdichte auf. Sie durch Energieträger mit sehr geinger Leistungsdichte zu ersetzen, wie z. B. durch Windmühlen oder Solarzellen, die obendrein nur sporadisch Energie erzeugen (weil der Wind nicht immer weht und die Sonne nicht immer scheint), ist nicht nur mit extrem hohen Kosten verbunden, sondern wird absehbar in nächster Zeit selbst physikalisch und technisch nicht in der Lage sein, das bestehende Energieversorgungssystem zu ersetzen – jedenfalls nicht in den nächsten 30 Jahren (s. z. B. hier und hier ).

Energiewenden der Vergangenheit haben immer Energieträger mit einer geringen Leistungsdichte durch Energieträger mit einer höheren Leistungsdichte ersetzt: Holz, Holzkohle, Kohle, Öl, Gas, Kernenergie.

Dies war die Grundlage unserer modernen zivilisatorischen Entwicklung. Eine Rückkehr zu Energien mit einer wesentlich geringeren Leistungsdichte würde die Grundlagen unserer Zivilisation einreißen und zu Armut und Verelendung führen.

Klimapolitische Forderungen nach einer Total – Dekarbonisierung in den kommenden Jahrzehnten sind völlig unrealistisch und haben nicht die geringste Chance auf Umsetzung, egal, was in Paris vereinbart wurde und in Brüssel oder Berlin umgesetzt werden soll.

Sie werden früher oder später auf dem harten Boden wirtschaftlicher und gesellschaftspolitischer Realitäten aufprallen und sich in Staub auflösen.