Und sie erwärmt sich - doch viel zu langsam

Seine Rede bei der Alternativen Ökokonferenz der FDP Landtagsfraktion Sachsen überschrieb der tschechische Staatspräsident a.D. Václav Klaus mit den Worten „Die Irrationalität und das Pharisäertum der Anhänger der Doktrin der globalen Erwärmung wachsen“.

Veröffentlicht:
von

Obwohl nicht so gedacht, hätte es eine bessere Replik auf die nur wenige Tage vorher erschienene und heiß debattierte Broschüre des Umweltbundesamtes „Und sie erwärmt sich doch“ kaum geben können.

In diesen Tagen wird oft kolportiert, das UBA hätte ja nur den Stand der Wissenschaft wiedergegeben. Man dürfe sicher anderer Auffassung sein, aber dann müsse man eben damit leben, von einer staatlichen Behörde mehr oder weniger direkt als nicht vertrauenswürdige Quelle benannt zu werden. Der feste Glaube an die Gefahr einer katastrophalen, menschgemachten Erwärmung basiert aber nicht auf der Faktenlage der Gegenwart, sondern auf mit Klimamodellen erstellten Zukunftsprojektionen. Ist es unwissenschaftlich, deren Validität in Zweifel zu ziehen? Schließlich bezieht das UBA in Abschnitt 14 auf Seite 80 und 81 eindeutig Stellung. Die Ergebnisse der Modellrechnungen seien belastbar, weil sie die klimatische Entwicklung der jüngeren Vergangenheit korrekt wiedergeben würden:

 

Globale Temperaturprojektionen der letzten beiden Jahrzehnte stimmen ebenfalls insgesamt mit den anschließenden Beobachtungen in diesem Zeitraum überein.

 

Václav Klaus dagegen führte in Dresden aus:

 

[…] die Oberflächentemperatur der Erde steigt in der letzten Jahrzehnten mit verschiedenen Unterbrechungen langsam an, aber ihre bis heute existierende Steigerung ist mit Projektionen von Computermodellen, auf die sich das IPCC stützt, offensichtlich nicht im Einklang; […]

 

Nun sind weder die Autoren des UBA-Papiers, noch der bis März 2013 amtierende tschechische Staatspräsident Klimaforscher. Als einen solchen könnte man aber Jochem Marotzke befragen, Direktor des hamburgischen Max-Planck-Institut für Meteorologie. Denn dieser wird in einer aktuellen Pressemitteilung (Dank an Pierre Gosselin für den Hinweis) wie folgt zitiert:

 

In den vergangenen beiden Jahrzehnten zeigte sich der Klimawandel wechselhaft. Während die globale Durchschnittstemperatur in den 1990er-Jahren schneller stieg als jemals zuvor, nämlich um 0,24 Grad Celsius, erhöhte sie sich im darauffolgenden Jahrzehnt nur noch um etwa 0,03 Grad Celsius. „Diese Abschwächung der Temperaturerhöhung an der Erdoberfläche können wir mit unseren Modellen bisher nicht erklären“, sagt Jochem Marotzke.

 

Die UBA-Broschüre ist also schon nach Erscheinen veraltet. Vielleicht sollten in Zukunft die Klimaskeptiker zur Mitarbeit an derartigen Veröffentlichungen eingeladen werden, damit solche Fehler nicht mehr geschehen. Wäre man böswillig, könnte man dem Umweltbundesamt auch eine anhaltende Wahrnehmungsschwäche unterstellen.  Denn der Auslöser der oben zitierten Pressemitteilung, die neue Studie  von Otto et al., Energy budget constraints on climate response (Nature Geoscience, 19. Mai 2013, leider hinter einer Paywall), entzieht der Klimapolitik der Bundesregierung faktisch die Basis.

Dies zu verstehen erfordert die Betrachtung der gedanklichen Konstruktion, die hinter den Zielen zur Emissionsminderung steht. Auch hier hilft die UBA-Broschüre nicht weiter. Die Absicht, die Konzentration von Treibhausgasen in der Atmosphäre auf einem Niveau zu stabilisieren, auf dem eine gefährliche anthropogene Störung des Klimasystems verhindert wird (vgl. United Nations Framework Convention on Climate Change, UNFCCC), definiert noch keinen Handlungsrahmen zur Konzeption und Überprüfung von Maßnahmen. Was genau man unter „gefährlich“ zu verstehen hat und welches konkrete Niveau nun daraus folgt, ist vielmehr durch das „2-Grad-Ziel“ festgelegt.

Es war wohl Hans-Joachim Schellnhuber, damals stellvertretender Vorsitzender des WBGU, der sich um 1995 herum an eine alte Idee des amerikanischen Ökonomen William Nordhaus aus den 1970er Jahren erinnerte. Man könne doch, so Nordhaus, die natürliche Variabilität des Klimasystems der erdgeschichtlich jüngeren Vergangenheit heranziehen. Also beispielsweise die letzten 100.000 Jahre, die den Aufstieg des Homo Sapiens erlebten. Die mittlere globale Temperatur wäre in diesem Zeitraum nie um mehr als 2 Grad nach oben von einem als „vorindustriell“ gedachten Normalwert  abgewichen. Also sei das der Bereich, an den sich die Menschheit angepaßt hätte und dieser dürfe daher nicht verlassen werden. Schellnhuber brachte dieses Argument in die politische Debatte ein und auch durch das Wirken der damaligen Umweltministerin Angela Merkel wurde es rasch (1996) Grundlage der deutschen und europäischen Klimapolitik. Als Bundeskanzlerin konnte Merkel ab 2005 nach und nach die internationale Gemeinschaft vom 2-Grad-Ziel überzeugen und so wurde es 2010 als Teil der UNFCCC von allen Vertragspartnern akzeptiert.

Die intellektuellen Schwächen dieser Idee liegen auf der Hand. Nur weil etwas noch nie vorgekommen ist, soll es gefährlich sein? Die Menschheit paßt sich ja nicht an mittlere, globale Temperaturanomalien an, sondern an Wetter und Witterung vor Ort. So konnte der Homo Sapiens in eben jenen letzten 100.000 Jahren alle Klimazonen dieses Planeten erobern und besiedeln. Nicht zuletzt durch Technologie hat sich die Zivilisation über einen Temperaturbereich ausgebreitet, der ein Vielfaches von 2 Grad beträgt. Die Annahme der Verletzlichkeit gegenüber einem vergleichsweise moderaten Anstieg im Mittel muß daher viel gründlicher belegt werden, als derzeit möglich. Die auch durch die IPCC-Berichte kolportierte Idee von mit der 2-Grad-Grenze verknüpften besonderen Klimarisiken ist hochspekulativ.

Politisch wichtiger aber nicht minder ungenau ist das Ratespiel, welche Menge an Treibhausgasemissionen denn nun mit dieser Temperaturschranke verbunden ist. Das kann man theoretisch den Klimamodellen entnehmen.  Nur gibt es eine ganze Reihe davon, die alle das System aus Atmosphäre, Erdoberfläche und Ozeanen und die dort ablaufenden Prozesse in unterschiedlicher Weise beschreiben und dementsprechend ganz unterschiedliche Ergebnisse liefern. Das scheinbar so konkrete und eindeutige „2-Grad-Ziel“ ist daher in Wirklichkeit eine Wahrscheinlichkeitsaussage über Projektionen. Genauer gesagt geht man heute davon aus, diese Marke auch langfristig dann nicht zu überschreiten, wenn man die Kohlendioxid-Konzentration* in der Atmosphäre auf 450 ppm begrenzen kann. Weil 50% der zur Betrachtung herangezogenen Modellrechnungen bei dieser Menge an Treibhausgasen eine Temperaturerhöhung nicht über zwei Grad auswerfen (vgl.  Oliver Geden: Abkehr vom 2-Grad-Ziel)

Weder die Auswahl der verwendeten Klimasimulationen, noch der Schwellenwert von 50% sind bislang Teil der öffentlichen Debatte. Dabei wäre doch insbesondere letzterer als Maß für die Risikobereitschaft einer Gesellschaft in einer breiten Diskussion zu entscheiden. Man könnte ja auch 75% fordern, wie der WBGU. Oder 25%, 90%, 10% – das eine ist so gut wie das andere, da die Konstruktion des Grenzwertes von der realen Temperaturentwicklung völlig entkoppelt ist. Sollte die Menschheit in den kommenden Jahren das 2-Grad-Ziel verfehlen, hat man in Wahrheit nur eine Menge an CO2 emittiert, die in mehr als der Hälfte der Modellrechnungen zu einer entsprechend höheren Temperatur führt. Welches Modell aber das Klimasystem am besten wiedergibt, welche Temperaturentwicklung sich also am Ende wirklich einstellt, kann erst in der Rückschau entschieden werden.

Im Moment sichert das 2-Grad-Ziel eigentlich nur den großen Einfluß einiger weniger wortführender Wissenschaftler auf die Politik ab. Denn diese sind es letztendlich, die Maßzahlen wie „2 Grad“ oder „50%“ und die heranzuziehenden Simulationsrechnungen (und damit die zu unterstützenden Forschungseinrichtungen) nach Gutdünken der Politik vorgeben können. Wer nach dem Mechanismus sucht, über den aktivistische Forscher ihre persönliche politische Agenda von der Öffentlichkeit unbemerkt in das Regierungshandeln integrieren, wird beim 2-Grad-Ziel fündig.

Natürlich spart das UBA diese Fragestellungen in seinem Papier aus. Denn die 450 ppm eignen sich hervorragend, um den Bürgern sowohl die Dringlichkeit (es sind ja schon 400 ppm erreicht), als auch die Größe der Aufgabe zu verdeutlichen. Zweifel daran könnten womöglich Bedenken an Hast und Ausmaß klimapolitischer Maßnahmen stärken, von Energiewende bis Glühlampenverbot. Dumm nur, wenn einem dann die Wissenschaft in Gestalt eben jener oben erwähnten Studie in die Parade fährt. In der Presseerklärung des MPI für Meteorologie heißt es nämlich: 

 

Anhand dieser Werte berechnen die Forscher, dass sich die bodennahe Atmosphäre bei einer Verdopplung des CO2-Gehaltes mit 90prozentiger Wahrscheinlichkeit um 0,9 bis 2,0 Grad Celsius erwärmt haben wird; am wahrscheinlichsten ist eine Temperaturerhöhung um 1,3 Grad.

 

Bei der gegenwärtigen Zunahme der atmosphärischen Kohlendioxid-Konzentration von 2 ppm pro Jahr würde sich diese Verdopplung gegenüber dem vorindustriellen Niveau in 80 Jahren einstellen (von 280 auf 560, bei aktuell 400 ppm). Wir wären also bis fast zum Ende des Jahrhunderts auf der sicheren Seite. Beschleunigen sich unsere Emissionen, kann es natürlich auch früher so weit sein. In der Pressemitteilung wird von der Mitte des Jahrhunderts gesprochen.

Natürlich ist das nur ein Übergangswert. Die Erwärmung wird an dieser Stelle nicht stoppen, denn das Klimasystem ist träge und braucht Zeit, um auf eine Störung des Gleichgewichtes von solarer Einstrahlung und terrestrischer Abstrahlung zu reagieren. Es wird letztendlich in einen neuen Gleichgewichtszustand übergehen, in dem sich die Wärme in der Atmosphäre aber anders verteilt als heute. Das kann Jahrhunderte dauern. Die unteren Luftschichten werden wärmer, die Hochatmosphäre kühlt ab. Zur Höhe der Temperaturzunahme am Erdboden im neuen Gleichgewicht trifft das MPI für Meteorologie folgende Aussage:

 

Sollte nach einer Verdopplung der Kohlendioxid-Konzentration kein zusätzliches Treibhausgas in die Atmosphäre geblasen werden, heizte sich die Erde in den folgenden Jahrhunderten verglichen mit vorindustriellen Werten mit 90prozentiger Wahrscheinlichkeit um 1,2 bis 3,9 Grad auf. Am wahrscheinlichsten für die langfristige Klimareaktion ist ein Anstieg um zwei Grad.

 

Leider enthält der Text die Angabe nicht, wie wahrscheinlich ein Anstieg bis zu zwei Grad denn nun tatsächlich ist. Die Formulierung legt aber nahe, mit „50%“ nicht ganz falsch zu liegen.

Es sind also nicht mehr 450, die für das „2-Grad-Ziel“ einzuhalten wären, sondern 560 ppm. Es ist nicht mehr der Zeitraum von heute bis 2050, um den man sich als Alarmist Sorgen machen sollte, sondern der von 2050 bis 2100. Das ist ein großer und bedeutender Unterschied. Umfang und Dringlichkeit von Klimaschutzmaßnahmen reduzieren sich enorm. Man könnte beispielsweise die Energiewende erst einmal anhalten, sich zurücklehnen und ganz in Ruhe noch einmal nachdenken. Gleiches gilt für Emissionsobergrenzen von Fahrzeugen oder die Ökodesign-Richtlinie. Man könnte auch ganz einfach den Klimaschutz ganz von der Agenda nehmen. Denn 560 ppm liegen weit jenseits aller sinnvollen politischen Planungszeiträume. Und wenn die Klimaforschung schon beginnt, sich so deutlich zu korrigieren, ist es vielleicht wirklich anzuraten, die ganze gedankliche Konstruktion einer bevorstehenden Klimakatastrophe erst einmal zu vergessen. Denn wie die Hamburger Wissenschaftler weiter ausführen, ist eine Arbeit wie die jetzt vorgelegte immer auch ein Hinweis auf grundsätzliche Lücken im Wissensstand:

 

„In Anbetracht dessen, was wir über Klimavariabilität wissen und nicht wissen, sollten wir ein einzelnes Jahrzehnt nicht überinterpretieren“, sagt Jochem Marotzke. Denn die Forscher müssen immer noch einige Details klären, wie das Klima auf die Zunahme der Treibhausgase reagiert. „Derzeit gehen wir zum Beispiel davon aus, dass die Stärke der Rückkopplungen über die Zeit konstant bleibt“, sagt Jochem Marotzke. „Aber wir wissen nicht, ob das tatsächlich so ist.“

Unsicher ist zudem die Rolle der Aerosole: Wie viel Sonnenlicht reflektieren die Schwebteilchen in oberen Atmosphärenschicht? Und wie beeinflussen sie die Bildung von Wolken und Niederschlag? Überhaupt die Wolken. Sie mischen auf vielfältige Weise im Klima mit: Sie bringen nicht nur Niederschlag, sie schirmen auch das Licht der Sonne ab. Unsicher ist aber, wie sie auf eine Erderwärmung reagieren: Bilden sich mehr Wolken, wenn es auf der Erde wärmer wird, weil dann mehr Wasser verdunstet? Oder bilden sich weniger Wolken, weil sich auch die Luftströmungen ändern?

 

Obwohl die Autoren der neuen Studie an Mahnungen und Warnungen festhalten, die in der UBA-Broschüre beschworene Sicherheit hinsichtlich Ausmaß und Geschwindigkeit eines mutmaßlich menschgemachten Klimawandels vermitteln sie nicht.  Vielleicht ist eine staatliche Behörde auch nicht verpflichtet, die Öffentlichkeit über solche und ähnliche Indizien aufzuklären, wenn sie gleichzeitig auf die Skeptiker hinweist, bei denen man das ja nachschlagen kann.

Die neue Studie mag nicht der Weisheit letzter Schluß sein, die bisherigen Klimamodelle aber sind es ganz sicher auch nicht. So berichtet Spiegel Online von einer Umfrage unter 123 Klimaforschern, von denen nur 15% der Aussage zugestimmt hätten, das Klima sei ausreichend verstanden, um es berechnen zu können. Das UBA vermittelt den unkundigen Lesern den Eindruck, in der Diskussion ginge es um die Frage, ob der Mensch das Klima beeinflussen könne. In Wirklichkeit aber bestehen Zweifel an der Größe dieses Einflusses und an seiner Relevanz für politische Entscheidungen. Hier von einem wissenschaftlichen Konsens zu sprechen, grenzt an Desinformation:

 

Nur 59 Prozent der Forscher [Ergänzung: von eben jenen 123 befragten] gaben demnach an, dass die “Klimaentwicklung der vergangenen 50 Jahre überwiegend vom Verhalten der Menschen beeinflusst” werde. Ein Viertel meinte, menschliche und natürliche Einflüsse hielten sich die Waage. 

 

Eine Politik, die sich selbst als “wissenschaftsbasiert” wahrnimmt, sollte Wissenschaft auch ernst nehmen. Und daher anerkennen, daß die Forschung immer nur den letzten Stand des Irrtums, nie aber endgültige Wahrheiten vermitteln kann. Wenn eine Behörde wie das UBA den Willen nicht hat, die zu beratenden Kunden in der Regierung und die Bevölkerung auf eine erforderliche Neuausrichtung der Klimapolitik als Folge neuer Erkenntnisse hinzuweisen, dann hat sie keine Existenzberechtigung.

ModelleundRealität

Modelle und Realität: Das Diagramm zeigt, was hinter der oben zitierten Aussage von Jochem Marotzke steckt. Dargestellt sind die Satellitenmessungen der mittleren globalen Temperaturanomalie bodennaher Luftschichten (rot und blau) im Vergleich zu den Ergebnissen aktueller Klimamodelle (dünne Linien, die schwarze Linie repräsentiert den Mittelwert über alle Simulationen). Bilder wie dieses enthält das UBA der Bevölkerung vor. Quelle: Roy Spencer

*) Zur Vereinfachung der Darstellung werden oft alle Treibhausgase in den Mengen Kohlendioxid dargestellt, die dieselbe Wirkung hätten. Wenn im Text von Kohlendioxid-Konzentrationen die Rede ist, ist grundsätzlich die Summe dieser CO2-Äquivalentkonzentrationen gemeint.

Weitere Links:

- Die EIKE-Replik auf die UBA-Broschüre findet sich hier.

- Eduardo Zorita hat auf der Klimazwiebel die obige Argumentation kurz und treffend auf den Punkt gebracht.

Beitrag erschien zuvor auf: science-skeptical.de

Für die Inhalte der Blogs und Kolumnen sind die jeweiligen Blogger verantwortlich. Die Beiträge der Blogger und Gastautoren geben nicht unbedingt die Meinung der Redaktion oder des Herausgebers wieder.

Ihnen hat der Artikel gefallen? Bitte
unterstützen Sie mit einer Spende unsere
unabhängige Berichterstattung.

Abonnieren Sie jetzt hier unseren Newsletter: Newsletter

Kommentare zum Artikel

Bitte beachten Sie beim Verfassen eines Kommentars die Regeln höflicher Kommunikation.

Gravatar: Ice66

"Das UBA vermittelt den unkundigen Lesern den Eindruck, in der Diskussion ginge es um die Frage, ob der Mensch das Klima beeinflussen könne. In Wirklichkeit aber bestehen Zweifel an der Größe dieses Einflusses ..."
Wie das Kommentar von Herrn Oberdörfer zeigt, trifft diese Aussage nur teilweise zu.

Gravatar: Elmar Oberdörffer

Es ist überhaupt noch nicht durch Messungen bewiesen, daß eine Änderung des CO2-Gehalts der Atmosphäre überhaupt eine Auswirkung auf die durchschnittliche Temperatur des Erde hat. Das bei weitem wirksamste aller sogenannten Treibhausgase ist der Wasserdampf, dessen Gehalt in der Atmosphäre große und vom Menschen nicht beeinflussbare Schwankungen zeigt. Der Effekt dieser Schwankungen ist weit größer als der Effekt einer allmählich steigenden CO2-Konzentration. Außerdem kondensiert Wasserdampf zu Wolken, die die einfallende Sonnenstrahlung in den Weltraum reflektieren und so die Erde kühlen. Die bemerkenswerte Stabilität des Klimas seit dem Ende der letzten Eiszeit mit Abweichungen von der langzeitigen Durchschnittstemperatur von nur maximal 1,5 °C nach oben oder unten sprechen sehr dafür, daß die Wolkenbildung eine stabilisierende negative Rückkopplung auf das Klima ausübt. Sie wird auch den befürchteten Temperaturanstieg durch anthropogenes CO2 auf wenige Zehntel °C begrenzen, sollte das CO2 tatsächlich einen Einfluß auf die Temperatur haben.

Schreiben Sie einen Kommentar


(erforderlich)

Zum Anfang