Die Thesen der „Klimaskeptiker“ – was ist dran?

Eine Antwort auf Alvo von Alvensleben

Von Prof. Stefan Rahmstorf, Potsdam-Institut für Klimafolgenforschung (September 2004)

Vorbemerkung

Ein Mitarbeiter eines Landesministeriums sandte mir vor kurzem den unten wiedergegebenen Text von Alvo von Alvensleben zu. Bei seinen Bemühungen um sinnvolle Klimavorsorge stößt er regelmäßig auf Skepsis und Widerstände, und es werden ihm immer wieder ähnliche Artikel der sogenannten "Klimaskeptiker" vorgehalten. Tenor: um Klimawandel brauchen wir uns nicht sorgen, da ist gar nichts dran.

Der untenstehende Aufsatz ist ein in vielerlei Hinsicht typisches Beispiel dieser “Skeptiker“-Literatur. Die meisten der Standardargumente kommen vor, und der Text ist geschickt formuliert. Hätte ich nicht mein Fachwissen und wäre ich nicht mit den Argumenten vertraut, Alvenslebens Aufsatz hätte auf mich wohl überzeugend gewirkt. Als durchschnittlich informierter Zeitungsleser hätte ich womöglich meine Einschätzung des Klimaproblems nach diesem Aufsatz geändert.

Der Text wird im Internet auf einer Seite mit Materialien für Physiklehrer verbreitet: www.schulphysik.de/klima/alvens/klima.html (Abruf 10.2.2004). Dort sind auch Abbildungen dabei, die hier aus technischen Gründen nicht wiedergegeben werden, sowie einige von mir weggelassene, klimatologisch unkontroverse Passagen.

Angesichts der Verbreitung und Wirkung solcher Texte lohnt es sich zu erläutern, weshalb diese seit Jahren im Internet und anderen Medien zirkulierenden Argumente auf Klimatologen wenig überzeugend wirken. Dies habe ich unten in der rechten Spalte versucht.

 

Stefan Rahmstorf schloß 1987 sein Physikstudium an der Universität Konstanz mit einer Diplomarbeit zur allgemeinen Relativitätstheorie ab. Im Anschluß verbrachte er vier Jahre in Neuseeland, nahm an Forschungsfahrten im Südpazifik teil und promovierte in der Ozeanografie an der Victoria University of Wellington. Ab 1991 arbeitete er als Wissenschaftler am Institut für Meereskunde in Kiel, seit 1996 am Potsdam-Institut für Klimafolgenforschung. 1999 erhielt er einen mit $ 1 Million dotierten Förderpreis der McDonnell Stiftung aus den USA. Seit 2000 lehrt Rahmstorf als Professor für Physik der Ozeane an der Universität Potsdam. Er ist Mitglied im "Panel on Abrupt Climate Change" der US National Oceanic and Atmospheric Administration.
   
Text von Alvo von Alvensleben Anmerkungen von Stefan Rahmstorf
Zu Beginn ein Zitat
Zur Einstimmung auf das Thema hier Auszüge aus einem Artikel in der angesehenen amerikanischen Wochenzeitung "Newsweek": "Es gibt bedrohliche Anzeichen, daß die Wetterverhältnisse der Erde begonnen haben, sich dramatisch zu verändern, und daß diese Änderungen hindeuten auf eine drastische Abnahme der Nahrungsmittelerzeugung – mit ernsten politischen Auswirkungen für praktisch jede Nation auf der Erde. ... Die Anhaltspunkte für diese Voraussagen haben sich nun so massiv angehäuft, daß Meteorologen Schwierigkeiten haben, damit Schritt zu halten. ... Letztes Jahr im April, beim verheerendsten Ausbruch von Tornados, der je zu verzeichnen war, haben 148 Wirbelstürme mehr als 300 Menschen getötet und Schaden in Höhe von 500 Millionen Dollar in 13 US-Staaten angerichtet. Wissenschaftler sehen in diesen ... Ereignissen die Vorboten eines dramatischen Wandels im Wettergeschehen der Welt. Meteorologen sind sich nicht einig über Ursache und Ausmaß des Trends wie auch über seine spezifischen Auswirkungen auf lokale Wetterbedingungen. ... "Ein größerer Klimawechsel würde wirtschaftliche und soziale Anpassungen in weltweitem Maßstab erzwingen", warnt ein kürzlich erschienener Bericht der National Academy of Sciences (NAS) ... "Unsere Kenntnis der Mechanismen des Klimawechsels sind ebenso bruchstückhaft wie unsere Daten" räumt der Bericht der NAS ein. "Nicht nur sind die grundlegenden wissenschaftlichen Fragen großenteils unbeantwortet, sondern in vielen Fällen wissen wir nicht einmal genug, um die entscheidenden Fragen zu stellen". ... Und weiter:
"Klimatologen sind pessimistisch daß die politischen Führer irgendwelche positiven Maßnahmen ergreifen werden, um die Folgen des Klimawandels auszugleichen oder seine Auswirkungen zu verringern. ... Je länger die Planer zögern, desto schwieriger werden sie es finden, mit den Folgen des klimatischen Wandels fertig zu werden, wenn die Ergebnisse erst bittere Wirklichkeit geworden sind."
Soweit das Zitat aus "Newsweek". Das klingt alles ziemlich dramatisch und hochaktuell. - Wirklich? Der Bericht erschien vor 27 Jahren, am 28. April 1975. Und er warnte - vor den Folgen der in den letzten 3 Jahrzehnten beobachteten globalen Abkühlung! Inzwischen hat ein Richtungswechsel um volle 180 Grad stattgefunden. Mit ähnlich dramatischen Worten wird jetzt vor den Gefahren einer globalen Klima-Erwärmung gewarnt. Auch die Hinweise auf die vermehrt drohenden Unwetterkatastrophen sind ziemlich wörtlich die gleichen wie vor 27 Jahren - nur die Ursache soll jetzt die globale Klima-Erwärmung, nicht die Abkühlung sein. Was ist von all diesen Szenarien zu halten?

Kein ungeschickter Einstieg: durch den Vergleich mit einem Artikel aus den siebziger Jahren soll die Glaubwürdigkeit von Warnungen der Klimaforscher gleich zu Beginn generell in Frage gestellt werden.

Der Vergleich hinkt allerdings aus mehreren Gründen. Seinerzeit gab es einige wenige Wissenschaftler, die den Abkühlungstrend der vorangegangen drei Jahrzehnte als möglichen Vorboten einer gravierenderen Abkühlung werteten. Auch damals schon gingen die meisten Forscher von einer globalen Erwärmung durch das CO2 aus. Ein gesichertes quantitatives physikalisches Verständnis der Mechanismen, wie wir es heute haben, gab es damals jedoch noch nicht, und daher war umstritten, was überwiegt: die Erwärmung durch CO2 oder die Abkühlung durch Aerosole. Breite Unterstützung unter Klimatologen fanden die damaligen Anhänger einer Abkühlung nicht, und nach wenigen Jahren haben sie ihre Einschätzung aufgrund weiterer Untersuchungen selbst korrigiert.

Ich möchte daher einige differenziertere Folgerungen aus dieser Geschichte vorschlagen:

(1) Behauptungen einzelner Wissenschaftler sind zunächst mit Vorsicht zu behandeln, bis sich ihre Argumente unter Fachleuten weithin durchgesetzt (oder aber als nicht überzeugend erwiesen) haben.

(2) Die Aussagen von Wissenschaftler-Organisationen (wie etwa der zitierten NAS, oder heute dem IPCC) sind erheblich zuverlässiger und ausgewogener, da sich extreme Einzelmeinungen hier (anders als in den Medien) kaum durchsetzen können. Die NAS hat damals völlig korrekt und verantwortungsvoll gefolgert, dass die wissenschaftlichen Kenntnisse nicht ausreichen. (Bei der aktuellen globalen Erwärmung kommt die NAS zum gegenteiligen Schluss.)

(3) Die Selbstkorrektur ist eines der wesentlichen Merkmale der Wissenschaft, und sie hat hier gut funktioniert. Wissenschaftler sind dafür ausgebildet, die eigenen Einschätzungen immer wieder kritisch zu hinterfragen und sie im Licht neuer Erkenntnisse zu revidieren. Dogmen haben in einem offenen wissenschaftlichen Diskurs keine Chance zu bestehen.


Das IPCC

Verantwortlich für die weltweit verbreitete Furcht vor einer globalen Klima-Erwärmung und ihren vielfältigen Folgen ist das IPCC (Intergovernmental Panel on Climate Change), ein Gremium von (formell) rund 650 Wissenschaftlern, das vom United Nations Environmental Program (UNEP) und von der World Meteorological Organization (WMO) getragen wird. Dieses Gremium, in dem in mehreren Arbeitsgruppen jeweils einige wenige Personen die Hauptarbeit leisten, hat im April 2001 einen Third Assessment Report herausgegeben, auf dessen Grundlage im Juli 2001 Vertreter zahlreicher Staaten in Bonn zusammenkamen, um über die Durchführung von Maßnahmen zu beraten, die in Kyoto 1997 empfohlen worden waren ("Kyoto-Protokoll"). Mit Klima-Modellen wurde eine Erwärmung der Erdatmosphäre zwischen 1.4 und 5.8 °C bis zum Jahre 2100 vorausberechnet. Diese soll eintreten, wenn nichts gegen den weiteren Anstieg des CO2 in der Atmosphäre unternommen wird. Wenn man über das IPCC nichts Näheres weiß, hat man den Eindruck, in den Veröffentlichungen müssten sich die besten und sichersten Erkenntnisse der Klimatologie wiederfinden. Aber Zweifel sind angebracht:

Mannigfaltige Versuche, die Arbeit des IPCC zu diskreditieren, gehören zur "Skeptikerpflicht". Es handelt sich hier nicht um eine naturwissenschaftliche Frage; dennoch will ich einige Anmerkungen dazu machen, aus der Sicht von jemandem, der zum letzten IPCC-Bericht sowohl als "contributing author" eines Kapitels als auch als Gutachter bei anderen Kapiteln einige Beiträge geliefert hat.

Zunächst: die Aufgabe der Wissenschaftler, die an den IPCC-Berichten mitarbeiten, besteht darin, die in der begutachteten Fachliteratur veröffentlichten Forschungsergebnisse zusammenzufassen und zu diskutieren. Die IPCC-Berichte bringen also einen Überblick über den gesamten wissenschaftlichen Forschungsstand. Sie sind einerseits eine Art Serviceleistung für die Gesellschaft, indem die Fülle der verstreuten Fachliteratur, die sonst keiner überblicken kann, hier zusammenfassend zugänglich gemacht wird. Andererseits sind sie ein intensiver Diskussions- und Bewertungsprozeß unter den Forschern, der auch neue Erkenntnisse bringt. Beispiel: schweizer, norwegische und neuseeländische Glaziologen (usw.), die jeweils ihre heimischen Gletscher in- und auswendig kennen, werden durch das IPCC zusammengebracht, um eine globale Gesamtschau zu erstellen, wie sich die Gletscher weltweit entwickelt haben und ob dies zur globalen Erwärmung passt. Unterschiede in der Bewertung müssen hier offen ausdiskutiert werden. Zudem werden die Kapitelentwürfe im Internet zirkuliert und jedermann kann Kommentare einsenden, damit keine Daten vergessen oder Argumente übersehen werden.

1. So war das IPCC nach politischen, nicht nach wissenschaftlichen Gesichtspunkten zusammengesetzt: Es sollten möglichst viele Länder (mehr als 100) vertreten sein; die Nationalität war wichtiger als die wissenschaftliche Qualifikation. Es stimmt, dass versucht wird, Experten aus möglichst vielen Ländern zu beteiligen. Ich halte das für sinnvoll. Würde man nur nach typischen Qualifikationskriterien wie etwa der Anzahl der Fachpublikationen auswählen, hätten Forscher aus den meisten Entwicklungsländern keine Chance zur Mitarbeit. Die Entwicklungsländer sollten aber in alle Diskussionen einbezogen werden, damit auch sie die Entscheidungen zum Klimaschutz mittragen können.

2. die Schlußveröffentlichung des "Technical Summary, (TS) stellt kein von Gutachtern gebilligtes Dokument (wie in einer referierten Zeitschrift) dar, weil die Hauptautoren Einwände ohne Begründung übergehen durften - und dies auch taten, und Weil die Erstellung der Berichte ein offener Prozess ist, müssen die ehrenamtlich arbeitenden Autoren tausende von Kommentaren und Einwänden bearbeiten. Es ist unmöglich, jeden Einwand in den Text aufzunehmen (er würde ein unlesbares, widersprüchliches Konglomerat). Das IPCC dokumentiert jedoch jeden eingesandten Kommentar zusammen mit einem Hinweis, was mit ihm geschehen ist und weshalb.

3. Autoren, die - wie Professor Richard Lindzen vom MIT in Boston - daraufhin verlangten daß ihr Name aus der Liste der "Contributors" gestrichen wird, weil sie sich mit dem Inhalt der Veröffentlichung nicht identifizieren können, wurde dieser Wunsch abgelehnt. Nach außen erscheinen sie nach wie vor als Mitarbeiter an den veröffentlichten Dokumenten. Ich kann diesen Einzelfall nicht nachvollziehen – es gibt einige andere Fälle von Autoren, deren Name auf ihren Wunsch problemlos gestrichen wurde. Wie dem auch sei - die Qualität des wissenschaftlichen Inhalts wird nicht durch die Namensliste beeinflußt. Dass Dick Lindzen (seit vielen Jahren einer der rührigsten der US-"Klimaskeptiker") eine abweichende Meinung vertritt, ist durch seine öffentlichen Auftritte hinlänglich bekannt; dass er an der Erstellung des IPCC-Berichts beteiligt wurde, spricht für die Offenheit des IPCC für alle Argumente.

Einige persönliche Bemerkungen

Die düsteren Prognosen des IPCC, erarbeitet von so vielen Experten und mit den besten verfügbaren Computern und Klimamodellen, schienen mir kaum von der Hand zu weisen. Allerdings stieß ich bald auch auf kritische Stimmen, insbesondere auf eine Veröffentlichung "Klimafakten" der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover [1].

Man sollte dazu wissen: die BGR ist eine nachgeordnete Behörde des Wirtschaftsministeriums mit engen Verbindungen zur Kohle-Industrie. Das Buch "Klimafakten" entstand (so BGR-Präsident Wellmer in einem mir vorliegenden Schreiben) auf Initiative und im Auftrag des Ministeriums, das Buch wurde dann vom Braunkohleverband an Journalisten und Politiker verteilt. Dies obwohl die BGR kaum Klimaforschung betreibt und nur wenig Expertise auf diesem Gebiet vorweisen kann. Mehrere renommierte deutsche Klimaforscher haben sich wiederholt an die BGR gewandt und eine lange Liste von sachlichen Fehlern und irreführenden Darstellungen in diesem Buch moniert. Auch innerhalb der BGR ist diese Publikation sehr umstritten; im privaten Gespräch distanzieren sich selbst an der Entstehung des Buches beteiligte Mitarbeiter von dessen Aussagen zum menschlichen Einfluss auf das Klima. (Mehr zum Thema BGR im Zeit-Artikel "Flotte Kurven, dünne Daten", www.pik-potsdam.de/~stefan/flottekurven.html)

Meine Hauptbeschäftigung in den letzten Monaten war dann ein Studium der Klimatologie, insbesondere der Frage, ob wir nun, nach der Absage von Bush an das Kyoto-Protokoll, mit einer katastrophalen Klima-Erwärmung rechnen müssen, verursacht durch das von Menschen in der Erdatmosphäre angereicherte Kohlendioxid.

Erlaubt mir hier eine kleine Abschweifung: Das Internet bietet für ein solches Studium traumhafte Möglichkeiten. Innerhalb von zwei Tagen war ich Student der Universitäten von Zürich, Heidelberg, Bochum, Erlangen, Potsdam, Berlin, Melbourne ..., konnte den Wortlaut der Erklärungen von Bush und seinen Beratern lesen, sowie das Kyoto-Protokoll und die Äußerungen seiner Kritiker in USA und Deutschland. Das Wort "traumhaft" habe ich bewußt gewählt, denn solche Möglichkeiten zu Hause im Wohnzimmer (oder wo immer der Computer steht) zu haben, konnte man früher höchstens träumen, ohne Hoffnung, daß das jemals wahr werden könnte.

Das Internet bietet in der Tat phantastische Recherchemöglichkeiten. Allerdings erfordert es auch ein gesundes Maß an Kritikfähigkeit und Skepsis, denn eine Qualitätskontrolle gibt es nicht. Jedermann kann jeden noch so abstrusen Inhalt ins Internet stellen. So findet sich zu jedem die Gemüter bewegenden Wissenschaftsthema ein Panoptikum an Meinungen. Es gibt die Seiten derer, die den HIV-Virus nicht für die Ursache von AIDS halten. Es gibt jene, die die Relativitätstheorie für einen großen Schwindel halten (mit der Behauptung, dass dieses von der Physikermafia unterdrückt wird). Es gibt die Kreationisten, die die Evolutionstheorie ablehnen. Und es gibt die "Klimaskeptiker". Argumentationsstil und Methoden ähneln sich dabei oft, auch die Publikationen. So ist z.B. ein von den "Klimaskeptikern" häufig propagierter Artikel des polnischen Atomforschers Jaworowski ("Solar cycles, not CO2 determine climate") nicht etwa in der Fachliteratur, sondern in der Zeitschrift 21st Century Science and Technology erschienen, die zur Organisation des amerikanischen Multimillionärs und Verschwörungstheoretikers Lyndon LaRouche gehört, und die nicht nur den Klimawandel, sondern u.a. auch die Quantentheorie und Relativitätstheorie ablehnt.

In meiner Darstellung bemühe ich mich um Anschaulichkeit unter Vermeidung von Begriffen wie "Strahlung eines Schwarzen Körpers", die entweder gar nicht oder falsch verstanden werden. Wo ich mich auf "Autoritäten" berufe, versuche ich, deren Kompetenz glaubwürdig zu begründen. Eine Ankündigung, die in der Folge leider nicht realisiert wird: Alvensleben stützt sich fast durchweg auf "Autoritäten", die kaum oder überhaupt keine eigene Forschungsleistung in der Klimatologie vorweisen können - er hält dagegen offenbar wenig von Wissenschaftlern, die sich durch viele Jahre solider Forschung eine internationale Reputation erarbeitet haben.

Das ganze Thema hat mich auch emotional sehr bewegt. Deshalb habe ich gelegentlich persönliche Bemerkungen und Einschätzungen eingefügt. Ich denke, sie kommen der Lebendigkeit des Vortrags zugute. Die emotionale Bewegung nehme ich Alvensleben ab: viele "Klimaskeptiker" sind - aus welchen Gründen auch immer - sehr emotional dabei und haben das Gefühl, gegen eine große Verschwörung der Klimaforscher zu kämpfen. Diese Haltung ist zwar unbegründet, aber mir doch sympathischer als die kühle Berechnung der "Berufsskeptiker", der Kohlelobbyisten. Emotionale Bewegung kann aber auch ein Hindernis sein, wenn es um die nüchterne Einschätzung von Fakten geht.

Hauptergebnisse der Klimastudien

Die wichtigsten Ergebnisse meiner Studien möchte ich zunächst in ein paar kurzen Absätzen zusammenfassen. Im weiteren Verlauf werde ich dann die Thesen, die für einige von Euch wohl überraschend sein werden, näher erläutern und begründen. Ich gehe davon aus, daß jeder von Euch in den vergangenen Jahren schon gehört hat: Das Gas Kohlendioxid, CO2, reichert sich seit Jahrzehnten in der Erdatmosphäre an. Ebenso hat jeder schon gehört, daß die Zunahme dieses Gases zu einer Erwärmung der Erdatmosphäre führen soll, mit vielerlei bedrohlichen Folgen: Anstieg des Meeresspiegels, vermehrtes Auftreten von Dürren hier, von Überschwemmungen dort, von Orkanen, Aussterben von Tierarten usw. Das weiß heute doch jeder - oder? Nun einige Ergebnisse:

 

1. Das CO2 nimmt zu

Die CO2-Zunahme in der Atmosphäre ist real (Bild 1a,b) – und außerordentlich günstig für das Pflanzenwachstum; eine weitere Zunahme ist im Interesse der Welternährung durchaus erwünscht. Experimente mit Pflanzen in künstlich CO22-angereicherten Atmosphären zeigen, daß mit einer Verdoppelung des CO2-Gehaltes Wachstumssteigerungen bei den meisten Pflanzen im Bereich 10 bis 80 % möglich sind – Holz, Blätter, Früchte, alles wächst besser. Es gibt keinen besseren Dünger. CO2 - ein "Umweltgift"? Mehr dazu später.

Richtig: mehr CO2 ist bis zu einer gewissen Grenze günstig für viele Pflanzen, wenn auch nicht in dem genannten Ausmaß. Bei höherer Konzentration können sie ihre der Aufnahme von CO2 dienenden Blattöffnungen (Stomata) kleiner halten und verlieren dadurch weniger Wasser. Dieser Effekt ist in den Biosphärenmodellen berücksichtigt. Demgegenüber steht aber der Stress, unter den die Pflanzen durch den Klimawandel geraten. Anfangs (auch derzeit noch) überwiegen die positiven Effekte auf das Pflanzenwachstum, doch bei ungebremsten weiteren Klimawandel werden bald die negativen Auswirkungen überwiegen. Mehr dazu später.

2. Das Klima der Vergangenheit

Um das Klima der Vergangenheit zu erforschen, hat man in Grönland und in der Antarktis tiefe Löcher ins Eis gebohrt und die Bohrkerne untersucht. Aus ihnen konnte man die Entwicklung des Erdklimas über mehr als 400 000 Jahre zurückverfolgen. Das Verhältnis der Sauerstoff-Isotope 18O:16O von eingeschlossenen Luftbläschen gibt Aufschluß über die Temperaturen; der CO2-Gehalt in den Bläschen kann gemessen werden. Aus den Bohrkern-Untersuchungen weiß man, daß es in den letzten 420 000 Jahren vier kurze Warmzeiten von je etwa 10 000 Jahren Dauer und dazwischen etwa 10 mal so lange Kaltzeiten gegeben hat.

Dies ist korrekt; darüber hinaus gibt es eine Vielzahl von weiteren Daten aus Sedimenten, Baumringen, Korallen, usw.

Was Alvensleben hier vielleicht hätte sagen sollen: diese Daten zeigen, dass der CO2-Gehalt der Atmosphäre inzwischen um ein Drittel über dem liegt, was jemals für die letzten 420 000 Jahren gemessen wurde [1]. Wahrscheinlich (nach weniger sicheren Daten aus Sedimenten) muss man etliche Millionen Jahre zurückgehen, um ähnlich hohe CO2-Konzentrationen zu finden wie heute. Das bedeutet: seit der Mensch den aufrechten Gang gelernt hat, gab es noch nie soviel CO2 in der Luft wie jetzt.


Außerdem zeigte sich, daß in der Erdgeschichte der CO2-Anstieg zeitlich immer erst nach den Klimaerwärmungen stattfand, also nicht deren Ursache, sondern Folge war. Das ist ein sehr wichtiger Befund. Ich komme darauf noch zurück Seit über fünfzehn Jahren ist dies ein Klassiker der "Klimaskeptiker". Dazu einige Anmerkungen.

(1) Die Ursache der Eiszeitzyklen, um die es hier geht, sind die Milankovich-Zyklen der Erdbahn (dies war schon in meiner Jugend Gymnasialstoff). Diese wirken durch die Umverteilung der Sonnenstrahlung direkt auf die Temperatur; dass CO2-Änderungen deshalb erst mit etwas Verzögerung einsetzen ist genau das, was Klimatologen erwarten.

(2) Dass der CO2-Anstieg zeitlich verzögert stattfand wurde von Klimatologen daher lange vermutet, konnte aber wegen der Unsicherheit im Altersunterschied von Eis und eingeschlossenen Luftbläschen (ca. 2000-3000 Jahre - dies hängt davon ab, wann sich die Poren im Eis schließen) erst kürzlich nachgewiesen werden [2]. Die Verzögerung wurde für die Erwärmung am Ende der vorletzten Eiszeit bestimmt und beträgt 800 Jahre. Dies bedeutet nach Aussage der beteiligten Eiskernspezialisten: das erste Sechstel des 5000 Jahre währenden Erwärmungstrends geschah ohne Zutun des CO2, danach kam die CO2-Rückkopplung in Gang und verstärkte die Erwärmung.

(3) Diese Daten sind auch konsistent mit Modellrechungen von Eiszeiten. Auch im Modell können Beginn und Ende von Eiszeiten allein durch die Milankovich-Zyklen eingeläutet werden, CO2 wird dazu nicht gebraucht. Erst um das volle Ausmaß der Eiszeiten zu verstehen wird die CO2-Rückkopplung benötigt.

(4) Aus der Zeitverzögerung zu schliessen, dass CO2 keine Wirkung auf die Temperatur hat, ist ein Trugschluss. Der verzögert einsetzende CO2-Anstieg verstärkt vielmehr die Erwärmung. Es handelt sich um eine ganz normale positive Rückkopplung: steigende Temperaturen setzen CO2 aus dem Ozean frei, höhere CO2-Werte in der Atmosphäre wiederum führen zu weiterer Erwärmung. Was bei diesem Kreislauf zuerst anfängt, hängt einfach davon ab, woran von außen "gedreht" wird: an der Temperatur (wie durch die Milankovich-Zyklen) oder am CO2 (wie durch den Menschen).


3. Die Gletscher der Erde

Zutreffend ist, daß die Mehrzahl der kontinentalen Gletscher, z.B. in den Alpen, in den letzten Jahrzehnten weiter geschrumpft ist. Kann man daraus auf eine globale Erwärmung schließen? Dieser Punkt verdient eine eingehendere Betrachtung.

Siehe weiter unten.

4. Die Entwicklung der globalen Temperatur in Bodennähe seit 1860

Um 1860 endete eine Jahrhunderte lange Phase globaler Abkühlung, die "Kleine Eiszeit", die mit großen Gletschervorstößen verbunden war. Seitdem stieg die globale Temperatur, gemessen in 2 m Höhe über dem Erdboden, um etwa 0.6 °C ±0.2 °C bis 1930. (Bild 2) Parallel dazu gingen die kontinentalen Gletscher stark zurück. Von 1940 bis 1975 nahm die Lufttemperatur wieder um etwa 0.2 °C ab und stieg ab 1975 wieder auf Werte, wie sie zwischen 1930 und 1940 gemessen wurden. Dies gilt jedenfalls für den Bereich der Erde, aus dem die genauesten Messungen der bodennahen Lufttemperatur stammen, und in denen das dichteste Meßnetz bestand, nämlich die USA.

Herr Alvensleben ist in seiner Datenwahl etwas selektiv. Im globalen Mittel sind die Lufttemperaturen über den Landmassen von 1900-1940 um ca. 0.3 °C gestiegen, sie stagnierten von 1940-1975, und sind seitdem um weitere ca. 0.4 °C gestiegen. Die Meerestemperaturen entwickelten sich fast parallel dazu, stiegen allerdings etwa 0.15 °C weniger (wie aus Gründen der thermischen Trägheit zu erwarten). Die 1990er Jahre waren das wärmste Jahrzehnt seit Beginn der Aufzeichnungen, und die zehn wärmsten Jahre fanden alle seit 1990 statt. Die global wärmsten Jahre seit Beginn der Aufzeichnungen waren 1998, 2002 und 2003.

5. Temperaturmessungen von Satelliten aus

Seit 1979 kann man die Lufttemperatur von Satelliten aus messen und hat so erstmalig die Möglichkeit, die Temperatur der ganzen Erdatmosphäre, nicht nur die über den Kontinenten zu messen. Zur Messung benutzt wird die Emission von Sauerstoffmolekülen, die ein sehr genaues Thermometer darstellt. An den Messungen sind ständig mindestens 2 Satelliten (mit gewöhnlich 4 Jahren Lebensdauer) beteiligt, deren Ergebnisse untereinander verglichen werden. Die Meßmethode erlaubt sogar, zwischen verschiedenen Höhenbereichen, nämlich der Troposphäre und der Stratosphäre, zu unterscheiden.

Noch ein Klassiker der „Skeptiker“-Szene. Was nicht dazugesagt wird: was die betreffenden MSU-Satelliten nicht messen können, ist die bodennahe Temperatur. Um die geht es aber bei der Erderwärmung; hier wirkt sie sich auf Mensch und Ökosysteme aus. Selbst wenn sich die mittlere Troposphäre weniger stark erwärmt hätte als die Oberfläche, so wäre das kaum ein Grund zur Entwarnung. Doch trifft dies ohnehin nicht zu, siehe nächsten Absatz.

(Übrigens wurde auch schon vor dem Start der Satellitenmessungen routinemäßig die Temperatur über den Ozeanen gemessen, durch ein großes Netz von "ships of opportunity".)


Die Messungen hatten ein Ergebnis, daß für die Klima-Erwärmungspropheten höchst überraschend war und entsprechend kritisch und sorgfältig analysiert wurde: Für die Zeit seit 1979 kann man die "globale Erwärmung" mit gutem Gewissen als ein Märchen bezeichnen. (Bild 3) Die Satellitenmessungen stimmen untereinander auf 0.02°C, mit Ballonsondenmessungen auf 0.03°C überein, und sie zeigen nur einen minimalen Anstiegstrend (von 0.038°C pro Jahrzehnt) seit 1979, also in der Zeit, in der der steilste Anstieg des CO2 in der Atmosphäre zu verzeichnen war. Aus den Satellitendaten lassen sich aus mehreren Gründen nur schwer Langzeittrends gewinnen: die Lebensdauer jedes Satelliten beträgt nur wenige Jahre, sie benutzen unterschiedliche Instrumente mit unterschiedlichen Kalibrierungsfehlern, die Umlaufbahn verändert sich kontinuierlich, und sie messen zu verschiedenen Uhrzeiten. Deshalb mussten die berechneten Trends schon mehrfach korrigiert werden: die verschiedenen publizierten
Analysen der MSU-Daten ergeben Trends zwischen
0,08°C und 0,26°C pro Jahrzehnt. Zuletzt wurde gezeigt, dass diese Satelliten auch Teile der Stratosphäre mitmessen, die sich stark abgekühlt hat (vorallem wegen des Ozonschwundes), dadurch wurde der Trend verfälscht. Berücksichtigt man diesen Effekt, ergeben die Satelliten einen Erwärmungstrend von 0.18°C pro Jahrzehnt: etwas mehr als die Bodenmessungen mit 0.17°C pro Jahrzehnt [3]. (Im Detail sieht man das auf einer Grafik des britischen Met Office, die den Temperaturverlauf aus Bodenmessungen, Satellitenmessungen und Wetterballons (Radiosonden) vergleicht - die drei Messreihen decken sich fast genau, und zeigen alle drei den deutlichen Erwämungstrend der letzten Jahrzehnte.)

Alvenslebens Formulierung, man könne die globale Erwärmung "mit gutem Gewissen als ein Märchen bezeichnen" ist ein Beispiel für grundlose Polemik. Als Argument für die Behauptung, es gäbe gar keine globale Erwärmung, eignen sich die Satellitendaten nicht. Die meisten "Klimaskeptiker" bestreiten daher auch nicht, dass das Klima sich erwärmt, sondern nur, dass der Mensch dafür verantwortlich ist.


6. Änderungen des Meeresspiegels?

Als eine der Folgen der "globalen Erwärmung" wird von den Klimawarnern eine Erhöhung des Meeresspiegels erwartet. Wenn das Meerwasser sich erwärmt, dehnt es sich aus. Außerdem befürchtet man ein Abschmelzen der Festlandgletscher und des Grönlandeises und langfristig der Antarktis, und damit verstärkte Zuflüsse ins Meer. Wir werden noch sehen, was es damit auf sich hat.

Siehe weiter unten.

7. Häufigkeit von Unwetterkatastrophen

Ein vermehrtes Auftreten von Stürmen, Hurrikans, Taifunen, Hochwassern als Folge einer globalen Erwärmung gehört zu den beliebtesten Schreckensvisionen der Klimawarner. Allerdings muß ich den IPCC-Bericht in diesem Punkt freisprechen: In tropischen und außertropischen Stürmen sei über das 20. Jahrhundert hin kein signifikanter Trend erkennbar, und auch keine systematische Änderung in der Häufigkeit von Tornados, Gewittertagen oder Hagelschlägen. Anderslautende Voraussagen spekulieren auf das kurze Gedächtnis der Menschen. Aber sorgfältigen statistischen Untersuchungen halten sie nicht stand. Zugenommen hat, wie die Münchener Rückversicherungsgesellschaft zu melden weiß, die durchschnittliche Schadenshöhe von schweren Unwetterkatastrophen - als Folge der zunehmenden Bevölkerungsdichte, aber auch der Versiegelung von Böden, der Begradigung von Bach- und Flußläufen etc. Aber die Zahl schwerer Stürme pro Jahrzehnt ist in allen Erdteilen ziemlich konstant geblieben; manche Untersuchungen verzeichnen sogar eine Abnahme.

Eine Zunahme von Extremereignissen ist wissenschaftlich grundsätzlich nur schwer zu belegen, weil diese definitionsgemäß selten sind - man muß über etliche Jahrzehnte "sammeln", bis man genug Ereignisse für einen statistischen Nachweis beisammen hat. Die Aussagen des IPCC bedeuten, dass nicht genug Daten für den Nachweis eines Trends vorhanden sind; sie bedeuten nicht, dass es keinen Trend gibt.

Es gibt aber außer der reinen Statistik gute wissenschaftliche Gründe, eine Zunahme von Unwetterkatastrophen in einem wärmeren Klima zu befürchten; ich habe sie in meinem Brockhaus-Artikel zur Elbeflut (www.pik-potsdam.de/~stefan/flutkatastrophe.html) zusammengefaßt.
Wenn Herr Alvensleben schon die Erkenntnisse der Kollegen von der Münchner Rück zitiert, dann sollte er dies vollständig tun: sie kommen zu dem Schluß, dass nur ein Teil der drastisch gestiegenen Schadenshöhe auf den Anwachs von Werten in gefährdeten Gebieten zurückzuführen ist, ein weiterer Teil dagegen auf den Klimawandel.


8. Das Nordpoleis

Im Jahr 2000 wurden am Nordpol offene Spalten im Eis entdeckt und als "Beweis" für die globale Erwärmung durch die Medien weit verbreitet. Was die Entdecker nicht wußten: Solche Spalten waren längst aus früheren Jahrzehnten bekannt, sie treten bei dem schwimmenden Nordpoleis immer wieder einmal auf – wie man z.B. in dem Sachbuch "Klimafakten" bei Berner [1] nachlesen kann. 2001 haben die Eisspalten am Nordpol sich wieder geschlossen; kürzlich erfolgte Messungen ergaben am Pol eine Eisdicke von 3.5 m ("Der Spiegel" vom 15.9.2001).

Die Entdecker waren arktiserfahren und kannten selbstverständlich die "Leads", die offenen Spalten im Eis. Sie berichteten im Sommer 2000 über ungewöhnlich geringen Eisgang von ihrer Abfahrt in Spitzbergen auf dem ganzen Weg bis zum Pol. In den Medien wurde dies aufgebauscht und verkürzt, bis hin zur herrlichen Schlagzeile der "Bild"-Zeitung: "Nordpol weg?". Sämtliche deutschen Klimaforscher (auch ich) sagten damals einhellig den zahlreich anrufenden Journalisten, dass ein einzelner Sommer mit geringem Eisgang nicht als Beleg der globalen Erwärmung dienen kann. Bessere Hinweise aus wissenschaftlicher Sicht kommen zum einen von den Messungen der ständig unter dem Eis kreuzenden militärischen U-Boote, die eine Abnahme der Eisdicke um 40% in den abgelaufenen 30 Jahren zeigen [4]. Zum anderen von Satellitenmessungen, wonach die arktische Meereisfläche sich deutlich verringert [5].

9. Einfluß der Sonne

Hier müssen wir zwischen direkten und indirekten Wirkungen, die von der Sonne ausgehen, unterscheiden. Die direkte Sonnenstrahlung schwankt über Jahrzehnte nur um etwa 0.1%, was an der Erdoberfläche Schwankungen des "Strahlungsantriebs" (Forcing) von 0.3 W/m² ausmacht.

Es ist zu begrüßen, dass Alvensleben hier die konkrete Zahl des solaren Forcings von 0.3 W/m² nennt. Noch besser wäre es gewesen, zum Vergleich das derzeit vom Menschen verursachte zusätzliche Forcing anzugeben: es beträgt 2.7 W/m². (Diese Zahl hätte Alvensleben nicht nur beim IPCC, sondern auch in dem von ihm offenbar eher geschätzten „Skeptiker“-Buch Klimafakten gefunden.)

Viel größer sind indirekte Wirkungen als Folge von Schwankungen des Sonnenmagnetfeldes, in das die Erde eingebettet ist. Folgendes geschieht dabei: Teilchen der Kosmischen Strahlung, die aus den Tiefen des Weltraums ständig in die Erdatmosphäre prasseln, erzeugen dort Ionen, die - genau wie schwebende Staubteilchen (Aerosole) - als Kondensationskerne für Wassertropfen dienen können. Das wechselnde Magnetfeld und der Sonnenwind schirmen Kosmische Strahlung mehr oder minder stark ab. Sie ändern damit die Tropfenbildung in der Atmosphäre und die Wolkenbedeckung der Erde. Die Frage der indirekten Wirkungen der Sonne ist wichtig und wird (im Gegensatz zu den meisten anderen „Skeptiker“-Argumenten, die sich nur an Laien wenden) auch unter Wissenschaftlern ernsthaft diskutiert und erforscht. Allerdings ist Alvenslebens Darstellung des derzeitigen Kenntnis- und Diskussionsstandes nicht richtig. Er beginnt mit der Behauptung: "Viel größer sind indirekte Wirkungen..." Niemand weiß, wie groß eine solche indirekte Wirkung sein könnte, und ob sie schwächer oder stärker als die direkte Strahlungswirkung ist. Bislang ist nicht einmal der Nachweis gelungen, dass es überhaupt eine solche indirekte Wirkung gibt.

Die Abschirmung der ionisierenden Strahlung durch das solare Magnetfeld ist lange bekannt. Sie wurde bereits 1971 auf dem Deckel eines Geophysik-Lehrbuches zeichnerisch dargestellt. Noch länger bekannt ist die Wirkung von Ionen als Kondensationskerne - sie sind die Grundlage der "Wilsonschen Nebelkammer", die ich schon 1951 als Physikstudent im Praktikum kennengelernt habe. Der Grundgedanke - der mögliche Einfluß der kosmischen Strahlung auf die Wolkenbildung - wird durch Alvensleben richtig dargestellt.

Im Jahre 1997 haben die dänischen Forscher Svensmark und Friis-Christensen, gestützt auf Satellitenmessungen der Wolkendecke seit 1979, den engen Zusammenhang zwischen außertropischer Wolkenbedeckung und sonnenmodulierter Kosmischer Strahlung nachgewiesen und veröffentlicht. Sie fanden einen Abkühlungseffekt von 1 bis 1.5 W/m² - 3 bis 5 mal so groß wie die Schwankungen der direkten Sonnenstrahlung. Bei der zitierten Arbeit handelt es sich um eine reine Korrelation (also nur eine Ähnlichkeit im Kurvenverlauf von Wolkenbedeckung und kosmischer Strahlung), die aber aufgrund der nur kurzen Zeitreihe noch nicht sehr signifikant war (also auch Zufall sein konnte). Leider hat sich diese Korrelation im weiteren Verlauf der Messungen nicht bestätigt [6]. Weitere Korrelationen mit anderen Wolkendatensätzen (z.B., nur niedrige Wolken) sind seither publiziert und dann ebenfalls widerlegt worden. Meine persönliche Einschätzung dieser Diskussion:

(1) Zunächst hoffnungsvoll aussehende Korrelationen haben sich nicht bestätigt, eine überzeugende langfristige Korrelation wurde bislang nicht gefunden.

(2) Wolkenbildung über Kondensationskerne funktioniert rasch - innerhalb von Stunden. Daher müßte sich dieser Mechanismus auch bei kurzfristigen Schwankungen zeigen, nicht nur in den langen Klimatrends. Auf kurzen Zeitskalen findet man aber keine Korrelation zwischen Wolkendaten und den Schwankungen der kosmischen Strahlung [11].

(3) Berücksichtigt man nur die direkte Strahlungswirkung der Sonne im Modell, so erhält man bereits eine im Vergleich mit Paläodaten realistische Abkühlung in den Aktivitätsminima der Sonne (etwa dem Spörer-Minimum, Abbildung unter www.pik-potsdam.de/~stefan/ Publications/Other/klimageschichte.pdf) [7]. Wäre die Sonnenwirkung durch indirekte Effekte 5 mal so groß, so hätte das z.B. im Spörer-Minimum auch zu einer 5 mal größeren Abkühlung führen müssen, die aber so nicht stattgefunden hat. Wäre die Sonnenwirkung also erheblich stärker als bislang angenommen, so hätten wir aufeinmal erhebliche Probleme zu verstehen, warum die jüngere Klimageschichte nicht viel größere Schwankungen aufweist.

Diese Argumente sprechen dafür, dass die indirekte Sonnenwirkung nicht sehr stark sein kann.
Übrigens: selbst wenn die indirekte Sonnenwirkung 5 mal stärker ist als die direkte und damit 1.5 W/m² betragen würde, wäre dies immer noch nur etwa halb soviel wie der vom Menschen heute bereits verursachte Strahlungsantrieb von 2.7 W/m² (siehe oben); selbst dann würde also der menschliche Einfluss auf das Klima schon klar überwiegen.

Noch etwas: egal wie sehr die Sonnenwirkung verstärkt sein könnte – seit 60 Jahren hat die Sonnenaktivität nicht zugenommen, wie Prof. Sami Solanki, Direktor des Max-Planck-Instituts für Sonnensystemforschung und einer der führenden Experten auf diesem Gebiet, bestätigt.


Aber der "Dritte Ergebnisbericht" des IPCC befand noch 2001: "Mechanismen für die Verstärkung solarer Effekte auf das Klima sind vorgeschlagen worden, es fehlt ihnen aber bisher eine strenge theoretische oder beobachtungsseitige Basis". Daher wurden diese Effekte vom IPCC in seinen Klimamodellen nicht berücksichtigt - wohl einer der größten einzelnen Fehler in den Analysen der klimarelevanten Einflußgrößen.des IPCC. Wir sollten auch im Auge behalten, daß wir das Verhalten des solaren Magnetfeldes nicht voraussagen können. Es geht als großer Unsicherheitsfaktor in alle Modellrechnungen ein. Ich kann der Einschätzung im IPCC-Bericht nur voll zustimmen – sie gilt auch jetzt (2004) noch uneingeschränkt. Übrigens: der IPCC-Bericht diskutiert publizierte Forschungsarbeiten. Wenn Alvensleben sagt "in seinen Klimamodellen nicht berücksichtigt" bedeutet dies nicht, dass das IPCC eigene Klimamodelle betreibt; es bedeutet einfach, dass noch kein Forscher in einem Modell einen solchen indirekten Sonneneffekt berücksichtigt hat, da bislang weder seine Existenz noch Stärke belegt ist. Es steht jedem (auch jedem "Klimaskeptiker") frei, ein solches Modell zu erstellen und zu publizieren; dann wird es auch im nächsten IPCC-Bericht diskutiert werden.

Noch weit größere Schwankungen der von der Erde empfangenen Sonnenstrahlung werden verursacht durch periodische Veränderungen der Erdbahn und der Schiefe der Ekliptik. Diese Änderungen spielen sich ab auf Zeitskalen von 20 000 bis 100 000 Jahren (Milankowitsch-Zyklen) und werden als Ursachen der Eiszeiten angesehen, die man aus Eisbohrkernen datieren konnte. Wegen der großen Zeitskalen sind sie aber nicht Thema dieses Vortrages. Richtig. Aufgrund der Milankovich-Zyklen ist erst in frühestens 30,000 Jahren mit dem Beginn der nächsten Eiszeit zu rechnen.

10. Klimasimulationen im Computer

Die Klimamodelle, auf deren Vorausberechnungen sich die ganze "Global Warming"-Aufregung stützt, sind noch grob falsch - unter anderem deshalb, weil sie den Einfluß der Wolken und vieler anderer, auch von der Sonne kommender Effekte völlig unzureichend berücksichtigen. Das stärkste Treibhausgas ist nicht CO2, sondern H2O, also Wasserdampf in Gasform. Und dessen Gehalt in der Atmosphäre schwankt zeitlich zwischen 0.1 und 5.0 %, also in einem großen Bereich. Aber nicht nur das - Wasserdampf absorbiert auch Strahlung in einem viel breiteren Bereich von Wellenlängen des Infrarotspektrums, in dem die Strahlung der Erdoberfläche liegt, als es Kohlendioxid tun kann. Rund zwei Drittel des gesamten Treibhauseffekts der Erdatmosphäre sind von H2O-Dampf verursacht, wie in den "Klimafakten" [1] festgestellt wird. Und je nachdem, wieviel Kondensationskerne in der Atmosphäre sind, können sich Wolken bilden, mit kleinen oder großen Tropfen, und davon hängt wieder ab, wie stark sie Sonnenlicht direkt reflektieren, und wie stark sie die Abstrahlung vom Erdboden behindern – kurz, es gibt da so komplizierte Zusammenhänge, daß ich gar keine Hoffnung sehe, Klimamodelle so gut zu machen, daß sie brauchbare Voraussagen über Jahre oder Jahrzehnte liefern könnten. (Eindrucksvolle Beispiele für diese Problematik gibt Joachim Bublath [2] in seinem Buch "Chaos im Universum").

Es gehört zum Standardrepertoir der "Skeptiker", den Eindruck zu erwecken, die Warnungen der Klimaforscher vor dem Treibhauseffekt beruhten hauptsächlich auf Modellrechnungen. Solche Modelle lassen sich dann leicht als Fiktion oder fehlerhaft abtun. Die stärksten Argumente liegen aber in Meßdaten und Daten der Klimageschichte.

Einige der wichtigsten sind:
(1) der gemessene Anstieg des CO2,
(2) die gemessene Strahlungswirkung von CO2,
(3) Satellitenmessungen des Strahlungshaushalts der Erde,
(4) der Vergleich der Stärke des vom Menschen verursachten Strahlungsantriebs mit anderen möglichen Antriebsfaktoren, etwa Schwankungen der Sonnenaktivität,
(5) die gemessenen Erderwärmung im 20. Jahrhundert,
(6) der Vergleich mit natürlichen Temperaturschwankungen aus längerfristigen Klimadaten (u.a. aus den Eisbohrkernen),
(7) der Vergleich der gemessenen Erwärmung mit der aus dem Strahlungsantrieb zu erwartenden Erwärmung (die man auch ohne Modellrechnung abschätzen kann, Arrhenius hat dies bereits 1896 vorgemacht),
(8) die antarktischen Daten über CO2 und Temperaturverlauf der letzten 420,000 Jahre (in Zusammenhang mit der Kenntnis der Milankovich-Zyklen).

Diese Tatsachen und ein paar simple Abschätzungen mit Papier und Bleistift, ohne jedes Computermodell, reichen völlig aus, um den menschlichen Einfluß auf das Klima mit hoher Wahrscheinlichkeit festzustellen.


Die jetzt vom IPCC in der Öffentlichkeit verbreiteten Modellrechnungen, nach denen Erwärmungen von 1.4 bis 5.8 Grad bis zum Ende des 21. Jahrhunderts zu erwarten sind, sind jedenfalls so unzuverlässig, daß ich sie als Prognosen für wertlos halte. Sie scheitern ja schon an der "Rückwärts-Vorhersage" für das Klima des vergangenen Jahrhunderts. Die Modellierer selbst sind auch vorsichtiger geworden, wie ich auf einer Klimatagung in Frankfurt lernen konnte. Sie sprechen nicht von Prognosen, sondern von "Szenarien", also von Beschreibungen eines Klimas, das dann eintreten wird, wenn ihre hineingesteckten Annahmen richtig sind. ... Klima-Skeptiker erwarten aufgrund theoretischer Berechnungen eine Erwärmung von nicht mehr als 0.4 °C bis 2100 als Folge der CO2-Zunahme (Dietze, 2002). Das würde auch genau dem gemessenen Trend in den Satellitenbeobachtungen entsprechen. Wieso Herr Alvensleben behauptet, die Modelle würden an der "Rückwärts-Vorhersage" scheitern, ist mir unklar, liefern die Modelle doch recht gute Rekonstruktionen nicht nur der letzten hundert, sondern sogar der letzten tausend Jahre [7]. Noch wesentlich genauere Rechnungen kann man selbst mit perfekten Modellen nicht erwarten, da zum einen die Antriebsdaten nur mit bestimmten Fehlermargen bekannt sind, und es zum anderen einen gewissen Anteil zufälliger Wetterschwankungen im Klimasystem gibt, die prinzipiell im Detail nicht berechenbar sind.

Die Modellierer haben schon immer von Szenarien und nicht von Prognosen gesprochen, denn es gibt einen grundsätzlichen Unterschied. Szenarien funktionieren nach dem "wenn...dann" Prinzip: "wenn das CO2 um X ansteigen würde, würde dies zu einer Erwärmung um Y führen". Dies ist aus zwei Gründen keine Prognose. Einmal weiß man nicht, wie stark das CO2 ansteigen wird, da dies von Menschen und ihren Entscheidungen abhängt, die nicht auf hundert Jahre vorherzusagen sind. Wir Menschen können uns z.B. dafür entscheiden, Klimaschutz zu betreiben, wodurch die pessimistischeren Szenarien nicht eintreten. Zum zweiten kann ein Szenario den Effekt einer einzelnen Einflußgröße (etwa CO2) untersuchen, eine Prognose müßte dagegen alle denkbaren Einflüsse berücksichtigen. Zu Dietze's Privattheorie weiter unten; die Satellitendaten sind oben bereits behandelt worden.


Nach diesem Streifzug durch meine Studienergebnisse möchte ich nun einige der oben angeschnittenen Punkte näher erläutern.  

Gletscher als Klimazeugen

Zuerst zu der Frage, wie weit Gletscher uns über Klimaänderungen Auskunft geben können: Bevor man aus der Abnahme der meisten kontinentalen Gletscher auf eine globale Erwärmung schließt, sollte man mehrere Umstände in Rechnung stellen:

 

a) 99% des Gletschereises der ganzen Erde befinden sich in der Antarktis und auf Grönland. Die kontinentalen Gletscher der polfernen Gebiete machen nur 1% der Gletschermasse aus. Das Hauptgletschergebiet der Erde, die Antarktis, zeigt für die Zeit seit etwa 1960 in Bodennähe eine beträchtliche Abkühlung von 0.7 °C pro Jahrzehnt, wie unabhängig voneinander mehrere Forschergruppen in "Nature" und "Science" berichteten (Januar 2002). Eine Voraussage, im Jahre 1990 veröffentlicht in der referierten Zeitschrift "Nature", erwartet sogar ein deutliches Absinken des Meeresspiegels als Folge der Zunahme des antarktischen Inlandeises. - Nur auf der antarktischen Halbinsel, dem "Sporn" von der Antarktis in Richtung Südamerika, wurde eine Erwärmung verzeichnet. Für die Antarktis erwartet man in der Tat (hier hätte Alvensleben auch die IPCC-Berichte zitieren können) eine Zunahme des Kontinentaleises - aber nicht wegen einer Abkühlung (die Gletscher schmelzen dort ohnehin nicht, sondern fließen bis ins Meer), sondern wegen zunehmender Niederschläge in einem wärmeren Klima. Für sich alleine genommen würde diese Zunahme des Inlandeises zu einer Abnahme des Meeresspiegels führen. Andere Effekte (thermische Expansion des Meerwassers, Abnahme des Grönlandeises) werden diesen Effekt aber voraussichtlich mehr als ausgleichen, sodaß insgesamt mit einem Anstieg des Meeresspiegels zu rechnen ist.

b) Eis ist ein sehr schlechter Wärmeleiter. Gletscher folgen daher Temperaturänderungen, abhängig von ihrer Dicke, nur träge mit großen Verzögerungen (typisch: Jahrzehnte). Daher darf es nicht überraschen, daß manche Gletscher, wie etwa der Franz-Josefsgletscher auf Neuseeland, trotz der globalen Abkühlung von 1940-1970 zusammenschmolzen und trotz der anschließenden Erwärmung wieder zunahmen. In den letzten Jahrzehnten sind die meisten Alpengletscher geschrumpft, während die meisten norwegischen Gletscher gewachsen sind. Alvensleben weiß sicherlich, dass Gletscher nicht auf die globale Mitteltemperatur reagieren, sondern auf die Temperaturentwicklung vor Ort; sein Argument ist nicht schlüssig. Im Januar 2002 hatte ich Gelegenheit, die Gletscher der MtCook-Region einschließlich des Franz Josef auf einer zehntägigen Feldexkursion mit amerikanischen und neuseeländischen Wissenschaftlern zu besuchen.
Fazit: der Franz-Josef reagierte jeweils direkt auf die Temperaturentwicklung vor Ort. Von 1980-1999 stieß er vor, weil es in der Region eine Abkühlung gab. Das gleiche gilt für die weiteren Gletscher der Südalpen, die von den neuseeländischen Kollegen jedes Jahr aus der Luft fotografiert und vermessen werden - die gesamte Region hat einheitlich auf die Abkühlung reagiert. Dann erwärmten sich die Temperaturen wieder, und innerhalb von nur zwei Jahren ist der gesamte Vorschub des Franz-Josef der vorangegangenen 20 Jahre wieder weggeschmolzen - ohne die behauptete Verzögerung.

Eine solche Verzögerung gilt nicht für die Reaktion auf Temperaturschwankungen (die unmittelbar auf das Schmelzen der Gletscherzunge wirken), sie gilt nur für die Reaktion auf Änderungen der Niederschläge im oberen Gletscherbereich. Sie beträgt bei den meisten Gletschern einige Jahre, bei sehr großen bis zu 2-3 Jahrzehnte.


c) Zu oder Abnahme von Gletschern hängen empfindlich von den Niederschlagsmengen im Nährgebiet der Gletscher ab. Daher findet man in nahe benachbarten Regionen nicht selten gleichzeitig wachsende und schrumpfende Gletscher. Das Verhalten der Gletscher in den meisten Weltgegenden wird von Temperaturschwankungen dominiert. Es gibt einige bekannte Ausnahmen, wo Niederschlagsschwankungen wesentlich sind. Etwa in der Antarktis, wo die Temperaturen ohnehin immer unter dem Gefrierpunkt sind und die Gletscher bis ins Meer fließen (s.o.). Oder in Norwegen, wo es bei den küstennahen maritimen Gletschern durch die Nordatlantische Oszillation (NAO) zu extrem starken Niederschlagsschwankungen kommt - je nachdem, ob der Zustrom feuchter Meeresluft über Norwegen verläuft oder nicht. Die anhaltende Hochphase der NAO mit starken Winterniederschlägen hat zeitweise zum Anwachsen der norwegischen Gletscher geführt; insgesamt sind auch sie aber im 20. Jahrhundert deutlich zurückgegangen. (Ich schreibe diese Zeilen übrigens in Norwegen und habe mich bei den einheimischen Glaziologen der Richtigkeit dieser Aussagen versichert.)

d) Die normale Abnahme der Lufttemperatur nach oben beträgt 0.1 °C pro 15 Höhenmeter. Bei einem Gefälle einer Gletscherzunge von 10%, (also 1 m Höhendifferenz auf 10 m Gletscherlänge) genügt daher eine Temperaturzunahme von 0.1 °C, um die Gletscherzunge um 150 m zu verkürzen - ein ziemlich dramatisch wirkender Effekt für eine so kleine Ursache. Richtig ist, dass Gletscher (von den eben erwähnten Ausnahmen abgesehen) ein sensibler Indikator für Temperaturschwankungen sind. Der Gletscherschwund hat in der Tat dramatische Ausmaße angenommen (die Alpengletscher haben bereits die Hälfte ihrer Masse verloren). Der vielerorts gemessene Gletscherrückgang ist dabei in seinem Ausmaß in der Regel konsistent mit der jeweils vor Ort gemessenen Erwärmung. In der globalen Zusammenschau aller Gletscher [8] bedeutet dies eine eindrucksvolle und unabhängige Bestätigung der von den Bodenstationen gemessenen Erwärmung.

Wie funktioniert der Treibhauseffekt on der Erdatmosphäre? Wenn die Satelliten trotz der Zunahme des CO2 in der Atmosphäre keine Temperaturerhöhung, also keinen verstärkten Treibhauseffekt finden, verlangt das nach einer Erklärung. Ich versuche, den Sachverhalt möglichst anschaulich darzustellen und lehne mich im Folgenden an einen Internet-Diskussionsbeitrag eines klugen Engländers, Richard Courtney, an, der schwierige Sachverhalte gut zu erklären versteht: : Änderungen im CO2-Gehalt der Atmosphäre haben die globale Temperatur nicht so geändert, wie es die Hypothese des verstärkten Treibhauseffekts voraussagt. Jahrzehntelang zwischen 1940 und 1975, ist ja die globale Temperatur gesunken, trotz steigenden CO2-Gehalts. Einige Klimatologen haben dafür die "Sulfat-Aerosol-Hypothese" zur Erklärung herangezogen. Aber John Emsley (vom Imperial College of Science and Technology und Gewinner des Rhone Poulenc-Preises 1995) war der erste, der erklärte, daß es zu erwarten sei, daß Anstiege im atmosphärischen CO2-Gehalt nur einen geringen Einfluß auf die globale Temperatur haben würden. Wieder zitiert Herr Alvensleben keine wissenschaftlichen Publikationen, sondern fachlich nicht nachvollziehbare Behauptungen, die jemand im Internet aufstellt. Aus gutem Grunde hat die Wissenschaft eine Kultur entwickelt, in der Thesen in fachlichen Publikationen sauber dokumentiert und damit der Nachprüfung und Kritik von Fachkollegen ausgesetzt werden; sie setzen sich erst durch, wenn sie einer solchen Überprüfung standhalten.

Übrigens besagt die Theorie des verstärkten Treibhauseffektes nicht, dass CO2 der einzige Einflußfaktor auf das Klima ist. Schwankungen um ein oder zwei Zehntel Grad sind auch bei konstantem CO2 nicht ungewöhnlich und können aus verschiedenen Gründen auftreten (Sulfat-Aerosole, Sonnenaktivität, Vulkanismus, interne Schwankungen im Klimasystem). Diese Schwankungen überlagern sich dem langsamen Erwärmungstrend, daher rechnet kein Wissenschaftler mit einem gleichförmigen, monotonen Trend. Eine vorübergehende leichte Abkühlung kann auch künftig wieder auftreten, trotz steigendem CO2.


Einige Mechanismen des Treibhauseffekts sind unumstritten. (...)  

Einfache Berechnungen zeigen, daß eine "nackte" Erde ohne Atmosphäre, (aber mit dem tatsächlichen Reflexionsvermögen von 30%, das im zeitlichen Mittel für die teilweise bewölkte Erde gilt) eine mittlere Oberflächentemperatur von etwa -18 °C haben sollte. Aber die Erde hat eine mittlere Oberflächentemperatur von etwa +15 °C, das heißt ungefähr 33 °C wärmer als die einfache Berechnung des Strahlungsgleichgewichts ergibt. Dieser Unterschied ist verursacht durch den "natürlichen Treibhauseffekt."
Die Erdatmosphäre ist nicht transparent für einige Infrarotstrahlung, die von der Erdoberfläche emittiert wird, weil einige Wellenlängen dieser Strahlung durch Moleküle in der Luft absorbiert werden können. Strahlung besteht aus Photonen, und jedes Photon besitzt eine Energie, die von seiner Wellenlänge abhängt. Diese Energie wird aufgenommen, wenn ein individuelles Photon von einem individuellen Luftmolekül absorbiert wird. (Bild 4) Das Molekül wird dabei angehoben in einen Zustand höherer Schwingungs- und Rotationsenergie, und man nennt das dann "angeregt". Das angeregte Molekül kehrt zu seinem ursprünglichen Zustand niedriger Energie, seinem "Grundzustand" zurück, wenn es die Energie des absorbierten Photons wieder abgibt. CO2-Moleküle in Luft absorbieren Strahlung in zwei schmalen Bereichen von Wellenlängen ("Absorptionsbanden"). Es gibt keine Meinungsverschiedenheiten über den bis hierher beschriebenen Mechanismus.
In Ordnung.

Dr. Jack Barrett (einer der eingeladenen Vortragenden auf einer Klimatagung in Frankfurt, Oktober 2001) hat nun darauf hingewiesen, daß es sehr unwahrscheinlich ist, daß diese Strahlung von den CO2-Molekülen re-emittiert werden kann, bevor sie durch Zusammenstöße mit Stickstoff- oder Sauerstoffmolekülen in Bewegungsenergie dieser Moleküle, also in Wärme umgewandelt wird. Dieser "Thermalisierung" genannte Vorgang wird auch von IPCC-Vertretern nicht bestritten. Die CO2-Moleküle würden, wenn sie ungestört blieben, nach etwa einer hunderttausendstel Sekunde aus dem angeregten Zustand spontan in den Grundzustand zurückkehren, indem sie das eingefangene Photon wieder emittieren. Stattdessen werden sie vorher, (also innerhalb einer Hunderttausendstel Sekunde!) etwa 10 000 mal von den viel zahlreicheren N2- und O2-Molekülen angestoßen. Man unterscheidet elastische und unelastische Stöße. Letztere sind viel seltener, aber zahlreich genug, um den CO2-Molekülen ihre Anregungsenergie abzunehmen, bevor sie diese abstrahlen können. Die N2- und O2- Moleküle können die Wärme aber nicht abstrahlen. Sie können sie durch Konvektion, durch Wind, durch Bodenberührung und durch Stöße untereinander neu verteilen, und sie können ihrerseits CO2-Moleküle im Grundzustand wieder "anregen". Dieses Pingpongspiel mit Photonen bedeutet aber, daß die Wärmeenergie im Mittel tagelang in der Atmosphäre gespeichert bleibt, bevor sie es schafft, in der oberen Atmosphäre in den Weltraum abgestrahlt zu werden. Nach Barretts Berechnung ist der gesamte Wärmegehalt der Erdatmosphäre rund 120 mal so groß wie die Wärmemenge, die täglich umgesetzt, also von der Sonne empfangen und wieder emittiert wird. Der Sinn dieses Absatzes ist unklar. Zunächst beschreibt Herr Alvensleben die bekannte Absorption von Strahlungsenergie und ihre Umwandlung in Wärme. Daran ist nichts neu oder kontrovers; lediglich der Begriff "Thermalisierung" ist ungebräuchlich. Dann spricht er von der Schwierigkeit der Atmosphäre, Wärme abzustrahlen, sodaß die Atmosphäre die tagsüber von der Sonne empfangene Wärme mehrere Tage zwischenspeichert. Jeder der einmal erlebt hat, wie schnell sich die Luft an einem klaren Tag nach Sonnenuntergang abkühlt, weiß aus eigener Erfahrung, daß dies so nicht richtig ist. Vielleicht meint Herr Alvensleben auch nur, dass nicht innerhalb eines Tages die auf den absoluten Nullpunkt (-273 °C) bezogene gesamte Energie abgestrahlt werden kann - das stimmt. Wie dem auch sei - die Wärmespeicherung in der Atmosphäre bestimmt zwar die Amplitude des Tagesgangs, hat aber auf die über Jahrzehnte ablaufende Treibhauserwärmung kaum Einfluß (ebensowenig wie die Speicherung über mehrere Monate im oberen Ozean). Insofern ist diese ganze Erklärung für das Problem irrelevant.

Berechnungen auf Basis der HITRAN-Spektral-Datenbank, mit der auch das IPCC arbeitet, zeigen, daß eine typische Atmosphäre mit dem normalen Partialdruck von CO2 und mit einer 50-prozentigen Wasserdampfsättigung schon nach 100 m Weglänge 72,8% der Strahlung von der Erdoberfläche absorbiert hat. Verdoppelt man in dieser Atmosphäre den CO2-Gehalt, so erhöht sich die Absorption von 72.8 auf 73,5%. Die winzige Erhöhung um 0.7 Prozent bei CO2-Verdoppelung zeigt an, wie nahe an einer Sättigung die Treibhauswirkung durch CO2 - im Zusammenwirken mit dem stets vorhandenen Wasserdampf - bereits ist. Tatsächlich ist die untere Troposphäre durch ihren hohen Wasserdampfgehalt wenig durchlässig für Wärmestrahlung, daher wird ein großer Teil der Wärme dort durch Konvektion nach oben abtransportiert. Dies ist natürlich in allen Modellen berücksichtigt.

Die seit Beginn des 20. Jahrhunderts bekannte beinahe-Sättigung der CO2-Absorptionsbanden ist der Grund für die im Vergleich zu anderen Gasen ungewöhnlich geringe Treibhauswirkung von CO2 (pro Molekül).


Klimaskeptiker contra IPCC

Soweit die Erläuterung des Treibhauseffektes durch Dr. Barrett. Demgegenüber geht das IPCC davon aus, daß bei einer CO2-Verdoppelung in der Atmosphäre ein zusätzlicher "Strahlungsantrieb" von etwa 3.7 W/m² auftritt, der an der Tropopause abgestrahlt werden müßte (Die Tropopause ist die Grenzschicht von der Troposphäre zur Stratosphäre in Höhen zwischen ca.12 km am Äquator und 8 km an den Polen. Sie markiert ein Temperaturminimum - oberhalb, in der Stratosphäre, wird es wieder wärmer, weil dort die harte Ultraviolettstrahlung der Sonne von Ozon (O3) absorbiert wird und die Stratosphäre heizt). Der Strahlungsantrieb von 3.7 W/m² soll zu einer Erwärmung der Atmosphäre von 2.8 °C führen.

Herr Alvensleben stellt hier eine Erhöhung der Absorption um 0.7 Prozentpunkte einem Strahlungsantrieb von 3.7 W/m² gegenüber. Offenbar glaubt er, diese Zahlen würden sich widersprechen. Dies ist nicht der Fall; eine Begründung versucht Alvensleben auch gar nicht erst.

Es ist in der Klimatologie üblich, zu berechnen, wie sich eine Verdoppelung des CO2-Gehalts in der Erdatmosphäre auswirken würde. Damit macht man sich frei von Annahmen darüber, wann eine solche Verdoppelung eintreten könnte. Zugleich schafft man sich eine Basis für Vergleiche verschiedener Klimamodelle. Dabei benötigt man aber immer noch zwei Stufen: Zuerst wird berechnet, um wieviel Watt pro Quadratmeter Erdoberfläche die durch das zusätzliche CO2 zurückgehaltene Strahlung zunimmt. Im zweiten Schritt muß man herausfinden, um wieviel Grad C pro 1 Watt Strahlungsantrieb (Forcing) die Temperatur in der Atmosphäre zunimmt. Letzteres nennt man die "Klimasensitivität". Zur genauen Feststellung dieser Sensitivität gibt es leider kein eindeutiges und allein richtiges Verfahren. Aber mit einer Reihe verschiedener Verfahren kommt man zu brauchbaren Werten für die Unter- und Obergrenzen der Sensitivität: Sie liegen bei 0.08°C und 0.22°C pro 1 Watt/m².[3] Es gibt zwei grundsätzlich verschiedene Methoden, um die Klimasensitivität zu bestimmen:

(1) Man kann von der Physik ausgehen, nämlich von der im Labor gemessenen Strahlungswirkung von CO2, die ohne jede Rückkopplung direkt eine Erwärmung um 1.2°C bei einer Verdoppelung der Konzentration bewirken würde. Dann muss man noch die Rückkopplungen im Klimasystem berücksichten: Wasserdampf, Eis-Albedo, Wolken, usw. Dazu benutzt man Modelle, die am gegenwärtigen Klima und zunehmend auch an anderen Klimazuständen (etwa Eiszeitklima) getestet sind. Damit ergibt sich eine Klimasensitivität von 1.5-4.5 °C [8]. Die Unsicherheit stammt überwiegend vom Unwissen über das Verhalten der Wolken. Es wird u.a. auch an unserem Institut daran gearbeitet, diesen Unsicherheitsbereich weiter einzugrenzen.

(2) Man kann von Daten ausgehen und aus vergangenen Klimaschwankungen (z.B. Eiszeitzyklen) durch eine sogenannte Regressionsanalyse den Einfluss einzelner Faktoren zu isolieren versuchen. Dazu braucht man sehr gute Daten und muss sehr sorgfältig alle Faktoren berücksichtigen. Eine solche Analyse wurde 1990 anhand der antarktischen Eiskerndaten durchgeführt und ergab eine Klimasensitivität von 3-4°C [9].

Die durch Alvensleben genannten extrem niedrigen Werte sind wissenschaftlich nicht begründet, und würden bedeuten, dass stark negative Rückkopplungen im Klimasystem überwiegen und alle Schwankungen wegdämpfen. Wenn das so wäre, dann wäre es unverständlich, wie es z.B. zu Eiszeiten kommen konnte. Es verwundert, dass Alvensleben die in der wissenschaftlichen Fachliteratur dokumentierten Abschätzungen gar nicht für erwähnenswert hält, und dafür unhaltbare Zahlen von der Internetseite eines pensionierten Seemanns anführt.


Ein Kritiker des IPCC, Peter Dietze, einer der offiziellen Gutachter für den Dritten IPCC-Bericht, hat in einer detaillierten Kritik der Methoden, Vereinfachungen und Vernachlässigungen des IPCC vorgerechnet, daß eine CO2-Verdoppelung einen (im Vergleich zum IPCC) etwa um den Faktor 4 geringeren Temperatureffekt bewirken würde - also nur 0.7 °C Erwärmung der Atmosphäre bei Verdoppelung des CO2-Gehalts. Herr Dietze vertritt als Laie eine Privattheorie, die nicht nur von keinem Strahlungsforscher geteilt wird, sondern auch nicht von anderen "Klimaskeptikern". Der von Herrn Alvensleben geschätzte IPCC-Kritiker Berner etwa stimmt in seinem Buch Klimafakten in diesem Punkt mit dem IPCC überein. Fachleute haben immer wieder vergeblich versucht, Herrn Dietze seine Trugschlüsse zu erläutern.

Dies ist aber nur ein Punkt der Kritik. Weitere Punkte beziehen sich auf die vom IPCC in Modellrechnungen angenommene jährliche Zunahme des CO2-Gehalts um 1 Prozent - obwohl die gemessene Zunahme nur 0.4% beträgt. Ferner kritisiert Dietze die vom IPCC angesetzte Extrapolation bis zum Jahre 2100 beim globalen Verbrauch von Kohle, Öl und Gas. Dort wird nicht berücksichtigt, daß die Vorräte in der Erde begrenzt sind, und daß mit schwindenden Vorräten und steigenden Preisen die Rate des Verbrauchs zurückgehen wird.. Manche Forschergruppen (auch wir) haben einige Testszenarien mit einer CO2-Zunahme von 1% pro Jahr durchgeführt, in denen keine anderen anthropogenen Treibhausgase berücksichtigt wurden - es wurde dabei einfach statt der anderen Gase entsprechend mehr CO2 angenommen.
Die wesentlichen, im IPCC-Bericht diskutierten Szenarien gehen dagegen von detaillierten Annahmen für mehrere Gase und Aerosole aus, die von einer Arbeitsgruppe aus Wirtschaftswissenschaftlern erarbeitet wurden. Darunter sind auch solche Szenarien, die von einem deutlichen Rückgang des fossilen Brennsstoffverbrauchs ausgehen.

Ähnliche Kritiken wie die von Dietze haben auch andere Experten vorgebracht [4]. Ich habe mich hier nur auf die von Dietze beschränkt. Er beschreibt detailliert und für Physiker nachvollziehbar die gedanklichen und die Rechen-Schritte, mit denen er zu seinen Ergebnissen kommt. Er hat diese Ergebnisse auch vor Behörden- und Industrievertretern im Capitol in Washington im Rahmen einer Anhörung zum Thema der globalen Erwärmung im Mai 2000 vorgetragen ("IPCC's Most Essential Model Errors", [5]) Dietze ist nicht der einzige "Skeptiker", der einen solchen Auftritt in Washington fälschlich wie eine offizielle Anhörung erscheinen läßt - in Wahrheit handelt es sich um eine der regelmäßig dort stattfindenden Lobbyveranstaltungen, die von verschiedenen Interessengruppen organisiert werden, in der Hoffnung, Einfluß auf die Politik zu gewinnen. Die Veranstaltung im Mai 2000 war vom prominenten US-Klimalobbyisten Fred Singer und seiner Organisation SEPP organisiert.

Das Emissionsspektrum der Erde wird durch Satellitenmessungen veranschaulicht – im Bereich der CO2-Absorptionswellenlänge ist die Atmosphäre praktisch vollständig undurchlässig gegenüber der vom Boden stammenden IR-Strahlung (Bild 5). Die Strahlung am Boden des 15 µm-"Trichters" stammt aus einer Atmosphärenschicht mit einer Temperatur von etwa -53 °C - d.h. aus einer Schicht nahe der Tropopause, ca. 10 bis 12 km über der Erdoberfläche. Bei CO2-Verdoppelung müßte sich der "Trichter" bei Fehlen von Wasserdampf um etwa 11% verbreitern und sich wegen zunehmender Strahlungskühlung auch etwas vertiefen. Wegen des stets vorhandenen Wasserdampfes ist die Wirkung der CO2-Verdoppelung in der Natur aber noch erheblich kleiner. [Dietze2001: Carbon Model Calculations] Richtig ist, dass die zentrale Absorptionsbande des CO2 fast gesättigt ist. Es gibt aber weitere Banden, die ebenfalls berücksichtigt werden müssen. Die Absorptionseigenschaften von CO2 sind im Labor präzise vermessen, Strahlungsspektren werden auch in der Atmosphäre täglich gemessen. Wenn der Strahlungstransport in der Atmosphäre nicht voll verstanden wäre, könnten die von Herrn Alvensleben weiter oben als "sehr genau" gelobten Satellitenmessungen gar nicht funktionieren, die auf der Messung der Strahlung von O2-Molekülen aus der Atmosphäre beruhen. Die zur richtigen Berechnung des Strahlungsantriebs von CO2 erforderliche Strahlungsphysik ist seit Jahrzehnten bekannt, gesichert und in der Wissenschaft völlig unumstritten. Herr Alvensleben hätte sich hier besser auf seine Physikerkollegen verlassen als auf einen Pensionär ohne naturwissenschaftliche Ausbildung.

Was kann durch CO2 -Beschränkungen erreicht werden?

Eine bedeutsame Folgerung müssen wir noch ziehen: Die Verminderung des CO2-Ausstoßes in die Atmosphäre, wie sie das Kyoto-Protokoll vorsieht, kann bestenfalls nur einen kleinen Bruchteil der Wirkung auf die globale Temperatur haben, die das IPCC annimmt. Die Emissionsreduktion gemäß Kyoto ist in dieser Hinsicht praktisch wirkungslos: Folgt man Tom Wigley, einem prominenten Vertreter des IPCC, so würde sie bis 2050 nur 0.07 °C ausmachen. Wie Dietze und andere Kritiker gezeigt haben, ist selbst dieser errechnete Wert noch etwa um den Faktor 3.5 zu groß - es bleibt ein Kyoto-Temperatursenkungseffekt von 0,02 °C bis zum Jahre 2050. (Diese Zahl hat Dietze auf einer Tagung in Wiesbaden den IPCC-Vertretern vorgehalten, und es wurde ihm nicht widersprochen!). Bekanntlich wollen aber die USA und andere Länder das Kyoto-Protokoll nicht ratifizieren. So wird der errechnete Effekt noch einmal herabgesetzt - auf weniger als 1 /100 °C.

Die Reduktionsziele des Kyotoprotokolls gelten zunächst bis 2012. Es ist allgemein anerkannt, dass dies nur ein erster Schritt sein kann, und dass zur Vermeidung eines gefährlichen Klimawandels weitere Reduktionen in den folgenden Jahrzehnten notwendig sein werden. Nur aus diesem Grund haben Forscher wie Wigley darauf hingewiesen, dass Kyoto alleine, ohne weitere Schritte, nicht ausreicht. Aus diesem Grund ist das Kyotoprotokoll auch von vorherein als Stufenprozess angelegt; im Protokoll ist der Beginn von Verhandlungen über weitere Maßnahmen bereits auf 2005 festgelegt.

Daraus aber zu folgern, man sollte den Kopf in den Sand stecken und lieber gleich gar nichts gegen den Klimawandel tun, ist unverantwortlich. Nur durch konsequente Klimaschutzmaßnahmen über die nächsten 50 Jahre hinweg läßt sich der Klimawandel noch in handhabbaren Grenzen halten.


Meine persönliche Schlußfolgerung: Was uns als Normalbürgern mit den CO2-Reduktionen zugemutet wird, ist ein beträchtlicher finanzieller Aufwand und eine für jeden Einzelnen spürbare Einschränkung seiner persönlichen Lebensgestaltung - nur zu dem Zweck, eine globale Temperatursenkung zu erreichen, die so winzig ist, daß praktisch niemand sie messen kann.

Auf der erwähnten Tagung in Wiesbaden hörte ich im November 2001 einen Vertreter des IPCC. Er glaubte noch an die drohende Erwärmung durch CO2. Seinem Vortrag hatte er den Titel gegeben: 'Von Kyoto nach Marrakesh – von "zu wenig" nach "noch weniger"'. Obwohl es nicht so gemeint war, konnte man es praktisch als ein Plädoyer dafür verstehen, die Pläne von Kyoto stillschweigend zu begraben.

So groß ist der finanzielle Aufwand gar nicht (mehr dazu unten), und gerade für Deutschland ergeben sich aus der notwendigen technologischen Entwicklung auch erhebliche wirtschaftliche Chancen.

Und der Meeresspiegel?

Nachdem wir uns nun überzeugt haben, daß die vorausgesagte Klimaerwärmung durch CO2 gar nicht droht, – ihre Theorie ist "faulty science" – fehlerhafte Wissenschaft, wie Präsident Bush sie genannt hat, - und nachdem die Satellitenmessungen zeigen, daß der Temperaturanstieg gar nicht stattfindet - können wir die Frage des Meeresspiegelanstiegs ziemlich schnell erledigen - er findet auch nicht statt.

Pegelmessungen über 3 Jahrzehnte in Tuvalu, einem kleinen pazifischen Inselstaat, und in Diego Garcia, dem englischen Flottenstützpunkt mitten im Indischen Ozean, zeigten keine Veränderung des Meeresspiegels. (Bild 6) Lediglich von Zeit zu Zeit, wenn der Wind den El-Niño-Strom nach Osten trieb, sank der Meeresspiegel für einige Zeit um bis zu 30 cm, um anschließend zu normalen Werten zurückzukehren. (Eine dpa-Meldung über den drohenden Untergang von Tuvalu, die ich in der Badischen Zeitung fand, habe ich auf Grund meiner Informationen beanstandet, und 3 Tage später druckte die BZ einen Widerruf, nachdem sie mit dem Konsul von Tuvalu gesprochen hatte).

Alvensleben greift hier zu einem klassischen Trick der „Klimaskeptiker“: drei Einzelpunkte sollen einen globalen Trend widerlegen. Selbstverständlich ist bekannt, dass der Meeresspiegel nicht global gleichmäßig steigt und an vielen Orten sogar absinkt, da der lokale Meeresspiegeltrend auch von den tektonischen Bewegungen der Kontinente und von Änderungen in der Ozeanzirkulation abhängt. Wissenschaftlich hat Herr Alvenslebens Absatz daher keinerlei Aussagekraft über einen möglichen anthropogenen Trend, aber er ist publikumswirksam.

Drei generelle Anmerkungen zum Meeresspiegel.

(1) Der anthropogene Meeresspiegelanstieg beginnt sehr langsam, weil der Ozean eine große thermische Trägheit hat und anfangs nur die Oberflächenschichten von der Erwärmung erfasst werden. Auch das Grönlandeis reagiert nur sehr langsam auf eine Erwärmung. Deshalb steht uns der allergrößte Teil des Meeresspiegelanstiegs, der durch die bereits stattgefundene Erwärmung verursacht wird, noch bevor. Lokale Schwankungen sind daher bislang z.T. noch größer als der globale Trend. Meeresspiegelanstieg ist kein Frühwarnsignal einer Erwärmung, sondern überwiegend eine Spätfolge.

(2) Es handelt sich aber um eine unausweichliche Folge: einfache Physik sagt uns, dass warmes Wasser mehr Volumen einnimmt (thermische Ausdehnung). Selbst wenn wir die globale Erwärmung in fünfzig Jahren gestoppt haben, wird der Meeresspiegel noch Jahrhunderte weiter ansteigen, bis sich auch die Tiefsee entsprechend erwärmt hat. Aus dieser Tatsache ergibt sich die Gefährdung für tiefliegende Inselstaaten – nicht aus lokalen Beobachtungstrends aus der Vergangenheit.

(3) Dennoch ist der Anstieg des Meeresspiegels eine gemessene Tatsache. Im 20. Jahrhundert betrug er 10-20 cm (also 1-2 mm/Jahr) - die Unsicherheit ergibt sich aus der ungenauen Datenbasis. Erst seit 1992 gibt es exakte globale Messungen mit Satelliten-Altimetern. Diese zeigen einen Trend von knapp 3 mm/Jahr; der Anstieg hat sich also gegen Ende des 20. Jahrhunderts bereits deutlich beschleunigt.

Nun zu Tuvalu.

Die dortigen Pegelstationen werden vom australischen "National Tidal Centre" unterhalten, allerdings ist dort erst seit März 1993 eine qualitativ hochwertige Station installiert. In dessen Bericht für Tuvalu vom Juni 2003 (www.ntf.flinders.edu.au) heisst es: The sea level trend to date is +5.4 mm/year (as compared to a global average of 1-2 mm/year) but the magnitude of the trend continues to vary widely from month to month as the data set grows. Accounting for the geodetic survey results, the trend is unchanged. A nearby gauge, with a longer record but less precision and datum control, shows a trend of +0.9 mm/year.
Auf deutsch: der Meeresspiegel steigt auch in Tuvalu. Wer mehr wissen will, dem sei das Buch Sturmwarnung des britischen Journalisten Mark Lynas empfohlen, der die Geschichte vor Ort in Tuvalu recherchiert hat. Er beschreibt eindrucksvoll, mit welchen Problemen die Einwohner bereits heute durch den Meeresspiegelanstieg zu kämpfen haben. Die Betroffenen würden die Versuche eines deutschen Rentners, ihre Probleme von seinem trockenen Schreibtisch aus für irreal zu erklären, wohl als recht zynisch empfinden.


Entsprechendes gilt für den Inselstaat der Malediven, deren Vertreter in Marrakesch auf die drohende Überflutung ihrer Inseln hingewiesen haben sollen. Eine schwedische Untersuchungskommission unter Leitung eines führenden Experten für die Frage von Meeresspiegelschwankungen (Prof. Mörner) hat das Problem auf den Malediven untersucht und überhaupt keine Zunahme des Meeresspiegels für die letzten 100 Jahre gefunden. Siehe oben. Diese Kommission hat übrigens auch festgestellt, dass der globale Meeresspiegel ansteigt.

Schwankungen des CO2 in der Erdgeschichte

Die Messungen des CO2-Gehalts in Eisbohrkernen haben sich, wie man erst seit wenigen Jahren weiß, doch als ziemlich ungenau erwiesen – wohl als Folge von Diffusionseffekten im Eis, durch die größere Schwankungen des CO2-Gehaltes nivelliert wurden. Daher ist zur Zeit noch die Meinung verbreitet, in den letzten 420 000 Jahren habe der CO2-Gehalt nur zwischen 190 ppm in den kältesten Zeiten und 280 ppm in den Warmzeiten gependelt. Daraus haben Botaniker gefolgert, der Anstieg des CO2 in der Atmosphäre um rund 30% in den letzten 140 Jahren sei in der jüngeren Erdgeschichte ein einzigartiger Vorgang, und die Natur werde sich darauf nicht einstellen können, mit katastrophalen Folgen für die Pflanzenvielfalt. (Ich habe darüber einen Briefwechsel mit Prof. Christian Körner, Botaniker an der Universität Basel geführt, dem ich für viele Anregungen zu danken habe).

Durch geschickte Formulierung wird der falsche Eindruck erweckt, neuere Ergebnisse ("wie man erst seit wenigen Jahren weiß") haben die CO2-Messung aus Eisbohrkernen ernstlich in Frage gestellt - die "zur Zeit noch verbreitete Meinung" sei gar überholt. Fachleute sehen das völlig anders - siehe nächste Absätze. Die Gasdiffusion im Eis, die hier als Grund vermutet wird, ist übrigens physikalisch gut verstanden (u.a. durch Labormessungen) und wird sogar als weiteres unabhängiges "Thermometer" bei abrupten Klimawechseln genutzt, weil verschiedene Stickstoffisotope aufgrund der unterschiedlichen Massen auch etwas unterschiedlich diffundieren [10].

Ein neues Meßverfahren - und überraschende Ergebnisse

Hier ein Zitat aus einer Buchbesprechung [6] im Internet: "Eine neue, robuste Technik zur Bestimmung der CO2-Gehalte der Luft in der Vergangenheit wurde nun in den späten Neunziger Jahren eingeführt. Zwischen der Flächendichte der Spaltöffnungen (Stomatae) in den Blättern bedecktsamiger Pflanzen (Angiospermen) und der umgebenden atmosphärischen CO2-Konzentration besteht ein enger inverser Zusammenhang. Dieser macht es möglich, den einstigen CO2-Gehalt der Atmosphäre aus fossilen Blättern zu bestimmen. (Bild 7) Für weniger weit zurückliegende Epochen können CO2-Gehalte abgeleitet werden aus Blättern, die man im Torfmoor findet. Obwohl die Eisbohrkerne dies nicht erkennen lassen, zeigt das neue Meßverfahren, wie die atmosphärische CO2-Konzentration von 260 ppm am Ende der letzten Eiszeit schnell auf 335 ppm im Preboreal (vor 11500 Jahren) anstieg, dann wieder auf 300 ppm abfiel und vor 9300 Jahren 365 ppm erreichte.

Als Beleg muss hier eine "Buchbesprechung aus dem Internet" (ohne Autorenangabe) herhalten - das sollte schon skeptisch stimmen. Wenn diese neue Methode wirklich so robust und akzeptiert wäre, müßte es dazu ja auch entsprechende Aussagen von Fachwissenschaftlern geben. Die schätzen allerdings die Stomata-Methode als erheblich unsicherer ein als die Eiskerndaten. Das leuchtet selbst Laien ein: die Flächendichte der Spaltöffnungen variiert von Blatt zu Blatt gewaltig und stellt eine komplexe biologische Anpassungsreaktion dar, ist also nur ein sehr indirekter Indikator für CO2; zudem muß man genügend Blätter finden und genau datieren (schwierig). In den Luftbläschen im Eis kann die CO2-Konzentration dagegen direkt und zuverlässig physikalisch gemessen werden, und das Eis bietet eine fast lückenlose Abfolge abzählbarer Jahresschichten.

Wissenschaft ist ein System, in dem viele Menschen zahllose neue Ideen hervorbringen und diese dokumentieren und publizieren, damit sie von Fachkollegen kritisch geprüft, diskutiert und beurteilt werden können. Nur die Ideen haben Bestand, die sich überzeugend belegen und bestätigen lassen; viele gehen wieder unter. Wissenschaftler schauen dabei nüchtern auf methodische Aspekte, etwa auf die Streuung und Reproduzierbarkeit der Daten, mögliche Fehler, mögliche andere Einflußfaktoren (auf die Blattöffnungen hat z.B. außer CO2 auch die Feuchte einen großen Einfluß). "Klimaskeptiker" gehen anders vor: sie bejubeln kritiklos einzelne Arbeiten, die ihnen ins Konzept passen (wie die Stomata-Daten) und wischen bedenkenlos und ohne jeden Grund viele andere, methodisch viel robustere Arbeiten (dutzende detaillierte Untersuchungen zu Gaskonzentrationen im Eis) vom Tisch. Professionelle Forscher können es sich nicht leisten, derart mit zweierlei Maß zu messen.


Diese Beobachtungen widerlegen die Annahme einer stabilen "vorindustriellen" Atmosphäre und zeigen, daß CO2-Niveaus wie das heutige das Ergebnis sonnengesteuerter Temperaturzunahmen mit darauffolgender Ozean-Entgasung sind. Der rekonstruierte Verlauf aus der Zeit vor 9000 Jahren gibt Auskunft über CO2-Zunahmen von 65 ppm pro Jahrhundert, die zu CO2-Niveaus wie dem heutigen führten, bei Temperaturen ebenfalls ähnlich den heutigen. Daraus folgt, daß man nach Beweisen für Effekte der industriellen CO2-Emissionen vergeblich suchen wird. Weder die heutigen Temperaturen noch die heutige atmosphärische Chemie zeigen Anomalien." (Ende des Zitats) Die heutigen hohen CO2-Werte nicht durch menschliche Emissionen, sondern durch Ozean-Ausgasung entstanden?

Die vom Menschen geförderten und verbrannten Mengen an Erdöl, Gas, usw. sind bekannt, daher wissen wir auch, wieviel CO2 von uns in die Atmosphäre emittiert wurde. Dies ist fast doppelt so viel wie der gemessene Konzentrationsanstieg von 280 auf 370 ppm. Wer sagt, dieser Anstieg sei nicht das vom Menschen in die Luft geblasene CO2, der sagt konkret: unser CO2 ist auf mysteriöse Weise wieder aus der Atmosphäre verschwunden (wohin?), und zufällig hat der Ozean gleichzeitig eine ähnliche Menge ausgegast und dabei die atmosphärische Konzentration auf Werte steigen lassen, wie es sie seit Jahrmillionen nicht gegeben hat. Dies kann wohl niemand ernsthaft glauben.

Zudem ist das Gegenteil auch durch Ozeanmessungen belegt: der Ozean hat nicht etwa CO2 ausgegast, sondern im Gegenteil, er hat (zusammen mit der Biosphäre) einen Teil des anthropogenen CO2 aus der Atmosphäre aufgenommen. Eine entsprechende CO2-Zunahme läßt sich inzwischen im Meerwasser messen. Der fossile Kohlenstoff verrät sich zudem durch seine andere Isotopenzusammensetzung, die sowohl in der Atmosphäre als auch im Ozean messbar ist.


CO2-Wirkungen in der Biosphäre

Aber damit nicht genug. CO2 ist neben Wasser und Lichtenergie das Grundnahrungsmittel der Pflanzen. Unsere Pflanzenwelt hat eine Evolution hinter sich, die über Hunderte von Millionen Jahren fast ständig in einer Atmosphäre ablief, die CO2-Gehalte bis zum Zehnfachen des vorindustriellen CO2-Gehalts aufwies, also 2000 bis 3000 ppm. Dies weiß man aus Untersuchungen an Blättern des Ginkgo-Baumes, der sich über 300 Millionen Jahre kaum verändert hat. Die Ergebnisse wurden in "Nature" im Mai 2001 veröffentlicht. Erst in der letzten Million Jahre lag der CO2-Gehalt meistens zwischen 190 und 280 ppm.

 

Die Pflanzenwelt hat sich wohl nur mit Mühe dem niedrigen CO2 angepaßt, wie die Existenz von sogenannten C4-Pflanzen zeigt, die eine CO2-Anreicherungsmethode erfunden haben, um das bescheidene Angebot besser nutzen zu können. (95% aller Pflanzen sind C3-Pflanzen, die ohne die Anreicherung auskommen). Es ist daher kaum verwunderlich, daß die Pflanzenwelt auf das neuerdings erhöhte Angebot an CO2 in einer Weise reagiert, die ich mit "geradezu enthusiastisch" bezeichnen möchte: Kürzlich wurden Experimente veröffentlicht, bei denen man den heutigen CO2-Gehalt der Atmosphäre künstlich auf den Wert herabgesetzt hat, der vor 1860, d.h. vor Beginn der Industrialisierung bestanden hat. Man hat also verschiedene Pflanzenarten bei 280 ppm CO2 wachsen lassen und mit Pflanzen verglichen, die 365 ppm CO2 zur Verfügung hatten. Der CO2-Düngungseffekt ist unbestritten; er ist der wichtigste Grund dafür, dass die Biosphäre einen Teil des von uns emittierten CO2 aufgenommen hat (durch Zuwachs von Wäldern). Er ist zweifellos eine positive Wirkung des CO2 (die allerdings, wie auch Herr Alvensleben weiter unten sagt, bald in Sättigung übergehen wird, sodass weiterer Anstieg nichts mehr bringt).
Demgegenüber stehen allerdings (neben den Klimafolgen) die negativen Wirkungen des CO2 auf die Ökologie der Meere. Fast die Hälfte unserer CO2-Emissionen landen im Meer, das dadurch versäuert (gemessen ist bereits eine Abnahme des pH um 0,1 pH-Einheiten). Dies schädigt Phytoplankton und Korallenriffe. Auch ohne Klimawandel ist dies Grund genug, den weiteren Anstieg des CO2 zu stoppen.

Ergebnis: Ein um 25 % vermindertes Pflanzenwachstum bei dem niedrigen CO2-Gehalt der Vergangenheit. (Bild 8) Auch wenn das vielleicht nicht für alle Nahrungspflanzen zutreffen mag - es bedeutet: Schon jetzt haben wir der CO2-Zunahme um 30 % in den letzten 140 Jahren rund ein Viertel unserer Ernteerträge zu verdanken, oder anders ausgedrückt: ¼ der Menschheit, 1.5 Milliarden Menschen, leben von der atmosphärischen CO2-Zunahme seit 1860!

Bild 8: Änderungen der Biomasse von Sojabohnen in Abhängigkeit von der CO2-Konzentration in der Atmosphäre (in ppm)

Dies sind Fantasiezahlen.

Ein erfreuliches Nebenergebnis ist, daß der Zuwachs den Bauern weltweit und kostenlos zugute kam. Mit weiterer Zunahme des CO2-Gehalts wird, wie Experimente in künstlich angereicherten CO2-Atmosphären zeigen, der Zuwachs an Biomasse bei den Pflanzen in eine Sättigung übergehen. Außerdem ist selbstverständlich das CO2 nur einer von verschiedenen Nährstoffen, die die Pflanzen brauchen. Wenn z.B. Stickstoff oder Phosphor oder Wasser fehlen, stößt der Zuwachs der Pflanzen schnell an seine Grenzen. Aber insgesamt ist das Grün auf der Erde in den vergangenen 30 Jahren soviel dichter geworden, daß der Zuwachs in den gemäßigten Breiten (zwischen 30 und 70 Grad nördlicher Breite) bereits von Satelliten aus meßbar geworden ist! [7] Der Zuwachs ist nicht nur vom Satelliten messbar, sondern lässt sich inzwischen auch quantitativ gut mit Biosphärenmodellen nachvollziehen - ein schöner Erfolg für die Modellierer. Leider verheissen diese selben Modelle bei weiterer ungebremster Erwärmung nichts Gutes, weil dann der Klimawandel die Anpassungsfähigkeit der Ökosysteme überfordert.
Der logische Schluss aus Alvenslebens Argumentation lautet: entschlossene Klimaschutzmaßnahmen, um den Zuwachs des CO2 bei 400 oder 450 ppm zu stoppen. Dann profitieren die Pflanzen von höherem CO2 (viel mehr bringt wegen der Sättigung ohnehin nichts), ohne an Klimastress (Dürre etc.) zu Grunde zu gehen.

Die positiven Wirkungen der CO2-Vermehrung sind damit noch gar nicht alle aufgezählt: Mehr CO2 bedeutet meßbar geringeren Wasserbedarf der Pflanzen, also Erweiterung von Anbaumöglichkeiten in trockenere Gebiete hinein, und verlängerte Photosynthesezeiten in der Morgen- und Abenddämmerung (um Minuten) und im Frühjahr und Herbst (um Tage). Und zu den neuesten, noch nicht ganz gesicherten Ergebnissen gehört, daß vermehrtes CO2 auch als Heilmittel gegen das Waldsterben wirkt - den kranken Bäumen scheint die CO22Kur gut zu bekommen.  

Eine Kehrseite hat die schöne Medaille der CO2-Vermehrung natürlich auch. So enthalten "CO2-gedüngte" Pflanzen weniger Blattproteine, die Stickstoffkonzentration ist erniedrigt. Auch der (relative) Proteingehalt in Samen und damit auch der im Brotgetreide (Backfähigkeit) geht unter erhöhtem CO2 zurück. Noch bedeutsamer mag eine andere Folge der CO2-Düngung sein: Da nicht alle Pflanzen in gleicher Weise reagieren, wird es bei den neuen Bedingungen nicht nur Gewinner, sondern auch Verlierer geben. Nachdenkliche Wissenschaftler wie der Baseler Botaniker Prof. Körner [8] befürchten deshalb eine Abnahme der Pflanzenvielfalt, und wegen der Abhängigkeit vieler Tiere von ihren Nahrungspflanzen parallel dazu eine Abnahme der Vielfalt in der Tierwelt. Ich kann diese Befürchtungen verstehen, vertraue aber auf die Anpassungsfähigkeit der lebendigen Natur, die, wie oben dargestellt, das gleiche Problem schon wiederholt gelöst hat - auch in jüngerer Zeit, in den letzten Jahrtausenden (was Professor Körner noch nicht bekannt war, als er seine Bedenken vortrug). Die Natur ist anpassungsfähig, aber mit gewissen Grenzen. Auch bei vergangenen zu raschen Klimawechseln hat es Massen-Aussterben gegeben. Die einschneidendsten globalen Klimaänderungen zumindest der letzten einigen Jahrhunderttausende waren die Eiszeiten; die stärksten Erwärmungen traten jeweils zum Ende dieser Eiszeiten auf. Sie betrugen etwa 4-6°C über einen Zeitraum von 5,000 Jahren (nur lokal, etwa in Grönland, gab es raschere Klimawechsel). Nun drohen wir eine ähnliche Erwärmung innerhalb von 100 Jahren zu verursachen - fünfzig mal schneller. Dazu sind die Ökosysteme heute durch die menschliche Landnutzung stark fragmentiert, viele Arten leben nur noch in eng begrenzten Naturschutzräumen. Eine neue Studie von Biologen schätzt, dass bei ungebremster Erwärmung bis zum Jahr 2050 bis zu einem Viertel aller Tierarten vom Aussterben bedroht sein könnte [12].

Zusammenfassung:

Eine nennenswerte Klima-Erwärmung durch Zunahme des von Menschen produzierten CO2 in der Atmosphäre droht uns nicht. Die Verminderung der CO2-Einträge in die Atmosphäre gemäß dem Kyoto-Protokoll halte ich nicht nur für überflüssig, sondern sogar für schädlich, da sie die Ernährung der wachsenden Weltbevölkerung erschwert, die schon jetzt auf den erreichten Zuwachs der Ernteerträge angewiesen ist. Alle bisherigen Beobachtungen zeigen auch, daß die natürlichen Senkenflüsse - d.h. die Aufnahme von CO2 aus der Luft durch Meere, Erdboden und Pflanzen - bei Anstieg der CO2-Konzentration zunehmen und den CO2-Zuwachs in der Luft begrenzen.

Hier widerspricht Herr Alvensleben sich selbst: hat er oben noch vermutet, der atmosphärische Anstieg des CO2 sei durch Ausgasen aus dem Ozean entstanden, so spricht er hier (richtigerweise) von den Meeren als Senke. Ohne diese Senken wäre der Anstieg des CO2-Gehalts der Atmosphäre heute bereits doppelt so hoch. Es gibt aber Grund zur Vermutung, dass diese Senken künftig abnehmen oder gar zu Quellen werden könnten. Herr Alvensleben weist selbst weiter oben darauf hin, dass in der Klimageschichte oft auf eine Temperaturerhöhung ein zeitlich verzögerter Anstieg des CO2 folgte. Falls eine solche Rückkopplungs-Reaktion des Kohlenstoff-Kreislaufs auch diesmal eintreten sollte, würde das die Erderwärmung noch verstärken.

Und obendrein: Die im Kyoto-Protokoll geforderte CO2-Verminderung ist auch extrem teuer. Präsident Bush war nicht schlecht beraten, als er sich weigerte, das Kyoto-Protokoll zu ratifizieren [9]. "Extrem teuer": dies ist zumindest eine unbewiesene Behauptung, über die man trefflich streiten kann, die allerdings ausserhalb der Naturwissenschaft und damit auch ausserhalb meiner Expertise liegt. Nur ein Hinweis dazu: die Studie "Langfristszenarien für eine nachhaltige Energienutzung in Deutschland", vom Wuppertal-Institut gemeinsam mit dem Deutschen Zentrum für Luft- und Raumfahrt im Jahr 2002 erarbeitet, kommt zu dem Ergebnis, dass eine Emissionsreduktion in Deutschland um 80% bis zum Jahr 2050 ca. 48 Euro pro Kopf und Jahr kosten würde, was 0,14% des mittleren Brutto-Inlands-Produkts entspricht. Auch andere Studien zeigen, dass ein nachhaltiger Umbau des Energiesystems über die kommenden Jahrzehnte zu moderaten und völlig vertretbaren Kosten möglich ist. Allerdings: je länger die notwendigen Maßnahmen (auch durch die Medienarbeit der "Klimaskeptiker") hinausgeschoben werden, desto teurer wird es.

Dank:

Mein Dank gilt John Daly in Tasmanien, dessen Website zu konsultieren immer wieder eine Freude war, vor allem aber Herrn Dipl.-Ing Peter Dietze, der mehr als jeder andere in intensiven Diskussionen und per E-mail zur Entstehung dieses Textes einschließlich seiner technischen Ausgestaltung beigetragen hat. Etwaige Fehler bleiben aber meine eigenen.

Daly und Dietze sind beides Rentner, die (nach eigenen Angaben) keine naturwissenschaftliche Ausbildung und auch keinen beruflichen Hintergrund in der Klimaforschung haben. Beide agitieren seit vielen Jahren im Internet und anderen Medien gegen die Ergebnisse der Klimaforschung. Alvensleben referiert in seinem Text fast ausschließlich die altbekannten Argumente dieser Herren. Warum Herr Alvensleben als Physiker sich auf solche Quellen verläßt, statt auf die Wissenschaft, ist mir unverständlich. Hat er sich nie gefragt wie es sein kann, dass praktisch alle professionellen Klimatologen der Welt an das "Märchen" der Erderwärmung glauben, während nur eine Handvoll Pensionäre die Wahrheit erkennt? Dies zu glauben erfordert schon eine recht abenteuerliche Verschwörungstheorie - jeder dieser Forscher, darunter viele Nobelpreisträger, müßte entweder dumm oder unredlich sein. Die Wahrheit ist viel einfacher: Klimatologen kennen die "Skeptiker"-Argumente zwar alle, sind aber aus guten wissenschaftlichen Gründen zu einer anderen Einschätzung gekommen.

Schlußbemerkung

Ich kenne die "Klimaskeptiker" als ständige Begleiterscheinung der Klimaforschung, seit ich vor rund 15 Jahren von der relativistischen Physik in die Klimatologie wechselte. Ich habe all die Jahre die "Skeptiker"-Diskussionen wie die meisten meiner Kollegen am Rande mitverfolgt - man liest gelegentlich "Skeptiker"-Artikel, um zu sehen, ob dort neue, vielleicht erstzunehmende Argumente auftauchen.

Für die Klimaforschung sind die "Klimaskeptiker" eher nützlich. Sie sind ein zusätzlicher Anstoß, die eigenen Folgerungen und die der Fachkollegen noch stärker zu hinterfragen; vielleicht auch bestimmte Aspekte durch weitere Forschung noch besser zu belegen. Solange "Skeptiker" den Eindruck wachhalten, die Resultate der Klimaforschung seien noch umstritten und ungenügend gesichert, solange läßt sich auch weiterer Forschungsbedarf leicht begründen. In den USA haben die "Skeptiker" sich politisch durchgesetzt, und Präsident Bush hat eine Verdoppelung der Forschungsmittel angekündigt. Viele meiner US-Kollegen würden allerdings gerne auf diese zusätzlichen Mittel verzichten, wenn ihre Regierung stattdessen die weltweiten Klimaschutzanstrengungen im Rahmen des Kyoto-Protokolls unterstützen würde. Kein Forscher hat etwas gegen noch mehr Forschung, aber die meisten Klimatologen halten inzwischen die Zeit zum Handeln für gekommen.

Politisch sind die Aktivitäten der "Klimaskeptiker" schädlich, denn sie verhindern sinnvolle Vorsorgemaßnahmen. Sie führen dazu, dass in Teilen von Politik und Wirtschaft das Klimaproblem falsch eingeschätzt wird, und daher falsche Entscheidungen getroffen werden. Führende multinationale Firmen wie Shell und BP haben die Dringlichkeit des Klimaproblems erkannt, unterstützen das Kyoto-Protokoll und investieren massiv in den erforderlichen Umbau des Energiesystems. Es besteht die Gefahr, dass deutsche Firmen, die den "Klimaskeptikern" glauben schenken, hier den Zug in die Zukunft verpassen.

Vorallem aber besteht die Gefahr, dass Klimaschutzmaßnahmen so sehr hinausgezögert werden, dass durch vermehrte Unwetterkatastrophen viele Menschen unnötig ihr Leben verlieren. Ich habe lange die
Aktivitäten der "Skeptiker" kommentarlos verfolgt und mich einfach meiner Forschung gewidmet. Ich habe mich aber nach einigen Schlüsselerfahrungen im Zusammenhang mit der Elbeflut, u.a. auch bei einem Besuch im überfluteten Dresden, zur Stellungnahme entschlossen. Wissenschaftler haben auch die Verantwortung, sich mit unseriösen Thesen auseinanderzusetzen, wenn sie in der Öffentlichkeit zirkulieren.

Kritische, sachliche Argumente in die wissenschaftliche Diskussion einzubringen ist sehr willkommen. Für unverantwortlich halte ich es dagegen, wenn wie durch Herrn Alvensleben mit für Fachleute leicht durchschaubaren Scheinargumenten und durch Weglassen wesentlicher Fakten Laien geschickt in die Irre geführt werden. Besonders verwerflich ist es, sich mit solchen Texten an Lehrer zu wenden (www.schulphysik.de). Unsere Schüler müssen sich darauf verlassen können, dass ihnen im Unterricht wissenschaftlich fundierte Erkenntnisse präsentiert werden, nicht die Privatmeinung einer kleinen Gruppe von Aktivisten.

Literaturangaben

  1. Petit, J.R. and et al., Climate and atmospheric history of the past 420,000 years from the Vostok ice core, Antarctica. Nature, 1999. 399: p. 429 - 436.

  2. Caillon, N., et al., Timing of Atmospheric CO2 and Antarctic Temperature Changes Across Termination III. Science, 2003. 299: p. 1728-1731.

  3. Fu, Q., C.M. Johanson, S.G. Warren, and D.J. Seidel, Contribution of stratospheric cooling to satellite-inferred tropospheric temperature trends, Nature, 429, 55-58, 2004.

  4. Rothrock, D.A., Y. Yu, and G.A. Maykut, Thinning of the Arctic sea-ice cover. Geophysical Research Letters, 1999. 26: p. 3469-3472.

  5. Johannessen, O.M., E.V. Shalina, and M.W. Miles, Satellite evidence for an Arctic sea ice cover in transformation. Science, 1999. 286: p. 1937-1939.

  6. Laut, P., Solar activity and terrestrial climate: an analysis of some purported correlations. Journal of Atmospheric and Solar-Terrestrial Physics, 2003. 65: p. 801– 812.

  7. Bauer, E., et al., Assessing climate forcings of the Earth system for the past millennium. Geophysical Research Letters, 2002. submitted.

  8. IPCC, Climate Change 2001. 2001, Cambridge: Cambridge University Press.

  9. Lorius, C., et al., The ice-core record: climate sensitivity and future greenhouse warming. Nature, 1990. 347: p. 139-145.

  10. Severinghaus, J., et al., Timing of abrupt climate change at the end of the Younger Dryas interval from thermally fractionated gases in polar ice. Nature, 1998. 391: p. 141-146.

  11. Kristjansson, J.E., A. Staple, and J. Kristiansen, A new look at possible connections between solar activity, clouds and climate. Geophysical Research Letters, 2002. 29: 10.1029/2002GL015646.

  12. Thomas, C. et al, Extinction risk from climate change. Nature, 2004. 427: p. 145-148.