Klimamodelle
Ann-Kathrin Greitner
Seminar Wetter und Klima
Prof. Dr. Wolfgang Gebhardt
Prof. Dr. Klaus Richter
2013
Inhaltsverzeichnis
1 Historie 2
2 Basiskonzepte von Klimamodellen 3
2.1 Einfaches Modell der Atmosphare - Lorenz-Modell[7] . . . . . . . . . 3
2.2 Grundgleichungen der Klimamodellierung . . . . . . . . . . . . . . . . 4
2.3 Einteilung der Klimamodelle . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 3D-Gitterraster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Gegenwartige Klimamodellierungen . . . . . . . . . . . . . . . . . . . 8
3 Computersimulation durch Supercomputer 9
3.1 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2 1 Billiarde Rechenschritte pro Sekunde . . . . . . . . . . . . . . . . . 10
4 Glaubwurdigkeit und Fehlerquellen 10
5 Aktuelle Methoden zur Messdatengewinnung 12
5.1 Tiefseebohrkerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Eisbohrkerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3 Tropfsteine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.4 Baumringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6 IPCC - Bindeglied zwischen Politik und Wissenschaft 17
7 IPCC/AR5 - erste Daten fur den Klimabericht Okt. 2013 18
7.1 RPC’s 2.6, 4.5, 8.5 - Szenarien der Zukunft . . . . . . . . . . . . . . . 19
7.1.1 Globale Mitteltemperatur . . . . . . . . . . . . . . . . . . . . 20
7.1.2 Niederschlag . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
7.1.3 Meereis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
7.1.4 Meeresspiegel . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
8 Grenzen der Klimamodellierung 25
9 Literatur- und Abbildungsverzeichnis 26
1
1 Historie
Die Anfange der Klimamodellierung begannen 1904 mit dem norwegische Physiker
und Meteorologen Vilhelm Friman Koren Bjerknes (*1862 - †1951).
Dieser wollte eine Art allgemeines Gleichungssystem aufstellen,
das im Stande sein sollte die Zirkulationsvorgange der Atmo-
sphare zu beschreiben. Dafur hatte er eine numerische Wettervor-
hersage gefordert, ohne einen praktikablen Weg zeigen zu konnen.
Das erste Problem war, dass kaum Messwerte aus den hoheren
Luftschichten gewonnen wurden. Zweitens lagen die Gleichungen,
die das physikalische Geschehen in der Atmosphare beschrieben,
nicht in einer fur Routine-Vorhersagen brauchbaren Form vor.
Drittens hatten die Rechnungen eine Zeit benotigt, in der die Vorhersage schon
langst von der Realitat uberholt worden ware. Dennoch entwickelte er 7 einfache
Gleichungen zur Beschreibung des Verhaltens von Hitze, Bewegung, Luftbewegung
und Feuchtigkeit innerhalb der Atmosphare. Diese basierten auf zwei Grundsatzen,
die noch heute die Grundlagen der heutigen numerischen Wettervorhersage und Kli-
mamodelle sind:
1. Eine ausreichend genaue Kenntnis des Anfangszustands des Systems
2. Eine ausreichend genaue Kenntnis der Gesetze, die die Ablaufe im Klimasys-
tem bestimmen
1922 wurde die erste numerische Wettervorhersage mit Hilfe ei-
nes Rechenschiebers in dem Klassiker ’Weather Prediction by
Numerical Process’ von dem britischen Meteorologen und Frie-
densforscher Lewis Fry Richardson (*1881 - †1953) veroffentlicht.
In diesem Buch, der sog. Bibel der Klimatologen, gibt Richardson
eine step-by-step Anleitung zur Erstellung einer Wettervorhersa-
ge fur einen kleinen Teil Europas an. Diese stutzt er auf seine vor-
handenen Beobachtungsdaten, was jedoch eine hohe Fehlerquelle
aufweist. Da er keinerlei Wissen uber den Einfluss der gesamten,
unterschiedlichen Prozesse in der Atmosphare besitzt, fuhren seine Theorien zu recht
unrealistischen Vorhersagen.
John von Neumann IAS machine Jule Gregory Charney
(* 1903 - †1957) (*1917 - †1981)
Ungar.-osterr. Mathermatiker amerikan. Meteorologe
2
Aufgrund der Komplexitat der Gleichungen solcher dynamischen Systeme, wird eine
enorme rechnerische Leistung vorausgesetzt, wodurch es erst mit der Erfindung des
sog. Supercomputers moglich wurde, dies umzusetzen.
Anfanglich auf Interesse des amerikanischen Militars, entstand Ende der 50er Jahre
die erste numerische Wettervorhersage, mit Hilfe Neumann’s und Charney’s, an der
Princeton University, New Jersey. Dabei ermoglichte es die Entwicklung der noch
heute in gangigen Computern benutzten von-Neumann-Architektur, dass Charney
ein Computerprogramm zur numerischen Wettervorhersage konzipieren konnte. Die
an der ’IAS machine’ durchgefuhrten Berechnungen beruhten auf den bereits vor-
handenen Gleichungen Richardson’s. Diese vereinfachte Charney, entzog diesem so-
mit die Hauptfehlerquellen, und erstellte ein Gleichungssystem zur Berechnung der
Bewegung planetarer Wellen (die spater sog. Rossby-Wellen).
Aus dem damaligen Forschungsbereich Charney’s ent-
wickelte sich recht schnell das weltberuhmte NOAA
Geophysical Fluid Dynamics Laboratory. Dies beschaftigt
sich bis heute ausschließlich mit dem komplexen Fließ-
verhalten der Atmosphare und des Ozeans.
Norman Phillips (2. von links), ein wissenschaftlicher
Zogling Charney’s, ermoglichte 1956 das erste Klima-
modell. Dabei fugte er Charney’s System Zwangsbe-
dingungen hinzu, wodurch realistische monatliche und
jahreszeitliche Vorgange in der Troposphare erstmals
darstellbar wurden. Durch dieses mathematische Modell legte er den Grundstein fur
die heute in der Klimamodellierung gangigen AGCM (Atmospheric Global Circula-
tion Model) und OGCM (Oceanic Global Circulation Model).
2 Basiskonzepte von Klimamodellen
2.1 Einfaches Modell der Atmosphare - Lorenz-Modell[7]
Abbildung 1: Schematische Darstellung des Lorenz-Modells
3
Dieses Modell beschreibt die Atmosphare als ein quaderformiges Gasvolumen, das
von unten gleichmaßig beheizt wird. Nach den Gesetzen der Stromungslehre beginnt
die Luft aufgrund des Temperaturgefalles zu zirkulieren. Warme Luft steigt an der
einen Seite des Quaders auf, kalte Luft sinkt entlang der anderen Seite ab - die
Bewegung der Luft ist gleich einem rotierenden Zylinder, dessen Rotationsachse
parallel zur Ober- bzw. Unterseite der Box ausgerichtet ist. Das Modell lasst sich mit
einem System dreier gekoppelter, gewohnlicher Differentialgleichungen beschreiben:
dxdt
= δ(x− y)
dydt
= rx− y − xz
dzdt
= xy − bz
Hierbei bezeichnet x die Winkelgeschwindigkeit des Luftzylinders, welche ein Maß
fur die Windstarke in der Atmosphare darstellt; y ist die Temperaturdifferenz zwi-
schen den vertikalen Seiten des Zylinders, also zwischen der aufsteigenden warmen
Luft und der absinkenden kalten Luft; z ist der vertikale Temperaturgradient. Die
Parameter des Lorenz-Modells sind folgende: δ gibt das Verhaltnis zwischen der
Viskositat der Luft und ihrer thermischen Leitfahigkeit an und b ist das Verhaltnis
der Breite der Box zu ihrer Hohe; der eigentlich interessante Parameter ist r, der
die Differenz zwischen der Temperatur an der Unterseite und der Temperatur an
der Oberseite der Box bestimmt - ein Anstieg der CO2 -Konzentration in der Atmo-
sphare fuhrt zu einem großeren Wert fur r. Vernunftige Werte fur die drei Parameter
sind δ = 10, r = 28 und b = 8/3. Dieses Gleichungssystem lasst sich nicht analytisch
losen, sondern lasst sich nur mit numerischen Methoden berechnen. Zwei Graphen
fur den zeitlichen Verlauf der Winkelgeschwindigkeit x sind in den Abb.2 und 3
gegeben; wie zu sehen ist, fuhren schon geringste Abweichungen in den Anfangs-
bedingungen (hier eine Anderung des Anfangswertes fur x um ein Millionstel) ab
einem bestimmten Zeitpunkt zu einem ganz anderen zeitlichen Verlauf der Winkel-
geschwindigkeit eine solche außerordentliche Empfindlichkeit gegenuber Storungen
des Systems ist als Chaos bekannt; wir haben es hier also mit einem chaotischen
System zu tun.
Auch wenn nun zu einem bestimmten Zeitpunkt die Anfangsbedingungen der Atmo-
sphare, die ja ein chaotisches System ist, noch so gut bekannt sind - die geringste, nie
auszuschließende Abweichung der beobachteten Daten von den tatsachlichen Wer-
ten hat zur Folge, dass der Fehler in den Vorhersagen mit der Zeit so groß wird,
dass diese unbrauchbar werden. Um dennoch realistische Simulationen erzeugen zu
konnen, ist die Anwendung von statistischen Methoden notig.
2.2 Grundgleichungen der Klimamodellierung
Bei der Klimamodellierung steht die Erhaltung dreier physikalischer Großen im Mit-
telpunkt:
1. Drehimpulses
4
Abbildung 2: zeitlicher Verlauf der Winkelgeschwindigkeit x fur die Anfangsbedin-
gungen x = - 9, y = - 3 und z = 32
Abbildung 3: zeitlicher Verlauf der Winkelgeschwindigkeit x fur die Anfangsbedin-
gungen x = - 9, 000001, y = - 3 und z = 32
5
2. Masse
3. Energie (1.HS der Thermodynamik)
Dabei dienen die Navier-Stokes Gleichungen als Basisgleichung, welche man auf ei-
ner Kugel rotierend mit thermodynamischen Randbedingugnen fur unterschiedliche
Energiequellen (Strahlung, latente Warme) lost.
Um die Systeme Atmosphare und Ozean aneinander zu koppeln, verbindet man die
Zustandsgleichungen fur die Atmosphare:
• Druck, Temperatur und Dichte
und die des Ozeans:
• Druck, Temperatur, Dichte und Salinitat
Schließlich berucksichtigt man durch eine Gleichung den Feuchtigkeitshaushalt der
gesamten Atmosphare.
Dieses daraus entstandende komplexe Gleichungssystem, kann man aufgrund seines
’Volumens’ nun nunmehr durch eine numerische Analyse losen, was uns zum Einsatz
von sog. Supercomputern zwingt.
2.3 Einteilung der Klimamodelle
Bei der Klimamodellierung an sich kommt es darauf an welches Problem genau
gefragt ist. Aus diesem Grundkonzept haben sich nach Komplexitat der jeweiligen
sich ergebenden Gleichungssysteme unterschiedliche Modelle entwickelt, die sowohl
Vor- als auch Nachteile mit sich bringen. Das komplexeste und damit aufwendigste
Model ist das GCM (Global Circulation/Climate Model). Dieses teilt sich heutzutage
auf in ein AGCM (Atmospheric Global Circulation Model) und ein OGCM (Oceanic
Global Circulation Model).
Dabei modeliert das AGCM, wie der Name schon sagt, die Atmosphare, die sich
darin abspielenden chemischen Prozesse und auch oft die Erdoberflache. Die Rand-
bedingungen dieses Systems sind dabei durch die Wasserobelflachentemperaturen
berucksichtigt.
Das OGCM modeliert den Ozean und das Seeeis, wobei man hier die atmospharischen
Zulaufe als Randbedingungen miteinbezieht.
Die Kopplung dieser beiden Systeme sog. AOGCMs oder CGCMs ist außerst kom-
plex und fordert eine enorme Rechenleistung, um eine gute Auflosung zu bekommen.
Eine korrekte Umsetzung dieser Art von Modell wird durch Ruckkopplungsprozesse
erschwert, die eine Großenanpassung aufgrund des globalem Wandels wahrend der
Simulation benotigen. Aufgrund dieser hohen Komplexitat bzgl. der Gleichungssys-
teme sind sie oft nur geeignet, um Voraussagen bzw. Ruckblicke von einigen Jahr-
zehnten zu ermoglichen, jedoch nicht um z.B. das Wetter von Morgen vorherzusagen.
Ein weniger komplexes System ist das sog. SGCM (Simple Global Circulation Mo-
del). Durch seine geringe Komplexitat sind Voraussagen in einer kurzeren Rechenzeit
moglich, was das Studieren atmospharischer Prozesse einfacher macht. Ein großer
6
Hacken dabei ist, dass sie aufgrund ihrer geringen Komplexitat, wenige Freiheitsgra-
de aufweisen und auch eine hohe Parametrisierung benotigen. Letzteres bedeutet,
dass es von den Ergebnissen der AOGCMs abhangig ist und somit fur zukunftige
Klimavorhersagen nicht geeignet ist.
Um nun die Lucke zwischen einfachen und sehr komplexen Systemen zu fullen,
entwickelte man die sog. ESMICs ( Earth Simulation of Intermediate Complexity)
kurz ESMs. Diese sind die heutzutage am meisten benutze Modellform, da sie eine
geringer Komplexitat als die AOGCMs besitzen, mehr Freiheitsgrade als die SG-
CMs bieten und somit gutes Gleichgewicht darstellen zwischen Komplexitat und
Rechenleistung. Ihre Parametrisierungen basieren dabei auch auf den Berechnung
der AOGCMs, ermoglichen jedoch durch ihre geringer Komplexitat Simulationen
von mehreren 1000 Jahren.
Bei regionalen Klimamodellen handelt es sich um Modellierungen, die auf Daten/
Parametrisierungen der AOGCMs als auch der unmittelbaren Umgebung (Forst-,
Landwirtschaft etc.) angewiesen sind. Diese benutzt man um Aussagen uber z.B.
die zukunftige Klimaanderung Europas zu ermitteln. Dabei werden sie in zwei Ka-
tegorien unterteilt[1]:
1. Dynamische Regionalmodelle
Dynamische Regionalmodelle arbeiten ahnlich wie globale Modelle und simu-
lieren die Dynamik der physikalischen und chemischen Prozesse in der Atmo-
sphare. Sie beziehen sich aber auf einen begrenzten Ausschnitt der Erdober-
flache und konnen daher bei gegenwartigen Rechnerkapazitaten eine hohere
Auflosung rechnen, die aktuell (2010) in Deutschland bei 10 bis 20 km liegt.
Dabei ubernehmen sie an den Randern des Gebietes die Ergebnisse von glo-
balen Modellen. Die zeitliche Auflosung geht bis auf Stunden zuruck, so dass
sich Tagesgange, Tagesmittel und Monatsmittel berechnen lassen.
2. Statistische Regionalmodelle
Statistische Regionalmodelle nutzen die statistischen Zusammenhange zwi-
schen den beobachteten großraumigen Zirkulationsmustern und dem lokalen
und regionalen Wettergeschehen. Die gegenwartigen Zusammenhange werden
von Messdaten ubernommen. Die kunftigen Anderungen der großraumigen
Strukturen stammen aus globalen Klimamodellen, wobei die heutigen statis-
tischen Beziehungen auf die kunftigen Verhaltnisse ubertragen und daraus die
regionalen Anderungen abgeleitet werden.
Dynamische Regionalmodelle haben den Vorteil, dass sie auch grundsatzlich neue
klimatische Verhaltnisse abbilden konnen. Sie sind jedoch sehr rechenaufwendig.
Statistische Modelle sind stark von den zugrunde liegenden Messdaten abhangig und
fur neue klimatische Verhaltnisse wenig geeignet. Wegen der geringeren Rechenzeit
eignen sie sich jedoch bei hoher Auflosung fur kurz- und mittelfristige Projektionen
in kleinen Raumen[2].
7
Abbildung 4: Darstellung eines globalen 3D-Gitterrasters zur Simulation von AOG-
CMs; kleines Bild links: Betrachtung einer einzelnen Gitterzelle[6]
2.4 3D-Gitterraster
Um nun ein Modell zum Laufen zu bringen, teilt man die Atmosphare (GCMs) in
ein 3D-Gitterraster ein Fig.4. Die Große eines einzelnen Volumenelements dieses
Rasters betragt zwischen 100 -200 km (10-20 km fur ein regionales Klimamodell).
Innerhalb dieser Gitterzelle wendet man nun die diff. Glg.en an und integriert uber
die Zeit. Man berechnet z.B. fur ein AGCM den Warmeaustausch, die Strahlung,
die relative Feuchtigkeit und die Oberflachengewasser. Danach setzt man die zu
bewertenden Resultate in Beziehung mit denen der Nachbarzelle, betrachtet also
die Wechselwirkung der Gitterzelle mit seinen Nachbarzellen. Diesen Vorgang fuhrt
man nun fur jede Gitterzelle aus. Da die Ruckkopplungsprozesse von Wind und
Warmeaustausch sehr kompliziert sind und einen enormen zeitlichen Rechenauf-
wand bedeuten wurden, jedoch oft nur das Endergebnis zahlt, setzt man ’fiktive
Anfangswerte’, basierend auf bereits gemessenen Daten, ein.
2.5 Gegenwartige Klimamodellierungen
Die heutige Klimamodellierung simuliert stets gekoppelte ESMs. Dies bedeutet, dass
heutzutage Simulationen von GCMs mit hochster raumlich und zeitlich erreichbarer
Auflosung moglich sind. Ein solches gekoppeltes System basiert auf 5 zu betrach-
tenden Komponenten:
1. Atmosphare
2. Ozean
8
Abbildung 5: Hier als Beispiel zur Berechnung aussagekraftiger Ensembles die von
der IPPC/AR4 2007 herausgebrachte jahrliche 2m-Temperaturschwankung vgl. mit
den Jahren 1961-1190
3. Kryosphare
4. Biosphare
5. Anthroposphare
Dabei berucksichtigt man den C02, Warme und Wasser Austausch der Systeme
untereinander (Kopplung). So tauscht der Ozean mit der Kryosphare Warme und
Wasser aus, mit der Atmosphare C02, Warme und Wasser. Die Atmosphare tauscht
mit der Kryosphare C02 und Wasser aus, sowie mit der Anthroposphare C02. Die An-
throposphare tauscht mit der Biosphare Wasser aus und letzten Endes die Biosphare
Warme mit der Kryosphare. Dieses Kopplungsystem wird durch dafur eigens kon-
zipiertes Computerprogramm verwirklicht, dass mit den jeweiligen anderen kola-
boriert. Bei der Simulation der aneinander gekoppelten ESMs wird naturlich auch
in den jeweiligen Modellen die Strahlung der Sonne mit Hilfe der Strahlungsbilanz
(siehe spateres Kapitel) miteinbezogen.
3 Computersimulation durch Supercomputer
3.1 Vorteile
Das benutzten solcher komplexen Gleichungssysteme, deren enorme Dynamik und
Datenmenge, benotigt eine enorm hohe Rechenleistung der verwendeten Computer,
was nur durch die Nutzung von sog. Supercomputern ermoglicht wird. Nur mit
diesen kann man eine passable raumliche Auflosung erzielen, Simulationen wie z.B.
der Eiszeit beschleunigen und sog. Ensembles berechnen.
Numerische Methoden reagieren oft empfindlich auf kleine Veranderungen in den
Eingabewerten. Die Verlasslichkeit der Modelle wird deshalb immer wieder ange-
zweif elt. Je leistungsfahiger die Computer werden, desto haufiger konnen sogenannte
Ensemble-Berechnung en durchgefuhrt werden: Die Modellrechnungen werden mehr-
fach mit leicht veranderten Startwerten wi ederholt, so dass man zufallsbedingte
Schwankungen von statistischen Trends unterscheiden kann. Je leistungsfahiger der
9
Computer, desto umfangreicher die Ensembles und desto verlasslicher das Ender-
gebnis (Fig.5). Bereits das Gittersystem spielt eine wichtige Rolle, will man die
raumliche Auflosung verbessern. Jedoch gibt es hierbei bereits Probleme bzgl. der
Rechenleistung. So bewirkt eine Verdopplung der Auflosung eines globalen Modells
eine Verachtfachung der Anzahl der Koordinatenpunkte und eine Verdoppelung der
Anzahl der Zeitschritte und somit eine mehr als zehnfache Erhohung der benotigten
Rechenzeit fur dieselbe Simulationsperiode. Dies ist euch ein großes Problem bzgl.
der adaquaten Parametrisierung wichtiger Prozesse wie Wolkenbildung, Warme- und
Wasseraustausch der Ozeane etc..
3.2 1 Billiarde Rechenschritte pro Sekunde
Die gegenwartigen Supercomputer bewegen sich zur Zeit bzgl. ihrer Rechenleistung
bereits im Petaflop/s-Bereich. Das bedeutet ein heutzutage verwendeter Supercom-
puter kann innerhalb einer Sekunde 1 Billiarde Rechenschritte ausfuhren. Das ent-
sprache 7 Milliarden Menschen, von denen jeder in der Sekunde 3 Millionen Re-
chenschritte ausfuhren musste. Eine enorme Leistungfahigkeit. Die zur Zeit auf der
Weltrangliste befindlichen besten Supercomputer sind in der folgenden Tabelle ange-
ordnet und werden uberwiegend fur wissenschaftliche Zwecke, wie die Klimamodel-
lierung oder die Modellierung physikalischer Prozesse, eingesetzt. Zwei davon sind
sogar in deutscher Hand und belegen Rang 5 und 6 mit dem JUQEEN des For-
schungszentrums Julich und dem SuperMUC des LRZ in Munchen.
Bezugliche der Klimamodellierung steht z.B. dem Deutschen Rechenzentrum der
Supercomputer Blizzard von IBM (158 Tflops/s, 8448 Prozessoren), welches fur den
aktuellen IPCC Bericht nur 1/4 ausgelastet war, und eines der weltweit großten und
effizientesten Datenarchive zur Verfugung (Archivierung von 10.000 TeraByte/Jahr).
4 Glaubwurdigkeit und Fehlerquellen
Nun mag der ein oder andere Skeptiker zu Recht die Frage stellen, inwieweit man
den Simulationen solcher Klimamodelle trauen kann.
Klimamodelle beruhen stets auf physikalischen Gleichungen, die durch zahlreiche
Experimente bereits bestatigt wurden. Durch das Uberprufen der Ergenbisse mit
bereits vorhandenen Messdaten aus der Atmosphare, den Ozeanen (Tiefseebohrun-
gen), der Kryosphare (Eisbohrkerne) und der Erdoberflache (Tropfsteine, Baumrin-
ge etc.)und durch das Vergleichen mehrerer Modelle (sog. ’multi-model simulations’
s.Fig.), ist es moglich auch schwankende System zu modellieren und dadurch bereits
auch Wetterschwankungen im Bereich von Jahreszeiten oder Jahren zu simulieren.
Dabei treten jedoch oft Fehlerquellen auf, wie die Tatsache, dass die zu berechnenden
Prozesse kurzer Zeitskalen noch nicht erfasst werden konnen, stets Approximatio-
nen notwendig sind, um einen gewunschten Wert zu bekommen, trotz bereits hoher
Rechenleistung, diese noch nicht vollstandig ausreicht und nur fur die letzten 200
Jahre detaillierte Messdaten vorhanden sind.
10
Abbildung 6: Tabelle der 6 besten Supercomputer weltweit (Stand Nov.2012)[5]
Abbildung 7: Globale Durchschnittstemperatur nahe dem Erdboden; die schwarze
Linie zeigt Messungen, die gelben Linien sind eine Auswahl unterschiedlicher Simula-
tionen von mehreren Modellen, deren Durchschnitt die rote Linie darstellt. Die Kur-
ven sind relativ zum Durchschnitt der Daten zwischen 1901 und 1950. Die grauen
Linien zeigen die Zeitpunkte von Vulkanausbruchen
11
5 Aktuelle Methoden zur Messdatengewinnung
Da die instrumentelle Klimamessung erst seit den letzten 150-200 Jahren existiert,
jedoch die Klimageschichte der Erde besonders wichtig im Bezug auf die kunftige
Klimaentwicklung ist, um mogliche Parallen zu erkennen und Vorausagungen zu
treffen, etablierten sich die Palaoklimatologen. Diese beschaftigen sich mit der Kli-
mageschichte der Erde und versuchen mit unterschiedlichsten Messmethoden Daten
aus Zeiten von vor Millionen Jahren zu extrahieren. Dabei etablierten sich Methoden
wie die Tiefseebohrkerne, Eisbohrkerne, Dendrochronologie und Tropfsteinuntersu-
chung, die ich im Folgenden nun kurz vorstellen werde.
5.1 Tiefseebohrkerne
Abbildung 8: Links: typisches Forschungsschiff zur Tiefseebohrung; Rechts: Tiefsee-
bohrkern
Anhand von Tiefseebohrkernen versucht man durch Untersuchungen der
• biogenen (abgestorbene Organismen)
• lithogenen (Gesteinstucke)
• hydrogenen (im Salzwasser geloste chemische Substanzen)
• kosmischen Sedimente (Meteoriten)
mit Hilfe des δ18O Verhaltnisses die vergangenen Klimaveranderung auf der Erde
und somit die Klimageschichte der Erde zu rekonstruieren. Dies basiert darauf, dass
das leichtere Isotop 16O bei einer Erhohung der Wasseroberflachentemperatur in die
Atmosphare diffundiert und somit das schwerere Isotop 18O im Meer zuruckbleibt.
Dieses lagert sich in Kalk (CaCO3) ab und ist somit uber Jahrmillionen in Kalkske-
letten nachweisbar. Mithilfe dieser aus Kalkskeletten extrahierten Messdaten lassen
sich bereits die letzten 200 Millionen Jahre Erdgeschichte erarbeiten.
In Fig.9 sehen wir links Reste der Kalkschalen von Foraminiferen (gehausetragenden
Einzellern) unter dem Mikroskop, rechts eine Rekonstruktion der globalen Mittel-
temperatur der bodennahen Atmosphare der letzten 100 Millionen Jahre. Wobei
die y-Achse die Abweichungen zum heutigen Temperaturniveau zeigt. Hier ist der
12
Abbildung 9: Links: Reste der Kalkschalen von Foraminiferen (gehausetragenden
Einzellern) unter dem Mikroskop;Rechts: eine Rekonstruktion der globalen Mittel-
temperatur der bodennahen Atmosphare der letzten 100 Millionen Jahre
deutliche Abkuhlungstrend beginnend nach dem Eozan-Klimaoptimum ersichtlich,
gekennzeichnet von einigen abrupten Klimaanderungen, welche mit wachsenden und
schmelzenden Eismassen in Verbindung stehen[4].
5.2 Eisbohrkerne
Abbildung 10: Oben: Forscher bei Herausnahme eines frisch gebohrten Eiskerns in
der Antarktis und rechts im Eis vorhandene Schichten; Unten: typischer Eisbohrkern
Die Rekonstruktion dieser Methode ermoglicht gegenwartig eine Analyse 100 Mya.
Dies erfolgt durch die Untersuchung eingeschlossener fossiler Luftblaschen (Fig.21).
13
Um hierbei eine Fehlerquelle zu vermeiden, entnimmt man in der Antarktis und
auf Gronland Eisbohrkernproben, da hier trockene Metamorphose uberwiegt. Das
bedeutet, dass hier kaum auftauende Prozesse bzw. Schmelzwasser entsteht, was
einen unverfalschten Einschluss der im Eis konservierten Luftblaschen erlaubt und
somit auch Messungen aktueller Werte (z.B. CO2) ermoglicht.
Abbildung 11: Fur Analyse wenige mm dicke Scheibe eines Eisbohrkerns
Wie bei den Tiefseebohrkernen analysiert man auch hier das δ18O Verhaltnis inner-
halb der Luftblaschen. Jedoch ist es nun auch moglich Aussagen uber vergangene
CO2 und CO4 Vorkommnisse 700.000 ya zu treffen. Dabei ermoglichen die verwen-
deten Messtechniken 300 (bei CO2) bzw. sogar von weniger als 1 Molekul (bei CH4)
pro Million Luftmolekulen nachzuweisen.
5.3 Tropfsteine
Abbildung 12: Links: typische Tropfsteinhohle; Rechts: Das Alter dieses deutlich
laminierten Stalagmit aus der Klaus-Cramer-Hohle in Vorarlberg konnte an der Basis
auf etwa 492.000 Jahre bestimmt werden[4]
Da Wasser uranhaltig ist und Uran in Thorium zerfallt, bietet dies eine leicht Metho-
de zur Altersbestimmung eines Stalaktiten oder Stalakmiten. Das Alter des Steins
nun wissentlich, wendet man nun wieder die Messung des δ18O Verhaltnisses an
und kann dadurch bis zu 10.000 ya ruckrechnen. Beliebte Tropfsteinhohlen zur Pro-
benentnahme sind solche, die das ganze Jahr uber eine recht konstante Temperatur
14
aufweisen und somit die Messdaten nicht verfalschen. Solche Hohlen sind dienen
Spannagelhohle und der Kleegrubenhohle im Zillertal. Diese Hohlen weisen ideale
Bedingungen fur die Klimaanalyse auf, weil die Temperatur im Inneren der Hohle
ubers Jahr konstant 2 ◦C betragt, weshalb kaum storende chemische Prozesse ab-
laufen. Beide Tropfsteinsegmente zeigen eine deutliche Klimavariabilitat in verschie-
denen Zeitskalen. Die Temperaturreihe der letzten beiden Jahrtausende, die aus
dem Spannagel-Stalagmit rekonstruiert wurde, veranschaulicht gut den Ubergang
vom warmeren Mittelalter zur darauf folgenden Kleinen Eiszeit. Der Kleegruben-
Stalagmit aus der Wurm-Eiszeit (58.000–48.000 ya) zeigt die Dansgaard-Oeschger-
Ereignisse (rasche Klimaschwankungen, die mit Unterbrechungen der atlantischen
thermohalinen Zirkulation in Beziehung stehen) (Fig.13).
Abbildung 13: Klimakalender aus Zillertaler Tropfsteinen. Oben: Eine 2000 Jahre
lange Temperaturrekonstruktion aus stabilen Sauerstoffisotopen eines Stalagmiten
der Spannagelhohle Unten: Eine 10.000 Jahre lange Sauerstoffisotopenreihe eines
Stalagmiten aus der Kleegrubenhohle[4]
5.4 Baumringe
Als letzte Methode zur Rekonstruktion der vergangenen Klimavariabilitat der Erde
mochte ich noch die Dendroklimatologie anfuhren, sozusagen die Wissenschaft des
’Baumringezahlens’.
Obwohl sie einige Schwierigkeiten in puncto Filterung des gewunschten Klimasignals
und Uberlagerung des rein temperatur- oder niederschlagsabhangigen Wachstums
(Bodenbeschaffenheit, Nahrstoffversorgung, Abschattung durch schneller wachsen-
de Baume, lang andauernde Schneedecke oder Windbruch, schnelleres Wachstum in
15
Abbildung 14: Darstellung der Zahlmethode an einer Baumstammscheibe
den ersten Jahren) aufweist und zudem statische Methoden (Messdatenkalibrierun-
gen) notig sind, ist sie trotzdem eine der wichtigsten Informationsquellen. Dies liegt
daran, dass mit Hilfe dieser Messmethode eine jahrliche Auflosung und zudem eine
absolute Datierbarkeit moglich ist (siehe hierzu Fig.15).
Abbildung 15: Aus Jahrringen rekonstruierte Sommer-Fruhherbst-Temperatur (Ju-
ni bis September) in den Alpen 755–1850 (schwarz) und entsprechende hochalpi-
ne HISTALP-Messdaten 1851–2006 (rot). Dargestellt sind jahrliche Abweichungen
vom Mittel der Jahre 1901–2000 (dunne Linien) und deren geglattete Trends (dicke
Linien)[4].
16
6 IPCC - Bindeglied zwischen Politik und Wis-
senschaft
Die IPCC (Intergovernmental Panel of Climate Change) bei uns Weltklimarat ge-
nannt wurde im November 1988 vom Umweltprogramm der Vereinten Nationen
(UNEP) und der Weltorganisation fur Meteorologie (WMO) als zwischenstaatli-
che Institution ins Leben gerufen. An seinem Standort Genf in der Schweiz, soll es
Risiken der globalen Erwarmng beurteilen und daraufhin Vermeidungs- und Anpas-
sungsstrategien zusammentragen.
Seine Aufgaben bestehen in:
• der Untersuchung des Risikos der von Menschen verursachten Klimaveranderungen
(Globale Erwarmung)
• der Darstellung des aktuellen Wissensstandes zu den unterschiedlichen Aspek-
ten des menschengemachten Klimawandels (Anthroposphare betrachtend)
• dem Abschatzen der Folgen der globalen Erwarmung fur Umwelt und Gesell-
schaft
• der Formulierung realistischer Vermeidungs- oder Anpassungsstrategien
• und der Forderung der Teilnahme von Entwicklungs- und Schwellenlandern an
den IPCC-Aktivitaten
Die im Jahre 2001 (Dritter) und 2007 (Vierter) herausgegebenen Sachstandsberichte
der IPCC sind seit Jahren die dominierende Basis gegenwartiger politischer und
wissenschaftlicher Diskussionen uber globale Erwarmung.
Um solch eine riesige Leistung zu vollbringen und Leute miteinander kolaborieren
lassen zu konnen, benotigt man einen klaren Aufbau und eine gute Arbeitsstruktur.
Dafur wurde die Organisation eingeteilt in:
• Arbeitsgruppe I: Bearbeitung der wissenschaftlichen Aspekten des Klimasys-
tems und der Klimaanderung
• Arbeitsgruppe II: Beschaftigung mit der Verwundbarkeit von soziookonomischen
und okologischen Systemen durch Klimaanderungen
• Arbeitsgruppe III: befasst sich mit Maßnahmen zur Eindammung des Klima-
wandels
• zudem gibt es eine sog. Task-Force, die fur die Entwicklung von Methodologien
und Standardisierung von Verfahren z.B. bei Erhebung von Emissionsdaten
von Treibhausgasen in den einzelnen Landern entwickelt
• daruber hinaus gibt es jeweils 2 Co-Vorsitzende und 6 Vizevorsitzende, die die
Arbeiten innerhalb der Gruppen kooridinieren
17
7 IPCC/AR5 - erste Daten fur den Klimabericht
Okt. 2013
Dieser im Oktober 2013 zu veroffentlichende IPCC Bericht beruht auf dem Basis-
experimente (z.B. fur den historischen Zeitraum von 1850 bis 2005) und der an-
schließenden Projektionen bis 2100 und 2300 fur unterschiedliche Szenarien. Dies
soll dekadische Klimavorhersagen, sowie die Rolle des Kohlenstoffkreislaufs fur Kli-
maanderungen ersichtlich machen. Erstmals wird die Biogeochemie miteinbezogen,
die die Anderung des pH-Wertes aufgrund des ansteigenden CO2-Gehaltes und deren
Auswirkung auf das globale System miteinbeziehen soll.
Dies soll es letzten Endes ermoglichen auch die Jahre 850 - 1850 oder auch das letzte
glazial Maximum der ferneren Vergangenheit (vorindustriellen Zeit) zu studieren.
Abbildung 16: Grobes Schema der fur den AR5 verwendeten gekoppelten ESMs,
entwickelt vom Max-Plack-Institut fur Meteorologie. Dabei sind die unterschiedli-
chen Namen der jeweilgen Modelle angegeben, die die Atmosphare, den Ozean und
die Biogeochemie, sowie die Biosphare modellieren und durch das Kopplungssystem
OASIS wie in Kapitel 2.3 die einzelnen Systeme verbunden werden.
Um auch ein Gefuhl dafur zu bekommen, welche Daten nun fur das 3D-Gitter ver-
wendet werden, welche so wichtig fur die raumliche und zeitliche Auflosung sind,
liste ich im Folgenden die beim AR5 verwendeten und gekoppelten auf:
• Atmosphare: horiz. Auflosung 200 km(1.875 Grad) bei 47 Schichten (bis 0.01
hPa / 80 km Hohe) (LR) bzw. /95 Schichten (bis 0.01 hPa / 80 km Hohe)
(MR)
• Landbiosphare: h.A. wie Atmosphare, vorgeschr. Landnutzung
• Ozean und Biogeochemie: variable h.A. von 12 bis 150 km bei 40 Schichten
(LR) bzw. 0.4 Grad (40 km) bei 40 Schichten (MR)
18
7.1 RPC’s 2.6, 4.5, 8.5 - Szenarien der Zukunft
Die moglichen zukunftigen Emissionsverlaufte die im AR5 simuliert werden, sind die
sog. Representative Concentration Pathways (RPCs). Stimmt dieser mit dem Ver-
lauf des Strahlungsantriebes bzw. der Treibhausgas-Konzentration der beobachteten
Vergangenheit im Zeitraum 1860-2005 uberein, so lasst man die die verschiedenen
Moglichkeiten fur die Jahre 2006-2100 simulieren. Je nach je nach
Bevolkerungsentwicklung, Entwicklung der Energieproduktion, der Nahrungsmit-
telproduktion und Landnutzung existieren unterschiedliche Emissionsverlaufe. Mit
einem vereinfachtem Kohlenstoffkreislauf-Klimamodell lasst man die dazu passenden
Verlaufe der CO2-Konzentration, Konzentration anderer Treibhausgase und Aeroso-
le berechnen und somit die auch die entsprechende Anderung der Strahlungsbilanz,
die einen zusatzliche Treibhauseffekt bewirkt und je nach Szenario einen Anstieg um
2,6 bis 8,5 W/m2 bis 2100 bedeutet. Die drei bis jetzt berechneten Szenarien heißen
wie ihre angenommene Anderung der Strahlungsbilanz:
1. RCP2.6: der Strahlungsantrieb erreicht zunachst 3 W/m2 (entsprechend 490
ppm CO2-Aquvivalent) und sinkt bis 2100 ab auf 2,6 W/m2.
2. RCP4.5: Stabilisierung bei 4,5 W/m2im Jahr 2100 ( 650 ppm CO2-Aquvivalent).
3. RCP8.5: steigender Strahlungsantrieb, der 2100 8,5 W/m2 (entsprechend 1370
ppm CO2-Aquvivalent) uberschreitet.
Der Strahlungsantrieb wird dabei wie folgt berechnet:
∆F = 5.35 · ln CC0
wobei C die CO2-Konzentration in der Atmosphare angibt geteilt durch einen Refe-
renzwert der CO2-Konzentration. In den folgenden Abbildungen sind die drei RCP-
Szenarien von 1860-2300 skizziert, wobei man die Jahre 2100-2300 mit sog. Extended
Concentration Pathways (EPCs) mittels einfacher Parametrisierungen ermittelt hat.
Abbildung 17: Links: die unterschiedlich angenommen Emissionsverlaufe; Rechts:
die dazu gehorigen Strahlungsantriebe der jeweilgen RCPs.
Bereits veroffentlichte Daten aus den Simulationen heraus erlauben uns es nun die
Entwicklung der globalen Mitteltemperatur, des Niederschlags, des Meereises und
des Meeresspiegels zu behandeln.
19
7.1.1 Globale Mitteltemperatur
Bei der globalen Mitteltemperatur handelt es sich im Endeffekt um die bodenna-
he Luftemperatur die sog. 2m-Temperatur. Die Temperatur schießt je nach Szenario
uber das sog. 2◦C-Ziel hinaus oder pendelt sich um den Wert herum ein. Dieses 2◦C-
Ziel soll einen Richtwert geben, nach dem man die Erderwarmung seit Beginn der
industriellen Zeit unter diesen magischen 2◦C-Veranderung bzgl. der vorindustriel-
len Zeit halten will. Betrachtet man jedoch die folgenden Abbildungen18 der bereits
berechneten Modelle, so ergibt sich fur den Zeitraum 2001-2100 vgl. mit der vorin-
dustrielllen Zeit beim optimistischen Szenario 2.6 (was eine sofortige Eindammung
der Emission bedeuten wurde) eine Temperatur unterhalb der 2◦C. Fur den pessi-
mistischen 8.5 (was eine konstante Zunahme der heutigen Emission bedeuten wurde)
wurde die Temperatur weit uber das 2◦C-Ziel hinausschießen bis zu einem Wert von
4,8◦C Unterschied vlg. mit der vorind. Zeit. Und auch das in der Mitte zwischen pes-
simistischem und optimistischem liegende Szenario wurd das 2◦C-Ziel uberschreiten.
Bei den Berechnungen der Jahre 2100-2300 vgl. mit 1986-2005 weist das pessimis-
tische 8.5 Szenario einen Unterschied von 10◦C auf, wobei sich das 4.5 auf 2,3◦Ceinpendelt und das 2.6 sogar einen leichten Ruckgang aufweist.
Abbildung 18: Links: Darstellung der drei Simulationsszenarien durch Ensembles;
Mitte: Darstellung der Ensembles-Mittelung; Rechts: zusatzlich berechneter Verlauf
von 2100-2300
Die simulierten Anderungen der 2m-Temperatur aufgrund der in den Szenarien vor-
geschriebenen Einflusse sind je nach geographischer Lage unterschiedlich stark aus-
gepragt.
Fur die drei RCP-Szenarien RCP8.5, RCP4.5 und RCP2.6 zeigt die mittlere Tempe-
20
raturanderung (gegenuber dem Mittel von 1986-2005) ahnliche Erwarmungsmuster,
allerdings mit vollig unterschiedlicher Starke. Die starksten Erwarmungen werden
jeweils fur die Arktis simuliert; dort erreicht die Erwarmung bei RCP 8.5 beispiels-
weise Werte von weit mehr als 10◦C. Generell ist Erwarmung uber den Kontinenten
starker als uber den Meeren, da sich der Wasserkorper nicht so schnell erwarmt und
ausgleichend (abkuhlend) wirkt[3].
Abbildung 19: Auf Basis des Ensemble-Mittels der LR-Laufe die simulierte Anderung
der bodennahen Lufttemperatur fur die drei Szenarien - jeweils fur den Zeitraum
um 2030 und um 2090. Wahrend die Unterschiede zwischen den Szenarien um 2030
herum noch sehr gering ausfallen, zeigen sich am Ende des Jahrhunderts drastische
Unterschiede.
7.1.2 Niederschlag
Durch die Erwarmung intensiviert sich der Wasserkreislauf und die Niederschlage
nehmen im globalen Durchschnitt zu. Gleichzeitig erfolgt allerdings eine Umvertei-
lung: in manchen Gebieten regnet es zukunftig mehr, in anderen weniger. Diese
Anderungen sind von der Jahreszeit abhangig[3].
Abb.20 machen deutlich, dass starkere Erwarmungen in der Regel auch starkere
Niederschlagsanomalien bedingen. Links, in Szenario RCP 2.6, sind die starksten
Anderungen uber dem Ozean zu sehen, aber auch auf den Kontinenten finden sich
21
Abbildung 20: mittlere prozentuale Anderung der Niederschlage fur die Sommermo-
nate (JJA) und die Wintermonate (DJF) fur 2071-2100 verglichen mit 1986-2005
22
einige Gebiete mit Niederschlagsanderungen in der Großenordnung von bis zu 25%.
Fur Szenario RCP 4.5 simuliert das Modell starkere bzw. großraumigere Zu- oder
Abnahmen der Niederschlage. Betrachtet man beispielsweise den Mittelmeerraum,
sieht man sowohl im Sommer als auch im Winter großraumig eine Abnahme der
Niederschlage von mehr als 25% das pessimistische Szenario RCP 8.5 verstarkt sich
dieser Trend - hier werden noch wesentlich drastischere Anderungen simuliert.
7.1.3 Meereis
In Abb.21 ist fur die Nordhemisphare gleichzeitig die zeitliche Entwicklung der mitt-
leren Meereisbedeckung im September (Meereisminimum) und im Marz (Meereisma-
ximum) fur den Zeitraum 1975 bis 2300 dargestellt. Links sieht man die Entwicklung
fur das optimistische RCP2.6-Szenario, rechts im direkten Vergleich fur das pessi-
mistische RCP8.5 Szenario. Wahrend die Arktis nach dieser Simulation bei RCP2.6
auch auf lange Sicht ganzjahrig eine - wenn auch gegenuber heute etwas verkleinerte -
mit Meereis bedeckte Flache aufweist, wird fur das extreme RCP8.5 Szenario ein auf
lange Sicht vollstandiger Verlust der Meereisbedeckung simuliert. Hier verschwindet
zunachst um 2060 die hellblaue Flache - was bedeutet, dass im Sommer, zur Zeit des
Meereisminimums, das Meereis weitgehend abgeschmolzen ist. Im folgenden Jahr-
hundert verschwindet schließlich auch die weiße Flache, die die Meereisbedeckung
im Winter darstellt: dann ware das arktische Meereis vollstandig verschwunden[3].
Abbildung 21: Zeitliche Entwicklung der mittleren Meereisbedeckung im September
(Meereisminimum) und im Marz (Meereismaximum)
23
7.1.4 Meeresspiegel
Die Erwarmung des Wassers fuhrt zur Ausdehnung dessen und der Meeresspiegel
steigt an. Anderungen in der Lufttemperatur bedingen Veranderungen im Wasser-
kreislauf sowie in der Ozeanzirkulation. Beide Faktoren tragen wiederum zu regional
unterschiedlichen Anderungen des Meersspiegels bei.
Die Hohe der Meeresoberflache wird durch unterschiedlichste Prozesse beeinflusst.
Diese sind kurzfristige Schwankungen durch Wetter und Gezeiten als auch lang-
fristige globale Anderungen durch Schwankungen im Klima- und Erdsystem. Die
wesentlichen Faktoren der langerfristigen Veranderungen sind dabei:
• Volumenanderungen der Wassermassen infolge geanderter Temperatur (steri-
sche Expansion)
• Anderungen der globalen Ozeanzirkulation (dynamische Anpassung)
• Wachsen/Abschmelzen der großen Eisschilde (Gronland, Antarktis) und von
Gebirgsgletschern (eustatische Anderung)
• Anderungen des Fassungsvermogens der Ozeanbecken: Hebungen/Absenkungen
der Erdkruste (tektonische Anderung)
Die hier von der IPCC berucksichtigen Anderungen beschranken sich auf die steri-
schen, jedoch nicht auf die dynamischen, eustatischen oder tektonischen Anderungen.
Der nun durch die Volumenanderung des Wasserkorpers bedingte (sterische) global
gemittelte Meeresspiegelanstieg ist fur die berechnete Vergangenheit und die ver-
schiedenen Szenarien in den folgenden beiden Abbildungen 22 dargestellt: Abb.22
Abbildung 22: Links:Simulierte Meeresspiegelanstiege fur 1850 - 2100 (MPI-ESM
MR); Rechts:Simulierte Meeresspiegelanstiege fur 1850 - 2300 (MPI-ESM LR)
links ist die mit dem hoher aufgelosten MR-Modell berechnete Anderung des Mee-
resspiegels fur den Zeitraum von 1850 bis 2100 dargestellt. Gegenuber dem vorin-
dustriellen Wert ware nach dieser Simulation bis 2100 mit einem Anstieg von etwa
20 bis 40 cm zu rechnen - je nach ausgewahltem Szenario. Die Abbildung rechts
daneben zeigt auch die moglichen weiteren Anstiege fur den Zeitraum bis zum Jahr
2300, hier auf Basis der Simulationen mit dem LR-Modell. Man sieht deutlich, dass
24
der Meeresspiegel noch uber Jahrhunderte weiter ansteigen wird; der mittlere An-
stieg betragt je nach Szenario im Jahr 2300 zwischen 0,3 und 1,6 m gegenuber der
vorindustriellen Situation.
8 Grenzen der Klimamodellierung
Auf numerischen Analysen basierend, bieten Klimamodelle keine Prognosen sondern
nur Szenarien. Das bedeutet, dass man sie als das sehen soll was sie sind, namlich
klimatische Verlaufe aufgrund von Vorannahmen. Auch die Verwendungen von ma-
thematische Modellen und die Anzahl zu berucksichtigenden Einflussfaktoren setzen
Grenzen, die nur durch noch bessere Supercomputer behoben werden konnen. Geht
es um die Dynamik von Eisschilden, die Rolle des Aerosols und der Wolken in der
Atmosphare, so liefert das noch immer maßige Verstandnis bzgl. deren Grundla-
gen letztendlich unsichere Ergebnisse. So bieten die gangigen Klimamodelle eine
ungenugend gute Abbildung der durch arktische Eisbohrkerne rekonstruierte wie-
derkehrende spontane Klimaanderung. Einige Wissenschaftler gehen davon aus, dass
bei den Simulationen wesentliche Ruckkopplungsprozesse und Nebeneffekt fehlen.
Aktuell versagten 2007 die Simulationsergebnisse des 4. Sachstandsberichts der IP-
CC. Im Sommer 2007 wurde ein Ruckgang der arktischen Meereisbedeckung ver-
messen, der das Ergebnis veranderter Druck- und Zirkulationsmuster war. Laut der
IPCC sollte ein solches Szenario nur als eine mogliche Entwicklung innerhalb der
nachsten Jahre ersichtlich sein.
25
9 Literatur- und Abbildungsverzeichnis
Literatur
[1] http://www.clisp.eu/content/sites/default/files/ARL_
Leseanleitung_Klimaszenarien_Deutschland.pdf
[2] http://www.remo-rcm.de/REMO-UBA.1189.0.html
[3] http://www.dkrz.de/
[4] http://www.zamg.ac.at/cms/de/klima/informationsportal-klimawandel/
klimaforschung/klimarekonstruktion
[5] http://www.top500.org/lists/2012/11/StandNov.2012
[6] http://en.wikipedia.org/wiki/Climate_model
[7] http://www.physik.uni-regensburg.de/forschung/wegscheider/
gebhardt_files/skripten/Modellierungen.Grundlagen.Goepfert.Roedl.
Abbildungsverzeichnis
1 Schematische Darstellung des Lorenz-Modells . . . . . . . . . . . . . 3
2 zeitlicher Verlauf der Winkelgeschwindigkeit x fur die Anfangsbedin-
gungen x = - 9, y = - 3 und z = 32 . . . . . . . . . . . . . . . . . . . 5
3 zeitlicher Verlauf der Winkelgeschwindigkeit x fur die Anfangsbedin-
gungen x = - 9, 000001, y = - 3 und z = 32 . . . . . . . . . . . . . . 5
4 Darstellung eines globalen 3D-Gitterrasters zur Simulation von AO-
GCMs; kleines Bild links: Betrachtung einer einzelnen Gitterzelle[6] . 8
5 Hier als Beispiel zur Berechnung aussagekraftiger Ensembles die von
der IPPC/AR4 2007 herausgebrachte jahrliche 2m-Temperaturschwankung
vgl. mit den Jahren 1961-1190 . . . . . . . . . . . . . . . . . . . . . . 9
6 Tabelle der 6 besten Supercomputer weltweit (Stand Nov.2012)[5] . . 11
7 Globale Durchschnittstemperatur nahe dem Erdboden; die schwar-
ze Linie zeigt Messungen, die gelben Linien sind eine Auswahl un-
terschiedlicher Simula- tionen von mehreren Modellen, deren Durch-
schnitt die rote Linie darstellt. Die Kurven sind relativ zum Durch-
schnitt der Daten zwischen 1901 und 1950. Die grauen Linien zeigen
die Zeitpunkte von Vulkanausbruchen . . . . . . . . . . . . . . . . . . 11
8 Links: typisches Forschungsschiff zur Tiefseebohrung; Rechts: Tief-
seebohrkern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
9 Links: Reste der Kalkschalen von Foraminiferen (gehausetragenden
Einzellern) unter dem Mikroskop;Rechts: eine Rekonstruktion der glo-
balen Mitteltemperatur der bodennahen Atmosphare der letzten 100
Millionen Jahre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
26
10 Oben: Forscher bei Herausnahme eines frisch gebohrten Eiskerns in
der Antarktis und rechts im Eis vorhandene Schichten; Unten: typi-
scher Eisbohrkern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
11 Fur Analyse wenige mm dicke Scheibe eines Eisbohrkerns . . . . . . . 14
12 Links: typische Tropfsteinhohle; Rechts: Das Alter dieses deutlich la-
minierten Stalagmit aus der Klaus-Cramer-Hohle in Vorarlberg konn-
te an der Basis auf etwa 492.000 Jahre bestimmt werden[4] . . . . . . 14
13 Klimakalender aus Zillertaler Tropfsteinen. Oben: Eine 2000 Jahre
lange Temperaturrekonstruktion aus stabilen Sauerstoffisotopen ei-
nes Stalagmiten der Spannagelhohle Unten: Eine 10.000 Jahre lange
Sauerstoffisotopenreihe eines Stalagmiten aus der Kleegrubenhohle[4] 15
14 Darstellung der Zahlmethode an einer Baumstammscheibe . . . . . . 16
15 Aus Jahrringen rekonstruierte Sommer-Fruhherbst-Temperatur (Ju-
ni bis September) in den Alpen 755–1850 (schwarz) und entsprechen-
de hochalpine HISTALP-Messdaten 1851–2006 (rot). Dargestellt sind
jahrliche Abweichungen vom Mittel der Jahre 1901–2000 (dunne Li-
nien) und deren geglattete Trends (dicke Linien)[4]. . . . . . . . . . . 16
16 Grobes Schema der fur den AR5 verwendeten gekoppelten ESMs,
entwickelt vom Max-Plack-Institut fur Meteorologie. Dabei sind die
unterschiedlichen Namen der jeweilgen Modelle angegeben, die die
Atmosphare, den Ozean und die Biogeochemie, sowie die Biosphare
modellieren und durch das Kopplungssystem OASIS wie in Kapitel
2.3 die einzelnen Systeme verbunden werden. . . . . . . . . . . . . . . 18
17 Links: die unterschiedlich angenommen Emissionsverlaufe; Rechts: die
dazu gehorigen Strahlungsantriebe der jeweilgen RCPs. . . . . . . . . 19
18 Links: Darstellung der drei Simulationsszenarien durch Ensembles;
Mitte: Darstellung der Ensembles-Mittelung; Rechts: zusatzlich be-
rechneter Verlauf von 2100-2300 . . . . . . . . . . . . . . . . . . . . . 20
19 Auf Basis des Ensemble-Mittels der LR-Laufe die simulierte Anderung
der bodennahen Lufttemperatur fur die drei Szenarien - jeweils fur
den Zeitraum um 2030 und um 2090. Wahrend die Unterschiede zwi-
schen den Szenarien um 2030 herum noch sehr gering ausfallen, zeigen
sich am Ende des Jahrhunderts drastische Unterschiede. . . . . . . . . 21
20 mittlere prozentuale Anderung der Niederschlage fur die Sommermo-
nate (JJA) und die Wintermonate (DJF) fur 2071-2100 verglichen
mit 1986-2005 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
21 Zeitliche Entwicklung der mittleren Meereisbedeckung im September
(Meereisminimum) und im Marz (Meereismaximum) . . . . . . . . . 23
22 Links:Simulierte Meeresspiegelanstiege fur 1850 - 2100 (MPI-ESM
MR); Rechts:Simulierte Meeresspiegelanstiege fur 1850 - 2300 (MPI-
ESM LR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
27