45
1 Smog B 1.1 Definition.................................................................................B 1.2 Wortursprung und Geschichte................................................................B 1.3 Entstehung.................................................................................B 1.4 Wirkung von Smog auf den Menschen..........................................................B 1.5 Neuere gesetzliche Regelungen..............................................................B 1.6 Wintersmog und Sommersmog..................................................................C 1.7 Ozonalarm..................................................................................C 1.8 Haze.......................................................................................D 2 Ökologischer Fussabdruck.......................................................................E 2.1 Definition.................................................................................E 2.2 Global-Hektar..............................................................................E 2.3 Ökologischer Rucksack......................................................................E 2.3.1 Beispiele und Daten zum Ökologischen Rucksack..........................................E 2.3.2 Kritik.................................................................................F 2.4 Virtuelles Wasser..........................................................................F 2.4.1 Bilanzierung virtuelles Wasser.........................................................F 2.4.2 Water Footprint........................................................................F 3 Globales Ölfördermaximum.......................................................................G 3.1 Entwicklung des Konzepts [Bearbeiten]......................................................G 3.1.1 Allgemeine Probleme, den Zeitpunkt des Ölfördermaximums zu bestimmen...................H 3.2 Weltweite Ölförderung......................................................................I 3.3 Prognosen Erdölpreise......................................................................J 3.4 Zeitpunkt..................................................................................J 3.5 Folgen.....................................................................................K 3.5.1 Landwirtschaft und Nahrungsmittelversorgung............................................K 3.6 Möglichkeiten der Substitution von Öl......................................................L 3.6.1 Substitution von Öl als Energiequelle..................................................L 3.6.2 Substitution von Öl als Energieträger..................................................N 3.6.3 Substitution von Öl als Chemierohstoff.................................................O 3.7 Positionen zu Risiken und Lösungsmöglichkeiten.............................................O 3.7.1 Anpassungsvorteile im internationalen Wettbewerb durch energieeffiziente Technologien. .O 3.7.2 Das Schwinden der Erdölvorräte sei kein ernstzunehmendes Problem.......................O 3.7.3 Ersatz durch erneuerbare Energiequellen möglich........................................P 3.7.4 Gefahr ernster wirtschaftlicher Krisen.................................................P 3.7.5 Sicherheitspolitische Herausforderung..................................................Q 3.7.6 Ressourcenkriege.......................................................................Q 3.7.7 Gefahr des Zusammenbruchs..............................................................Q 3.7.8 Zunehmendes Risiko von schweren Ölkatastrophen.........................................Q 3.8 Maßnahmen..................................................................................R 3.8.1 Vorsorgemaßnahmen als Risikomanagement.................................................R 3.8.2 Vorsorgemaßnahmen nach Ländern.........................................................R 4 PCB............................................................................................S 4.1 Eigenschaften von PCDD/F und PCB...........................................................S 4.1.1 Definitionen...........................................................................S 4.2 Bestimmung von PCB in Fischen..............................................................S 4.2.1 Anforderungen an Probenahmeverfahren und Analysenmethoden..............................S 4.2.2 Probenahme.............................................................................T 4.2.3 Probenvorbereitung.....................................................................T 5.1 Definition primäre und sekundäre Luftschadstoffe...........................................U 6 Treibhauseffekt................................................................................V 6.1 Physikalische Grundlagen...................................................................V 6.2 Kompakte Darstellung des Mechanismus.......................................................V 6.2.1 Ausführliche Darstellung...............................................................W 6.3 Glashauseffekt.............................................................................X 6.3.1 Selektive Transparenz..................................................................X 6.3.2 Nutzung................................................................................X 6.4 Atmosphärischer Treibhauseffekt............................................................Y 6.4.1 Treibhausgase..........................................................................Y 6.5 Anthropogener Treibhauseffekt.............................................................BB 6.5.1 Geschwindigkeit.......................................................................BB 6.5.2 Mechanismus...........................................................................BB 7 Strahlungshaushalt der Erde...................................................................DD 7.1 Strahlungsbilanz..........................................................................DD A

Smog - molekuelwald.square7.chmolekuelwald.square7.ch/biblio/%d6kologie/Oeko_2013_Theorie_Weiterf...  · Web view[1] Mit virtuellem Wasser ist die Wassermenge bezeichnet, die nach

Embed Size (px)

Citation preview

1 Smog B1.1 Definition.................................................................................................................................................................................................... B1.2 Wortursprung und Geschichte.............................................................................................................................................................B1.3 Entstehung.................................................................................................................................................................................................B1.4 Wirkung von Smog auf den Menschen.............................................................................................................................................B1.5 Neuere gesetzliche Regelungen.........................................................................................................................................................B1.6 Wintersmog und Sommersmog..........................................................................................................................................................C1.7 Ozonalarm..................................................................................................................................................................................................C1.8 Haze.............................................................................................................................................................................................................D

2 Ökologischer Fussabdruck.......................................................................................................................................................................................E2.1 Definition..................................................................................................................................................................................................... E2.2 Global-Hektar............................................................................................................................................................................................E2.3 Ökologischer Rucksack..........................................................................................................................................................................E

2.3.1 Beispiele und Daten zum Ökologischen Rucksack..............................................................................................................E2.3.2 Kritik.................................................................................................................................................................................................... F

2.4 Virtuelles Wasser...................................................................................................................................................................................... F2.4.1 Bilanzierung virtuelles Wasser...................................................................................................................................................F2.4.2 Water Footprint............................................................................................................................................................................... F

3 Globales Ölfördermaximum...................................................................................................................................................................................G3.1 Entwicklung des Konzepts [Bearbeiten]..........................................................................................................................................G

3.1.1 Allgemeine Probleme, den Zeitpunkt des Ölfördermaximums zu bestimmen.........................................................H3.2 Weltweite Ölförderung............................................................................................................................................................................ I3.3 Prognosen Erdölpreise............................................................................................................................................................................ J3.4 Zeitpunkt..................................................................................................................................................................................................... J3.5 Folgen.......................................................................................................................................................................................................... K

3.5.1 Landwirtschaft und Nahrungsmittelversorgung..................................................................................................................K3.6 Möglichkeiten der Substitution von Öl..............................................................................................................................................L

3.6.1 Substitution von Öl als Energiequelle......................................................................................................................................L3.6.2 Substitution von Öl als Energieträger.....................................................................................................................................N3.6.3 Substitution von Öl als Chemierohstoff..................................................................................................................................O

3.7 Positionen zu Risiken und Lösungsmöglichkeiten........................................................................................................................O3.7.1 Anpassungsvorteile im internationalen Wettbewerb durch energieeffiziente Technologien..............................O3.7.2 Das Schwinden der Erdölvorräte sei kein ernstzunehmendes Problem......................................................................O3.7.3 Ersatz durch erneuerbare Energiequellen möglich............................................................................................................P3.7.4 Gefahr ernster wirtschaftlicher Krisen....................................................................................................................................P3.7.5 Sicherheitspolitische Herausforderung..................................................................................................................................Q3.7.6 Ressourcenkriege..........................................................................................................................................................................Q3.7.7 Gefahr des Zusammenbruchs...................................................................................................................................................Q3.7.8 Zunehmendes Risiko von schweren Ölkatastrophen........................................................................................................Q

3.8 Maßnahmen............................................................................................................................................................................................... R3.8.1 Vorsorgemaßnahmen als Risikomanagement......................................................................................................................R3.8.2 Vorsorgemaßnahmen nach Ländern.......................................................................................................................................R

4 PCB........................................................................................................................................................................................................................... S4.1 Eigenschaften von PCDD/F und PCB..................................................................................................................................................S

4.1.1 Definitionen...................................................................................................................................................................................... S4.2 Bestimmung von PCB in Fischen........................................................................................................................................................S

4.2.1 Anforderungen an Probenahmeverfahren und Analysenmethoden..............................................................................S4.2.2 Probenahme.....................................................................................................................................................................................T4.2.3 Probenvorbereitung.......................................................................................................................................................................T

5.1 Definition primäre und sekundäre Luftschadstoffe.....................................................................................................................U6 Treibhauseffekt....................................................................................................................................................................................................... V

6.1 Physikalische Grundlagen.....................................................................................................................................................................V6.2 Kompakte Darstellung des Mechanismus.......................................................................................................................................V

6.2.1 Ausführliche Darstellung............................................................................................................................................................W6.3 Glashauseffekt..........................................................................................................................................................................................X

6.3.1 Selektive Transparenz..................................................................................................................................................................X6.3.2 Nutzung.............................................................................................................................................................................................X

6.4 Atmosphärischer Treibhauseffekt......................................................................................................................................................Y6.4.1 Treibhausgase.................................................................................................................................................................................Y

6.5 Anthropogener Treibhauseffekt........................................................................................................................................................BB6.5.1 Geschwindigkeit...........................................................................................................................................................................BB6.5.2 Mechanismus.................................................................................................................................................................................BB

7 Strahlungshaushalt der Erde................................................................................................................................................................................DD7.1 Strahlungsbilanz....................................................................................................................................................................................DD7.2 Strahlungshaushalt................................................................................................................................................................................EE

A

1 Smog

1.1 Definition

Smog ist ein Kofferwort aus dem engl.: smoke (Rauch) und fog (Nebel). Es bezeichnet eine durch Emissionen verursachte Luftverschmutzung, die insbesondere in Großstädten auftritt. Im allgemeinen Sprachgebrauch beschreibt er die Anwesenheit von Luftschadstoffen in gesundheitsschädlichen und sichtbeeinträchtigenden Konzentrationen.Wissenschaftlich gesehen bezeichnet Smog stark erhöhte Luftschadstoffkonzentrationen über dicht besiedeltem Gebiet infolge besonderer meteorologischer Bedingungen (z. B. Inversionswetterlage). Generell tritt Smog nur während windschwacher Wetterlagen auf. Auch eine durch Tal- oder Kessellagen ungünstige Topographie fördert die Entstehung von Smog. So kann in ländlichen Regionen, in denen intensiv Holz verfeuert wird, bei ungünstiger Topographie Smog auftreten.

1.2 Wortursprung und Geschichte

Der Begriff ist ein Kofferwort und setzt sich aus den englischen Worten smoke (Rauch) und fog (Nebel) zusammen. Er wurde Anfang des 20. Jahrhunderts in London geprägt, als Smog dort eine häufige Erscheinung war und zu dieser Zeit auchLondon Peculiars (Londoner Eigenheiten) genannt wurde. Im Dezember 1952 wurde die Stadt London von einer schweren Smog-Katastrophe heimgesucht, die bis zu 12.000 Einwohnern das Leben kostete, weshalb dieses Ereignis auch den NamenThe Great Smog trägt.[1] Im Nachgang dieser Katastrophe wurde der Clean Air Act verabschiedet, ein Bündel von Maßnahmen, um die Luftqualität in der Metropole nachhaltig zu verbessern. Seither gibt es diese Art von Wintersmog in London kaum mehr.

1.3 Entstehung

Die Mischung aus Ruß, Schwefeldioxid (SO2), Staub (trockener Dunst) und Nebel kann sich unter den ungünstigen Bedingungen einer Inversionswetterlage, insbesondere vom Typ Fumigation, lange über einer Stadt halten und ist meist gesundheitsschädlich. Der Rauch stammt dabei aus verschiedenen Quellen wie kalorischen Kraftwerken, Holzfeuerungen und Fahrzeugen mit Verbrennungsmotoren.Aus Schwefeldioxid und Wasser bilden sich Sekundärschadstoffe wie schweflige Säure (H2SO3) und Schwefelsäure (H2SO4). Diese führen zu Schäden an Pflanzen, Gebäuden sowie zu Reizungen der Atemwege und Augen beim Menschen. Auch flüchtige Bestandteile von Lacken und anderen Lösungsmitteln und Dämpfe aus der chemischen Industrie bildet sich Nebel zu Smog.Diese Art von Smog wird auch Wintersmog oder London-Smog genannt. Es handelt sich um reduzierenden Smog. Zusätzlich zu dieser eigentlichen Bedeutung unterscheidet man auch noch denSommersmog (Los-Angeles-Typ). Auch der übertragene Begriff Elektrosmog bezeichnet im weitesten Sinne eine „Verschmutzung“.

1.4 Wirkung von Smog auf den Menschen

Kohlenstoffmonoxidkonzentrationen von mehr als 0,01 % führen zu Kopfschmerzen und Übelkeit. Hohe Konzentrationen führen zu Bewusstlosigkeit und zum Tod durch Sauerstoffmangel. Stickoxide undOzon reizen die Schleimhäute und können zu chronischen Atemwegserkrankungen führen. Hohe Feinstaubkonzentrationen führen zu einer Belastung des Herz-/Kreislaufsystems und sind zunehmend mit Spitaleintritten und Todesfällen wegen Herzkrankheiten verbunden. Kohlenwasserstoffverbindungen können krebserregend sein. Stärkere körperliche Belastungen (auch Sport) sollen bei Smog-Alarm vermieden werden. Smog ist ein Problem vieler Großstädte. Bei hohen Schadstoffkonzentrationen sind einige Städte dazu übergegangen, Fahrverbote für Kraftfahrzeuge auszusprechen. Der Autofahrer selbst hat – solange der Verkehr noch läuft – die

B

Möglichkeit sich vor diesen Smog-Substanzen zu schützen, indem er einen hochwertigen Kabinenluftfilter (Innenraumfilter) in sein Fahrzeug einbaut und diesen auch regelmäßig erneuert – die Hersteller empfehlen einen jährlichen Tausch.Allerdings ist nicht jede Regierung und Verwaltung aus wirtschaftlichen Gründen bereit, das Phänomen „Smog“ anzuerkennen.

1.5 Neuere gesetzliche Regelungen

Nach dem Wegfall der Smog-Verordnungen aus den 1980er-Jahren treten inzwischen andere Formen der Luftverunreinigung in den Vordergrund bei den gesetzlichen Regelungen. Ab Januar 2005 galten neue, strenge EU-Grenzwerte für Dieselruß und andere Staubteilchen (22. BImschV). Diese Regelungen wurden im Jahre 2010 durch die 39. BImSchV erweitert und verschärft. Bei starker Luftverschmutzung können deshalb sogar Fahrverbote angeordnet werden. In Deutschland ist außerdem im Gespräch, den Schadstoffausstoß von PKW und LKW durch neue Tempo-30-Zonen zu senken, obwohl dies möglicherweise die Emissionen auch steigern könnte, da die wenigsten Autofahrer früh in den höheren Gang schalten und viele dann nur noch maximal den 3. Gang für die Stadt benutzen könnten. Nach Einführung der LKW-Maut ist in Deutschland auch eine City-Maut für Innenstädte angesprochen worden.Anfang 2005 klagten zahlreiche Anwohner von Hauptverkehrsstraßen erfolgreich bei Verwaltungsgerichten auf Durchsetzung der EU-Richtlinie. Die betroffenen Kommunen erarbeiten daher Maßnahmen, um partikelemittierende Fahrzeuge (ältere Dieselfahrzeuge) aus feinstaubbelasteten Zonen herauszuhalten. Als wahrscheinlichste Regelung wird ein generelles Fahrverbot für Dieselfahrzeuge ohne Rußfilter u. a. in den Innenstädten von München, Stuttgart und Frankfurt erwartet. Kritiker befürchten Versorgungsprobleme bzw. massive Preissteigerungen des Einzelhandels in den Innenstädten, da diese meist über ältere Transportfahrzeuge verfügen, deren Nachrüstung unverhältnismäßig teuer wäre. Zudem sind ältere Dieselfahrzeuge noch immer nicht zweifelsfrei als Hauptverursacher der erhöhten Feinstaubwerte identifiziert. So wurden überhöhte Feinstaubkonzentrationen auch aus ländlichen Gebieten gemeldet.Ausnahmen von Verkehrsverboten konnten durch ein Zusatzschild angezeigt werden. Es sprach eine Freistellung von einem Verkehrsverbot nach § 40 Abs. 2 Bundes-Immissionsschutzgesetz aus. Es galt für Fahrzeuge mit einer G-Kat-Plakette. Diese Regelungen wurden 2007/2008 von den Umweltzonen ersetzt.

1.6 Wintersmog und Sommersmog

Unter Wintersmog (auch London-Smog) versteht man die Anreicherung der Luft durch Schadstoffe als Folge einer sogenannten Inversionslage im Winterhalbjahr.

Sommersmog (auch Los-Angeles-Smog, fotochemischer oder oxidierender Smog genannt) entsteht durch chemische Reaktionen aus Vorläuferschadstoffen unter Einwirkung von Sonnenstrahlung und Wärme.

Die andere, heute häufigere Smog-Art, ist der Photosmog (auch Sommersmog, Ozon-Smog oder LA-Smog genannt). Es handelt sich um oxidierenden Smog.Er tritt in den wärmeren Monaten des Jahres auf, wenn die einfallende UV-Strahlung in Verbindung mit

Stickoxiden (NOx) aus beispielsweise Autoabgasen oder Kraftwerken,Wasserstoffperoxid,Kohlenmonoxid,Flüchtige organische Verbindungen (VOC)

zu erhöhten Konzentrationen an Photooxidantien (Ozon, Peroxyacetylnitrat, Aldehyden, HNO3) führt.

C

Zur Bildung hoher Ozonkonzentrationen müssen folgende Voraussetzungen erfüllt sein: Das Vorhandensein der beiden Vorläuferstoffe NOx und (NM)VOC, intensive Sonnenstrahlung und eine mehrere Tage andauernde stabile Schönwetterperiode, die zu einer Speicherung von Ozon innerhalb der atmosphärischen Mischungsschichten führt.

1.7 Ozonalarm

In mehreren europäischen Ländern (etwa in Frankreich und der Schweiz) existieren Gesetze, die beim Überschreiten bestimmter Ozonkonzentrationen niedrigere Geschwindigkeitsbeschränkungen oder sogar Fahrverbote vorschreiben. In Deutschlandliegt dies in der Verantwortung der Länder. Ein bundeseinheitliches Sommersmoggesetz war von 1995 bis 1999 gültig. Meteorologische Voraussetzung für den Wintersmog ist eine austauscharme Wetterlage (Inversionswetterlage). Hierbei liegt eine Schicht wärmerer Luft über bodennaher (<700 m) Kaltluft, wobei die Luftbewegung in Bodennähe gering ist (< 3 m/s). Der horizontale und vertikale Austausch der Luftmassen ist behindert. Die Schadstoffe, die sonst über hohe Schornsteine verteilt werden und weiter entfernt gelegene Gebiete belasten, werden nun an Ort und Stelle niedergedrückt. Zusätzlich zu den Autoabgasen und Emissionen der Haushalte), Industrie und Kraftwerke können Schadstoffe aus benachbarten Regionen den Smog verstärken (fremdimportierter Smog).Die Konzentrationen z.B. von Schwefeloxiden, Schwebstaub und Kohlenmonoxid können schnell ein gesundheitsgefährdendes Ausmaß erreichen und zu Beeinträchtigungen der Atmung, zur Reizung der Schleimhäute, zu Kreislaufstörungen und nicht selten auch zum Tod führen. Gefährdet sind insbesondere Kleinkinder (Pseudo-Krupp), alte und kranke Menschen. An den Folgen der Londoner Smogkatastrophe (1952) sind innerhalb von 2 Wochen 4.000 Menschen gestorben; 1962 starben infolge einer Smogkatastrophe im Ruhrgebiet mehr als 150 Menschen.Auch heute sterben noch Menschen an den Folgen des Wintersmog. Seitdem aber in den Haushalten die besonders umweltschädigende Ofenheizung auf Kohle bzw. Erdölbasis von Erdgas und Fernwärme verdrängt wurde und auch für Kraftwerke und Industrie die Emissionen gesenkt wurden (Großfeuerungsanlagenverordnung), kommt es heute nicht mehr zu solchen Extremsituationen. Hierzu dient auch die Smog-Verordnung, die die Wintersmog-relevanten Emissionen z.B. durch Fahrverbote begrenzen kann.In Deutschland wurde zum ersten Mal am 26. Juli 1994 für das Bundesland Hessen ein solcher Ozonalarm ausgelöst, da die Konzentration von 180 Mikrogramm pro Kubikmeter überschritten worden war, es galt drei Tage lang Tempo 90 auf Autobahnen und Tempo 80 auf Landstraßen.

1.8 Haze

Als Haze (englisch für Dunst, Dunstglocke) wird eine Form von Smog bezeichnet, die infolge unkontrollierter Brände, Brandrodungen oder Naturkatastrophen entsteht.[8] Insbesondere wird die Bezeichnung im Zusammenhang mit immer wieder auftretenden Luftverunreinigungen in Südostasien verwendet, die in Malaysia, Singapur, Südthailand oder Indonesien auftreten. Hintergrund sind meist Brandrodungen aufSumatra und dem indonesischen Teil von Borneo zur Erweiterung von Ölpalm-Plantagen [9].Die Schadstoffwerte in der Luft schwanken je nach Wetterlage und Ort. Bei stark erhöhten Schadstoffwerten können Augen und Atemwege gereizt werden. Insbesondere gefährdete Personengruppen wieSenioren und kleine Kinder sollten dann körperliche Anstrengungen im Freien vermeiden. Asthmatiker und Allergiker halten sich am besten in geschlossenen Räumen auf.[10]

Nachdem 1997 durch Brände auf mehr als 9 Millionen Hektar Land Hazes in Brunei, Indonesien, Malaysia, den Philippinen, Singapur und Thailand auftraten, initiierten die ASEAN-Staaten ein Programm zur Beobachtung und Verhinderung von Hazes, das 2002 in dem Umweltabkommen ASEAN Agreement on Transboundary Haze Pollution mündete. [11]

D

E

2 Ökologischer Fussabdruck

2.1 Definition

Unter dem Ökologischen Fußabdruck (oder Ecological Footprint)[1][2] wird die Fläche auf der Erde verstanden, die notwendig ist, um den Lebensstil und Lebensstandard eines Menschen (unter Fortführung heutiger Produktionsbedingungen) dauerhaft zu ermöglichen. Das schließt Flächen ein, die zur Produktion seiner Kleidung und Nahrung oder zur Bereitstellung von Energie, aber z. B. auch zur Entsorgung oder Recyclings des von ihm erzeugten Mülls oder zum Binden des durch seine Aktivitäten freigesetzten Kohlendioxids benötigt werden. Die Werte werden in Hektar pro Person und Jahr angegeben.Das Konzept wurde 1994 von Mathis Wackernagel und William Rees entwickelt. 2003 wurde von Wackernagel das Global Footprint Network gegründet, das u. a. von der Nobelpreisträgerin Wangari Maathai, dem Gründer des Worldwatch InstituteLester R. Brown und Ernst Ulrich von Weizsäcker unterstützt wird.Das Konzept des ökologischen Fußabdrucks wird häufig verwendet, um im Zusammenhang mit dem Konzept der Bildung für nachhaltige Entwicklung auf gesellschaftliche und individuelle Nachhaltigkeitsdefizite hinzuweisen.

2.2 Global-Hektar

Der global Hektar ist eine Messgrösse, die ausdrückt wie viel fruchtbarer Boden für die Produktion eines Gutes oder einer Handlung gebraucht wird. Als Basis dient immer der Weltdurchschnittsertrag an Biomasse einer Hektare Boden.

Beim ökologischen Fussabdruck werden alle Flächenverbräuche in globalen Hektaren dargestellt. Deshalb lassen sich bei den Berechnungen eines Fussabdrucks alle benötigten Landflächen miteinander verrechnen. Es spielt dabei keine Rolle, wo auf der Welt etwas gewachsen ist und welche Landkategorie dafür gebraucht wurde.

2.3 Ökologischer Rucksack

Der ökologische Rucksack ist die sinnbildliche Darstellung der Menge an Ressourcen, die bei der Herstellung, dem Gebrauch und der Entsorgung eines Produktes oder einer Dienstleistung verbraucht werden. Sie soll im Rahmen der Ökobilanzeinen Vergleichsmaßstab bieten, mit dem verdeutlicht wird, welche ökologischen Folgen die Bereitstellung bestimmter Güter verursacht.Das Modell geht zurück auf Friedrich Schmidt-Bleek, der es 1994 im Rahmen der Überlegungen zum Material-Input pro Serviceeinheit (MIPS) erstmals veröffentlichte.Ähnliche Ansätze finden sich auch beim ökologischen Fußabdruck und beim virtuellen Wasser.

2.3.1 Beispiele und Daten zum Ökologischen Rucksack

Typische Werte sind ein Faktor 5 für Kunststoffe, das heißt für ein Kilogramm Kunststoff werden 5 Kilogramm Ressourcen benötigt. Weitere Werte sind Faktor 15 für Papier, Faktor 85 für Aluminium, Faktor 500 für Kupfer und Faktor 550.000 für Gold.Beispiel Baumwollkleidung:

HerstellungDer Anbau von Baumwollpflanzen benötigt sehr viel Wasser10 Prozent des weltweiten Pestizid- und Düngemittelverbrauchs gehen auf das Konto der

BaumwolleDie Transportwege sind teilweise erheblich: Anbauort, Stoffproduktion, Weiterverarbeitung und Verkauf sind räumlich meist getrennt.

Gebrauch

F

WaschmittelEnergieWasser

Rechnet man den gesamten Ressourcen- und Energieaufwand zusammen, ergibt sich für eine 600 Gramm leichte Jeans ein ökologischer Rucksack von 32 Kilogramm. Diese entspricht einem ökologischen Rucksack mit Faktor 53.

2.3.2 Kritik

Der ökologische Rucksack ist als grobe Zahl zu verstehen, welche Einblick gibt in einige der nötigen Prozesse und Aufwendungen, welche durch Konsumgüter verursacht werden. Viele wichtige Umweltbelastungen werden mit dem Ökologischen Rucksack aber nicht oder schlecht abgebildet. So wird in obengenannten Beispiel der Baumwollherstellung zwar der Energieaufwand für die Herstellung der Pestizide berücksichtigt, die ökologischen Auswirkungen des Pestizides in der Natur werden aber ignoriert.Das genaue Verständnis des ökologischen Rucksackes wird dadurch erschwert, dass die Autoren bei der Berechnung gewisse Ressourceninputs nicht miteinbeziehen. So werden beispielsweise die notwendigen Inputmengen an Wasser oder Luft nicht berücksichtigt. In den meisten Konsumgütern wäre der benötigte Wasserinput aber der bedeutendste Masseninput. Hierzu wurde der Begriff Virtuelles Wasser geprägt, der hier die erforderlichen Berechnungen möglich machen soll.

2.4 Virtuelles Wasser

Als virtuelles Wasser bzw. latentes Wasser wird jenes Wasser bezeichnet, das zur Erzeugung eines Produkts aufgewendet wird. Zieht man die Bilanz des virtuellen Wassers, verbraucht jeder Deutsche pro Tag rund 4000 – 5000 Liter Wasser. Den Begriff prägte der englische Geograf John Anthony Allan um 1995. Für seine Leistung erhielt er 2008 den „Stockholmer Wasserpreis“ des Stockholm International Water Institute.[1]

Mit virtuellem Wasser ist die Wassermenge bezeichnet, die nach einer umfassenden Bilanz als tatsächlich gebrauchte Menge pro Produkt anfällt. Bei der Herstellung eines Mikrochips werden 32 Liter Wasser verbraucht, bei der Herstellung von 1 Kilo Rindfleisch 15000 Liter. In die Bilanz geht auch auf den ersten Blick verdeckter Wasserverbrauch ein. Zum Beispiel fällt bei der Erzeugung von Rindfleisch nicht nur der Verbrauch von Trinkwasser für die Tiere an, sondern auch der natürlicheNiederschlag und die Bewässerung von den Feldern und Wiesen, welche das Futter liefern. Es wird zwischen „grünem virtuellem Wasser“ (Niederschlag und natürliche Bodenfeuchte) und „blauem virtuellem Wasser“ (künstliche Bewässerung) unterschieden.

2.4.1 Bilanzierung virtuelles Wasser

Die Untersuchungen zielen auf einen künftig sparsameren Wasserverbrauch in Regionen mit Wassermangel. Insbesondere soll transparent gemacht werden, dass wasserintensive und exportorientierte Agrarnutzung in Trockenregionen der Erde ökologisch unsinnig und wirtschaftlich vergleichsweise unrentabel ist. Wasserarme Länder können durch gezielten Import von Gütern, deren Herstellung viel Wasser benötigt, ihre eigenen Wasserressourcen schonen.Die Berechnung des virtuellen Wassers ermöglicht auch, den internationalen Transfer von in Produkten gebundenem Wasser zu untersuchen. Deutschland exportiert virtuelles Wasser, das in der Industrieproduktion verbraucht wird und importiert virtuelles Wasser vor allem in Agrarprodukten (zu denen auch die besonders wasserverbrauchendeBaumwolle gehört).

2.4.2 Water Footprint

Der englische Begriff Water Footprint, übersetzbar mit Fußabdruck des Wasserverbrauchs, umfasst die Gesamtmenge an Wasser, die für die Produktion der Güter und Dienstleistungen benötigt wird, welche die Bevölkerung eines Landes in Anspruch nimmt. Diese Definition umfasst

G

also auch Wassermengen, die außerhalb dieses Landes verbraucht wurden für Güter, die für dieses Land produziert werden. Dabei wird der Wasserverbrauch nach „blauem“, „grünem“ und „grauem“ Wasser unterschieden: Der „blaue Fußabdruck“ bezieht sich auf das Grund- und Oberflächenwasser, das bei der Produktion direkt verdunstet wird. Der „grüne Fußabdruck“ beschreibt die Wassermenge, die durch die Vegetation selbst verdunstet und ist somit vor allem in der Landwirtschaft von Bedeutung. Der „graue Fußabdruck“ umfasst die Wassermengen, die durch Produktionsprozesse verunreinigt werden. [8]

Das Water footprint network ist ein Netzwerk von Wissenschaftlern, die bei diesen Fragestellungen mit der UN zusammenarbeiten. Beispiele für water footprints verschiedener Staaten:

Der Wasserverbrauchsindex Chinas beträgt etwa 700 m³ pro Kopf und Jahr; davon werden ca. 7 % über Güter importiert.

In Deutschland beträgt dieser Index 1.545 m³. Die Ursachen liegen im hohen Konsum von Industrieprodukten und Fleisch: Deren versteckter Wasserimport übersteigt den Export virtuellen Wassers deutlich: 106 Teilen eingeführten Wassers stehen 70 Teile ausgeführter Wassermenge gegenüber.

Der Wasser-Fußabdruck Japans beträgt 1.150 m³ pro Kopf und Jahr; davon werden ca. 65 % bereits außerhalb des Landes verwendet.

Der Wasserverbrauchsindex der Vereinigten Staaten, deren Wasserspur, beträgt 2.483 m³ pro Kopf und Jahr.

H

3 Globales ÖlfördermaximumDas Globale Ölfördermaximum ist die maximale Förderrate der weltweiten Erdölproduktion. Mit dem englischen Begriff peak oil oder auch Hubbert Peak wird ein Zeitpunkt bezeichnet, zu dem ein globales Ölfördermaximum erreicht ist und danach im globalen Maßstab abnimmt.[1][2]

Das Konzept eines globalen Ölfördermaximums geht auf Arbeiten des Geologen Marion King Hubbert aus den 1950er Jahren zurück. Der Zeitpunkt des jeweils projektierten Fördermaximums wird aktuell je nach betrachteten Rohstoffen und Prognosen zu deren möglichen Ausbeutung zwischen 2007 und 2037 angenommen, frühere Zeitpunkte haben sich nicht bewahrheitet

3.1 Entwicklung des Konzepts [Bearbeiten]

Abb. 1: Oben: Die Förderung einer Ölquelle in mehreren Phasen. Unten: Die Gesamtförderung mehrerer Quellen kann durch die sog. Hubbert-Kurve beschrieben werden.[3] Diese Kurve ist die erste Ableitung einer als „logistische Funktion“ bezeichneten Sättigungsfunktion und keine Gaußsche Normalverteilung.

Abb. 2: Kumulativer Verlauf und Projektion der Weltproduktion nach Studien der ASPO, CERA und weiteren Forschern und Verbänden

Marion King Hubbert, damals leitender Ölexperte bei Shell und ein bekanntes Mitglied der Technokratischen Bewegung, prägte den Begriff 1956. Hubbert kannte den Verlauf der

I

Ölförderung bei einzelnen Quellen und kleineren Ölfeldern, der sich grob einer logistischen Verteilung angleicht, und übertrug dies auf die nordamerikanische wie globale Förderung. Mit der so erhaltenen bislang richtigen Prognose des Ölfördermaximums für die Vereinigten Staaten erregte Hubbert Aufsehen; nach neueren Vorhersagen, beispielsweise von Seiten der Internationalen Energieagentur, sehen sich die USA allerdings in der Lage, in den kommenden Jahren ihr bisheriges Ölfördermaximum von Anfang der 70er Jahre durch unkonventionelle Ölförderung wieder zu übertreffen. Das globale Ölfördermaximum prognostizierte Hubbert (1974) für das Jahr 1995, was durch die reale Entwicklung der Fördermenge widerlegt wurde.1998 schlossen sich Geologen, Physiker, Energieberater und Publizisten, die sich mit dem Fördermaximum beschäftigen, in der vom Geologen Colin J. Campbell gegründeten Association for the Study of Peak Oil and Gas (ASPO) zusammen. Im ersten Jahrzehnt seit der Jahrtausendwende wurde ein weltweites Ölfördermaximum und eine danach drohende exponentielle Verringerung der Ölförderung und deren Folgen in der Öffentlichkeit diskutiert. Die entscheidenden Erdölproduzenten weltweit könnten ihre Produktion kaum ausweiten. Auch seien die offiziellen Zahlen ihrer Reserven höchstwahrscheinlich stark übertrieben. Seit Jahrzehnten seien die Funde von billigem, konventionellem Öl stark zurückgegangen und seien geringer als die im gleichen Zeitraum verbrauchte Menge. Es werden verschiedene Szenarien diskutiert. Einige dieser Fachleute prognostizierten unter großer öffentlicher Aufmerksamkeit etwa zwischen 2010 und 2020 wegen abfallender Produktionsmöglichkeiten eine drohende globale Ölverknappung sowie erhebliche Preissteigerungen. In anderen, optimistischeren Szenarien wird zunächst ein Plateau mit einem engen, aber nicht abrupt fallenden Ölangebot angenommen. [4] Das prognostizierte stagnierende oder fallende Ölangebot wurde und wird teilweise mit der Forderung nach einerEnergiewende verbunden.Seit 2008 thematisierte auch die Internationale Energieagentur das globale Ölfördermaximum. Sie sah das Fördermaximum von konventionellem Erdöl bereits 2006 eingetreten [5] und betrachtet das Fördermaximum als möglichen Treiber für Ölpreissteigerungen.[6] Nach Zahlen von BP ging die weltweite Ölproduktion 2009 um 2,6 % zurück, das heißt um zwei Millionen pro Tag geförderte Barrel. Die weltweite Produktion ging deutlich stärker zurück als der weltweite Verbrauch (1,7 %, 1,2 Millionen Barrel pro Tag).[7]

Der Peak der klassischen kanadischen Ölproduktion fand 1973 statt und wurde vom Anstieg der unkonventionellen Förderung überlagertAndere Fachleute und führende Vertreter der Mineralölunternehmen halten das Konzept des Ölfördermaximums und davon abgeleitete zeitliche Prognosen im globalen Maßstab für unbrauchbar. Die komplexen Verläufe der Förderung einzelner Länder seien nicht durch eine einzige Summenkurve mit einem einzelnen Peak zu beschreiben. Es ergebe sich ein Plateau beziehungsweise komplexere Kurvenverläufe und damit auch genug Zeit, um andere Energieträger aufzubauen und technische Innovationen einzuführen. In den OPEC-Ländern wird das Thema gänzlich ausgeblendet und behauptet, es wäre auch bei den derzeitigen Förderraten noch genug Öl für etliche Jahrzehnte vorhanden. Ebenso wird von einigen Wirtschaftswissenschaftlern mit Hinweis auf technologische Neuentwicklungen wie auch die Historie der Rohstoffwirtschaft insgesamt in Frage gestellt, inwieweit endliche Ressourcen generell ein dauerhaftes Problem darstellten. Clive Mather, CEO von Shell Canada, sieht die Kohlenwasserstoffvoräte der Erde als praktisch unendlich an.[8] Der frühere Enron-Manager Robert L. Bradley Jr. beruft sich auf dieÖsterreichische Schule der Wirtschaftswissenschaften bei seiner Kritik am Ölfördermaximum.[9][10]

3.1.1 Allgemeine Probleme, den Zeitpunkt des Ölfördermaximums zu bestimmen

J

Die Frage nach dem Zeitpunkt des Ölfördermaximums eines Landes oder der Welt ist in der historischen Nachschau einfach – in der Prognose dagegen schwieriger. Bei genauer Kenntnis der Förderprofile aller Ölfelder des entsprechenden Gebiets (oder weltweit) ist die Prognose relativ treffsicher zu leisten. Allerdings sind diese Daten zumeist nicht offen verfügbar, da sie von den entsprechenden Ländern als Staatsgeheimnis behandelt werden. Dies gilt insbesondere für die wichtigen OPEC-Länder, die einen sehr hohen Anteil an der globalen Ölförderung haben. Statistisch werden neben konventionellen Ölvorkommen auch unkonventionelle Rohstoffe wie Ölsand, Ölschiefer, Schweröl, Tiefseeöl, Polaröl, Flüssiggas erfasst. Der Abbau dieser Rohstoffe ist jedoch nicht so einfach wie bei den bisherigen Ölvorkommen (das „easy oil“) und zunächst mit höheren finanziellen, energetischen und ökologischen Kosten verbunden als die Förderung von konventionellem Rohöl.Entsprechend weit auseinander gehen die verschiedenen Zahlen zum Ölfördermaximum. So wurde laut einem Bericht der Internationalen Energieagentur (IEA) von 2010 bei leicht förderbarem, konventionellem Erdöl das Fördermaximum bereits 2006 erreicht mit 70 Megabarrel pro Tag.[11] 2011 wurde ein Maximum der Förderung aller Ölsorten[12] mit 89 Millionen Barrel/Tag erreicht. Das absolute Fördermaximum sieht die IEA erst in den 2020er oder 2030er Jahren bei 96 Megabarrel pro Tag vorher.[13] Die geologischen Fachbehörden verschiedener Länder und der Brancheninformationsdienst CERA beziehen ebenso die unkonventionellen Rohstoffe mit ein, wenn etwa davon die Rede ist, vor 2030 werde kein Ölfördermaximum eintreten.[14]

3.2 Weltweite Ölförderung

Die weltweite Ölförderung stieg (nach ersten Krisen und Zweifeln am unbegrenzten Fortgang der Förderung um 1920) zwischen 1930 und 1972 ungefähr exponentiell an. Abb. 3 zeigt diese Entwicklung. Mit den politisch begründeten Ölkrisen 1973 und 1979/83 setzte das exponentielle Wachstum aus, die Ölförderung ging etwas zurück und stieg im weiteren langsamer und nur noch linear an. Deutliche Nachfragerückgänge gab es auch nach der Asienkrise und nach dem Platzen der Dotcom-Blase. Die Terroranschläge am 11. September 2001 in den USA drückten hingegen nur kurzfristig die Nachfrage nach Flugtreibstoff.Mit der Erholung der Weltwirtschaft nach der Dotcom-Blase stieg die globale Förderung bis Mitte 2004 an, um dann trotz anhaltend starken Wirtschaftswachstums vor allem in derVolksrepublik China und Indien zu stagnieren, was zu einem starken Preisanstieg führte. Erst seit Ende 2007 steigt die Förderung wieder langsam an, die bislang höchste monatliche Ölförderung wurde nach Zahlen der Statistikabteilung des US-Energieministeriums EIA im Februar 2008 mit 85,8 Millionen

K

Barrel pro Tag erreicht.[16] Der Rückgang der Förderung zwischen 2004 und 2007 um ca. 200.000 Barrel pro Tag, wird von der Ölindustrie auf einen durch die niedrigen Ölpreise der 1990er bedingten Investitionsrückstand zurückgeführt. Allerdings hielten sich die Ölunternehmen zu Beginn der Hochpreisphase mit dem Kauf neuer Ausrüstung zurück und investierten bevorzugt in Aktienrückkäufe.[17]

Das sich seit 2004 abzeichnende Plateau wird von Meldungen begleitet, wonach im Frühjahr 2006 einige sehr große Ölfelder die Phase der Förderabnahme erreicht hätten oder sich schon darin befänden:Das Ölfeld „Burgan“ in Kuwait – das zweitgrößte Ölfeld der Welt – hat diese Phase nach Aussage der Kuwait Oil Company Ende 2005 erreicht.[18]

Das Feld „Cantarell“ vor der Küste Mexikos – ein Offshore-Ölfeld mit der weltweit zweitgrößten täglichen Produktionsmenge – hat die Stagnationsphase nach Aussage von Petroleos Mexicanos (Pemex) Anfang 2006 erreicht, die Produktion 2008 soll nur noch 520.000 Barrel/Tag betragen.[19] Die Abnahme der Förderrate ist zuletzt auf 35 % per annum gestiegen.[20]

Im April 2006 gab das saudische Ölunternehmen Aramco bekannt, dass sämtliche ihrer älteren Ölfelder ihre Stagnationsphase erreicht hätten und die Förderrate um 8 % pro Jahr fallen werde. Dies stimmt mit den Ergebnissen des texanischen Investmentbankers und Ölexperten Matthew Simmons überein.[21]

Im Juni 2008 stellt eine BP-Studie fest, dass im Jahr 2007 die weltweite Ölförderung im Vergleich zum Vorjahr um 0,2 % gesunken und gleichzeitig der weltweite Ölverbrauch um 1,1 % gestiegen sei.[22]

Allerdings wurde im Jahr 2008 wieder mehr Öl gefördert als im Jahr 2006 und damit auch mehr als je zuvor, was wohl vor allem mit dem hohen Ölpreis in der ersten Jahreshälfte zusammenhing. 2009 wurde wegen einer weltweiten Rezession und Bankenkrise deutlich weniger Öl gefördert als 2008.Im November 2011 erreichte das weltweite Gesamtölangebot erstmals 90,0 Megabarrel pro Tag.[23]

3.3 Prognosen Erdölpreise

Da der Preis von Öl stark von der Nachfrage und der gesamtwirtschaftlichen Situation abhängt und andererseits sich ein sehr hoher Ölpreis auf letztere auswirkt, müssen Prognosen der Ölpreisentwicklung Annahmen über die wirtschaftliche Entwicklung treffen. Ein Schlüsselkonzept, das genutzt wird, um die Kopplung zwischen Angebot, Nachfrage und Preis zu beschreiben, ist das der Preiselastizität, die angibt wie stark sich die Nachfrage eines Produktes verändert, wenn der Preis um einen bestimmten Anteil steigt.Die Prognosen für die künftige Entwicklung des Ölpreises zeigen daher eine große Bandbreite. [42]

Der Internationale Währungsfonds hat hierzu im World Economic Outlook vom April 2011 Szenarien vorgestellt, die eine Verknappung der Ölförderung einbeziehen. [43] Zum einen betrachtet der Bericht die Entwicklung der Ölförderung und kommt zu dem Befund, dass seit etwa 2005 die Ölförderung stagniere.[44]

Für die Prognosen werden Modellrechnungen mit unterschiedlichen Szenarien betrachtet. Beispielsweise wird für ein Szenario eines Fördermaximums mit einer Ölverknappung um durchschnittlich 3.8 % jährlich ein kurzfristiger Anstieg des Ölpreises um 200 % und ein Anstieg um 800 % für einen Zeitraum von 20 Jahren errechnet.[45] Betont wird bei diesen Rechnungen ausdrücklich, dass sie nichtlineare Effekte und wirtschaftliche Rückkopplungen nicht einbeziehen.[46]

Als mögliche Gegenmaßnahme erörtert der Bericht eine vorbeugende Reduktion des Ölverbrauchs, welche die Elastizität der Nachfrage erhöhe:

‚Regarding policies aimed at lowering the worstcase risks of oil scarcity, a widely debated issue is whether to preemptively reduce oil consumption— through taxes or support for the development and deployment of new, oil-saving technologies—and to foster alternative sources of energy.‘[47]

3.4 Zeitpunkt

Wegen der schwierigen Datenlage kann das Ölfördermaximum wohl erst einige Jahre nach dessen Eintreten zweifelsfrei datiert werden. Die von Campbell, dem Begründer der ASPO, vorausgesagten Zeitpunkte für ein globales Ölfördermaximum wurden mehrmals in die Zukunft

L

verschoben und können gegenwärtig nicht zweifelsfrei bestätigt werden. Dies wird unter anderem von Kritikern zum Anlass genommen, die Übertragung des Hubbert peak auf die weltweite Förderung für nicht sinnvoll zu halten. Andererseits revidierte auch die optimistischere Internationale Energieagentur (IEA) ihre Prognosen. In ihrem jährlichen World Energy Outlook senkte sie jedes Mal die prognostizierten Förderraten und Gesamtfördermengen und setzte in der Folge den Zeitpunkt des Globalen Ölfördermaximums immer früher an.Die ASPO nimmt zudem an, dass auch die Förderrate der OPEC-Staaten nahe an ihrem Maximum liegt und sich derzeit nur im Irak und an der westafrikanischen Küste steigern lässt, das Ölfördermaximum also gegenwärtig zum Tragen komme. Dies gilt insbesondere für die arabischen OPEC-Mitglieder, die einen sehr hohen Anteil an der globalen Ölförderung haben. Zufolge einer Veröffentlichung von WikiLeaks und der britischen Zeitung The Guardian gab der saudi-arabische ÖlexperteSadad al-Husseini, ehemaliger Chefgeologe von Aramco, in den Jahren 2007 und 2009 gegenüber dem Generalkonsul der USA an, dass die Ölreserven Saudi-Arabiens um fast 40 % überschätzt wurden, so dass das Land — entgegen bisheriger Erwartungen — vermutlich keinen Beitrag zur Milderung von globalen Förderengpässen und damit verbundenen Preisspitzen leisten könne.[48]

Eine Gegenposition vertritt unter anderem Leonard Maugerie vom Eni-Konzern. Ihm zufolge ist die Umbruchsituation in der Ölindustrie viel wichtiger als die Diskussion um ein Ölfördermaximum. Er hält das Maximum konventioneller Ölförderung in den OPEC-Staaten und Russland für noch lange nicht erreicht, und die Möglichkeit, unkonventionelle Ölvorkommen zu nutzen, sei dabei noch gar nicht miteinbezogen. Anfang 2006 – bei einem Ölpreis von etwa 60 US-$ – befürchtete er zudem einen Preissturz, der negative Folgen für Investitionen in unkonventionelle Ölquellen und Alternativen für die Treibstoffherstellung haben würde, die aus wirtschaftlichen Gründen einen Ölpreis von mindestens 45 US-$ voraussetzen.[49]

Die Internationale Energieagentur verdringlichte im August 2009 frühere Warnungen: Da sich die Ölförderkapazitäten aufgrund zurückgehender Reserven und ausbleibender Investitionen verringern, könne es aufgrund von massiver Ölknappheit schon ab dem Jahr 2011 zu einer Erschwerung und Verlängerung der globalen Finanz- und Wirtschaftskrise seit 2007 kommen. Die Förderung der bestehenden Ölfelder geht gegenwärtig um jährlich 6,7 Prozent zurück. Um die zurückgehende Förderung erschöpfter Ölvorkommen auszugleichen, wäre erforderlich, bis zum Jahr 2030 das Äquivalent der vierfachen Förderkapazität Saudi-Arabiens neu zu finden.[50][51][52] Im November 2010 hielt die IEA zudem fest, dass die Ära des billigen Öles vorbei sei.[53]

Zur Vorhersage der zukünftigen Ölförderung werden verschiedene Methoden verwendet:Kurvenanpassung: Bei dieser Methode wird angenommen, dass die weltweite Ölförderung durch die Hubbertkurve beschrieben werden kann. Die Hubbertkurve wird an historische Daten angepasst, um damit auf die weitere Ölförderung zu extrapolieren.[54]

Bottom-up-Methoden: Hier werden die Ölförderraten für die größten Ölfelder einzeln untersucht. Ebenso werden geplante zukünftige Großprojekte in die Analyse einbezogen. Die weltweite Ölförderung wird aus der Summe der Förderraten der Einzelfelder abgeschätzt.[55]

Der Kommissar für Energie der Europäischen Union, Günther Oettinger, äußerte im November 2010 die Einschätzung, dass die Menge des weltweit verfügbaren Erdöls wahrscheinlich ihren Gipfelpunkt erreicht habe: „The amount of oil available globally, I think, has already peaked.“[77]

Im World Energy Outlook 2012 wurde von der IEA festgestellt, dass der Peaks für konventionelles Rohöl im Jahr 2008 überschritten wurde.[78]

3.5 Folgen

Transporte und Landwirtschaft sind besonders von der Verfügbarkeit billigen Öls abhängig. Einige Staaten, etwa die USA, sind in höherem Maß von der Ölverfügbarkeit abhängig als andere. Globalisierung beruht prinzipiell auf zwei Säulen: weltweiter Kommunikation und weltweitem, billigem Transport. Daten und Informationen werden insbesondere über stromverbrauchende weltweite Daten- und Kommunikationsnetze versandt. Weltweite Transporte beruhen zu 97 % auf Erdöl (Benzin, Diesel,Kerosin) oder Erdgas. 95 % der globalen Handelsströme werden von diesel- und schwerölbetriebenen Fracht- und Containerschiffen auf den Weltmeeren bewältigt. Alternativen müssen preislich im Rahmen bleiben und auch für Fahrzeuge bzw. die weltweit vorhandene Treibstoff-Infrastruktur geeignet sein. Bisher ist es jedoch nicht möglich, fossile Treibstoffe wie Benzin oder Schiffsdiesel im Gütertransport durch bekannte Alternativen, wie zum Beispiel in Akkumulatoren gespeicherte Elektrizität, oder Wasserstofftechnologie zu ersetzen, da die erreichbaren preisbezogenen Energiedichten von etwa 0,01 kWh/€ weit unterhalb jener der fossilen Treibstoffe (bei Benzin ca. sechs Kilowattstunden/Euro) liegen.[79]

M

Zur Reduktion des Treibstoffverbrauchs im Seetransport werden inzwischen auch unkonventionelle Systeme wie Zugdrachen (SkySails, Dynaship) erprobt.

3.5.1 Landwirtschaft und Nahrungsmittelversorgung

Abb. 10: Weltweite Getreideproduktion und Anbaufläche 1961–2005

Um 1800 lebten 75 % der deutschen Bevölkerung von der Landwirtschaft, und der Anteil an Treibstoffpflanzen (für Nutztiere) war verhältnismäßig hoch. Bis 2006 nahm der Anteil der Beschäftigten in der Landwirtschaft auf zwei bis drei Prozent ab.[80] Diese enorm gesteigerte Produktivität ist charakteristisch für alle entwickelten Industriestaaten. Seit Beginn der Industrialisierung, vor allem seit der Grünen Revolution in den 1960er Jahren, stieg die weltweite Getreideproduktion um 250 %, ohne dass sich die Anbaufläche änderte (vgl. Abb. 10). Dies ist sehr stark auf den Einsatz fossiler Energieträger in Landwirtschaft und Verteilung zurückzuführen.[81] Ähnliches gilt für Pflanzenschutzmittel und Biozide, ohne deren Einsatz die landwirtschaftlichen Erträge erheblich geschmälert würden. Eine besonders große Rolle für die Landwirtschaft spielt Erdöl bei der Gewinnung von Düngemitteln mit dem Haber-Bosch-Verfahren, wobei der dazu benötigte Wasserstoff prinzipiell auch anders gewonnen werden kann.Neben dem Aspekt schwindender Energiemengen für Viehhaltung und Getreideproduktion kommt der zunehmende Anbau von „Treibstoffpflanzen“ hinzu. Diese werden bei Flächenstilllegungennicht miteinbezogen. Eine mögliche Wiederbelebung der arbeitsintensiven Landwirtschaft könnte zu einer Reagrarisierung des ländlichen Raumes führen, in dem zunehmend wieder mehr Menschen ihr Auskommen fänden. Allerdings werden die weltweite Nahrungsproduktion sowie die Weltbevölkerung etwa gleichzeitig ihren zahlenmäßigen Höhepunkt erreichen (siehe auchBevölkerungsfalle). Tatsächlich sind die Preise für Grundnahrungsmittel, insbesondere die Preise für Reis und Mais, in den Jahren 2007 und 2008 stark angestiegen.Siehe auch: Nahrungsmittelpreiskrise 2007–2008Siehe auch: Sonderperiode in Kuba

3.6 Möglichkeiten der Substitution von Öl

Ein Mangel an Erdöl bedeutet einen Mangel an (i) einer Energiequelle, (ii) einem Energieträger und (iii) einem Rohstoff, wobei der Verlust an Energie schwerwiegender ist als der Mangel des Rohstoffs. Beispielsweise beruhen etwa 40 % des Gesamtenergieverbrauchs in Deutschland auf Erdöl. Die bisher aus Öl gewonnene Energie kann prinzipiell zu einem gewissen Teil durch Energieeinsparung reduziert und zu einem anderen Teil durch alternative Energiequellen ersetzt werden. Dabei muss zusätzlich beachtet werden, dass ein bloßes Ersetzen der Energiemenge nicht alle Probleme löst, denn nicht jeder Energieträger kann für jede Aufgabe eingesetzt werden. Der wichtigste Bereich ist hier der Transportsektor, für den es bisher kaum einen adäquaten und in ausreichendem Umfang bereitstellbaren Ersatz für bisher aus Erdöl gewonnene Treibstoffe gibt.Globale einseitig technologiebasierte Szenarien werden auch kritisch betrachtet. Zum einen bestehe die Gefahr einer undemokratischen und den regionalen Unterschieden nicht angepassten technokratischen Utopie (wie etwa beim Atlantropa-Projekt).

3.6.1 Substitution von Öl als Energiequelle

N

Eine Möglichkeit, Energiequellen zu vergleichen, bietet der Erntefaktor, der das Verhältnis von bereitgestellter Energie zum energetischen Einsatz beschreibt (engl. ERoEI – Energy Returned on Energy Invested). Je größer dieser Wert, desto effizienter ist die Energiewandlung und die Nutzung der Energiequelle. Der energetische Einsatz besteht aus dem Aufwand zum Bau und Betrieb der Anlagen sowie aus dem dabei eingesetzten Brennstoff. Die Werte der Erntefaktoren hängen insbesondere beim Vergleich regenerativer und nicht regenerativer Energieträger stark davon ab, welche Vorstufen der Energiewandlung in die Berechnung einbezogen werden. So wird z. B. bei fossilen Kraftwerken oft der für den Betrieb notwendigeBrennstoff nicht berücksichtigt. Da aus den ermittelten Erntefaktoren je nach Zielsetzungen unterschiedliche Energiepolitische Konsequenzen beworben werden können, werden Erntefaktoren und ihre Berechnungsgrundlagen kontrovers erörtert.

3.6.1.1 Fossile Energiequellen

Kohle ist de facto der verbreitetste und in der größten Menge vorhandene fossile Energieträger und hat die größte statische Reichweite unter den fossilen Energieträgern. Kohle dient gegenwärtig vor allem der Stromproduktion. In Deutschland wird weltweit die meiste Braunkohle gefördert, und man befand sich lange unter den ersten Zehn der Steinkohleförderländer. Die Bedeutung von Torf, welches am Beginn der Inkohlung steht, hat inzwischen abgenommen. Studien zum Fördermaximum von Kohle sind weitaus seltener als jene zum Ölfördermaximum. Die „Energy Watch Group“ prognostiziert das Kohlefördermaximum für das Jahr 2025.[83] Eine Studie der Universität Texas prognostiziert das Kohlefördermaximum für das Jahr 2011.[84]

Als alternativer Weg zur Gewinnung von Treibstoffen für Kraftfahrzeuge wird die Verflüssigung oder Vergasung von Kohle erörtert (GtL-Kraftstoff, CtL-Kraftstoff). Die Kohlendioxid-Emissionen dieser Verfahren würden allerdings bei Nutzung in größerem Umfang den anthropogenen Treibhauseffekt drastisch verstärken und damit inakzeptabel zur Globalen Erwärmung beitragen.Erdgas besteht größtenteils aus Methan und ist der umweltfreundlichste fossile Energieträger. Zudem kann Erdgas prinzipiell Öl in einigen Bereichen (ohne Umwandlung) direkt ersetzen, etwa zum Antrieb für Kraftfahrzeuge. Allerdings ist Erdgas nicht in ausreichenden Mengen vorhanden, um Öl zu ersetzen – das Gasfördermaximum wird schon 2025 erwartet. Darüber hinaus nehmen einige Geologen an, dassRusslands Reserven nicht so groß sind wie angegeben.Zunehmend optimistisch wird in jüngster Zeit die Förderung unkonventioneller Gasreserven eingeschätzt, vor allem von Schiefergas (Shale Gas). Basierend auf Schätzungen, welche einen Ausbau der Förderung um einen Faktor zwischen drei und fünf annehmen, prognostiziert die US-amerikanische Energy Information Administration (EIA), dass die Förderung sich zwischen 2010 und 2030 etwa verdreifachen lasse.[85] Dem wird entgegengehalten, dass die Zunahme der Förderung der eigentlich seit langem bekannten Vorkommen vor allem auf einer drastischen Lockerung der Umweltauflagen basiere. Aufgrund der Charakteristik der Fördertechnik, dem „Hydraulic Fracturing“, sind einzelne Bohrlöcher sehr schnell erschöpft. In Europa prognostiziert CERA um 2030 einen Anteil von rund zwölf Prozent an der heutigen regionalen Gasförderung, der stark rückläufig ist. Zudem müssen bei der Förderung große Mengen an wasserschädlichen und toxischen Substanzen in den Untergrund eingepreßt werden.[86] Die Förderung von Schiefergas mit Hydraulic Fracturing führt zu einem erheblichem Flächenverbrauch und beträchtlichen Umweltbelastungen, die im Konflikt mit Gesetzen zum Schutz des Grundwassers stehen.[87][88]

Methanhydrat besteht aus Methan, das unter erhöhtem Druck und niedrigen Temperaturen als feste Einlagerungsverbindung in Wasser vorkommt. Methanhydrate wurden zunächst als Störfaktor in Gaspipelines und Hindernis bei Erdölbohrungen entdeckt. Natürliche Vorkommen von Methanhydrat wurden 1971 im Schwarzen Meer gefunden. Man schätzt, dass es zwölf Billionen Tonnen Methanhydrat allein an den Kontinentalhängen geben könnte. Diese würden mehr als doppelt so viel Kohlenstoff wie alle bekannten Erdöl-, Erdgas- und Kohlevorräte der Welt enthalten. Wegen großer technischer Schwierigkeiten gibt es aber noch keinen Abbau im großtechnischen Stil.

3.6.1.2 Kernenergie und Kernfusion

O

Kernenergie und Kernfusion können Strom oder Prozesswärme und daraus dann Wasserstoff bzw. Methan oder Methanol erzeugen. Skeptiker verweisen jedoch auf die Kernfusionskonstante (humorvoll in Analogie zur Erdölkonstante). Sie besagt, dass Forscher in den Jahren ab 1950 jeweils annahmen, innerhalb von 30 bis 40 Jahren die Kernfusion technisch nutzen zu können. Die sich momentan abzeichnende Treibstoffproblematik könne damit über Kernfusion nicht gelöst werden. Befürworter halten dem jedoch die im letzten Jahrzehnt stattgefundenen Durchbrüche auf diesem Gebiet entgegen. So plant etwa das National Ignition Facility, Kernfusion mit positiver Energiebilanz schon „innerhalb der nächsten paar Jahre“ zu realisieren.[89]

Die Kernenergiegewinnung aus Kernspaltung benötigt als Energieträger angereichertes Uran, was im Kontext einer Atomwaffenproliferation problematisch ist. Seit etwa 1990 wird weltweit mehr Uran verbraucht als gefördert wird. Die Differenz zwischen Verbrauch und Förderung stammt aus gelagertem Uran aus abgerüsteten Atomwaffen. Zurzeit wird etwa 1/3 des Reaktorbedarfs aus Lagerbeständen (hauptsächlich aus ausgemusterten Atomwaffen) gedeckt.[90]

Das bisherige weltweite Maximum der Uranförderung liegt um 1980.[91]

Die gegenwärtige statische Reichweite von Uran beträgt etwa 60 Jahre, was sich im Rahmen des von der IEA und den meisten Staaten der G8 vorgeschlagenen massiven Ausbaus der Kernenergie noch verkürzen wird. Allerdings fallen die Brennstoffkosten bei der Kernenergie deutlich weniger ins Gewicht als bei anderen Energieträgern.Umstritten ist auch die Frage der Sicherheit von Kernkraftwerken und der Endlagerung von nuklearen Abfällen der Kernenergie. In Spanien, Belgien und Deutschland wurde beschlossen, aus der Kernenergie auszusteigen. Einige Länder wie Finnland, Frankreich, Italien und China bauen oder planen hnbsp;kB)ingegen neue Kernkraftwerke. Planung, Genehmigung und Bau von neuen Kernkraftwerken nehmen einen relativ langen Zeitraum in Anspruch.[92] Auch wenn es möglich wäre, mit Kernenergie mittelfristig fossile Treibstoffe zu ersetzen, wäre eine akute Treibstoffknappheit dadurch nicht zu verhindern.

3.6.1.3 Erneuerbare Energiequellen

Diejenigen Energieformen, die nach menschlichen Maßstäben unerschöpflich sind, werden erneuerbare Energien genannt.Erdöl wird zu einem hohen Anteil als Treibstoff eingesetzt und spielt in der (standortgebundenen) Elektrizitätsgewinnung – mit Ausnahme der USA – nur eine untergeordnete Rolle. Zum direkten Ersatz solcher erdölbasierten Energieträger sind vor allem Energieträger mit Biomasse als Energiequelle geeignet (Biokraftstoffe).Kraftstoffe mit Biomasse als Energiequelle werden im Allgemeinen nach zwei (nach unterschiedlicher Meinung auch drei) Generationen unterschieden:

Generation: Energiepflanzen (d. h. zucker- oder ölhaltige) dienen als Energiequelle (Zuckerrohr/Zuckerrübe, Getreide, Raps, Ölpalmen). Sie stehen in hoher Flächennutzungskonkurrenz zur Nahrungsmittelversorgung, ihre energetische Ausbeute pro Fläche ist eher gering, die nötigen Technologien sind ausgereift und im Einsatz.

2. Generation: Auch die Pflanzen-Cellulose dient als Energieträger (Holz, Stroh und Pflanzenreste). Da mehr von der Pflanze genutzt werden kann, ist die flächenbezogene energetische Ausbeute größer bzw. bei Nutzung von Stroh und Pflanzenresten kann die Konkurrenz zur Nahrungsversorgung reduziert werden. Die Anlagen sind im Pilot- oder Testbetrieb. Die Prozesse sind aufwändiger und energie-intensiver, da erst die Cellulose aufbereitet werden muss.

3. Generation: Algen oder Bakterien als Energiequelle. Es ist denkbar, dass diese auf herkömmlichem Weg zu Kraftstoffen vergoren oder synthetisiert werden, oder aber in modifizierter Form (z. B. mittels Gentechnologie) Wasserstoff direkt herstellen. Dieser Weg existiert bisher nur theoretisch, auch wenn manche Technologien von anderen Kraftstoffherstellungs-Strategien übernommen werden könnten.[93]

Andere erneuerbare Energiequellen wie Wasserkraft, Windenergie, Sonnenenergie (Photovoltaik und Solarthermie), Meeresenergie sowie Geothermie nutzende Heizkraftwerke stellen vor allem Strom und Prozesswärme her.Diese Energieformen können entweder durch elektrische Speichermedien direkt in Elektroantrieben/-autos genutzt werden oder indirekt über die Herstellung eines sekundären

P

Energieträgers wie Wasserstoff (siehe Abschnitt: „Substitution von Öl als Energieträger“). Zudem kommen sie im elektrifizierten Schienenverkehr zum Einsatz.Auch Segelschiffe oder mit modernen Kites ausgerüstete Yachten und Frachtschiffe nutzen im eigentlichen Sinn direkt erneuerbare Energien. Nach Angaben des Unternehmens SkySails können so 10-35 % Treibstoff gespart werden, also Öl teilweise direkt durch Windenergie ersetzt werden.Verschiedene Autoren befassen sich explizit mit den Möglichkeiten erneuerbarer Energien als Reaktion auf das nahende Ölfördermaximum.[94]

Der britische Economist wies 2013 auf den Umstand hin, dass Holz bei weitem der wichtigste erneuerbare Energieträger in Europa sei. Aufgrund der Knappheit seien in den letzten Jahren die Holzpreise stark angestiegen.[95]

3.6.2 Substitution von Öl als Energieträger

Ein Vorteil von Erdöl ist seine hohe Energiedichte, d. h. jene Menge an Energie, welche in einem bestimmten Volumen gespeichert werden kann. Die Energiedichte von Erdöl übertrifft jene von anderen Energieträgern, wie beispielsweise Akkumulatoren bei weitem. Deshalb bietet Erdöl besonders als Energieträger für mobile Anwendungen wie Kraftfahrzeuge starke Vorteile.Biogen erzeugte flüssige Kraftstoffe kommen im Vergleich zu regenerativ erzeugtem Wasserstoff oder elektrischen Speichermedien mit ihrer Energiedichte und ihrem technologischen Aufwand für deren Nutzung noch recht nahe an Erdöl heran. Diese sind u. a. Ethanol (1. und 2. Generation), Biodiesel (RME, FAME) und Pflanzenöle (1.Gen.), synthetische Kraftstoffe (Synfuel aus BtL-Prozess, 2. Generation).Die Herstellung solcher Kraftstoffe ist allerdings neben dem Aufwand für Feldbearbeitung und Düngemittel, je nach verwendeter Biomasse unterschiedlich stark auch bei der Erzeugung auf externe Energie angewiesen. Gerade für synthetische Kraftstoffe ist die für den Umwandlungsprozess benötigte externe Energie besonders hoch. Im Hinblick auf das Nach-Erdölzeitalter gibt es jedoch z. B. bei der Bioethanolherstellung die Möglichkeit, die Prozessenergie durch ein gekoppeltes Blockheizkraftwerk mit Restwärmenutzung effektiv aus Biomasse zu erzeugen (Beispiel: Prokon Nord, Bioethanolwerk Stade).Die großen Erwartungen an eine Wasserstoffwirtschaft haben sich bislang nicht erfüllt. Flüssiger Wasserstoff ist schwierig zu lagern, benötigt im Verhältnis zum Energieinhalt extrem schwere Tanks und hat nur 25 % des Brennwertes von Benzin. Auch liegt der Treibstoffwirkungsgrad von elektrolysiertem Wasserstoff nur bei 25 %. Das Energieäquivalent eines Fasses (entsprechend 159 l) Erdöl, hergestellt aus Windstrom (neun Cent/Kilowattstunde) als flüssiger Wasserstoff, hätte einen Preis pro Fass von 304 US-$ und läge damit bei den Herstellungskosten auf ähnlichem Niveau wie der heutige Kundenpreis an der Tankstelle.In einer Methan- bzw. Methanolwirtschaft soll Methanol fossile Brennstoffe als sekundären Energieträger ersetzen. 2005 veröffentlichte Nobelpreisträger George A. Olah sein Buch „Beyond Oil and Gas: The Methanol Economy“, in dem Chancen und Möglichkeiten der Methanolwirtschaft diskutiert werden. Er führt Argumente gegen die Wasserstoffwirtschaft an und erläutert Möglichkeiten der Erzeugung des Methanols aus Kohlendioxid oder Methan. Die bestehende Treibstoffinfrastruktur kann dabei weiterverwendet werden. Es bleiben aber Fragen zur Gewinnung des Ausgangsstoffs Kohlenstoffdioxid (Extraktion aus der Luft ist sehr aufwändig) und der Primärenergiequelle, die zur Erzeugung des Methanols genutzt wird (Strom aus Kernenergie oder Solarstrom) offen.Trotz der enormen Fortschritte bei den elektrischen Speichermedien gelten diese bei mobilen Anwendungen noch als zu teuer und von zu geringer Kapazität. Inwieweit ihr Preis sich zukünftig verändert bleibt unklar. Eine zunehmende technologische Beherrschbarkeit und Großserienfertigung sprechen für eine Preissenkung, andererseits ist eine Verteuerung der nötigen Rohstoffe wie Lithium und der Metalle der Seltenen Erden nicht ausgeschlossen.Die bisherigen Ersatzstoffe sind somit im Vergleich zu Erdöl mit höheren Kosten und Aufwendungen verbunden und noch nicht in ausreichendem Umfang verfügbar. Auch die Umrüstung der Fahrzeugflotten und der Distributionsketten ist je nach Substitut unterschiedlich technologisch und zeitlich aufwändig und teuer. Je nachdem wie schnell, in welchem Umfang und mit welchen finanziellen Mittel sind verschiedene zukünftige Strategien und deren Ineinandergreifen denk- und machbar.

3.6.3 Substitution von Öl als Chemierohstoff

Q

Mit Kohleverflüssigung könnte Kohle Erdöl sogar direkt ersetzen. Dies würde allerdings verschiedene Probleme mit sich bringen: Erstens würde bei der Verflüssigung ein Teil der Energie verloren gehen. Zweitens wäre der CO2-Ausstoß der verflüssigten Kohle erheblich höher als der von Erdöl und – mit der Verflüssigung – auch höher als der der direkten Nutzung von Kohle. Drittens wären diese Prozesse finanziell aufwändig. Viertens würde dies die bisherige große statische Reichweite von Kohle erheblich reduzieren, da sie hauptsächlich zur Stromerzeugung genutzt wird, die nur etwa 17 % des Primärenergieverbrauchs ausmacht.Allerdings muss für viele chemische Verwendungen von Erdöl der Ersatz nicht ölartig sein. Viele Produkte können auf alternativen Wegen zum Beispiel direkt aus Biomasse gewonnen werden. In anderen Fällen sind alternative Produkte direkt aus Biomasse möglich, wie zum Beispiel Verpackungsfolien, die direkt aus Stärke hergestellt werden.

3.7 Positionen zu Risiken und Lösungsmöglichkeiten

3.7.1 Anpassungsvorteile im internationalen Wettbewerb durch energieeffiziente Technologien

Eine Studie der Deutschen Bank untersucht Risiko und Chancen von Peak Oil für den deutschen Maschinen- und Anlagenbau[96]. Einerseits wird Peak Oil als eine der größten Herausforderungen unserer Zeit eingestuft, da das Risiko einer Energieverknappung bestehe. Knappheit und hohe Energiepreise würden die weitere ökonomische Entwicklung voraussichtlich maßgeblich prägen.Die Studie kommt außerdem zu dem Schluss, dass aufgrund eines enormen Bedarfs an Investitionen in angepasste Techniken zur Energieerzeugung und -Nutzung neben Risiken auch beachtliche Chancen für Unternehmen bestehen, die als erste energieeffiziente Technologien entwickeln. Hierzu zählten insbesondere eine effizientere Rohstoffproduktion, angepasste Angebote in Bereichen wie Solarthermie, sowie dem Bau hocheffizenter Kraftwerke oder Anlagen zur Gasverflüssigung (GTL-Technologie). Neue Technologien, Werkstoffe und Verfahren würden die Produktion leichterer, erheblich weniger Treibstoff verbrauchender Autos ermöglichen sowie eine kostengünstigere Massenproduktion von Photovoltaik-Modulen. Dem Maschinenbau komme hierbei eine Schlüsselrolle zu. Aufgrund der technologischen Führerschaft und der Exportorientierung vieler deutscher Unternehmen sei der bevorstehende tiefgreifende energieökonomische Strukturwandel daher auch eine große Chance.

3.7.2 Das Schwinden der Erdölvorräte sei kein ernstzunehmendes Problem

„Wir müssen uns keine Sorgen machen. Es sind noch genug Reserven da. […] Saudi-Arabien fördert heute rund zehn Millionen Fass am Tag, und in einigen Jahren schafft es sicher 12,5 Millionen Fass. […] Es ist sehr wahrscheinlich, dass mittelfristig die [Öl]preise ungefähr bei 40 US-$ im Schnitt liegen. Auf ganz lange Sicht sind sogar 25–30 US-$ vorstellbar.“– LORD JOHN BROWNE : 1995–2007 Vorstandsvorsitzender von BP[25]

„Über das Ölfördermaximum muss sich die Welt in absehbarer Zeit keine Sorgen machen.“– ABDULLAH S. JUM'AH : CEO von Aramco, Anfang 2008[97][98][99]

Diese Position hält eine Übertragung des ölfeldspezifischen Konzepts des Ölfördermaximums auf die globale Förderung für unsinnig. Die Ölversorgung sei auch auf der Basis konventioneller Ölvorkommen bei gegenwärtigem Verbrauch bis ins Jahr 2060 gesichert.[100] Steigende Nachfrage und dadurch ansteigende Preise seien als Mechanismus ausreichend, um rechtzeitig für technische Fortschritte in der Ölförderung wie auch bei Ersatzstoffen und -quellen zu sorgen. Als schlimme Nebenwirkungen der „immer wiederkehrenden Ölpanik“ sehen die Vertreter dieser These falsche politische Entscheidungen und eine weitverbreitete Hysterie an, die „völlig unangebracht“ seien.[28]

Der Wirtschaftswissenschaftler Julian L. Simon bezweifelt aufgrund historischer Studien generell, inwieweit kurzfristige Rohstoffverknappungen in der Lage wären, die industrielle Zivilisation zu gefährden.[101] Solche Wachstumskrisen hätten früher bereits zu neuen Technologien und zur Entdeckung neuer Energieträger geführt, die bereits früher regelmäßig befürchteten Untergangsszenarien seien niemals eingetreten, die angeblich ausgehenden Rohstoffe stehen aktuell in größerem Maße zur Verfügung als jemals zuvor.Leonardo Maugeri von der italienischen ENI hält das Ölzeitalter, das vom US Geological Survey bereits 1919 totgesagt worden sei, auch heute für noch lange nicht vorbei, und schließt drastische, demnächst bevorstehende Folgen eines Ölfördermaximums aus.[28]

R

Nach dem Rückgang der Ölpreise Ende 2008 wiederholte der Chefökonom der BP, Christoph Rühl seine skeptische Einstellung gegenüber der Peak-Öl-These[102]

„Physical peak oil, which I have no reason to accept as a valid statement either on theoretical, scientific or ideological grounds, would be insensitive to prices. In fact the whole hypothesis of peak oil – which is that there is a certain amount of oil in the ground, consumed at a certain rate, and then it's finished – does not react to anything. Whereas we believe that whatever can be turned into oil strongly depends on technology and technology depends on prices as well. Therefore there will never be a moment when the world runs out of oil because there will always be a price at which the last drop of oil can clear the market. And you can turn anything into oil into if you are willing to pay the financial and environmental price.“Die These vom baldigen Eintreten wurde laut Maugeri auf Basis neuer Ölfunde und Fördermöglichkeiten widerlegt. [103][104]

3.7.3 Ersatz durch erneuerbare Energiequellen möglich

Viele Regierungen in den Industriestaaten gehen davon aus[105], dass der Ausfall des Erdöls durch die Kombination von drei vom Staat zu fördernde Maßnahmen abzufangen sei: Ein Ersatz des Erdöls wäre angebotsseitig durch erneuerbare Energiequellen möglich, nachfrageseitig ermöglichen technologische Entwicklungen eine wesentlich höhere Energieeffizienz und gesellschaftliche Veränderungen einen Lebensstil mit wesentlich geringerem Energiebedarf.[106] Neue Technologien verbunden mit steigenden Preisen für Ölprodukte erlauben es effizienter Energie zu nutzen und erneuerbare Energiequellen zu erschließen – vorausgesetzt, dass ausreichend Zeit zu ihrer Entwicklung und Anwendung zur Verfügung steht.

3.7.4 Gefahr ernster wirtschaftlicher Krisen

„Es gibt weltweit kein ausreichendes Ölangebot (mehr) für ein vollumfängliches Wachstum unserer Wirtschaft oder der Weltwirtschaft.“– DON EVANS : bis 2005 Wirtschaftsminister der Regierung Bush[107]

„Die Unfähigkeit, die Ölproduktion entsprechend dem steigenden Bedarf auszuweiten, wird in der Zukunft zu einem schweren wirtschaftlichen Schock führen.“– JAMES R. SCHLESINGER : unter Präs. Carter ehem. US-Energie- und unter Präs. Nixon und Ford US-Verteidigungsminister[108]

„Wenn die Ölproduktion im Irak bis 2015 nicht exponentiell steigt, haben wir ein sehr großes Problem. Und dies, selbst wenn Saudi-Arabien alle seine Zusagen einhält. Die Zahlen sind sehr einfach, dazu muss man kein Experte sein. […] Innerhalb von 5–10 Jahren wird die Nicht-OPEC-Produktion den Gipfel erreichen und beginnen, wegen nicht ausreichender Reserven zurückzugehen. Für diese Tatsache gibt es täglich neue Beweise. Zeitgleich werden wir den Gipfel des chinesischen Wirtschaftswachstums sehen. Beide Ereignisse werden also zusammentreffen: die Explosion des Wachstums der chinesischen Nachfrage und der Rückgang der Ölproduktion der Nicht-Opec-Staaten. Wird unser Ölsystem in der Lage sein, dieser Herausforderung zu begegnen, das ist die Frage.“– FATIH BIROL : Chefökonom der Internationalen Energieagentur (IEA), im Juni 2007[109]

Eine ähnliche alarmierende Position vertritt auch der Physiker David L. Goodstein, Vizepräsident des California Institute of Technology,[110][111]. Goodstein betont, dass sich der genaue Zeitpunkt eines Eintretens von Versorgungskrisen grundsätzlich nicht hinreichend exakt vorhersagen lässt und noch nicht erkennbar ist, welche Energiequellen und Technologien Erdöl in Zukunft ersetzen können. Deswegen sei eine tiefgreifende Energiekrise von historischem Ausmaß und möglicherweise katastrophalen Folgen zu erwarten. Jeremy Leggett prägte für eine solche Situation den Begriff „Energy Famine“, also „energetische Hungersnot“.[112]

Die Internationale Energieagentur warnte wiederholt, so im Juli 2007 und im Februar 2009, dass sich die Ölförderkapazitäten aufgrund zurückgehender Reserven und ausbleibender Investitionen verringern und es schon ab dem Jahr 2013 zu einer globalen Wirtschaftskrise aufgrund von massiver Ölknappheit kommen könne.[113][114] Im August 2009 verschärfte Fatih Birol als führender Ökonom der IEA diese Warnung mit dem Zusatz, dass es schon ab 2011 zu einer Ölkrise kommen könnte: „Selbst wenn die Nachfrage gleich bleibt, würde die Welt das Äquivalent von vier Saudi Arabiens finden müssen, um die Produktion aufrechtzuerhalten, und sechs Saudi Arabiens, um mit dem erwarteten Anstieg der Nachfrage zwischen jetzt und 2030 Schritt zu halten.“ [51][52] Die IEA gibt weiterhin an, dass die Förderung bestehender Ölfelder jährlich um 6.7 % zurückgeht, womit sie ihre 2007 veröffentlichte Schätzung eines jährlichen Rückgangs von nur 3.7 % korrigiert.

S

Der Investmentbanker und ehemalige Energieberater des Weißen Hauses, Matthew Simmons, sagte 2005 aufgrund des Ölfördermaximums für 2010 einen Ölpreis von mindestens 200 US-$ pro Fass voraus und hat darauf mit John Tierney, einem Wirtschaftsjournalisten der New York Times eine öffentliche Wette über 10.000 US-$ abgeschlossen. Tierney hält Haussen im Rohstoffbereich – unter Bezugnahme auf Julian L. Simon – für grundsätzlich begrenzt.[115]

Eine Analyse der Deutschen Bundeswehr[116] erklärt, dass durch den Ölförderrückgang, ein Punkt (Tipping Point) erreicht werden kann, ab dem das Wirtschaftssystem kippt. Die schwarz-gelbe Bundesregierung schloss sich 2010 den entsprechenden Folgerungen nicht an und verwies auf das bereits beschlossene Energie und Rohstoffkonzept.Auslöser kann sein, dass die Marktteilnehmer erkennen, dass die Weltwirtschaft auf unbestimmbare Zeit schrumpfen wird. In diesem – von der Bundesregierung allerdings ausdrücklich nicht geteilten[117] – Szenario bricht mittelfristig das globale Wirtschaftssystem und jede marktwirtschaftlich organisierte Volkswirtschaft zusammen. In einer auf unbestimmte Zeit schrumpfenden Volkswirtschaft werden Ersparnisse nicht investiert, weil Unternehmen keine Gewinne machen. Unternehmen sind auf unbestimmte Zeit nicht mehr in der Lage, Fremdkapitalkosten zu zahlen oder Gewinne an Eigenkapitalgeber auszuschütten. Das Bankensystem, die Börsen und die Finanzmärkte insgesamt brechen zusammen.Eine politisch unterschiedlich positionierte, bezüglich der ökonomischen Auswirkungen jedoch sehr ähnliche Position vertritt die Veröffentlichung „Tipping Point“ vom David Korowicz, Mitarbeiter des „Risk Resilence Network“ der irischen Organisation Feasta[118].Jürgen Wiemann, ehemaliger stellvertretendem Direktor des Deutschen Instituts für Entwicklungspolitik, vertritt die Position, dass die weltweite Finanz- und Wirtschaftskrise seit 2008 aufgrund der Auswirkungen z. B. auf die für Hypothekenzahlungen verfügbaren Einkommen der amerikanischen Verbraucher durchaus bereits durch den Ansteig der Ölpreise mitverursacht sein könne.[119][120]

3.7.5 Sicherheitspolitische Herausforderung

Hierzu existiert vom Juli 2010 eine Studie des Dezernats Zukunftsanalyse vom Zentrum für Transformation der Bundeswehr[121]. Sie beschreibt in verschiedenen Abschnitten unter Anderem eine Verschiebung der Rollen von Staaten und privater Wirtschaftakteure, den Weg zu ökonomischen und politischen Krisen beim Übergang zu post-fossilen Gesellschaften, die Überforderung von Akteuren bei der Auswahl von Interventionen sowie ein Systemisches Risiko bei Überschreitung des „Tipping Point“.[122]

3.7.6 Ressourcenkriege

Weitere Experten sehen ein Risiko von Ressourcenkriegen. Der Schweizer Historiker und Konfliktforscher Dr. Daniele Ganser schreibt in „Peak Oil: Erdöl im Spannungsfeld von Krieg und Frieden“: Vieles deutet indes darauf hin, dass der Irakkrieg ein klassischer Ressourcenkrieg ist, welcher es den USA erlaubt, vor Erreichen des Peak Oil und dem globalen Förderrückgang wichtige Erdölquellen zu besetzen, um dadurch gegenüber den Konkurrenten China, Europa und Russland eine Machtposition aufzubauen. Alan Greenspan, der frühere Direktor der US Federal Reserve, meinte in diesem Kontext: „Ich finde es bedauerlich, dass es politisch unkorrekt ist, zuzugeben, was alle schon wissen: Beim Irakkrieg geht es um das Erdöl.“[123][124]

3.7.7 Gefahr des Zusammenbruchs

Es gibt auch warnende Positionen, welche – pessimistischer als die oben aufgeführten von David Goodstein, Matthew Simmons, oder den Autoren der Studie des Zentrums für Transformation der Bundeswehr – einen möglichen Zusammenbruch derIndustriegesellschaft, ausgelöst durch das Überschreiten des Ölfördermaximums, als wahrscheinlich darstellen. Dies wird damit begründet, dass mit fossilen Energiequellen betriebene Arbeitsmaschinen und Transportmittel wie Dampfmaschinen, Schiffe, Motoren und Turbinen so sehr zur Industriellen Revolution beigetragen haben, dass ein Verzicht auf solche Quellen vielen Autoren unmöglich scheint.Schriftsteller wie James Howard Kunstler, Richard Heinberg oder Andreas Eschbach haben Szenarien entworfen, in denen Treibstoffe als wichtige Grundlage der industriellen Zivilisation nicht mehr in ausreichendem Maße zur Verfügung stehen und es so zu erheblichen gesellschaftlichen Umbrüchen kommt. Extrem pessimistisch ist die sogenannte

T

Olduvai-These,[125] derzufolge aufgrund des Ölfördermaximums die derzeitige industrielle Zivilisation bis 2030 zusammenbrechen müsse und bis 2050 nur noch etwa zwei Milliarden Menschen auf einem vorindustriellen Energieniveau werden überleben können.[126]

3.7.8 Zunehmendes Risiko von schweren Ölkatastrophen

Der Geologe Klaus Bitzer, Mitglied der ASPO, vertritt anlässlich der Ölkatastrophe im Golf von Mexiko 2010 als Folge der Havarie der Plattform Deepwater Horizon die Position, dass die Erschöpfung der leicht zugänglichen Ölfelder zu einer Vergrößerung der Risiken der Ölförderung und somit auch zu einer größeren Gefahr von Ölkatastrophen beitrage:„Auf der Suche nach und bei der Ausbeutung der letzten Lagerstätten werden die technischen Probleme auch immer größer. […](Frage) „Warum solche Risiken eingehen?“ - K. Bitzer: Es ist ganz einfach so, dass alle ergiebigen, konventionell ausbeutbaren Ölfelder längst entdeckt sind. Also wird die Suche immer schwieriger. Es ist wie beim ‚Schiffe versenken‘: Zuerst trifft man immer die großen Tanker. Bis man alle kleinen U-Boote hat, braucht man ungleich länger.“[127]

Umgekehrt wird die Position vertreten, dass höhere Sicherheitsauflagen bei technisch und ökologisch riskanten Ölförderprojekten als Reaktion auf die Havarie zu Einschränkungen der Förderung und Ausfällen führen könnten. Diese werden von der IEA auf bis zu 300.000 Barrel, von Steffen Bukold bei Einbeziehung weiterer Ölförderregionen auf bis zu 1.000.000 Barrel pro Tag beziffert, da ein sehr großer Anteil von neu zu erschließenden Ölquellen in den OECD Staaten auf Tiefseeförderungen passieren solle. Dass ein derart hoher Anteil allerdings auf realistischen Prognosen beruhe, wird wiederum von Experten wie Klaus Bitzer in Zweifel gezogen, die auch bei Ausbleiben eines Moratoriums einen frühzeitigen Rückgang der Ölförderung befürchten, da sich mit diesen Projekten, wie sie z. B. vor der Küste Brasiliens geplant sind, gewaltige technologische Risiken verbänden. Tatsächlich entspricht die Ölförderung in der Tiefsee ungefähr dem Zuwachs zwischen dem Jahr 2000 und 2009.[128]

3.8 Maßnahmen

3.8.1 Vorsorgemaßnahmen als Risikomanagement

Angemessene Reaktionen auf das Risiko eines Rückgangs der Ölförderung erfordern eine Entscheidung unter Unsicherheit im Rahmen eines Risikomanagements, das Szenarien und ihre Eintrittswahrscheinlichkeiten gegeneinander abwägt, wie es ähnlich auch bei Sicherheitsmaßnahmen aller Art, wie etwa zum Beispiel beim Brandschutz oder der Einschätzung der Risiken der Kernenergie, erforderlich ist. Mit dieser Frage beschäftigt sich der sogenannte Hirsch-Report aus dem Jahre 2005, der vom US Department of Energy beauftragt wurde.[129] Dieser zieht den Schluss, dass die beiden Risiken „falscher Alarm“ und „zu späte Maßnahmen“ asymmetrisch sind, da der Auswertung regionaler Fördermaxima zufolge (zum Beispiel desjenigen Großbritanniens) unter Umständen weniger als ein Jahr Vorwarnzeit besteht. Maßnahmen zur Vermeidung schwerwiegender wirtschaftlicher und gesellschaftlicher Probleme erfordern jedoch zehn bis zwanzig Jahre Vorlaufzeit. Der Hirsch-Report zieht ferner den Schluss, dass die verfügbare (knappe) Zeit es nicht erlaubt, sich auf die Entwicklung völlig neuer Technologien zu stützen, sondern es erforderlich macht, bereits verfügbare Technologien zu nutzen. Vorsorgemaßnahmen werden zudem als ökonomisch wesentlich günstiger angesehen als das Risiko eines unvorbereitet eintreffenden Fördermaximums, welches nach Darstellung des Hirsch Reports sehr schwerwiegende Folgen haben kann. Zu ähnlichen Ergebnissen kommen beispielsweise Planspiele der Heritage Foundation bezüglich einer terroristischen Unterbrechung der Ölversorgung.[130]

Konsequenterweise sind zunächst besonders Maßnahmen sinnvoll, die weitgehend kostenneutral sind, solche die schon heute wirtschaftlichen Nutzen haben, und solche die besonders hohe Teilrisiken mit langer Vorbereitungszeit abfedern. Dazu zählen beispielsweise eine verbesserte Wärmedämmung in Gebäuden, ein Ausbau und verstärkte Elektrifizierung des Eisenbahnnetzes sowie ein Ausbau des ÖPNV in Städten. In der Folge schlägt der Hirsch-Report auch die Nutzung von Verfahren wie Kohleverflüssigung vor, die aufgrund sehr hoher CO2-Emissionen ihrerseits jedoch zusätzliche Umweltbelastungen bedeuten.

3.8.2 Vorsorgemaßnahmen nach Ländern

U

3.8.2.1USADer Hirsch-Report, der 2005 für das amerikanische Department of Energy angefertigt wurde, befasste sich mit dem Risiko des Fördermaximums. Wie erwähnt, sieht dieser Bericht Peak Oil in erster Linie als Treibstoffproblem und schlägt eine Reihe von sofortigen Maßnahmen vor, wie Einsparungen und Nutzung von elektrischen Fahrzeugen und alternativen Treibstoffen.

„Der Charakter des Peak-Oil-Problems ähnelt dem Killer-Asteroid-Problem. Man muss wirklich sofort mit durchgreifendem Handeln beginnen, weil uns die Zeit davonläuft. Es wird viel Zeit und Mühe bedürfen und muss als ein Sofort-Programm angegangen werden, um die Wirkungen zu verringern. Wenn man das Problem langsam angeht, verschwendet man Zeit. Wenn es uns trifft, dann wird die Tragweite so extrem sein, dass die Menschen zusammenarbeiten und Dinge tun, ja Opfer bringen müssen, die weit über das hinausgehen, an was die meisten von uns im Ernst gedacht haben.“

– DR. ROBERT HIRSCH IN: „OUT OF OIL – AMERIKANISCHE STRATEGIEN UND KONZEPTE FÜR DIE ZEIT NACH DEM ERDÖL“, RADIO-FEATURE VON PAUL NELLEN, WDR, 18. MÄRZ 2007 (AUS D. MANUSKRIPT) [7]  (PDF; 184 KB)

Eine entsprechende Umsetzung von Maßnahmen fand bisher nicht statt, die USA sind seit 2012 entgegen Hirschs und auch Hubberts Voraussagen aufgrund neuer Technologien (vgl. Hydraulic Fracturing) auf dem Wege, wieder zum weltweit führenden Ölproduzenten zu werden.

V

4 PCB

4.1 Eigenschaften von PCDD/F und PCB

4.1.1 Definitionen

Mit dem Sammelbegriff «Dioxine» (PCDD/F) werden die beiden nahe verwandten Stoffklassen der polychlorierten Dibenzo-p-dioxine (PCDD) und Dibenzofurane (PCDF) bezeichnet. Wegen ähnlichen toxikologischen Wirkmechanismen werden auch bestimmte Vertreter der polychlorierten Biphenyle (PCB), die dioxinähnlichen PCB (dioxin-like PCB, dl-PCB), mit einbezogen. Bei diesen drei Stoffklassen handelt es sich um chlorierte aromatische Ringsysteme (Abb. 1). Durch die unterschiedlichen Chlorierungsgrade und Substitutionsmuster ergeben sich viele mögliche Einzelverbindungen, sogenannte Kongenere.

Bestimmte Vertreter dieser Stoffklassen zeichnen sich durch ihre hohe, auf demselben Wirkmechanismus beruhende Toxizität aus (Tab. 2). Zu diesen toxischen Kongeneren zählen PCDD und PCDF mit vollständiger lateraler Chlorsubstitution (Positionen 2, 3, 7 und 8) mit TCDD (2,3,7,8-Tetrachlordibenzo-p-dioxin), dem sogenannten Seveso-Dioxin, als bekanntestem und auch giftigsten Vertreter (Abb. 2), sowie PCB mit planarer Molekülgeometrie (coplanare PCB) (Tab. 2). Diese planare Konformation ist bei denjenigen Kongerenen möglich, bei welchen die Drehbarkeit der beiden Phenylringe nicht durch zwei oder mehr Chlorsubstituenten in ortho-Stellung (Positionen 2, 2', 6 und 6') eingeschränkt ist (Abb. 2). PCDD, PCDF und PCB gehören zu den durch die Stockholm-Konvention von 2001 weltweit verbotenen «persistent organic pollutants» (POPs); die Schweiz hat diese Übereinkunft 2004 mit unterzeichnet.

4.2 Bestimmung von PCB in Fischen

4.2.1 Anforderungen an Probenahmeverfahren und Analysenmethoden

W

Werden Lebensmittel zur amtlichen Kontrolle des Gehalts an Dioxinen und dl-PCB untersucht, gelten die Anforderungen gemäss Anhang II der Verordnung (EG) Nr. 1883/2006 der Kommission vom 19. Dezember 2006 (EC 2006c).

4.2.2 Probenahme

Sämtliche relevanten Aspekte der Probenahme sollen dokumentiert werden: genaue Lage des Orts sowie Art, Grösse, Gewicht und Geschlecht der Fische. Zu beachten sind insbesondere Massnahmen zur Vermeidung der Kontamination von Proben bei der Verpackung, beim Transport und bei der Aufbewahrung. Als geeignetes Verpackungsmaterial der Fische hat sich mit Lösungsmitteln vorgereinigte Alufolie erwiesen. Sie dient zugleich als Lichtschutz, da PCDD/F und PCB unter dem Einfluss der UV-Strahlung von Sonnenlicht abgebaut werden können. Die Proben sollen möglichst rasch tiefgekühlt und in diesem Zustand bis zur Analyse aufbewahrt werden.

4.2.3 Probenvorbereitung

Die Probenvorbereitung beginnt mit dem Ausnehmen und Zerlegen der Fische. Im Hinblick auf eine Risikoabschätzung für Konsumenten wird üblicherweise nur der essbare Anteil, das Filet, untersucht, mit oder ohne Haut. Unter der Haut befindet sich eine isolierende Fettschicht, die mit einem glatten Messer abgezogen und zur Probe gegeben werden soll. Auf jeden Fall soll das analysierte Probenmaterial genau beschrieben werden.Nach Homogenisieren der Probe wird ein Teil des Homogenats zur Fettbestimmung eingesetzt. Die Bestimmung des Fettgehalts ist von Bedeutung, da damit die auf Frischgewicht bezogenen Analyseergebnisse auf Fettbasis umgerechnet werden können. Dies ist aus Gründen der Vergleichbarkeit mit Literaturdaten wichtig, da Dioxinund PCB-Daten in der wissenschaftlichen Literatur oft ausschliesslich auf den Fettanteil bezogen sind. Der Fettgehalt wird durch Extraktion mit apolaren Lösungsmitteln wie n-Hexan, n-Pentan, Diethylether, Dichlormethan, Cyclohexan, Toluol oder Lösungsmittelgemischen und anschliessende gravimetrische Bestimmung des extrahierten Fettanteils bestimmt. Als Extraktionsverfahren kommen Soxhlet-Extraktion, accelerated solvent extraction (ASE) oder Flüssigextraktion durch Ausschütteln mit Lösungsmitteln in Frage. Bei letzterer wird die homogenisierte Probe in Wasser suspendiert und mit einem Lösungsmittelgemisch bestehend aus Ethanol, Diethylether und n-Pentan extrahiert. Der Vorteil dieser Methode liegt in der relativ grossen Probenmenge (bis 100 g), die mit dieser Methode verarbeitet werden kann, was im Hinblick auf die Nachweisgrenze des Verfahrens von Vorteil sein kann. Erfahrungsgemäss ist für die Bestimmung von dl-PCB ca. 1 g Fett erforderlich; falls auch PCDD/F bestimmt werden sollen, liegt die entsprechende Mindestmenge bei ca. 5 g.Im folgenden Schritt wird die Probenmatrix (Fett) von den zu messenden PCDD/F und dl-PCB abgetrennt. Dazu eignen sich die Gelpermeations-Chromatographie (GPC) oder die Zerstörung (Hydrolyse) des Fetts mit konzentrierter Schwefelsäure. PCDD/F und PCB überstehen diese Behandlung und können anschliessend aus dem Hydrolysat extrahiert werden. Grössere Fettmengen können an saurem oder basischem Kieselgel adsorbiert und hydrolysiert bzw. verseift werden. Im nächsten Vorbereitungsschritt erfolgt eine flüssigchromatographische Separierung in PCDD/F/dl-PCB (PCDD, PCDF sowie non- und mono-ortho-chlorsubstituierte dl-PCB) und i-PCB (di-ortho-chlorsubstituierte PCB). Im letzten Schritt werden PCDD/F und non-ortho-chlorsubstituierte dl-PCB (PCB 77, 81, 126 und 169) von den übrigen, mono-ortho-chlorsubstituierten PCB abgetrennt. Dieser Schritt ist empfehlenswert, da damit PCB 126, welches mit einem TEF von 0,1 den grössten Anteil zur WHO-TEQ-Summenkonzentration aller dl-PCBKongenere beiträgt (60–85 %), von möglicherweise interferierenden anderen PCBKongeneren abgetrennt werden kann.Die quantitative Bestimmung der i-PCB kann entweder über GC-ECD (Gaschromatographie mit Elektroneneinfangdetektion (GC-ECD), durch Vergleich mit einem Referenzgemisch der zu bestimmenden Kongenere (PCB 28, 52, 101, 118, 138, 153 und 180) oder mittels Gaschromatographie mit Massenspektrometrie (GC-MS) und einem Vergleich mit isotopenmarkierten, vor der Probenvorbereitung zugegebenen internen Referenzkongeneren, erfolgen. Für die quantitative Bestimmung von PCDD/F und dl- PCB kommt wegen der erforderlichen hohen Spezifität und Nachweisempfindlichkeit ausschliesslich GC-MS zum Einsatz. Für die Spurenbestimmung von PCDD/F und dl-PCB hat sich wegen ihrer hohen diesbezüglichen Leistungsfähigkeit die GC-MS mit hochauflösender Massenspektrometrie allgemein durchgesetzt.

X

Da PCB sowohl in technischen Gemischen als auch in Umweltproben als Mischungen sehr vieler Kongenere vorliegen, ist eine Einzelbestimmung aller Komponenten wegen des enormen Aufwandes in der Praxis nicht sinnvoll. In pragmatischer Vereinfachung werden daher lediglich 6 bzw. 7 Hauptkomponenten, sogenannte Indikator-Kongenere, bestimmt und als Summenkonzentration berechnet. Es handelt sich dabei um die PCB 28, 52, 101, (118), 138, 153 und 180. Für deren Bestimmung kann die «Methodenempfehlung für die Bestimmung von polychlorierten Biphenylen in Böden mittels GC-MS» (BUWAL 2003) als Wegleitung dienen. Allerdings sind die darin beschriebenen Probenaufarbeitungsschritte nicht für das fettreiche Probenmaterial Fisch ausgelegt, hingegen sind die Hinweise zu Quantifizierung und Qualitätssicherung nützlich. Bei Datenerhebungen mit dem Ziel einer gesundheitlichen Beurteilung der Werte sind speziell dl-PCB von Interesse, deren Konzentrationen jedoch, mit Ausnahme von wenigen Kongeneren wie z. B. PCB 118, um zwei bis drei Grössenordnungen unter denjenigen der i-PCB liegen. Daher stellt die Messung von dl-PCB höhere Anforderungen an die analytische Methodik. In Lebensmitteln und Umweltproben werden sie meist zusammen mit PCDD/F mittels hochauflösender GC-MS bestimmt.

Y

5 Schadstoffe

5.1 Definition primäre und sekundäre Luftschadstoffe

Ein Primärschadstoff wird direkt von einer Schadstoffquelle freigesetzt.Ein Sekundärschadstoff wird nicht direkt ausgestossen, sondern entsteht dadurch, dass andere Schadstoffe (Primärschadstoffe) in der Atmosphäre miteinander reagieren.Beispiele für Sekundärschadstoffe sind Ozon, welches durch die Verbindung von Kohlenwasserstoff (HC) mit Stickoxiden (NOx) unter Einwirkung von Sonnenlicht entsteht; NO2 , welches geformt wird wenn NO mit Sauerstoff in der Luft reagiert, und saurer Regen, der dann entsteht, wenn Schwefeldioxid oder Stickoxide mit Wasser reagieren.

Z

6 TreibhauseffektDer Treibhauseffekt ist die namensgebende Wirkung von Treibhausgasen in Atmosphären auf die Temperatur am Boden. Dadurch stellen sich auf Planetenoberflächen höhere Temperaturen ein, als sich ohne Treibhauseffekt einstellen würden. Der Effekt entsteht dadurch, dass die Atmosphäre weitgehend transparent für von der Sonne ankommende kurzwellige Strahlung ist, jedoch wenig transparent für langwellige Infrarotstrahlung ist, die von der warmen Erdoberfläche und von der erwärmten Luft emittiert wird. Das wichtigste Treibhausgas der Erde ist Wasserdampf.

Der Treibhauseffekt wurde 1824 von Joseph Fourier entdeckt und 1896 von Svante Arrhenius erstmals quantitativ genauer beschrieben. Die systematische Erforschung des Treibhauseffekts begann 1958 durch Charles D. Keeling, einem StudentenRoger Revelles. Durch Keeling wurden ein Vielzahl von Messstationen für Kohlendioxid aufgebaut; die bekannteste befindet sich auf dem Mauna Loa auf Hawaii.

Der durch menschliche Eingriffe bewirkte Anteil am atmosphärischen Treibhauseffekt wird anthropogener Treibhauseffekt genannt, siehe hierzu globale Erwärmung.

Anders als der Name suggeriert, basiert die Erwärmung eines Treibhauses durch einfallende Sonnenstrahlen nicht auf dem Treibhauseffekt. Der hier zugrundeliegende Effekt heißt Glashauseffekt. Jedoch werden mitunter beide Bezeichnungen – Treibhauseffekt und Glashauseffekt – auch synonym für beide Effekte verwendet.

6.1 Physikalische Grundlagen

Vergleiche mit den Daten anderer Planeten und (relativ) einfache Berechnungen zeigen, dass es nicht nur hier auf der Erde einen Treibhauseffekt gibt. Aus dem Rückstrahlvermögen der Erde kann man die Gleichgewichtstemperatur berechnen, die bestehen würde, wenn es keine Atmosphäre gäbe: Sie würde in diesem Fall im Mittel −18 °C betragen (siehe auch Beispiele für Strahlungsaustausch). Das ist deutlich weniger als der durch Messungen und Interpolation bestimmte Wert von +14 °C.[1] Der Unterschied ist beim Nachbarplaneten Venus viel gewaltiger: Statt der berechneten 141 °C wurde tatsächlich etwa 440 °C gemessen. In beiden Fällen gibt es eine Ursache: Den Treibhauseffekt.

Ein Rechenbeispiel für einen in mehrerlei Hinsicht idealisierten Planeten findet sich im Artikel Idealisiertes Treibhausmodell.

6.2 Kompakte Darstellung des Mechanismus

AA

Kurzwellige Strahlung der Sonne trifft auf die Atmosphäre und Erdoberfläche. Langwellige Strahlung wird von der Erdoberfläche abgestrahlt und in der Atmosphäre fast vollständig absorbiert. Im thermischen Gleichgewicht wird die absorbierte Energie der Atmosphäre je zur Hälfte in Richtung Erde und Weltall abgestrahlt. Die Zahlen geben die Leistung der Strahlung in Watt/Quadratmeter für den Zeitraum 2000–2004 an.

Der Treibhauseffekt kann in folgenden Schritten erklärt werden:

1. Die Sonne strahlt sehr viel Energie in Form von elektromagnetischen Wellen zur Erde. Dadurch wird die Oberfläche der Sonne gekühlt (Strahlungskühlung).

2. Die häufigsten Wellenlängen der Photonen des Sonnenlichtes liegen um 500 nm, das entspricht grünem Licht. Aus diesem Strahlungsmaximum kann man auf die Oberflächentemperatur der Sonne rückschließen: etwa 5600 °C oder 5900 K.

3. In diesem Spektralbereich (sichtbares Licht) absorbieren die Lufthülle der Erde so wie auch die Glasscheiben eines Treibhauses nur wenig Strahlung – man spricht von hoher Transparenz. Die Strahlung kann also fast ungehindert in das Treibhaus.

4. Die Gegenstände im Treibhaus absorbieren die Photonen und erwärmen sich dadurch auf etwa 30 °C oder 303 K.

5. Die erwärmten Gegenstände strahlen ebenfalls elektromagnetische Wellen ab, deren häufigste Wellenlängen aber bei 10000 nm liegen (Infrarotstrahlung). Der Grund für diese Vergrößerung der Wellenlänge heißt Wiensches Verschiebungsgesetz: Wenn die (absolute) Temperatur auf 1/20 sinkt (hier von etwa 6000 K, Sonne, auf etwa 300 K, Erde), steigt die Wellenlänge, bei der die größte Strahlungsintensität auftritt, auf das 20-fache.

6. Für diese „Rückstrahlung“ sind aber Glas und bestimmte Elemente in der Lufthülle der Erde undurchlässig. Die Strahlung wird teilweise absorbiert. Gleichzeitig können die Treibhausgase Wärmestrahlung weit besser abgeben als Stickstoff und Sauerstoff. Sie strahlen die durch Absorption und Konvektion erhaltene Wärmeenergie gleichmäßig in alle Richtungen, also auch zum Boden hin, ab. Der Boden erhält so zusätzliche Wärmestrahlung („Atmosphärische Gegenstrahlung“).

BB

6.2.1 Ausführliche Darstellung

Wenn Strahlung durch Materie geht, wird sie von der Materie teilweise absorbiert und teilweise durchgelassen. Die Stärke von Absorption und Durchlässigkeit hängt von der Wellenlänge (im sichtbaren Bereich = Farbe) der Strahlung ab. Der Treibhauseffekt tritt auf, wenn die Durchlässigkeits- und Absorptionskoeffizienten der Begrenzungen eines Volumens wellenlängenabhängig sind. Dabei tritt die äußere Strahlung relativ ungehindert in das Volumen ein und wird ergänzt durch Strahlung, die von der Begrenzung ausgeht. Eng verbunden mit der von der Begrenzung ausgehenden Strahlung ist, dass die innere Strahlung von der Begrenzung des Volumens weitgehend absorbiert wird (Kirchhoffsche Gesetze). Dabei wird ein wesentlicher Teil der inneren Strahlung im eingeschlossenen Volumen von den Begrenzungen absorbiert (hauptsächlich) oder reflektiert. Dabei spielt die Reflexion beim atmosphärischen Treibhauseffekt keine Rolle und auch beim Glashaus ist die Bedeutung der Reflexion sehr gering, weil im relevanten Wellenlängenbereich die Glasscheiben fast als schwarze Körper wirken. Zu dieser inneren Strahlung kommt eine weitere Strahlung (hauptsächlich von der Sonne), die einen Teil der Begrenzung (Glasscheiben beziehungsweise die Schicht der Treibhausgase) wegen der anderen Wellenlänge fast mühelos durchdringt (selektive Transparenz) und von einem anderen Teil der Begrenzungsfläche (beispielsweise Erdboden) absorbiert wird. Durch die Summe der beiden Strahlungen (innere Strahlung eines Hohlraums, die von allen Begrenzungsflächen ausgeht, plus der durchgelassenen Strahlung) werden die getroffenen Stellen stärker erwärmt als ohne Scheibe oder Treibhausgas.

6.3 Glashauseffekt

Als Glashauseffekt (abgeleitet aus dem Französischen von effet de serre, wie er zuerst von Joseph Fourier genannt wurde) wird der Effekt bezeichnet, wenn in einem Innenraum durch verglaste Fensteröffnungen oder Dächer Sonnenlicht einfällt und von den Materialien des Innenraums absorbiert wird. Dadurch kann sich der Innenraum deutlich über das Niveau der Umgebungstemperatur aufheizen. Von den aufgeheizten Wandflächen erwärmt sich über Wärmeleitung und Konvektion die Luft im Innenraum. Da bei einem geschlossenen Glashaus nur wenig erwärmte Luft durch kalte Außenluft ersetzt wird, ist der Kühlungseffekt durch kalte Außenluft nicht groß. Zuweilen wird der Glashauseffekt nach den großen, architektonisch stilvollen Gewächshäusern von botanischen Gärten und Schlossparks – den Orangerien – auch Orangerieeffekt genannt.

6.3.1 Selektive Transparenz

Fensterglas ist transparent für sichtbares Licht und kurzwelliges Infrarot, wie es von der Sonne abgestrahlt wird. Für langwelliges Infrarot (den Bereich der Wärmestrahlung bei den Glashaustemperaturen) ist es undurchlässiger. Dieser Unterschied wird häufig als Ursache für den wärmenden Effekt dargestellt. Eine derartige Auswirkung des Unterschiedes in der Transparenz der Glasabdeckung eines Gewächshauses halten einige für zu gering und beziehen sich dabei auf eine mißverstandene Veröffentlichung.[2] Wood schreibt am Schluss seiner Veröffentlichung, dass

CC

er die Problematik nicht näher untersucht hat und nur einen Denkanstoß geben wollte. Die Erwärmung des Gewächshauses beruht also hauptsächlich darin, dass die einfallende Solarstrahlung als Ofen wirkt und dass der Luftaustausch mit der Außenluft unterbunden wird – analog dem, dass kaum jemand die Fenster lange öffnet, wenn er heizt.[3][4]

Die gesteuerte Lüftung über Dachluken wird in Gewächshäusern verwendet, um insbesondere tagsüber in heißen Sommermonaten überschüssige Wärmeenergie nicht durch Strahlung, sondern durch Luftmassenaustausch abzuleiten und somit im Inneren ein verträgliches Temperaturniveau (unter 40 °C) zu halten. Nachts kann es hingegen auch im Sommer recht kühl werden. Ursache sind Verluste durch Wärmeleitung (gering), Luftmassenaustausch durch Lüftung (größer, wenn möglich), besonders jedoch die Abstrahlung von der Glashausaußenseite in den Weltraum (besonders bei sternenklarem Himmel), der die gesamte Erdkruste nachts unterliegt. Weil die Glashauswände in der Regel so gebaut sind, dass der Wärmestrom von der Innenseite der Glashauswand zur Außenseite nur sehr marginal behindert wird, kühlt dabei auch das Innere des Glashauses ab. Es ist nicht zu empfehlen, es sich im Winter nachts im Glashaus gemütlich machen zu wollen, auch wenn tagsüber schön die Sonne schien. Hält man bei Nacht jedoch die Luken geschlossen, wird der Wärmeverlust gedämpft, die sinusförmige Welle der Tagestemperatur flacher und man bewirkt somit ein ausgeglicheneres und relativ warmes Mikroklima im Gewächshaus.

6.3.2 Nutzung

Der Effekt wird seit langem in Unterglaskulturen/Treibhäusern genutzt. Außer in Gewächshäusern wird der Glashauseffekt auch als passive Sonnennutzung in der Architektur gezielt eingesetzt, um Brennstoff zum Heizen von Wohnräumen zu sparen. Dies wird durch eine Südausrichtung der großen Glasfronten und/oder Wintergärten des Gebäudes erreicht, über die die Luft des Hauses erwärmt wird. Insbesondere so genannte Niedrigenergiehäuser und Passivhäuser nutzen diesen Effekt zur drastischen Reduktion des Einsatzes einer zusätzlichen Heizung. Besonders intensiv lässt sich dieses Phänomen in einem in der Sonne geparkten Auto beobachten/erfühlen.

Auch Sonnenkollektoren nutzen diesen Effekt. Hier kann die selektive Transparenz des Glases mit selektiver Absorption des Kollektors ergänzt werden, um dessen Wärmeabstrahlung zu verringern. Bei Vakuumkollektoren wird auch die Konvektionzwischen Glas und Kollektor unterbunden.

6.4 Atmosphärischer Treibhauseffekt

6.4.1 Treibhausgase

Durchlässigkeit der Atmosphäre für elektromagnetische Strahlung unterschiedlicher Wellenlängen. Der gelbe Bereich heißt Atmosphärisches Fenster; dort ist die Atmosphäre durchlässig für elektromagnetische Wellen des Infrarot-Bereiches.

In der Erdatmosphäre bewirken Treibhausgase wie Wasserdampf, Kohlenstoffdioxid, Methan und Ozon seit Bestehen der Erde einen Treibhauseffekt, der entscheidenden Einfluss auf die Klimageschichte der Vergangenheit und das heutige Klima hat. Die Rolle des Glases wird hier

DD

von den genannten Treibhausgasen übernommen, die durchgängig für den kurzwelligen Anteil der Sonnenstrahlung sind, langwelligeWärmestrahlung hingegen je nach Treibhausgas in unterschiedlichen Wellenlängen absorbieren und emittieren.

Der größte Teil des Treibhauseffekts wird mit einem Anteil von ca. 36–70 % (ohne Berücksichtigung der Effekte der Wolken) durch Wasserdampf in der Atmosphäre verursacht. Kohlenstoffdioxid in der Erdatmosphäre trägt ca. 9–26 % zum Treibhauseffekt bei, Methan ca. 4–9 %, und Ozon ca. 3–7 %.[5][6] Der Ozongehalt spielt insbesondere in der Stratosphäre eine sehr wichtige Rolle für das Klima. Es wird vom Menschen nicht direkt, sondern indirekt über fluorierte Treibhausgase beeinflusst. Im Kyoto-Protokoll sind deshalb auch wasserstoffhaltige (HFC bzw. H-FKW), perfluorierte Fluorkohlenwasserstoffe(PFC bzw. FKW) und Schwefelhexafluorid (SF6) in die Liste der Treibhausgase aufgenommen worden.

Ein exakter prozentualer Wirkungsanteil der einzelnen Treibhausgase auf den Treibhauseffekt kann nicht angegeben werden, da der Einfluss der einzelnen Gase je nach Breitengrad und Vermischung variiert (die jeweils höheren Prozentwerte geben den ungefähren Anteil des Gases selbst an, die niedrigeren Werte ergeben sich aus den Mischungen der Gase).[5]

Angetrieben werden die Wärmevorgänge an der Erdoberfläche und in der Atmosphäre von der Sonne. Die Stärke der Solarstrahlung in der Erdbahn wird als Solarkonstante bezeichnet und hat etwa einen Wert von 1367 W/m², der je nach Erdentfernung und Sonnenaktivität zwischen 1325 W/m² und 1420 W/m² schwankt.

Bei der großen Masse der Erde spielt die Wärmespeicherung eine erhebliche Rolle, was daran zu erkennen ist, dass auf der Nordhalbkugel der Erde die wärmste Zeit im Sommer erst nach dem Sonnenhöchststand (etwa 22. Juni) eintritt. Wegen dieser großen Speicherwirkung wird bei den Energiebilanzen in der Atmosphäre immer mit dem Mittelwert über die ganze Erdoberfläche gerechnet.

Sogenannte „Energiebilanzen“ werden mit einem Mittelwert der Einstrahlung auf die Erdoberfläche gerechnet: Die Erde erhält Solarstrahlung auf der Fläche des Erdquerschnitts   und hat eine Oberfläche von  . Diese beiden Flächen haben ein Verhältnis von 1:4. Das heißt, wenn 1367 W/m² auf die Erde einstrahlen und in Erd-Oberflächentemperatur umgesetzt würden, könnte die Erdoberfläche durchschnittlich 342 W/m² auch wieder abstrahlen.

Durch Wolken, Luft und Boden (vor allem Eis und Schnee, siehe Albedo) wird ein Anteil von etwa 30 % der eingestrahlten Sonnenenergie wieder in den Weltraum reflektiert – das sind etwa 410 W/m². Die restlichen 70 % werden absorbiert – das sind etwa 957 W/m². Wäre das die einzige Strahlung, die vom Erdboden absorbiert würde, so würde die Erdoberfläche im Mittel eine Temperatur von etwa -18 °C annehmen, wenn die Wärme gleichmäßig über die Erde verteilt würde. Wird berücksichtigt, dass Temperaturunterschiede existieren, so liegt die Durchschnittstemperatur weit unter diesem oberen Grenzwert (siehe Höldersche Ungleichung).

Aber es gibt eine weitere Bestrahlung durch die aufgeheizten Treibhausgase mit etwa 150 W/m², die so genannte atmosphärische Gegenstrahlung. Damit absorbiert die Erdoberfläche insgesamt 389 W/m² – und die werden bei der tatsächlichen mittleren Erdoberflächentemperatur von +14 °C auf mehreren Wegen abgegeben. Ein Teil davon wird durch Strahlung abgegeben, das wird wieder durch das Plancksche Strahlungsgesetz beschrieben. Die Energieabgabe geschieht aber auch

EE

durch weitere Vorgänge wie z. B. die Konvektion. Die Erdoberflächentemperatur ist zugleich die bodennahe Lufttemperatur.

Die von der Erdoberfläche abgestrahlte Energie hat eine andere Spektral-(Farb)verteilung, als das einfallende Sonnenlicht, das eine Spektralverteilung entsprechend einer Farbtemperatur von etwa 6000 K hat und von den atmosphärischen Gasen kaum absorbiert wird. Die Spektralverteilung der von der Erdoberfläche abgestrahlten Energie wird durch die +14 °C der Erdoberfläche bestimmt, so dass nur etwa 90 W/m² direkt von der Erdoberfläche in den Weltraum gestrahlt werden. Die restlichen 299 W/m² werden teilweise durch Strahlung an die für diesen Wellenlängenanteil undurchsichtige Atmosphäre (verursacht durch die Treibhausgase) durch Absorption abgegeben, teilweise auch durch andere Vorgänge, z. B. Konvektion. Dadurch wird die Atmosphäre aufgeheizt. Die Atmosphäre hat zwei Oberflächen: eine zum Weltraum hin und eine zur Erde hin. Die Abstrahlung aus der Atmosphäre ist auf jeder Seite gleich groß, wenn die Temperatur der Erde konstant ist. Die absorbierte Energie von 299 W/m² wird also auf jeder Seite zur Hälfte – also 150 W/m² abgestrahlt. Zum Vergleich: Ein schwarzer Körper mit einer Abstrahlung von 150 W/m² hat etwa eine Temperatur von −40 °C. Ist die Abstrahlung in eine Richtung größer als in der anderen, kommt es zur Erwärmung bzw. Abkühlung der Erde. Der Unterschied ist der Strahlungsantrieb. Mit dieser Größe kann einfach die aus der geänderten Bilanz resultierende, neue Gleichgewichtstemperatur der Erde errechnet werden.

Durch die Abstrahlung in den Weltraum von der Atmosphäre mit 150 W/m², den direkten 90 W/m² von der Erdoberfläche und dem Albedo-Anteil von 103 W/m² ist das etwa gleich der mittleren Einstrahlung von 342 W/m², d. h., Einstrahlung ist etwa gleich Ausstrahlung. Das zeigt sich auch in der Tatsache, dass sich die Temperatur der Erde nur langsam ändert – woraus zwingend folgt, dass die Erde die absorbierte Sonnenenergie wieder abgibt – aber wegen der niedrigen Erdtemperatur wird die Energie hauptsächlich als langwellige Infrarotstrahlung emittiert (Wiensches Verschiebungsgesetz).

Der Wärmestrom aus dem Erdinneren spielt praktisch keine Rolle (etwa 0,06 W/m²). Aus dem Weltenergieverbrauch (im Jahr 2004) in Höhe von 432 Exajoule und der Größe der Erdoberfläche von rund 510 Millionen km² errechnet sich ein auf die Nutzung nicht regenerativer Energieträger zurückzuführender Wärmestrom (Leistung) in Höhe von rund 0,026 Watt pro Quadratmeter.[7]

Probleme haben manche mit der Energie, die die Treibhausgase in Richtung Erdoberfläche abstrahlen (150 W/m² – wie schon oben genannt), da diese Energie von einem kühleren Körper (etwa −40 °C) zu dem wärmeren Körper (Erdoberfläche etwa +14 °C) strömt und dieses angeblich

FF

Atmosphäre % RestanteilTreibhauseffekt

wie bisher 100

ohne H2O, CO2, O3

50

ohne H2O 64

ohne Wolken 86

ohne CO2 88

ohne O3 97

ohne alleTreibhausgase 0

Quelle: Ramanathan and Coakley (1978)[8]; siehe auch[9].

dem II. Hauptsatz der Thermodynamik widerspreche. Das ist aber eine falsche Interpretation, denn er lässt die Solareinstrahlung (von sogar 6000 K) unberücksichtigt, in der Bilanz ist wieder der II. Hauptsatz erfüllt (siehe auch Strahlungsaustausch).

Zusammengefasst ergibt sich: Die Rückstrahlung aus der Atmosphäre zur Erde führt zur zusätzlichen Erwärmung der Erdoberfläche um mindestens 33 °C. Damit liegt die durchschnittliche globale Temperatur bei 14 °C statt deutlich unter −18 °C.

Wichtig ist auch die Höhenverteilung, von wo die Wärmestrahlung die Erdoberfläche erreicht. Für den Treibhauseffekt direkt bedeutsam ist nur der Anteil der Abstrahlung aus niedrigen Höhen, weil nur diese Abstrahlung den Erdboden erreicht, ohne vorher von den Treibhausgasen wieder absorbiert zu werden (siehe nächster Absatz). Dabei ist das „niedrig“ sehr wellenlängenabhängig, denn die Länge, nach der die Strahlung wieder absorbiert wird (Absorptionslänge) ist wellenlängen- und konzentrationsabhängig. Ist die Absorptionslänge größer als die Atmosphärendicke, so ist die Atmosphäre bei diesen Wellenlängen fast durchsichtig. Da die Stärke einer Strahlung von der Temperatur der Quelle abhängig ist, steigt die Strahlstärke, wenn die Absorptionslänge kürzer wird: wegen der Temperaturabnahme mit der Höhe steigt die mittlere Temperatur über der kürzeren Absorptionslänge. Damit kann die atmosphärische Gegenstrahlung in einem Wellenlängenbereich bei zunehmenden Treibhausgasmengen auch dann noch stärker werden, wenn die Atmosphäre in diesem Wellenlängenbereich bereits so gut wie undurchsichtig ist.

Der Temperaturverlauf bis zu einer Höhe von ca. 11 km ist dabei praktisch nur adiabatisch bedingt, die durch die Abstrahlung der Treibhausgase verlorengehende Energie wird durch Konvektion und Strahlungsabsorption ersetzt. Dabei kommt die absorbierte Strahlung von verschiedenen Quellen:

Solarstrahlung (sehr geringer Anteil) Abstrahlung von der Erdoberfläche Abstrahlung aus tieferliegenden Schichten Abstrahlung aus höherliegenden SchichtenDer Anteil an dem Aussenden von langwelliger Wärmestrahlung durch Treibhausgase wie

Kohlenstoffdioxid  (CO2), Methan  (CH4), Lachgas  (N2O)

und anderen Gasen wird trockener Treibhauseffekt genannt. Die Einbeziehung von Wasserdampf führt zum feuchten Treibhauseffekt. Etwa 62 % des Treibhauseffekts werden durch Wasserdampf verursacht, etwa 22 % durch Kohlendioxid.

GG

Temperaturverlauf der Atmosphäre als Funktion der Druckhöhe (Erdoberfläche = 1,013 bar) – die Tropopause wird am besten mit einem Isentropenexponenten von 0,19 angenähert.

Interessant ist der Temperaturverlauf als Funktion der Druckhöhe (an der Erdoberfläche ist der höchste Druck 1,013 bar). Nach oben nimmt der Druck ab, weil die Gasmasse geringer wird. Gleichen Druckänderungen entsprechen gleiche Anzahl von Gasteilchen. In der Troposphäre wird der Temperaturverlauf am besten durch eine Adiabate mit dem Exponenten 0,19 beschrieben. Oberhalb der Troposphäre ist die Gasmasse gering und es liegt kein adiabatischer Verlauf mehr vor. Die Spitze der Realatmosphäre bei niedrigen Drücken wird durch die UV-Absorption des Sauerstoffs (Ozon-Bildung und -Zerfall) verursacht. Durch die Krümmung der Kurve in der Troposphäre ist auch die Existenz der Troposphäre erklärlich: Wäre die Kurve eine Gerade, so wäre im Mittel die von den Treibhausgasen absorbierte Energie gleich der emittierten Energie – wegen der Krümmung und ihrer Art ist aber die emittierte Energie größer als die absorbierte Energie, die Luft wird also gekühlt und sinkt nach unten. Dadurch wird eine Vertikalzirkulation in Gang gesetzt, die nach den Gasgesetzen mit konstantem Wärmeinhalt (der Strahlungsverlust ist klein zum Wärmeinhalt) zum adiabatischen Verlauf führt.

Die Bedeutung des globalen Treibhauseffektes kann man somit auch an den extrem unterschiedlichen Oberflächentemperaturen der Planeten Venus, Erde und Mars erkennen. Diese Temperaturunterschiede hängen nicht nur von der Entfernung zur Sonne ab, sondern vor allem von den (aufgrund verschiedener Ursachen) unterschiedlichen Atmosphären.

6.5 Anthropogener Treibhauseffekt

Der anthropogene Treibhauseffekt ist nicht zu verwechseln mit der ebenfalls vom Menschen verursachten Schädigung der stratosphärischen Ozonschicht, die zum so genanntenOzonloch führt.

6.5.1 Geschwindigkeit

Im Gegensatz zu dem auf geologischen Zeitskalen ablaufenden natürlichen Klimaveränderung läuft der anthropogene Klimawandel, der in erster Linie durch eine Erhöhung der Konzentration von Kohlendioxid verursacht wird, in extrem kurzer Zeit ab. Die Erwärmung im Verlauf von der letzten Eiszeit zur heutigen Warmzeit war eine Erwärmung um etwa ein Grad pro 1000 Jahre.[10] Die Erhöhung der Konzentration aller Treibhausgase in den letzten 100 Jahren führte zu einer Erhöhung der globalen Durchschnittstemperatur um ca. 0,8 K in

HH

den letzten 100 Jahren. Damit hat der Mensch einen Anteil von 2 % amgesamten Treibhauseffekt von 33 °C.

6.5.2 Mechanismus

Netto-Wärmeabstrahlung von der Erde ins All erfolgt nur zu einem kleineren Teil aus bodennahen Atmosphärenschichten, denn in unteren Luftschichten wird Infrarotstrahlung meist von darüber liegenden Luftschichten wieder absorbiert. Sie erfolgt auch nicht in einem eng umgrenzten Gebiet, sondern in einem Bereich, der von bodennahen Gebieten bis in eine Höhe von ca. 15 km reicht und im Mittel aus einer Höhe von 5,5 km.[11] Die Strahlungsgleichgewichtstemperatur der Erde läge ohne Wirkung von Treibhausgasen bei −18 °C. Durch Erhöhung der Treibhausgaskonzentration steigt die Höhe der Luftschicht an, in der eine Temperatur von −18 °C herrscht. Aus Gründen der Thermodynamik sinkt die Temperatur auf der Erde um 6,5 °C/km, wenn man sich nach oben bewegt. Eine Vergrößerung der Treibhausgaskonzentration bewirkt, dass die Schicht, in der die −18 °C Strahlungsgleichgewichtstemperatur herrscht, nach oben wandert. Pro Kilometer Anstieg der Schicht, in der Strahlungsgleichgewicht herrscht, erhöht sich die Temperatur an der Erdoberfläche folglich um 6,5 °C.[12] Entgegen mancher Darstellung in den Medien ist der Treibhauseffekt bei weitem nicht gesättigt.[13][14]

Wie bereits beschrieben, erfolgt die Abstrahlung zu großen Teilen nicht bodennah, sondern in mehreren tausend Metern Höhe. Dort ist es erheblich kälter als in Bodennähe. Der Wasserdampfgehalt von Luft ist stark temperaturabhängig, so dass kalte Luft erheblich weniger von diesem Treibhausgas enthalten kann als warme Luft. Eine Erhöhung der Konzentration von Kohlendioxid wirkt sich stärker aus, als es Messungen auf Meereshöhe vermuten lassen, denn dort, wo die Energieabstrahlung der Erde ins All hauptsächlich stattfindet, befindet sich kaum Wasserdampf. Die Wirkung des Treibhauseffektes durch Änderung der Konzentration von Kohlendioxid würde daher selbst dann zunehmen, wenn auf Meereshöhe keinerlei Absorptionsänderung messbar wäre.[13][15]

Die Wirkung einer Erhöhung der Treibhausgaskonzentration wurde bereits im Jahr 1901 von Nils Ekholm richtig erkannt. Dieser schrieb: „Strahlung von der Erde ins All geht nicht direkt vom Boden dorthin, sondern von einer Schicht, die sich in beträchtlicher Höhe über dem Boden befindet. Diese Schicht liegt umso höher, je stärker die Kraft ist, mit der Luft die vom Boden emittierte Strahlung absorbieren kann. Mit steigender Höhe sinkt jedoch die Temperatur dieser Schicht. Da kältere Luft weniger Wärme abstrahlen kann, erwärmt sich der Boden umso mehr, je höher sich diese abstrahlende Schicht befindet.“[13][14]

II

7 Strahlungshaushalt der ErdeDer Strahlungshaushalt der Erde ist der wichtigste Bestandteil des Energiehaushalts der Erde. Über den Teilbereich der Strahlungsbilanz werden dabei die verschiedenen Haushaltsgrößen in einer Gleichung rechnerisch bilanziert, während sie der Strahlungshaushalt darüber hinaus auch beschreibt und in ihren Wechselbeziehungen darstellt.

7.1 Strahlungsbilanz

Aufgliederung der einstrahlenden Sonnenenergie

Die einfallende Sonnenstrahlung ist (überwiegend) kurzwellig, deshalb wird diese Formel auch als kurzwellige Strahlungsbilanz ( ) bezeichnet:

 = Globalstrahlung  = direkte Strahlung  = diffuse Strahlung (Himmelsstrahlung)  = Reflexstrahlung (Einfluss Ozonschicht etc.)  = AlbedoDie Erdoberfläche emittiert Wärmestrahlung (infrarot). Da diese Strahlung langwellig ist, wird diese Formel auch als langwellige Strahlungsbilanz ( ) bezeichnet:

 = effektive Ausstrahlung  = Ausstrahlung der Erdoberfläche (terrestrische Strahlung)  = Gegenstrahlung (Einfluss von Atmosphärengasen, Aerosolen und Wolken)

JJ

Aus den beiden Formeln für die Strahlungsaufnahme und die Strahlungsabgabe, also für Gewinn und Verlust, lässt sich nun ermitteln, wie viel insgesamt zur Verfügung steht (gesamte Strahlungsbilanz ( ), Nettostrahlung):

einfallende kurzwellige Sonnenstrahlung[1] 342 Watt pro m2

reflektierte Sonnenstrahlung 107 Watt pro m2

emittierte langwellige Strahlung 235 Watt pro m2

SALDO (effektiver "Energie-Input") = ± 0 Watt pro m2

"[...] Im Jahr werden mehr als 4,2 x 1017 kJ freier Energie auf der Welt durch Photosynthese fixiert. Dies entspricht einer Assimilation von 10 Milliarden Tonnen Kohlenstoff in Kohlenhydrate und andere organische Moleküle. [...]"[2]

Photosyntheseleistung 420 Exajoule (EJ) pro Jahr

Weltenergiebedarf 469 EJ pro Jahr

(auf Erde abgestrahlte) Sonnenenergie 3.900.000 EJ pro Jahr

7.2 Strahlungshaushalt

Die zur Erde kommende Sonnenenergie wird durch Wolken, Luft und Boden (hier besonders von Schnee) zu 30 % wieder in den Weltraum reflektiert (das heißt die Albedo der gesamten Erde ist 0,30). Die restlichen 70 % werden absorbiert: rund 20 % von der Atmosphäre, 50 % vom Erdboden. Letztere werden durch Wärmestrahlung und Konvektion wieder an die Lufthülle abgegeben. Würde diese Energie wieder vollständig in den Weltraum abgestrahlt werden, läge die mittlere Lufttemperatur bei −18 °C, während sie tatsächlich +15 °C beträgt.

Die Differenz erklärt sich aus dem natürlichen Treibhauseffekt der Atmosphäre. Die sogenannten Treibhausgase in der erwärmten Atmosphäre (vor allem Wasserdampf und Kohlendioxid) emittieren Infrarotstrahlung – auch in Richtung Erde. Der Nachschub für die abgestrahlte Energie erfolgt durch Konvektion und Absorption (ein Teil der Abstrahlung von der Erdoberfläche im Infraroten wird absorbiert). Die von der Atmosphäre emittierte Infrarotstrahlung führt zu einer Erwärmung der Erdoberfläche um durchschnittlich 33 °C.Diese Zahlen gelten nur für die Erde als Ganzes. Lokal und regional hängen die Verhältnisse von zahlreichen Faktoren ab:

KK

von der Albedo der Erdoberfläche, die vom 30 %-Mittel stark abweichen kann (beispielsweise Schnee 40 bis 90 %, Wüste 20 bis 45 %, Wald 5 bis 20 %)

vom oben erwähnten Einfallswinkel der Sonnenstrahlen und der Dauer ihrer Einwirkung von Bewölkung und Luftfeuchtigkeit vom Wärmetransport durch Wind, von Luftschichtungen usw.Theoretisch sind diese Faktoren weitgehend modellierbar, doch nicht in allen Details wie Staueffekten an Gebirgen oder unregelmäßiger Bewegung von Tiefdruckgebieten. Für gute Vorhersagen benötigt die Meteorologie außer enormer Rechenleistung auch ein weltweit dichtes Raster von Messdaten über alle Luftschichten, was in der Praxis an Grenzen stößt.

LL