288
Nguyen Xuan Thinh Martin Behnisch, Otti Margraf (Hrsg.) Beiträge zur Theorie und quantitativen Methodik in der Geographie IÖR Schriften Band 57 · 2011

57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Embed Size (px)

Citation preview

Page 1: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh

Martin Behnisch, Otti Margraf (Hrsg.)

Beiträge zur Theorie und quantitativen Methodik in der Geographie

Thin

h, B

ehni

sch,

Mar

graf

(H

rsg.

) · T

heor

ie u

nd q

uant

itat

ive

Met

hodi

k in

der

Geo

grap

hie

ISBN 978-3-941216-67-9

IÖR

Sch

rifte

n Ba

nd 5

7

Im Spannungsfeld der Notwendigkeit, komplexe geographische Fragestellungen an-zugehen und die Forschung wissenschaftstheoretisch auf mathematischer Grundlage zu fundieren, gewinnen in jüngster Zeit quantitative Methoden wieder zunehmend an Bedeutung. Die vorliegende Publikation dokumentiert den fortgeschrittenen Stand als auch das breite Spektrum der Entwicklung und Anwendung quantitativer Metho-den in der Geographie sowie ihre theoretische Einbindung. Zugleich zeigt sie auf, welche Chancen und Herausforderungen für die quantitative Methodik bestehen.

Die einzelnen Beiträge fokussieren dabei auf Theorie, räumliche Taxonomie, multi-kriterielle Raumbewertung, quantitative Klima- und Energieanalyse, Analyse räum-licher Strukturen und Prozesse, Multi-Agenten-Modellierung und Simulation sowie räumliche Optimierung. Die Anwendungsbereiche der Methoden sind vielfältig und reichen von der Planung über Sozial- und physische Geographie bis hin zu Wirt-schaftsgeographie und Demographie.

Geoinformationssysteme und deren Funktionalitäten werden selbstverständlich dort eingesetzt, wo sie Vorteile bringen. Aus methodischer Perspektive nähern sich die Beiträge den durch eine hohe Komplexität und Kompliziertheit gekennzeichneten Sachverhalten und Fragestellungen. Dies bedeutet einerseits möglichst viele Größen (multikriterielle Bewertungen, multitemporale Ansätze, Weiterentwicklung der multi-variaten Statistik) in die Untersuchung mit einzubeziehen. Andererseits werden quali-tative Ansätze und Untersuchungen stärker durch quantitative Ansätze untermauert, wie durch die Klassifizierung relationaler Daten oder die Einbeziehung qualitativer Informationen in die Simulation.

IÖR Schriften Band 57 · 2011

57

Page 2: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 3: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

IÖR Schriften

Herausgegeben vom Leibniz-Institut für ökologische Raumentwicklung

RHOMBOS-VERLAG BERLIN

Page 4: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bibliografische Information der Deutschen Nationalbibliothek

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar

Impressum

Herausgeber

Leibniz-Institut für ökologische Raumentwicklung e. V. (IÖR)Direktor: Prof. Dr. Dr. h. c. Bernhard MüllerWeberplatz 101217 Dresden Tel.: (0351) 4679-0Fax: (0351) 4679-212E-Mail: [email protected] Homepage: http://www.ioer.de

Verlag

RHOMBOS-VERLAGKurfürstenstraße 1710785 BerlinE-Mail: [email protected]: http://www.rhombos.deVK-Nr. 13597

Druck: dbusiness.de GmbH, Berlin

Printed in Germany

© 2011 RHOMBOS-VERLAG, Berlin

Alle Rechte vorbehalten.Nachdruck, auch auszugsweise, verboten.Kein Teil dieses Werkes darf außerhalb der engen Grenzen des Urheberrechtsgesetzes ohne schriftliche Einwilligung des Verlages in irgendeiner Form (Fotokopie, Mikrofilm oder ein anderes Verfahren) reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.

Titelbild: Geoinformationen (Kartenausschnitt): Corine Land Cover 2006, © Umweltbundesamt und Deutsches Zentrum für Luft- und Raumfahrt; Bearbeitung: Ulrich Schumacher (IÖR)Satz/DTP: Natalija Leutert, Margitta Wahl

ISBN: 978-3-941216-67-9

Page 5: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

IÖR Schriften Band 57 · 2011

Nguyen Xuan Thinh

Martin Behnisch, Otti Margraf (Hrsg.)

Beiträge zur Theorie und quantitativen Methodik in der Geographie

Page 6: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 7: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vorwort

Im Spannungsfeld der Notwendigkeit, komplexe geographische Fragestellungen an-zugehen und die Forschung wissenschaftstheoretisch auf mathematischer Grundlage zu fundieren, gewinnen quantitative Methoden wieder zunehmend an Bedeutung. Zur Beleuchtung des Entwicklungsstandes quantitativer Methoden in der Geographie tra-fen sich Ende Februar 2010 etwa 70 Wissenschaftler aus Deutschland, Österreich und der Schweiz im Leibniz-Institut für ökologische Raumentwicklung zum 18. Deutsch-sprachigen Kolloquium für Theorie und Quantitative Methoden in der Geographie. Die große Resonanz – sowohl hinsichtlich der eingereichten Beiträge als auch der aktiven Teilnehmer – spricht für die aktuelle Bedeutung der Thematik, und führte dazu, dass die Vortragsveranstaltungen zum ersten Mal bereits Donnerstagnachmittag mit dem Hauptvortrag und einer Theorie-Sitzung begannen. Mit der Herausbildung der „The-oretischen und Quantitativen Geographie“ als eine Teildisziplin der Geographie in den 1960er – 1970er Jahren, befördert der deutschsprachige Arbeitskreis für „Theorie und Quantitative Methoden in der Geographie“, bereits seit 1974 mit der Tagung in Gießen und der internationalen Tagung 1978 in Straßbourg auf nationaler und internationaler Ebene den Einsatz quantitativer Methoden in der Geographie,

Im Hauptvortrag referierte Ralf Bill (Universität Rostock) über die rasante Entwicklung der Internet-GIS-Technologien und Geodateninfrastrukturen, woraus vielfältige neue Chancen und zugleich große Herausforderungen für die quantitative Methodik resultie-ren und ein Paradigmenwechsel bevorsteht. Zukünftig werden Verfahren, Modelle und Daten zunehmend als Services im Netz bereitgestellt.

Die einzelnen Beiträge widerspiegelten sowohl den fortgeschrittenen Stand als auch das breite Spektrum der Entwicklung und Anwendung quantitativer Methoden in der Geo-graphie sowie ihre theoretische Einbindung. In acht Sitzungen zu den Themenkreisen Theorie, Räumliche Taxonomie, Multikriterielle Raumbewertung, Quantitative Klima- und Energieanalyse, Analyse räumlicher Strukturen und Prozesse, Multi-Agenten-Mo-dellierung und Simulation sowie Räumliche Optimierung wurden insgesamt 20 Vorträge in einer anregenden wissenschaftlichen Atmosphäre mit zum Teil Workshop-Charakter gehalten und diskutiert. Mit der Vorstellung mehrerer Qualifikationsarbeiten (Diplomar-beiten und Promotionsthemen) des wissenschaftlichen Nachwuchses konnte eine gute Tradition des Kolloquiums fortgesetzt werden.

Der Ansatz der Quantitativen Geographie hat offenbar ein zweites Reifestadium (nach Thomas Kuhn) erreicht. Das kann man durch die Vielfalt der in den vorgestellten Arbei-ten angewandten Methoden und Modelle, die noch dazu ohne Scheu kombiniert und sich sehr gut ergänzend benutzt werden, eindrucksvoll belegen. Die Anwendungsberei-che der Methoden sind vielfältig und reichen von der Planung über sozial- und physi-

Page 8: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

sche Geographie bis hin zu Wirtschaftsgeographie und Demographie. Geoinformations-systeme und deren Funktionalitäten werden ganz selbstverständlich dort eingesetzt, wo sie Vorteile bringen.

Ein einheitlicher Trend bei der Entwicklung oder dem Einsatz von Verfahren und Model-len ist aus den angebotenen Beiträgen wegen der methodischen Vielfalt und der unter-schiedlichen inhaltlichen Ansätze nur schwer abzulesen. Es ist höchstens konstatierbar, dass man wieder stärker versucht, sich den durch eine hohe Komplexität und Kompli-ziertheit gekennzeichneten Sachverhalten und Fragestellungen methodisch zu nähern. Dies bedeutet einerseits möglichst viele Größen (multikriterielle Bewertungen, multitem-porale Ansätze, Weiterentwicklung der multivariaten Statistik) in die Untersuchung mit einzubeziehen. Andererseits werden qualitative Ansätze und Untersuchungen stärker durch quantitative Ansätze untermauert, wie durch die Klassifizierung relationaler Da-ten, die Einbeziehung qualitativer Informationen in die Simulation, oder siehe „climate twins“ qualitative Parallelen datenmäßig zu belegen.

Der vorliegende Band umfasst 16 Aufsätze zu den erwähnten acht Sitzungen. Die feh-lenden vier Beiträge liegen entweder zur Drucklegung des Bandes nicht vor oder Auto-ren haben ihren Verzicht auf die Publikation erklärt. Unter dem Titel „Humboldt’s Netz“ erläuterte Klaus D. Aurada (Universität Greifswald) theoretische Aspekte zur Modellie-rung von Erdoberflächenprozessen als co-operierende Geosysteme und demonstrierte die Quantifizierung und Simulation raum-zeitlicher Veränderungen mit dem Ansatz zel-lularer Geosysteme. Es folgen drei Beiträge zur räumlichen Taxonomie. Andreas Koch (Universität Salzburg) diskutiert die soziale Segregation aus der Modellierungs- und Si-mulationsperspektive und setzt bei der Empirie Faktoren- und Clusteranalysen ein. Mar-tin Behnisch (ETH Zürich, inzwischen IÖR Dresden) und Alfred Ultsch (Philipps-Univer-sität Marburg) legen eine raum-zeitliche Klassifikationsanalyse über 15 Dekaden für die Bevölkerungsentwicklung in den Schweizer Gemeinden vor. Marco Helbich (Universität Heidelberg) und Wolfgang A. Brunnauer (IRG Wien) stellen einen datengetriebenen Ansatz zur Generierung homogener Regionen auf Basis eines Immobilienpreismodells für Einfamilienhäuser in Österreich dar.

Anschließend wurden drei Beiträge zur multikriteriellen Raumbewertung vorgestellt. Nguyen Xuan Thinh (IÖR Dresden, inzwischen TU Dortmund) und Ulrich Schuma-cher (IÖR Dresden) schlagen einen Ansatz zur Bewertung der Ressourceneffizienz von Siedlungsstrukturen vor, der sich auf Methoden der Geoinformatik und Statistik stützt. Empirische Untersuchungen für die Landkreise und kreisfreien Städte in Deutschland erhärten die These, dass kompakte Siedlungsstrukturen mit hoher Nutzungsmischung die Ressourceneffizienz positiv beeinflussen. Rico Vogel (IÖR Dresden) behandelt die Sensitivität der multikriteriellen Bewertung des Raumwiderstandes mit der Methode Compromise Programming am Beispiel der Elbauenflächen. Bewertet wird die Eignung

Page 9: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

von Standorten für den Retentionszweck. Ralf Hedel (Humboldt Universität zu Berlin) hat Strategien zur Förderung des Schienengüterverkehrs in einem bedeutsamen euro-päischen Korridor (von Skandinavien über Österreich bis nach Südosteuropa) bewertet und dazu das Verfahren ELECTRE III programmiert und angewendet.

Drei Beiträge widmen sich der quantitativen Klima- und Energieanalyse. Der Beitrag von Werner Kirstein (Universität Leipzig) zu Statistischen Methoden in der Klimageogra-phie wurde im Rahmen der Veranstaltung bereits kontrovers diskutiert. Die formulierten Sichtweisen des Autors entsprechen zum Teil nicht der Meinung der Herausgeber. Die schriftliche Fassung bietet nun in jedem Fall zahlreiche Anknüpfungspunkte für eine kritische Auseinandersetzung und spornt zum wissenschaftlichen Nachdenken an. Jan Peters-Anders et al. (Österreichisches Forschungszentrum Seibersdorf) beschreiben das Wissenschaftskonzept Climate Twins. Es analysiert klimatische Ähnlichkeiten und iden-tifiziert Regionen mit vergleichbaren klimatischen Charakteristika zum Zweck der Über-tragung und Prognose. Antje Katschner und Sebastian Kupski stellen Klimafunktionskar-ten vor, die sich dazu eignen, vulnerable Nutzergruppen räumlich zu lokalisieren.

Im Themenfeld der Analyse räumlicher Strukturen und Prozesse stellt Hendrik Herold gemeinsam mit seinen Kollegen Robert Hecht und Gotthard Meinel (IÖR Dresden) die Entwicklung von Verfahren zur automatisierten Detektion urbaner Veränderungen auf Basis multitemporaler topographischer Kartenserien vor. Es folgt der Beitrag von Ralf-Uwe Syrbe (IÖR Dresden) und Falk Ullrich (Sächsisches Landesamt für Umwelt, Land-wirtschaft und Geologie), der sich mit dem Landschaftswandel basierend auf digitalisier-ten historischen Karten am Beispiel des TK25-Blattes Plauen befasst und mit Hilfe von Strukturmaßen analysiert.

Christian Neff und Jürgen Rauh (Universität Würzburg) stellen sich der Herausforderung Optimierungspotenziale des slowenischen Warentransportes mithilfe von Multi-Agen-ten-Simulationen aufzuzeigen. Florian Harder und Jürgen Rauh (Universität Würzburg) belegen anhand des Untersuchungsraumes Würzburg eindrücklich, dass mit Hilfe der Erstellung einer Multi-Agenten-Simulationen die Wirkungsanalyse von Straßenbenut-zungsgebühren realisiert und für die Verkehrsplanung und Verkehrspolitik genutzt wer-den kann. Tilman Schenk (Universität Leipzig) widmet sich der Problematik Agentenmo-delle basierend auf qualitativem empirischen Materials zu erstellen.

Frauke Seidel (TU Dresden) behandelt eine räumliche Optimierungsaufgabe. Sie fokus-siert dabei auf Discrete Choice-Modelle und nutzt diese zur Modellierung der Schulwahl im Stadtgebiet von Dresden.

Das 18. Deutschsprachige Kolloquium für Theorie und Quantitative Methoden in der Geographie und die Beitragssammlung bestätigen das Abschlussresümee der Sprecher des Arbeitskreises (Otti Margraf, Leipzig und Peter Mandl, Klagenfurt), dass in den letz-

Page 10: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

ten Jahren nach einer Zeit der Stagnation ein deutlicher Aufschwung bei der Entwick-lung, Implementierung und Anwendung quantitativer Methoden in der Geographie festzustellen ist. Dies hängt zweifellos mit der Etablierung der GIS-Technologie zusam-men. Möge dieser Aufschwung in den folgenden Jahren anhalten. Man darf gespannt sein, ob die kommenden Kolloquien diesen positiven Trend bestätigen können.

Nguyen Xuan Thinh

Martin Behnisch

Otti Margraf

Page 11: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Inhaltsverzeichnis

„HUMBOLDT´s Netz“ Klaus D. Aurada ..........................................................................................................1

Soziale Segregation aus der Modellierungs- und Simulationsperspektive Andreas Koch ............................................................................................................25

Gibt es gemeinsame Muster in der Populationsentwicklung von Schweizer Gemeinden? Martin Behnisch, Alfred Ultsch ..................................................................................37

Definition von homogenen hedonischen Preisregionen für Österreich mittels SKATER-Algorithmus Marco Helbich, Wolfgang A. Brunauer ......................................................................55

Bewertung der Ressourceneffizienz von Siedlungsstrukturen mit Methoden der Geoinformatik und Statistik Nguyen Xuan Thinh, Ulrich Schumacher ...................................................................67

Sensitivität des Raumwiderstandes von Elbauenflächen gegenüber der Parametrisierung von Indikatoren Rico Vogel .................................................................................................................85

Multikriterielle Bewertung von Strategien zur Förderung des europäischen Schienengüterverkehrs Ralf Hedel .................................................................................................................99

Statistische Methoden in der Klimageographie Werner Kirstein .......................................................................................................109

Climate Twins – eine Applikation zur Suche von Regionen, deren heutiges Klima dem zukünftigen Klima eines Point of Interest entspricht Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger..............................117

Möglichkeiten mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren Antje Katzschner, Sebastian Kupski .........................................................................129

Hochauflösende Modellierung urbaner Veränderungsprozesse auf Basis multitemporaler topographischer Kartenserien Hendrik Herold, Robert Hecht, Gotthard Meinel .....................................................139

Untersuchungen des Landschaftswandels anhand von Landschaftsstrukturmaßen mittels digitalisierter historischer Karten am Beispiel des TK25-Blattes Plauen Ralf-Uwe Syrbe, Falk Ullrich ...................................................................................151

Page 12: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme mit einem Multiagentenmodell Christian Neff, Jürgen Rauh .....................................................................................181

Mit Agenten Straßenmaut modellieren Florian Harder, Jürgen Rauh ....................................................................................209

Vom qualitativen Material zur Simulation Tilman A. Schenk ....................................................................................................241

Modellierung der Schulwahl im Stadtgebiet von Dresden anhand von Discrete Choice-Modellen Frauke Seidel............... ............................................................................................255

Autorenverzeichnis ..................................................................................................269

Page 13: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 1

„HUMBOLDT´s Netz“

Klaus D. Aurada

Einführung

Die Systemtheorie, als „Laws of organization and organizational forces...“ (Bertalanffy 1968), definiert ein System sowohl als Menge von Elementen und den Wechselbezie-hungen zwischen diesen Elementen als auch eine Ordnung bzw. Organisiertheit dieser Elemente. Mit dem „Wandel als Veränderung in Raum und Zeit“ und der „Wechsel-wirkung räumlich und zeitlich benachbarter Veränderungen“ (Ashby 1903-1972), die Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-da 1982) sind. Sie lassen sich – bisher in der Geographie unbeachtet geblieben – jedoch bereits 1860 (somit genau vor 150 Jahren) in W. C. Wittwers (1822-1908) zeitgenössi-scher Interpretation des Humboldtschen „Kosmos“ nachweisen.

1 System (Modell)

1.1 „HUMBOLDT´s Netz“

„HUMBOLDT´s Netz“ kann als implizite (metaphorische) Vorwegnahme eines Systems mit Raum-/Zeit-Struktur (zellulares System, zellulärer Automat) aufgefasst werden: „Al-les in der Natur wirkt nach den ihm gegebenen Gesetzen gleich zeitig durcheinander und die verschiedenen Naturerscheinungen bieten nicht das Bild einer Kette, sondern eines Netzes, in dem jede Masche nicht allein mit der vorausgehenden und der nachfol-genden, sondern auch mit den seitlich stehenden verbunden und von ihnen abhängig ist“ (Wittwer 1861, 430; Hervorhebung im Original); im Gesamtwerk Humboldts kann jedoch weder dieses noch ein sinngemäßes Zitat nachgewiesen werden. Inhaltliche An-knüpfungen finden sich später bei Lucerna (1931: „…Fazettensysteme, das sind gleich-zeitig gebildete Fazetten glei cher Art, bilden, in mehrfachen Arten aus verschiedener Zeit zu einer Landschaft zusammentretend, das Flächenmosaik“; a. a. O., 1) und Mar-kus (1936: „Es ist nicht nur ein räumliches Nebeneinander, sondern auch ein zeitliches

Nacheinander faßbar...“; a. a. O., 78, 79; Hervorhebungen im Original).

1.2 Zellulares System und zellulärer Automat

Die Begriffe „Landschaft“ (Neef 1967, Schmithüsen 1976, Herz 1994) bzw. „Erdober-flächensysteme“ (Huggett 1985) kennzeichnen einen Ausschnitt der Erdoberfläche sowohl als strukturell differenziertes Ergebnis seiner bisherigen Entwicklung (als evol-

Page 14: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada2

vierendes Geosystem) als auch als prozesstragenden (funktionellen) Zustandsraum mit einer bestimmten strukturellen (konstitutionellen) Disposition (als respondierendes Geo-system); seine heterogene Strukturierung entspricht seiner heterochronen Entwicklung (Aurada 2003). Die (naturwissenschaftliche) Geographie untersucht sich in Raum und Zeit entwickeln de und verändernde Objekte mit konservativer (persistenter) zellularer Struktur. Sie befinden sich zu einem konkreten Zeitpunkt ihrer Entwicklung in einem be-stimmten Zustand einer von der bisherigen Entwicklung abhängigen begrenzten Menge (jeweils wahrscheinlicherer) alternativ realisierter Zustände.

Abb. 1: Entwicklung und Ausgestaltung des Systemkonzepts in den Geowissenschaften (Quelle: Eigene Erarbeitung)

Page 15: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 3

2 Systemtheoretisches Kalkül

Die Erweiterung der funktionalen Betrachtungsweise der Systemtheorie (Wunsch 1977, 1985) durch den Übergang von Systemen ohne Raumstruktur zu Systemen mit (kon-signativer) Raumstruktur wurde durch das Postulat eines zellularen Geosystems mit konservativ-persistenter Struktur (Aurada 1982) begleitet, dessen heterogene und hete-rochrone Eigenschaften Ergebnis von Selbstorganisation und Selbstregulation sind.

Abb. 2: Bilanz-, Übergangs- und Transformations-Gleichung (Quelle: Eigene Erarbeitung)

Bilanz-Gleichung Übergangs-Gleichung Transformations-Gleichung

iei Eingangsgröße Fio Ausgangszustand ~ Sr (T) variierende Raum-Antwort iai Ausgangsgröße Fij Zahl der Übergänge i → j → Sr (T) tendenzielle Raum-Anworti+j Quellenstrom Fji Zahl der Übergänge j → i ~ Tr (t) variierende Zeit-Anwort

i-j Senkenstrom Foi Endzustand → Tr (t) tendenzielle Zeit-Anwort

j Bilanzraum j i Kompartimente Φ Systemoperator

Wegen der Übereinstimmung von Strukturdifferenzierung und Prozessbilanzierung als Voraussetzung der Anwendung der Bilanzgleichung ist die maßstabsabhängige Ablei-tung eines Kompartiments erforderlich, in dem nicht nur Ein- und Ausgangsgrößen und Zustandsgrößen zeitlich und räumlich diskretisiert zu definieren sind, sondern auch die Zeitdauer einer Reaktion berücksichtigt werden kann (vgl. Abb. 2 und 3).

Die die Kompartimente differenzierenden und limitierenden Diskontinuitäten können als Bereiche aufgefasst werden, in denen eine spezifische Werteverteilung von einer ande-ren spezifi schen Werteverteilung abgelöst wird (Herz 1994). Dabei kann – maßstabs-abhängig – sowohl das „Flächen-Zeit-Konzept“ (R³ als zeitdiskretisiertes 2D-Modell) als auch das „Volumen-Zeit-Konzept“ (R4 als zeitdiskretisiertes 3D-Modell) zu Grunde gelegt werden. Sie ermöglichen die mathematische Beschreibbarkeit von zweidimen-sionalen Flächenfluktuationen (als Variabilität von Flächenexpansion +A dt-1 und Flä-chenkontraktion -A dt-1 in m²...km² ∆t-1) bzw. dreidimensionalen Volumenpulsationen (als Variabilität von Volumenexpansion +V dt-1 oder Volumenkontraktion -V dt-1 in m³...km³ ∆t-1).

Page 16: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada4

Abb. 3: Ableitung des Bilanzraumes im Zustandsraum Ω im Rahmen des Internationalen Einhei-tensystems (Quelle: Eigene Erarbeitung)

Die räumliche und zeitliche Variabilität von Diskontinuitäten als dynamische Variante kann – schon bei Markus (1936) angedeutet – durch eine wahrscheinlichkeitstheoreti-sche Interpretation des in der Geowissenschaften üblichen Isolinienbe griffs variabler Größen veranschaulicht werden; der Verlauf der Isolinie markiert den häufigsten Wert von in der Zeit und im Raum variierenden Variablen. Sie können damit auch als Linien gleicher Eintrittswahrscheinlichkeit (Dichtefunktion einer Normalverteilung) der räumli-chen Abbildung von Prozessvariablen aufgefasst werden („Iso-Akziden“), da im Wahr-scheinlichkeitsbegriff der Zeitbegriff involviert ist (Gloy 1995, 260). Räumlich einmal manifestierte Strukturen, die ebenfalls durch Isolinien gekennzeichnet werden können (wie Isopachen), schließen eine Eintrittswahrscheinlichkeit aus, weil sie sich in der Zeit nicht wiederholen können; „Ein unwahrscheinlicherer Zustand geht mit der Zeit in einen wahrscheinlicheren über“, so Dürr (1999, 32).

Die dadurch nahe liegende Definition von „Übergangszonen“ dokumen tiert nicht nur die Nähe zu Abgrenzungskriterien der Geographie („Grenze“ als „Grenzsaum“), son-dern zeigt durch einen „Unschärfesaum“ auch die Nähe zur Fuzzy-Logik (vgl. Abb. 4).

Der „…Kausalitätsbegriff der Sy stemtheorie besteht im Grundsätzlichen in der mathe-matischen Prä zisierung des Prinzips, daß das gegenwärtige Geschehen, der Wan del einer betrachteten Erscheinung y bis zu einem gewissen Grade von der Vergangenheit (erfasst durch den Zustand) und den gegen wärtigen Umweltveränderungen x abhängt, nicht aber von zukünfti gen Veränderungen“ (Wunsch 1985, 160); auch in „HUMBOLDT´s Netz“ ist dieser Kausalitätsbegriff erkennbar.

Page 17: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 5

Abb. 4: Vergleich des Aussagekalküls der Boolschen und Fuzzy Logik (Quelle: Rase 1998, 8)

In den Geowissenschaften ist davon auszugehen, dass sich spontane Strukturbildungen der Vergangenheit in unterschiedlicher Zeitskalierung in einer Persistenz konservativer struktureller Diversität der Gegenwart in unterschiedlicher Raumskalierung widerspie-geln. Daraus folgt aber auch, dass persistente Strukturen eine konkrete Existenz in einem durch kartesische Koordinaten zu beschreibenden geographischen Raum voraussetzen, der durch Lage- und Nachbarschaftsbeziehungen zwei- oder/und dreidimensional zu kennzeichnen ist.

Nur unter der Voraussetzung dieser persistenten Strukturen können in den Geowis-senschaften räumliche Strukturen aus bisherigen Prozessabläufen rekonstruiert (Tr/Sr -Abb.) und (invers) gegenwärtige und zukünftige Prozessabläufe aus räumlichen Struk-turen abgeleitet werden (Sr/Tr-Abbildung) (Schmithüsen 1976). Das Geosystem-Kon-zept schließt das Ökosystem-Konzept als funktionell orientierten aber nicht notwendig räumlich manifestierten speziellen Fall ein (Preobrazhenskij 1977); es wird für das zellu-lare Geosystem als Erweiterung der konsignativ-isotropen Struktur des zellulären Auto-maten eine anisotrop-konservative Struktur postuliert (vgl. Abb. 5).

Abb. 5: Zellulärer Automat mit isotrop-konsignativer Struktur und zellulares (Geo-) System mit anisotrop-konservativer Struktur (Beispiel: Gewässer-Einzugsgebiet) (Quelle: Eigene Erarbeitung)

Da zellulare Geosysteme vor diesem Hintergrund als räumliche Abbildung in der Zeit variierender Prozesse aufgefasst werden können, kann ihre Raum-Zeit- bzw. (rekursi-

Page 18: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada6

ve) Zeit-Raum-Transformation modifiziert werden: evolvierende Systeme weisen eine räumlich-zonale Drift von Diskontinuitäten auf, respondierende Systeme können durch die räumlich-zonale Variation von Wahrscheinlichkeitsverteilungen (Mittelwert, Streu-ung, Schiefe) von Diskontinuitäten abgebildet werden (vgl. Abb. 6):

Abb. 6: Räumlich-zonale Drift und räumlich-zonale Variation von Diskontinuitäten der Bilanz-Räume (Quelle: Eigene Erarbeitung)

Das systemtheoretische Kalkül (Aurada 1982) setzt mit der Lösung von Analyse-, Identi-fikations- und Synthese-Aufgaben (Abb. 7) einen zugehörigen Bilanzraum voraus.

Abb. 7: Systemtheoretisches Kalkül (Systemanalyse, Systemidentifikation, Systemsynthese)(Quelle: Aurada 1982)

Da die Lösung dieser Aufgaben immer einen definierten Bilanzraum bzw. Bilanzräume voraussetzt, muss nicht nur nach einer Übereinstimmung von deterministischen oder stochastischen Ein- und Ausgangsgrößen sowie Zustandsgrößen (Reaktionszeit bzw. Dauer) gesucht werden, sondern auch die Variabilität des Bilanzraumes unter unter-

Page 19: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 7

schiedlichen Gleichgewichtsbedingungen berücksichtigt werden; es existiert ein Zu-sammenhang zwischen zu wählendem (gegebenenfalls auch aufgenötigten) Zeit- und Raum-Maßstab (vgl. Abb. 8).

Abb. 8: Deterministische und stochastische Signale und Systeme sowie Modellableitungen (Quelle: Wernstedt 1989, 153 [oben] und Robrecht et al. 2007, 23 [unten])

Damit ergeben sich Möglichkeiten sowohl von non-real-time- (Simulationen und Szena-rien) als auch real-time-Lösungen (Vorhersagen und Steuerungen) (vgl. Abb. 9).

Page 20: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada8

Abb. 9: Bilanzräume mit konzentrierten oder verteilten Parametern und resultierende n-r-t-Szenarien- und Simulations- bzw. r-t-Vorhersage- und Steuerungs-Techniken

3 Kooperative Geosysteme

Die „Systemtheorie der Technik“ (Ropohl 1999) beschreibt als „so ziotechnisches Sys-tem“ die Beziehungen zwischen einem menschlichen, hierarchisch aufgebauten Hand-lungssystem und einem gegenständli chen Sachsystem gesellschaftlicher Herkunft der „...vom Menschen künstlich hergestellten und planmäßig nutzbaren gegenständlichen Gebilde“ (a. a. O., 104 ff.). Neben die „historical (configurational) nature of lands-capes“ (Kerr 1997, 267), tritt damit die „timescape“ als Analogon zur „landscape“ und Synonym für ineinander evolvierende Zeiten von Natur und Kultur (Adam 1998). Tech-nische Infrastruktursysteme können dabei nicht als räumlich neutral angesehen werden, sondern weisen neben einer physischen und sozialräumlichen auch eine historische Di-mension auf; die Funktionsfähigkeit des technischen Systems ist von der Verfügbarkeit des natürlichen Systems abhängig (Aurada 1979, Hughes 1987).

Das soziotechnische System bildet – aus naturwissenschaftlicher Sicht – soweit den Rah-men eines physiogen-anthropogenen Geosystems, als es konstitutionell (raumordnend) und funktionell (prozessbewirtschaftend) dieses System durch technische Sach- und Handlungssysteme (Ropohl 1999) gestaltet, nutzt und verändert (vgl. die veranschauli-chenden Übersichten der Abb. 12 bis 19).

In ihrer historischen Abfolge, zunächst durch eine konvergent- und später divergent-naturraumnutzende Kolonisierung bzw. naturraumverändernde Implementierung, re-präsentieren sie im Rahmen soziotechnischer Systeme als „co-evolvierende + co-res-pondierende Systeme = co-operierende Systeme“ (Aurada 2003) (vgl. Abb. 10):

Page 21: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 9

Abb. 10: Konvergierende und divergierende Kolonisierung sowie Implementierung (verändert nach Aurada 2008, 75)

Page 22: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada10

Beispielsprojekt Fläche [km²] Zeitraum Diskretisierung ModelltechnikenOstseeraumDeglaziation 2 136 500 20000-8500 BP 10³ Jahre n-r-t-Simulation Holozän-Entwicklung 2 136 500 8500-0 BP 10³ Jahre n-r-t-SimulationTiefenwasserkörper 420 000 1969-1999 3 Monate n-r-t-SimulationTalsperrenbau 1 740 000 1921-1990 Monate r-t- SzenariumDeutschland 353 300 1851-2000 Monate r-t- SzenariumMansfelder Revier 165 1879-1968 Monate n-r-t-VorhersageWerra-Kalirevier 340 1949-2000 Monate r-t- SzenariumSüdharz-Kalirevier 525 1963-2000 Monate r-t- Szenarium

(21 Ereignisse) 3 h-Intervalle r-t- VorhersageSaale-Gebiet 12 080 1963/76-1998 6 h-Intervalle r-t- Steuerung

Abb. 11: Geo-Skalenbereiche und Modellmodalitäten der Beispielsprojekte der Abb. 12 bis 19 (Die Beispielsprojekte sind ausführlich in Aurada 2008 dokumentiert)

Page 23: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 11

3.1 Selbstorganisation und Selbstregulation

3.1.1 Selbstorganisation (Raum-Zeit-Abbildung im Ostseeraum)

Abb. 12: Selbstorganisationsprozesse und -strukturen im Ostseeraum (Quelle: Aurada 1988 und 1997; Forstreuter 1990; Mehnert 1996)

Page 24: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada12

3.1.2 Selbstregulation (Zeit-Raum-Abbildung im Ostseeraum)

Abb. 13: Selbstregulationsprozesse und -strukturen im Ostseeraum (Quelle: Aurada 1988 und 1997; Unverzagt 2001; Hoffmann 2004)

Page 25: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 13

3.2 Organisation und Regulation (Beispiel Talsperrenbau)

3.2.1 Talsperrenbau im Ostsee-Einzugsgebiet

Abb. 14: Organisation und Regulation (Talsperrenbau im Ostseeraum) (Quelle: Aurada 1988 und 1997; Sdanawitschus 1998; Spade 1999; Rödel 2001)

Page 26: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada14

3.2.2 Talsperrenbau in Deutschland

Abb. 15: Organisation und Regulation (Talsperrenbau in Deutschland (1851-2000) (Quelle: Aurada 1999; Franke 2001; Wolff 2006; Müller-Westermeier 2006)

Regulierungsfaktor RV [%] Regulierungsfaktor RG [%] D (stab.) + TS-Vol. [80 %]/D (stab.) Darg. (var.) – TS-Vol. [20 %]/D (var.)

Page 27: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 15

3.3 Simulation und Szenarien (non-real-time-Techniken)

3.3.1 Flutungs-Simulation des Kupferbergbaus in der Mansfelder Mulde

Abb. 16: n-r-t-Vorhersage (Monte-Carlo-Simulation) des Flutungsprozesses des 1970 aufgelas-senen Kupferschieferbergbaus in der Mansfelder Mulde (Quelle: Aurada 1979 und 1992; Dyck, Schramm 1968)

Page 28: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada16

3.3.2 Versenkrücklauf-Szenarien im Werra-Kalirevier/Werra-Gebiet

Abb. 17: r-t-Szenarium/r-t-Steuerung der Versenkrückläufe im Werra-Kalirevier (Quelle: Aurada 1992; Walter 2002)

Page 29: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 17

3.4 Vorhersage und Steuerung (real-time-Techniken)

3.4.1 Vorhersage des Salzeintrags im Südharz-Kalirevier/Wipper-Gebiet

Abb. 18: r-t-Szenarium/r-t-Vorhersage des Salzeintrags (CaO-Belastung) im thüringischen Wipper-Gebiet bzw. im Südharz-Kalirevier (Quelle: Aurada 1979 und 1992, ergänzt nach Kun-kel 2001)

Page 30: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada18

3.4.2 Steuerung (Prozessführung) der Salzbelastung im Saale-Gebiet

Abb. 19: r-t-Steuerung der CaO- und Cl-Belastung im Saale-Gebiet (1963/76 bis 1998) (Quelle: Aurada 1979, 1983 und 2003; Aurada, Rödel 2007; Becker 1977; Theile 2001)

4 Zusammenfassung

Ausgehend von systemtheoretisch begründeten Auffassungen zur Selbstorganisation (Genese) und Selbstregulation (Dynamik) natürlicher Geosysteme und zur Organisation (Planung) und Regulation (Bewirtschaftung) durch technische Systeme im Rahmen so-ziogener Systeme lässt sich die Summe jeweils co-evolvierender und co-respondierender Systeme als co-operierendes (kooperatives) System interpretieren:

Page 31: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 19

Abb. 20: Co-evovierende + co-respondierende Systeme = co-operierendes System (Quelle: Aurada 2003)

Als eine Weiterführung des unter Einbeziehung des „HUMBOLDTschen Netzes“ his-torisch vollzogenen Weges der Wissenschaftsgeschichte von den „Ansichten der Na-tur“ (Humboldt 1808) zum „Verständnis der Natur“ (Gloy 1995/96) ergibt sich eine – in diesem Duktus – „Voraussetzung der Natur“: die Minderung des „ökologischen Grundwider spruchs“ (Hörz 1986) kann approximativ nur innerhalb der Selbstorganisa-tions- und Selbstregulationsvermögens natürlicher Systeme und somit als kooperatives System erfolgen, das als Teil eines soziogenen Systems immer auch eine historische Di-mension aufweist. Dieser Hintergrund gestattet eine „Logik und Logistik kooperativer Geosysteme“ (Aurada 2008) abzuleiten.

Page 32: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada20

Abb. 21: Begriff-Matrix zur Kennzeichnung kooperativer Geosysteme (Quelle: Eigene Erstellung)

Page 33: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 21

5 LiteraturAdam, B. (1998): Timescapes of Modernity. The Environment and Invisible Hazards.

Routledge, London, New York, 247 pp.

Aurada, K. D. (1979): Ergebnisse geowissenschaftlich angewandter Systemtheorie (Vor-hersage und Steuerung lang- und kurzfristiger Prozeßabläufe). Petermanns Geogr. Mitt., 123/4, S. 217-224.

Aurada, K. D. (1982): Zur Anwendung des systemtheoretischen Kalküls in der Geogra-phie. Petermanns Geogr. Mitt., 126/4, S. 241-249.

Aurada, K. D. (1983): Physiogenic and anthropogenic controls of global and regional ionic runoff. IAHS-Publ., 41, S. 31-39.

Aurada, K. D. (1988): Raum-Zeit-Phänomene im Ostseeraum. Petermanns Geogr. Mitt., 132/1, S. 1-14.

Aurada, K. D. (1992): Auswirkungen der Salzabwässereinleitungen und -deponien im Südharz- und Werra-Kalirevier auf die hydrochemi schen Verhältnisse der Oberflä-chengewässer. Neue Bergbautechnik, 22/6, S. 203-212.

Aurada, K. D. (1997): Evolvierendes und Respondierendes Geosystem: Ostseeraum. Pe-termanns Geogr. Mitt., 141/5-6, S. 307-321.

Aurada, K. D. (1999): Die Bildungs-, Nutzungs- und Bewirtschaftungsbedingungen des Wasserdargebots in Deutschland. Petermanns Geogr. Mitt. 143/5-6, S. 333-347.

Aurada, K. D. (2003): Co-evolvierende + co-respondierende Systeme = co-operierendes System. Erdkunde, 57/4, S. 309-330.

Aurada, K. D. (2008): Logik und Logistik kooperativer Geosysteme. Olms, Hildesheim, Zürich, New York, 400 S.

Aurada, K. D.; Rödel, R. (2007): Steuerung kooperativer Systeme. Wasserwirtschaft, 97/-2, S. 32-37.

Becker, A. (1977): Prinzipien und Grundlagen der wasserwirtschaftlichen Planung und Prozeßsteuerung in Flußgebieten. Acta Hydrophysica, XXII/ 3-4, S. 117-195.

Bertalanffy, L. v. (1968): General Systems Theory. Braziller, New York, 289 pp.

Dürr, H.-P. (1999): Weltbilder im Umbruch. Wie Quantensprünge das Bild der Welt verändert haben. Kultur und Technik, 2, S. 24-33.

Dyck, S.; Schramm, M. (1968): Stochastische Methoden der Speicherwirtschaft. Mitt. Inst. f. Wasserwirtschaft, Ber lin, 28, 202 S.

Franke, P. (Ed.) (2001): Dams in Germany. Glückauf, Essen, 495 pp.

Forstreuter, S. (1990): Simulation der rezenten Zuflußverhältnisse zur Ostsee und Ab-schätzung paläohydrologischer Veränderungen seit 8800 B. P. im Ostseegebiet. Diss., Univ. Greifswald, 109 S.

Gibbs, R. J. (1970): Mechanisms Controlling World Water Chemistry. Science, 170/ 3962, S. 1088-1090.

Page 34: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Klaus D. Aurada22

Gloy, K. (1995/96): Das Verständnis der Natur. 2 Bde. Beck, München, 354 und 274 S.

Herz, K. (1994): Ein geographischer Landschaftsbegriff. Wiss. Z. Techn. Univ. Dresden, 43/5, S. 82-89.

Hoffmann, T. (2004): Eine Verknüpfung hierarchischer Gewässersysteme mit zellularer Abflusssimulation am Beispiel Ostseeraum. Hall. Jb. Geowiss., Reihe A, 26, S. 111-116.

Hörz, H. (1986): Philosophie und Ökologie. Sitz.-ber. d. AdW d. DDR, Math.-Naturwiss.-Techn., 5N, Berlin, S. 5-24.

Huggett, R. J. (1985): Earth Surface Systems. Springer, Berlin et al., 270 pp. (Springer Series in Physical Environment, 1).

Hughes, T. B. (1987): The Evolution of Large Technical Systems. In: Wiebe, E. B.; Hughes, T. P. (eds.): The Social Construction of Large Technological Systems. MIT Press, Cambridge, Mass., S. 51-82.

Humboldt, A. v. (1808): Ansichten der Natur, mit wissenschaftlichen Erläuterungen. Cotta, Tübingen, 334 S.

Kerr, A. (1997): Approaches to modelling long-term landscape evolution: lessons from ice sheet modelling. Earth Surface Processes and Landforms, 22, S. 267-271.

Kunkel, S. (2001): Auswirkungen der Einstellung der Kaliindustrie im Südharz-Kalirevier auf die hydrochemischen Verhältnisse der thüringischen Wipper. Unveröff. Dipl.-arb., Univ. Greifswald, 50 S.

Lucerna, R. (1931): Fazettierung. Petermanns Geogr. Mitt.: 77/1-2, S. 1-7.

Markus, E. (1936): Geographische Kausalität. Eesti Vabariigi Tartu Ülikooli Tolmetused. Acta et Commentationes Universitatis Tar tuensis (Dorpatensis), A: Mathematica, Physica, Medica, XXX/5, 202 S.

Mehnert, A. (1996): Untersuchungen zur Rekonstruktion des spätweichseleiszeitlichen Deglaziationsprozesses im Ostseeraum. Diss., Univ. Greifswald, 111 S.

Müller-Westermeier, G. (2006): Wetter und Klima in Deutschland. Hirzel, Stuttgart, 4., überarb. Aufl., 174 S.

Neef, E. (1967): Die theoretischen Grundlagen der Landschaftslehre. Haack, Gotha, 152 S.

Preobrazhenskij, V. S. (1977): Formen von Integrationsprozessen in der Geographie. Petermanns Geogr. Mitt., 121/3, S. 175-177.

Rase, W.-D. (1998): Visualisierung von Planungsinformationen. Modellierung und Dar-stellung immaterieller Oberflächen. Bundesamt für Bauwesen und Raumordnung, Forschungen, Bonn, 89, 204 S.

Rödel, R. (2001): Die Auswirkungen des historischen Talsperrenbaus auf die Zuflußver-hältnisse der Ostsee. Greifswalder Geogr. Arb., 18, 118 S.

Robrecht, D.; Lehmann, R.; Schön, K.; Kaul, U. (2007): Vergleich von Modellen und Verfahren zur Abschätzung von Nährstoffeinträgen in Gewässer. Wasserwirtschaft, 97/11, S. 22-26.

Page 35: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

„HUMBOLDT‘s Netz“ 23

Ropohl, G. (1999): Allgemeine Technologie. Eine Systemtheorie der Technik. Hanser, München & Wien, 2. Aufl., 360 S.

Schmithüsen, J. (1976): Allgemeine Geosynergetik. Grundlagen der Landschaftskun-de. Walter de Gruyter, Berlin & New York, 349 S. (Lehrbuch der Allg. Geographie, S. 12).

Sdanawitschus, A. (1998): Tendenzielle Veränderungen des Abflusses in den Teilein-zugsgebieten und im Gesamteinzugsgebiet der Ost see. Unveröff. Dipl.-arb., Univ. Greifswald, 81 S.

Spade, B. (1999): De svenska vattenkraftverken – teknik under hundra år. Riksantikva-rieämbetet, Stockholm, 253 S.

Theile, K. (2001): Gewässergüte der Saale – Vergangenheits- und Zukunftsaspekte. Nova Acta Leopoldina, N. F. 84, 319, S. 117-129.

Thinh, N. X. (2006): Neue Entwicklungen in der zellulären Simulation der Flächennut-zungsdynamik. In: Aurada, K. D.; Rödel, R. (Hrsg.): Kooperation und Integration, Greifswalder Geogr. Arb. 39, S. 63-73.

Unverzagt, S. (2001): Räumliche und zeitliche Veränderungen der Gebiete mit Sau-erstoffmangel und Schwefelwasserstoff im Tiefen wasser der Ostsee. Greifswalder Geogr. Arb., 19, 123 S.

Walter, S. (2002): Auswirkungen der Einstellung der Kaliindustrie im thüringischen Wer-ra-Kalirevier auf die hydrochemischen Verhältnisse der Werra. Unveröff. Dipl.-arb., Univ. Greifswald, 89 S.

Wernstedt, J. (1989): Experimentelle Prozeßanalyse. Verlag Technik, Berlin, 390 S.

Wittwer, W. C. (1861): Alexander von Humboldt, sein wissenschaftliches Leben und Wirken. Weigel, Leipzig, 440 S.

Wolff, H. (2006): Effekte der Organisation und Regulation durch den Talsperrenbau und die Talsperrenbewirtschaftung. Unveröff. Dipl.-arb., Univ. Greifswald, 135 S.

Wunsch, G. (1977): Zellulare Systeme. Akademie-Verlag, Berlin, 150 S. (WTB, 194)

Wunsch, G. (1985): Geschichte der Systemtheorie. Akademie-Verlag, Berlin, 205 S. (WTB, 296).

Page 36: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 37: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 25

Soziale Segregation aus der Modellierungs- und Simulationsperspektive

Andreas Koch

1 Einleitung

Es mag verwundern, sich in der Postmoderne mit kleinräumigen Segregationsformen zu beschäftigen, verlieren doch Klassenunterschiede, ethnische oder religiöse Hintergründe in einer zunehmend multikulturalisierten Welt angesichts heterogener räumlicher – man denke nur an die vielfältigen Migrationsformen – und sozialer Mobilitätsprozesse – wie breite Schulbildung oder wachsende Erwerbsmöglichkeiten für Frauen – an Relevanz. Tatsächlich spielten im Mittelalter oder der frühen Neuzeit urbane Entmischungsprozes-se mit ihren Zünften und Ständen eine wichtige Rolle für die ökonomische, politische und soziale Entwicklung (vgl. Rosseaux 2006). Und heute?

Seither haben sich die Segregationsmuster gewandelt. Teilweise zeigen sie auch heute ähnlich manifeste Formen wie früher, wie dies beispielsweise für Gated Communities mit ihren selektiven sozialen Schichten der Fall ist. Zum Teil – und dies stellt die ge-genwärtige Segregationsforschung vor entsprechende Herausforderungen, macht aber auch deren Relevanz deutlich – verlaufen Segregationsprozesse subtil und schleichend, sie sind weniger eindeutig beobachtbar und sie laufen wesentlich als bottom-up Pro-zess ab (damit ist nicht der Gestaltungsspielraum der Stadtplanung negiert, gleichwohl spielt auch er eher eine flankierende denn eine ursächliche Rolle). Segregation scheint so zu einem sensitiven Gradmesser gesellschaftlicher Prozesse zu avancieren, da er raum-greifende und raumverdrängende Effekte inkludiert, die auf der Individualebene nicht bewusst antizipiert werden, auf der Stadtteilebene jedoch durchaus diskriminierende Folgen implizieren können.

„The most frequently mentioned neighbourhood effect mechanisms are in the spheres of stigmatization, the functioning of social networks and socialization processes. These may play a role in opportunities for attaining a (better) job, and through that obtaining higher incomes and better employment positions” (Andersson, Musterd 2010, 23 f.). Vor diesem Hintergrund werden nachfolgend theoretische und methodologische Krite-rien angesprochen, die für die räumliche Modellierung und Simulation von Segregati-onsprozessen als relevant erachtet werden. Andere methodische Instrumente werden nicht explizit angesprochen, damit aber auch nicht explizit exkludiert, vielmehr werden Verfahren der Geosimulation als ergänzender Bestandteil einer umfassenderen Analyse und Interpretation geographischer Phänomene verstanden.

Page 38: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch26

2 Segregation und raum-zeitliche Skalierung

In unserer Bezugnahme auf die Welt, in der Art und Weise wie wir ein Verständnis von ihr erlangen, spielt der Philosoph Martin Seel auf die zentrale Kategorie des Unter-scheidens an: „Was die Welt an Unterschieden zeigt und wie sie es tut, lässt sich nur unter Rekurs auf das Verfahren der Unterscheidung verständlich machen, durch das die betreffenden Unterschiede fixiert werden können. Kein Unterschied ohne mögliche Unterscheidung. Der Unterschied, den die Welt für uns macht, zeigt sich an den Un-terscheidungen, die wir machen; der Begriff des Unterschieds, den sie weit über unser Unterscheiden hinaus macht, verweist auf Unterscheidungen, die hätten gemacht wer-den können“ (Seel 2008, 73). Neben der grundlegenden Bedeutung, die das Differenz-prinzip für unsere Erschließung und Erkenntnisgewinnung von und über die (Um-)Welt besitzt, indem es Wirklichkeit überhaupt erst zugänglich macht (vgl. Berghaus 2004, 30), verweist es auf weitere, für die nachfolgenden Überlegungen wichtige Konnotatio-nen. Da ist zunächst einmal der Unterschied zwischen Unterschied und Unterscheidung, der eine wechselseitige Bezugnahme von Zustand und Prozess zum Ausdruck bringt. Diese Komplementarität ist sicherlich auch für das Phänomen der Segregation zu beach-ten, da die hervorgebrachten Muster sozialräumlicher Homogenisierung ohne die diese Muster hervorbringenden Prozesse in ihrem kontextuellen Gefüge nicht hinreichend gut verstanden und interpretiert werden können. Zugleich sind die Vorgänge der Unter-scheidung (Prozesse) und ihre Verknüpfung zu Prozessketten, die dann zu spezifischen Ausprägungen von Segregationsstrukturen (Unterschied) führen, für ein Verständnis des Phänomens Segregation unerlässlich.

Zum anderen verweist das Zitat auf die Kontingenz und Perspektivität, die in der durch einen Beobachter vorzunehmenden Unterscheidung in Erscheinung tritt und sich durch den getroffenen Unterschied als konkretisierte Blicknahme manifestiert. Die hier an-gesprochene Subjektivierung von Beobachtung potenziert sich weiter, sofern die un-terschiedlichen Beobachterebenen berücksichtigt werden: während ein Beobachter 1. Ordnung Teil des zu beobachtenden Phänomens ist, beobachtet ein Beobachter 2. Ordnung diese Beobachter beim Beobachten. Mit diesen Vorbemerkungen soll darauf aufmerksam gemacht werden, dass auch das hier zu betrachtende Phänomen der Se-gregation einer pluralistischen und pragmatischen Wirklichkeitskonstruktion entspringt (vgl. Mitchell 2008, 22 f.; Küppers et al. 2006, 21), die sich – ganz im Sinne des ‚draw a distinction‘ – in theoretischer Hinsicht einer systemtheoretischen und in methodologi-scher Hinsicht einer agentenbasierten simulationsmodellierenden Einbettung bedient.

Die angesprochene Komplementarität von Zustand und Prozess ist gleichwohl um wei-tere Komplementaritäten zu ergänzen. Diese betreffen einmal die Mutualität von Raum und Gesellschaft (s. Kap. 3), die Mutualität von Modell und Wirklichkeit (s. Kap. 4) so-wie die Mutualität von Raum und Zeit, auf die mit vordergründigem Blick auf den Raum nachfolgend knapp eingegangen wird.

Page 39: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 27

Unter Segregation wird hier ein multikriterieller Prozess verstanden, der zu (temporären) Zuständen einer sozialräumlichen Homogenisierung führt. Sowohl die Prozesse als auch die Muster der Homogenisierung sind vielfältig in ihrer Komposition und Maßstäblich-keit, ihren Einflussfaktoren und Wirkungsmechanismen. Knox‘ Definition dient daher als problematische Kontrastierung zur hier vertretenen Einschätzung, da sie ausschließlich ethnische Segregation anspricht, die von einer Gleichverteilung abweicht und ohne ex-plizite, räumlich differenzierte Kontextualisierung argumentiert: „Segregation is taken here to refer to situations where members of an ethnic group are not distributed abso-lutely uniformly in relation to the rest of the population. […] it is useful to be able to quantify the overall degree of segregation in some way” (Knox 1987, 250).

Wie einleitend bemerkt, verweist Segregation auf ein komplexes Gefüge von Ursachen, Voraussetzungen und Wirkungen, das wichtige Informationen über urbane Entwick-lungsprozesse liefert. Für die Realisierung individueller wie haushaltsbezogener Bedürf-nisse sowie für die Verdrängungs- und Umschichtungsprozesse ist dieses Gefüge sensitiv vom räumlichen Maßstab abhängig. Galster (2005, 6, in Andersson, Musterd 2010, 24) unterscheidet drei maßgebliche räumliche Ebenen, die jeweils spezifische Opportuni-tätspotenziale bereitstellen: „Across neighborhoods, variations in peers groups, social organizations, and social networks occur. Across political jurisdictions, health, education, recreation, and safety programs vary. Across metropolitan areas, the locations of em-ployment of various types and skill requirements vary”. In ihrer Untersuchung zum Ein-fluss des sozialen Nachbarschaftsgefüges auf die individuellen sozioökonomischen Reali-sierungschancen in den Städten Stockholm, Göteborg und Malmö, betonen Andersson und Musterd (2010) die Notwendigkeit einer räumlich differenzierten Beurteilung sozia-ler Interaktionsprozesse und verbinden diese mit der Kritik einer unzureichenden Berück-sichtigung des bekannten modifiable areal unit problems (vgl. z. B. Openshaw 1983). Es bezeichnet den geographisch-statistischen Umstand, dass mit zunehmender räumlicher Aggregation auch die Attribute der untersuchten Phänomene in ihrer ursprünglich in-dividuellen Differenzierung zunehmend nivelliert werden. Skalierung und Aggregation stehen in einem wechselseitigen Bezug zueinander und müssen daher, will man Se-gregation nicht aufgrund des ökologischen Fehlschlusses fehlinterpretieren, zusammen betrachtet werden. Dieses Problem existiert grundsätzlich und ist somit unabhängig von der gewählten Methode, es lässt sich jedoch im Zusammenhang der agentenbasierten Simulationsmodellierung explizit und damit transparent integrieren.

Andersson und Musterd können mit ihrer räumlichen Differenzierung von Nachbar-schaft in Grid-Einheiten (100 x 100 m), Small Area Market Statistics (SAMS) und dem administrativen Stadtgebiet schlüssige Erklärungen für den Einfluss der raumzeitlichen Skalierung auf den Zusammenhang zwischen der sozialen Komposition der Nachbar-schaft und individuellem sozialem Status anbieten (diesen sozialen Status referenzieren sie auf das Einkommen; die zeitliche Skalierung ist durch eine Inklusion von zeitvarianten

Page 40: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch28

Variablen wie der Änderung des Bildungs- oder Familienstatus’ erfolgt). Da es ihnen mit dieser Untersuchung u.a. darum geht, das Ausmaß des Einflusses von Nachbarschafts-effekten und dabei das Ausmaß des Einflusses der gewählten Raumeinheiten zu ermit-teln – es ihnen also nicht primär um den Einfluss als solchen geht, ist es ein Stück weit verständlich, dass sie gewisse Hypothesen zur sozialräumlichen Homogenität a priori voraussetzen, die sie eigentlich mit ihren Analysen prüfen wollten. Beispielsweise argu-mentieren sie mit „… data for individuals who share similar residential environments“, oder „… SAMS are constructed on the basis of logical considerations, mostly related to age of construction and social homogeneity” (ebd. 29) bzw. “These external factors may impinge differentially on different neighbourhoods, but within any given neigh-bourhood they affect all residents roughly equally…” (ebd. 27).

Mit diesen vorausgesetzten Annahmen ist eine reduktionistische Verkettung von Zusam-menhängen impliziert, da damit soziale und/oder räumliche Homogenität als exogenes Faktum eingeführt und auf diese Weise die Differenzierung des räumlichen Maßstabs als Erklärungskriterium sofort wieder umgangen wird. Zumindest im Falle Strukturen entde-ckender Modellierungsverfahren, wie sie für Segregationsprozesse im Kontext residenti-eller Mobilität zum Einsatz kommen, sollten derartige Prämissen nicht a priori formuliert werden. Unter dem Gesichtspunkt einer von der globalen bis zur lokalen Ebene wach-senden Fragmentierung sozialer und räumlicher Lebensbezüge (vgl. Scholz 2002), bleibt die explizite Integration unterschiedlicher raumzeitlicher Skalen für das Verständnis von Segregation virulent. Integration allein gewährleistet allerdings noch keine hinreichende, dem Modellzweck entsprechende Modellgüte, hierfür bedarf es eines komplementären Bezugs von sozialen und räumlichen Strukturen, auf die im folgenden Abschnitt knapp eingegangen wird.

3 Systemtheoretische Einbettung von Segregation

Sofern Segregation als sozialer und räumlicher Homogenisierungsprozess verstanden und modelliert werden soll, erscheint es angebracht, die involvierten Prozesse und die daraus (temporär) hervorgehenden Zustände analytisch auf diese beiden Sphären zu trennen. Diese Trennung erfolgt wohlgemerkt aus analytischen Gründen, um zu verste-hen, was im synthetisierten Gesamtbild wie und warum zusammenhängt – gleichwohl unterliegt sie einem grundlegenden theoretischen Paradigma. Mit dieser Trennung, die systemtheoretisch in Form der Existenz sozialer und räumlicher Systeme begründet wird, geht nämlich eine Relativierung der Formel von der „sozialen Konstruktion des Rau-mes“ aus. Sie ist unbestreitbar eine notwendige Bedingung im Vollzug der Unterschei-dung räumlicher Interpretationen, Wertungen, Wahrnehmungen und Reflektionen. Eine ausschließliche oder auch nur primäre Konstruktion des Raumes liefert aber keine Be-gründung für das wozu und womit des Konstruierens. Das wozu bedarf einer komple-mentären Perspektive, die die Gründe einer Einbeziehung räumlicher in soziale Prozesse

Page 41: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 29

liefern und daher außerhalb des Sozialen liegt. Und das womit expliziert die sozialen Medien, die auf die räumlichen Formen kontingent, aber nicht beliebig referenzieren. Die räumlichen Prozesse und Formen liegen also außerhalb der sozialen Systeme, inso-fern es angebracht scheint, komplementär räumliche Systeme als eigenständige Systeme zu verstehen. Dies bedingt die Anerkennung der Hervorbringung eigener räumlicher Systemqualitäten respektive Systemeffekte, die mit den sozialen Systemeffekten inter-agieren – mit der Folge einer ebenso wichtigen Berücksichtigung des Rekonstruierens von Räumen (vgl. Koch 2009, 49).

Für diese systemtheoretische Einbettung von Segregation – sowohl hinsichtlich ihres theoretischen Verständnisses als auch ihrer methodischen Transformation in Simulati-onsmodelle – gibt es zwei wesentliche Anhaltspunkte. Ein Aspekt betrifft die Referenz auf Realität: „Systemtheorie ist also keineswegs bloß eine Betrachtungsmethode, son-dern Systemtheorie ist deswegen angebracht, weil die Realität selbst Systeme wirklich aufweist. Hierin stecken Realitätsbehauptungen:

(1) Es gibt eine Realität.

(2) In der Realität gibt es Systeme.“ (Berghaus 2004, 26).

Diese Behauptung leitet sich ihrerseits aus einer mindestens ebenso grundlegenden Be-hauptung ab: „In der Geschichte hat es unzählige Denker gegeben, die der Meinung waren, man könne in der Erkenntnis wirklich von Null ausgehen […]. […] Dabei ist eine solche Operation doch undurchführbar. Es ist unmöglich, auch nur irgend etwas zu be-ginnen, ohne von bestimmten Prämissen auszugehen […]“ (Lem 1995, 116).

Ein zweiter Aspekt greift aktuelle Ansätze der soziologischen und sozialgeographischen Auseinandersetzung zu urbanen Prozessen auf. Löw spricht im Rahmen ihrer ‚Soziolo-gie der Städte‘ zurecht von der Eigenlogik der Städte und begründet diese u.a. mit der Dualität von place-in-society und society-in-place Ansätzen (Löw 2008, 35). Eigenlogik impliziert Eigenständigkeit und systemtheoretische Selbstreferenz, damit die Auffassung vertreten werden kann, Städte seien „[…] emergente Gebilde mit eigenen Qualitäten […]“ (ebd. 48). Konkret auf residentielle Segregation fokussiert, bezieht Löw sich auf Harvey (1991), der diese als ein Phänomen versteht, „[…] das nicht nur sozial produziert ist, sondern auch gesellschaftliche Verhältnisse hervorruft“ (ebd. 105). In Anlehnung an Soja (1989) sollte die Geographie „[…] die Räumlichkeit gleichzeitig als soziales Produkt (oder Ergebnis) und als formende Kraft (oder Medium) des sozialen Lebens [erkennen]“ (ebd. 106).

Neben der an räumlicher und zeitlicher Maßstäblichkeit orientierten differenzierenden Betrachtung ist daher bei der Simulation residentieller Homogenisierungsprozesse auch auf die symmetrische Interdependenz zwischen sozialen und räumlichen Systemen zu achten. Eine dieser Forderung Rechnung tragende Modellierung implementiert somit

Page 42: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch30

auch in dieser Hinsicht mehrere Interaktionsebenen, die sowohl die intra- als auch die intersystemischen Kopplungsmechanismen repräsentiert.

4 Die Modellierungsperspektive

Segregation erscheint vor diesem Hintergrund als ein komplexes Phänomen ineinander verwobener und aufeinander bezogener Strukturzusammenhänge, die mit entsprechen-den Prozessdynamiken einhergehen. Geosimulation und Geomodellierung bieten sich als eine mögliche methodische Herangehensweise der Übersetzung der erwähnten qua-litativen Zusammenhänge in operationalisierbare Programme, die darüberhinaus auf-grund ihrer vielfältigen Visualisierungsoptionen einen geeigneten intuitiven Zugang er-lauben, an (vgl. Küppers et al. 2006, 4). Dies gilt für Fragestellungen, die sich allgemein humangeographischen Themen widmen, wie Arbeiten u. a. von Bossel (2004), Gimblett (2002), Hesse und Rauh (2003), Kohler und Gumerman (2000) oder Rauh et al. (2008) zeigen, aber auch jenen, die im engeren Fokus der Segregationsmodellierung angesie-delt sind, wofür die Arbeiten von Benenson et al. (2002), Bruch (2006), Crooks (2008), Fossett und Senft (2004) sowie Schelling (1969, 1971) exemplarisch genannt seien.

Es wurde oben der konstruktivistische Zugang zu Wirklichkeit angesprochen, der hier im Kontext der Modellierungsperspektive noch einmal aufgegriffen werden soll. Der Aussage von der Existenz einer Realität, die bei jeder Blicknahme auf bereits vorhande-nen Prämissen der differenzierten Wahrnehmung zurückgreift, ist nun nur noch um die Interdependenz von Realität und Modell zu ergänzen. Sinn und Zweck der Systement-stehung ist es, Komplexität zu reduzieren und damit auch, Kontingenzen handhabbar zu halten. Modelle fungieren in Ihrer Eigenschaft der Repräsentation von Realität als ein Medium der Komplexitätsreduktion.

Hieraus ergibt sich eine interessante Implikation, auf die Krusch (2008, 7) implizit hin-weist, indem er eine klassische Aussage von von Thünen zitiert: „1842 bittet er seine Leser in der „Vorrede zur zweiten Auflage“, „sich durch die im Anfang gemachten, von der Wirklichkeit abweichenden Voraussetzungen nicht abschrecken zu lassen, und diese nicht für willkürlich und zwecklos zu halten. Diese Voraussetzungen sind vielmehr n o t w e n d i g, um die Einwirkung einer bestimmten Potenz […] für sich darzustellen und zum Erkennen zu bringen““. Nicht nur spricht von Thünen hier den Idealisierungs-aspekt von Modellen an (jene von der Wirklichkeit abweichenden Voraussetzungen), sondern er übersetzt bzw. überträgt damit jene komplexitätsreduzierende Funktion, die Systemen innewohnt, auf Modelle. Epistemologisch steht damit nicht so sehr die De-batte im Vordergrund, ob es die Wirklichkeit gibt oder nicht, sondern vielmehr, dass der Bezug auf Wirklichkeit der Bezug auf eine hochgradig abstrakte Referenzgröße ist, die durch ein Modell konkretisiert wird. Jedes Modell ist eine Ableitung vom Modell ‚Wirk-lichkeit‘ und Idealisierung versteht sich als Konkretisierung und nicht als Abstrahierung.

Page 43: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 31

Kontingent ist dabei die Abwägung, welche Voraussetzungen als notwendig erachtet werden. Hier sollte zumindest geprüft werden, ob Aussagen über existente oder we-nigstens logisch mögliche Welten getroffen werden können (vgl. Krusch 2008, 9 f.). An-hand eines Simulationsmodells, das der Verfasser für die Stadt Salzburg auf der Grundla-ge empirischer Daten (vgl. Stadt Salzburg 2010) entwickelt hat, sollen im Folgenden der multivariate Zugang – als inhaltliche Ergänzung zur multiplen raumzeitlichen Skalierung – und die Interdependenz der Interaktionsebenen angesprochen werden (eine ausführ-liche Darstellung findet sich in Koch 2010).

4.1 Der multivariate Ansatz zur Modellierung von Segregation

Die Modellierung residentieller Mobilität unter dem Gesichtspunkt der Dynamik der Se-gregationsprozesse ist in der Stadt(entwicklungs)forschung nicht völlig neu. Bekannt sind die Arbeiten von Schelling (1971, 1969), dem es gelang, auf der Grundlage eines einfachen zweidimensionalen Rastergrids und wenigen, einfachen Nachbarschaftsre-geln, die für jeden einzelnen Agenten gültig sind, emergente Strukturmuster auf der Makroebene nachzuweisen, die sich nicht aus den lokalen Nachbarschaftsregeln erge-ben. Im Laufe der Zeit haben sich hieraus Modelle entwickelt, die die Homogenisie-rungstendenzen multivariat und räumlich-explizit zu lösen versucht haben (vgl. Bruch 2006; Crooks 2008).

Auch das vorliegende Modell hat einen multivariaten Ansatz gewählt. Neben der wenig realistischen Annahme der Korrelation von Segregation mit nur einer Variablen, spielt insbesondere der Aspekt der Ähnlichkeit sozialer und räumlicher lokaler Verhältnisse eine entscheidende Rolle für den multivariaten Zugang. Die Akzeptanz des Einflusses mehrerer Variablen auf Mobilitätsentscheidungen bzw. präferierte Nachbarschaften er-laubt eine flexible Erweiterung des Emergenzgedankens, da mit dem Konzept der Ähn-lichkeit dem skalenabhängigen Aggregationserfordernis Rechnung getragen wird.

Im konkreten Simulationsmodell werden 14 Ausgangsvariablen zu Sozioökonomie, So-ziodemographie, Immobilienmarkt und sozialem Status über eine Faktoren- und Clus-teranalyse zu vier Faktoren verdichtet und über diese die 32 Zählbezirke typisiert. Es lassen sich 19 Clustergruppen identifizieren, die sechs großen Clustertypen zugeordnet werden (vgl. Abb. 1). Diese 19 Clustergruppen variieren innerhalb ihres Clustertyps auf-grund der nicht eindeutigen faktoranalytischen Diskriminierung; sie bilden die Grundla-ge für die Generierung entsprechend qualifizierter Agenten, die als Stichprobe über das Stadtgebiet verteilt werden, wobei die relative Dominanz des Agenten in Abhängigkeit zu seiner Clusterzugehörigkeit und damit Zählbezirkszugehörigkeit gewahrt bleibt (es kann z. B. festgelegt werden, dass 60 % des Clustertyps in einem Zählbezirk reprä-sentiert sein müssen und die übrigen 40 % sich aus Anteilen der übrigen fünf Typen zusammensetzen).

Page 44: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch32

Abb. 1: Ergebnis der Clusteranalyse (sechs Clustertypen) für die Stadt Salzburg auf Zählbezirkse-bene 1981

So erhält man 19 Haushaltstypen, die in unterschiedlichem Umfang innerhalb ihrer ei-genen Großgruppe und, in Abhängigkeit ihrer faktoranalytisch abgeleiteten Toleranz, darüber hinaus mit Repräsentanten anderer, aber ähnlicher Haushalte interagieren kön-nen. Interagieren heißt in diesem Fall, die Ähnlichkeit bzw. Unähnlichkeit der Nachbarn über spezifische Variable der jeweiligen Faktoren zu erkennen (dazu gehören z. B. die Haushaltsgröße und der soziale Status, der über den Schulabschluss repräsentiert wird). Auf diese Weise lässt sich die sozialräumliche Homogenisierung in ihrer Komplexität der Attributkompositionen stärker differenzieren, mit dem Effekt, eine relative Homogenität über unterschiedliche Grade an sozialer und damit räumlicher Heterogenität zu erhalten. Dies trägt dem Umstand Rechnung, dass sich Segregationstendenzen erfahrungsgemäß nicht auf eine Variable reduzieren lassen (die Entscheidung umzuziehen beinhaltet be-kanntlich eine Vielzahl abzuwägender Kriterien).

Page 45: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 33

Eine interaktive Variabilität der Nachbarschaftsgröße zur Ermittlung eines Zufrieden-heitswertes (von dem die Entscheidung zur Abwanderung abhängt) erlaubt eine Beur-teilung maßstabsabhängiger Homogenisierungsgrade, die aufgrund der zugelassenen Mischungsgrade und -verhältnisse zu vielfältigen Konstellationen führt. Gleichwohl, „[a]ll of this implies that residential preferences may change; that is, mixed neighbourhoods are not doomed to irreversible segregation. They can stabilize […]” (Wessel 2009, 10). Eine agentenbasierte Simulationsmodellierung ist somit in der Lage, der Forderung einer räumlichen, zeitlichen und inhaltlichen Mehrebenenmodellierung zu entsprechen. Dies gilt gleichermaßen für das Erfordernis der adäquaten Interaktionsmodellierung, worauf abschließend eingegangen werden soll.

4.2 Der Interaktionsansatz zur Modellierung von Segregation

Dem systemtheoretischen Gedankengang folgend, werden soziale und räumliche Sys-teme hinsichtlich ihrer Operationsweisen voneinander unterschieden. Das vorliegende Modell simuliert die sozialen und mobilen Agenten als einfache Interaktionssysteme, wohingegen die räumlichen Agenten (als Rasterzellen) Veränderungen, die durch re-sidentielle Mobilität eintreten können, abbilden. Das Ablaufschema ist dabei wie folgt: Jeder soziale Agent ermittelt am gegenwärtigen Standort seine soziale und räumliche Nachbarschaft, indem er seine aus der Faktoren- und Clusteranalyse abgeleiteten Ei-genschaften mit jenen seiner Nachbaragenten und Nachbarzellen vergleicht. Dieser Vergleich kann, entsprechend dem Erfordernis maßstabsabhängiger Differenzierungen der Umweltbewertung, über eine Veränderung der Wahrnehmung des Einzugsbereichs variiert werden.

Die Nachbarschaftsbewertung erfolgt dabei nach dem erwähnten Prinzip der Ähnlich-keit; je nach faktoranalytischem Ergebnis haben die Agenten einen unterschiedlichen Grad an Flexibilität, Nachbarn anderer Clustergruppen zu tolerieren. Zudem werden beim Vergleich der eigenen sozialen Eigenschaften, die als kategoriale Abstufungen vor-liegen, andere Agenten mit um eine Stufe höhere Kategorie ebenfalls akzeptiert. Aus diesem Vergleich von sozialer und räumlicher Nachbarschaft ermittelt jeder Agent einen Zufriedenheitswert; liegt dieser unter einem bestimmten Schwellenwert, so migriert der Agent an einen neuen Standort, der abhängig vom gewählten Suchradius – von lokal bis das gesamte Stadtgebiet umfassend – aufgesucht wird. An diesem potenziell neu-en Standort bewertet der Agent nur seine räumliche Nachbarschaft, da es erfahrungs-gemäß für die Bewertung der sozialen Nachbarschaft einer längeren Aufenthaltsdauer bedarf. Ist der Zufriedenheitswert am neuen Standort höher als am alten, so bleibt der Agent auf dieser Zelle, andernfalls wandert er wieder.

Sowohl der Radius zur Bewertung der Nachbarschaft als auch jener zur Suche eines neuen Standorts sind variabel (wobei der letztgenannte größer ist als der erstgenannte).

Page 46: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch34

Es liegen somit prinzipiell und in simplifizierender Weise, was die Operationalisierung betrifft, drei Arten von Interaktionen vor: (1) Interaktionen zwischen sozialen Agenten, (2) Interaktionen zwischen räumlichen Agenten und (3) Interaktionen zwischen sozialen und räumlichen Agenten. Die Modellierung der beiden zuletzt genannten Arten wird im Modell folgendermaßen umgesetzt: Aufgrund der unterschiedlich flexiblen Präferenz-bewertungen der Agenten ist es möglich, dass ein Agent einer bestimmten Clustergrup-pe auf eine Zelle kommt, die einer anderen Clustergruppe zugehörig ist, durch die Ähn-lichkeit der sozialräumlichen Eigenschaften aber aufgesucht wird. Sobald dies passiert, überträgt der Agent seine Eigenschaft auf die Rasterzelle (dies geschieht im gewählten Simulationsprogramm über farbliche Codierungen). Damit ändert sich jedoch die räum-liche Komposition sozialer Eigenschaften wieder, die für bereits in der Nachbarschaft zu dieser gewandelten Zelle lebende Agenten einen Umzug initiieren kann (vgl. Abb. 2).

Abb. 2: Veränderung der räumlichen Komposition durch soziale Agenten (Quelle: Eigener Entwurf)

Diese strukturelle Kopplung von räumlichem und sozialem System sorgt für eine Se-gregationsdynamik, die im Unterschied zu Schelling’s ausgeprägten Homogenisierungs-zuständen ein wesentlich differenzierteres sozialräumliches Muster impliziert, weil sie Segregation als komplexes Wechselspiel von mehreren sozialen Attributen über mehrere räumliche Maßstäbe hinweg betrachtet und über die beschriebenen Interaktionsarten modelliert und simuliert.

5 LiteraturAndersson, R.; Musterd, S. (2010): What scale matters? Exploring the relationships bet-

ween individuals’ social position, neighbourhood context and the scale of neigh-bourhood. In: Geografiska Annaler: Series B, Human Geography 92 (1), p. 23-43.

Benenson, I.; Omer, I.; Hatna, E. (2002): Entity-based modeling of urban residential dy-namics: the case of Yaffo, Tel Aviv. In: Environment and Planning B, vol. 29, 2002, p. 491-512.

Berghaus, M. (2004): Luhmann leicht gemacht. Böhlau Verlag Köln, Weimar, Wien.

Bossel, H. (2004): Systemzoo 3. Wirtschaft, Gesellschaft und Entwicklung. Books on Demand, Norderstedt.

Page 47: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Soziale Segregation aus der Modellierungs- und Simulationsperspektive 35

Bruch, E. (2006): Residential Mobility, Income Inequality, and Race/Ethnic Segregati-on in Los Angeles. In: Population Association of America, 2006 Annual Meeting, available at: http://paa2006.princeton.edu/download.aspx?submissionId=60143

Crooks, A. (2008): Constructing and Implementing an Agent-Based Model of Residenti-al Segregation through Vector GIS. In: UCL Working Papers Series, Paper 133.

Fossett, M.; Senft, R. (2004): SimSeg and Generative Models: A Typology of Model-Generated Segregation Patterns. In: Proceedings of the 2004 Conference on Social Dynamics: Interaction, Reflexivity, Emergence, p. 39-78.

Gimblett, H. R. (2002): Integrating Geographic Information Systems and Agent-based Modeling Techniques for Simulating Social and Ecological Processes. Oxford Univer-sity Press, Oxord, New York.

Harvey, D. (1991): The Condition of Postmodernity. An enquiry into the origins of cul-tural change. Camebridge, Basel, Blackwell.

Hesse, R.; Rauh, J. (2003): ‘Angebot’ und ‘Nachfrage’ im Einzelhandel: Multiagenten-systeme zur Simulation von Konsumentenverhalten und der Shopping-Center-Pla-nungen. In: Koch, A.; Mandl, P. (Hrsg.): Multi-Agenten-Systeme in der Geographie. Klagenfurter Geographische Schriften, Heft 23, Selbstverlag Klagenfurt, S. 65-88.

Knox, P. (1987): Urban Social Geography. An introduction. John Wiley & Sons, New York.

Koch, A. (2010): Ein multivariates Segregationsmodell mit GIS und ABM. In: Strobl, Blaschke, Griesebner (Hrsg.): Angewandte Geoinformatik 2010, Heidelberg (im Druck).

Koch, A. (2009): Zur Komplementarität von struktureller Kopplung und Emergenz. Ein Vorschlag zur systemtheoretischen Einbettung des Räumlichen für eine integrative Geographie. In: Koch, A. (Hrsg.): Mensch – Umwelt – Interaktion. Überlegungen zum theoretischen Verständnis und zur methodischen Erfassung eines grundlegen-den und vielschichtigen Zusammenhangs. Salzburger Geographische Arbeiten, Band 45, Selbstverlag Salzburg, S. 47-56.

Kohler, T. A.; Gumerman, G. J. (2000): Dynamics in Human and Primate Societies. Agent-based modeling of social and spatial processes. Oxford University Press, Ox-ord, New York.

Krusch, Ch. (2008): Mikroökonomie in künstlichen Gesellschaften. Vom Sugarscape- zum Ruhrmodell. LIT Verlag, Münster.

Küppers, G.; Lenhard, J.; Shinn, T. (2006): Computer Simulation: Practice, Epistemology, and Social Dynamics. In: Lenhard, J.; Küppers, G.; Shinn, T. (eds.): Simulation. Prag-matic Construction of Reality. Springer Verlag Dordrecht.

Lem, S. (1995): Die Stimme des Herrn. Suhrkamp Verlag, Frankfurt a. M.

Löw, M. (2008): Soziologie der Städte. Suhrkamp Verlag, Frankfurt a. M.

Mitchell, S. (2008): Komplexitäten. Warum wir erst anfangen, die Welt zu verstehen. Suhrkamp Verlag, Frankfurt a. M.

Openshaw, S. (1983): The Modifiable Areal Unit Problem. GeoBooks, Norwich.

Page 48: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Andreas Koch36

Rauh, J.; Schenk, T.; Schrödl, D. (2008): Agenenbasierte Simulation von Konsumenten-handeln. In: Mandl, P.; Koch, A. (Hrsg.): Modellierung und Simulation komplexer geographischer Systeme, Salzburger Geographische Arbeiten, Band 43, Selbstverlag Salzburg, S. 77-104.

Rosseaux, U. (2006): Städte in der Frühen Neuzeit. Wissenschaftliche Buchgesellschaft, Darmstadt.

Scholz, F. (2002): Die Theorie der „fragmentierenden Entwicklung“. In: Geographische Rundschau, Heft 10/2002, S. 6-11.

Schelling, T. C. (1971): Dynamic models of segregation. In: Journal of Mathematical Sociology 1 (2), p. 143-186.

Schelling, T. C. (1969): Models of segregation. In: American Economic Review, Papers and Proceedings 59, p. 488-493.

Seel, M. (2008): Theorien. S. Fischer Verlag, Frankfurt a. M.

Stadt Salzburg (2010): http://www.stadt-salzburg.at (Salzburg in Zahlen) (Zugriff 14.05.2010).

Soja, E. W. (1989): Postmodern geographies: the reassertion of space in critical social theory. London, New York.

Wessel, T. (2009): Does diversity in urban space enhance intergroup contact and tole-rance? In: Geografiska Annaler: Series B, Human Geography 91 (1), p. 5-17.

Page 49: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 37

Gibt es gemeinsame Muster in der Populationsentwicklung von Schweizer Gemeinden?

Martin Behnisch, Alfred Ultsch

1 Einführung

Raumbezogene Daten wurden in der Vergangenheit in vielen Fällen unzugänglich aber auch unzulänglich archiviert und oft nur für spezifische Zwecke zeitnah freigegeben oder lediglich in aggregierter Form eher routinemäßig aufbereitet. Erst im Verlauf der Zeit und aufgrund der Bestrebungen zur freien Verfügbarkeit dieser Daten (Open Geo-spatial Consortium 2010) erlangten einige ihren tatsächlichen Wert bzw. überhaupt erst ihre analytische Relevanz.

Durch das rapide Anwachsen von frei verfügbaren raumbezogenen Daten und den Fortschritt in der Informationstechnologie sind in jüngster Zeit die Anforderungen an Systeme deutlich gestiegen, die Wissen aus Daten mit Raumbezug extrahieren und ab-bilden können (Keim 2002). Bei vielen quantitativen Fragestellungen der Raumanalyse handelt es sich um spezifische multifaktorielle (vieldimensionale) Probleme (Siedentop et al. 2003). Diese sind zum Beispiel in kombinierter Form durch die Entwicklung von Be-völkerung, Arbeitsplätzen und Infrastruktur sowie deren räumlicher Verteilung und ihren Auswirkungen auf die Flächennutzung und den Verkehr geprägt. Veränderte Rahmen-bedingungen, wie der demographische Wandel, die Globalisierung oder die weltweite Finanzkrise, vergrößern den Einfluss auf die Varianz oder Existenz von räumlichen und funktionalen Erscheinungsbildern zusätzlich. Vermutlich besteht die Herausforderung in Zukunft darin, den Überfluss an raumbezogenen Daten und Informationen überhaupt noch systematisch auswertbar zu gestalten und ihre Einbindung in Erfahrungszusam-menhänge, durch welche erst Wissen geschaffen wird, dauerhaft abzusichern.

Üblicherweise eignen sich Datenmodelle, um die Komplexität in Inhalt, Raum und Zeit darzustellen. In der Psychologie (Cattel 1953) wurde zur Erläuterung von eher faktor-

analytischen Techniken im Jahr 1953 ein sogenannter Datenwürfel (→ Datenquader) erarbeitet. In der jüngeren Vergangenheit wird dieser auch als Referenzpunkt für sys-temtheoretische Ansätze einer Quantitativen Geographie verstanden (Markgraf 2006). Tabelle 1 steht im Spannungsfeld dieser theoriebehafteten Sichtweisen und möchte die Ausarbeitung von strukturierten Vorgehensweisen bei raumanalytischen Auswertungs-situationen weiter anregen. Die inhaltliche, räumliche und zeitliche Komponente ist durch spezifische Quer- (Relation) oder Längsschnittanalysen (Gesamtheit der Relatio-nen) charakterisierbar. Das Ziel ist der Erkenntnisgewinn durch inhaltliches, räumliches oder zeitliches Schließen und die Beschreibung der Zusammenhänge.

Page 50: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch38

Tab. 1: Problemidentifizierung und Problemklasse (in Bezug auf Markgraf, 2006)

Analyse Inhalt Raum ZeitBeschreibung Attribut Basiseinheit ZeitpunktQuerschnitt Abhängigkeiten,

ZusammenhängeNachbarschaft, Verflechtung

Veränderung

Längsschnitt Dimensionen, Faktoren

Strukturen, Typen, Klassen

Charakteristische Entwicklung, Zyklus

Systembetrachtung Phänomen Gebiet ProzessZiel Inhaltliches

SchließenRäumliches Schließen

Zeitliches Schließen

Wissen/Erkenntnis (natürlich sprachlich und maschinell reproduzierbar)

Attributlogik: Regel, Erklärung

Raumlogik: Ordnung, Organisation

Zeitlogik: Prognose, Projektion

Mit Blick auf die fortschreitende Zunahme der Datenmenge und heute bereits erkenn-bare Vergrößerung der problembezogenen Dimensionen ist auffallend, dass zur Analyse von derartig komplexen raumbezogenen Problemen und ebenso facettenreichen inhalt-lichen Zusammenhängen nur bedingt die Integrationsmöglichkeiten von Konzepten des Data Mining und der Knowledge Discovery (in Databases) diskutiert werden (Miller, Han 2009):

„Due to the growth and wide availability of geo-referenced data in recent years, tradi-tional spatial analysis tools are far from adequate at handling the huge volumes of data and the growing complexity of spatial analysis task. Geographic data mining and know-ledge discovery represent important directions in the development of a new generation of spatial analysis tools in data-rich environment.”

Aufgabe im Data Mining ist allgemein die Entdeckung von neuen und/oder verborge-nen Zusammenhängen in hochdimensionalen Daten (Hand et al. 2001). Ausgehend von einer Menge von Zahlen wird die Darstellung von bislang unbekannten aber nütz-lichen Sachverhalten verfolgt. Die Wissensentdeckung – im Sinne der Disziplin Know-ledge Discovery gekennzeichnet durch Syntax, Semantik und Pragmatik – unterstützt verfahrensbasiert die (natürlich-) sprachliche Interpretation und Ableitung von Wissen (Erkenntnissen) aus verschiedensten Datensammlungen und erlaubt Reproduktionen in maschineller Form (z. B. als wissensbasiertes System).

Der Begriff ‚Urban Data Mining’ (UDM) charakterisiert die Erarbeitung einer für den urbanen Kontext entwickelten Methodik, die dazu dient, logische oder mathematische und zum Teil komplexe Beschreibungen von Mustern und Regelmäßigkeiten in Daten-sätzen zu entdecken sowie daraus Erkenntnisse abzuleiten und zu bewerten (Behnisch 2009). Urban Data Mining trägt unterstützend zum automatischen Generieren und Prü-fen von Hypothesen bei. Beschrieben wird in der Regel ein zyklischer Arbeitsprozess

Page 51: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 39

(Abb. 1), so dass schrittweise gewonnene Erkenntnisse über Daten validiert und als Eingangsstufe der Folgeschritte verwendet werden. Wesentliche Verfahrensschritte sind die Datensichtung, die Strukturerkennung, die Strukturbildung, die Strukturprüfung, die Operationalisierung und die Wissenskonversion.

Abb. 1: Zyklischer Prozess im ‚Urban Data Mining‘ (UDM) (Quelle: Ultsch 2010, erweitert)

In diesem Beitrag werden aufbauend auf diesem Methodenrepertoire spezifische Heran-gehensweisen für den Zweck einer diachronischen Musterextraktion vorgestellt. Unter-sucht wird die Schweizer Bevölkerung in ihrer Änderung, basierend auf 15 Zeitschnitten (1850-2000) und 2 896 Raumobjekten (Gemeinden). In bestehenden Untersuchungen wird die Bevölkerung bereits als Schlüsselindikator für die Entwicklung eines Raumes verstanden (Bätzing, Dickhörner 2001). Gerade die kombinierte Sicht auf mehrere Zeit-schnitte (Längsschnittanalyse) bieten die Möglichkeit, z. B. alternierende Eigenschaften der Bevölkerungsänderung zu erfassen, charakteristische Entwicklungsmuster zu iden-tifizieren und langfristig Gemeinden mit ähnlichen Eigenschaften in Entwicklungsklas-sen zu gruppieren. Die Clusteranalyse wird für den Zweck der Raumtypisierung seit Generationen eingesetzt. Damit verbundene Schwierigkeiten unterliegen vermehrt der Diskussion (Demsar 2006). Beispielsweise sind einige Distanzmassen ohne sachgerechte Datensichtung häufig nicht geeignet, um darauf aufbauend Cluster zu bilden (z. B. mit WARD im Sinne der Parallelität von Entwicklungsverläufen). Im Fall von Euklid dominie-ren bei vielen vorherigen Untersuchungen große und unvergleichbare Varianzen diesen Abstand. Der nachfolgende Beitrag stellt sich dieser Herausforderung und möchte den Schwerpunkt auf die Datensichtung und Mustergenerierung legen.

Page 52: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch40

2 Bevölkerungsänderung als raum-zeitliches Muster

2.1 Datenerfassung

Der Einsatz von Verfahren des Data Mining und der Knowledge Discovery setzt wie viele quantitative und mathematische Methoden voraus, dass man die zu untersuchenden Erscheinungen (Muster der Schweizer Bevölkerungsänderung) quantifizieren kann, d. h. mit Mass und Zahl ausdrücken kann. Die Datenerfassung fokussiert analog dazu auf die Auswahl der Raumobjekte (Wer? Gemeinden), deren inhaltlichen Beschreibung (Was? Bevölkerung) anhand quantifizierbarer Variablen und unterschiedlich gemessener Aus-prägungen durch die Zeit (Wann? Dekade).

Die gemeindebezogenen Daten zur Bevölkerung werden den Dokumentationen zur Eid-genössischen Volkszählung des Bundesamtes für Statistik (BfS) entnommen. Es handelt sich um frei verfügbare sowie harmonisierte Daten (Schuler et al. 2002), die mit Blick auf die Datenqualität einer modernen Volkszählung entsprechen, d. h. Anforderungen wie z. B. Gleichzeitigkeit aller erhobenen Fakten, Aufarbeitung usw. erfüllen (Witthauer 1969). Es ist anzumerken, dass die Jahre 1888 und 1941 vom turnusmäßigen jährli-chen Zählungsstichtag abweichen. Im Jahr 1980 entzieht sich die Gemeinde Vellerat der Volkszählung (Fehlende Daten, nicht veröffentlicht 69 Personen).

Das aktuelle Schweizer Gemeindesystem begründet sich auf unterschiedlichen ge-schichtlichen Faktoren und institutionellen Entscheidungen. Dadurch variiert die Fläche der Gemeinden zwischen 31 und 28 221 ha und die Einwohnerzahl zwischen 22 und 363 273. Bei der Interpretation ist zu berücksichtigen, dass auf höherer räumlicher Ebe-ne noch starke kleinräumige Unterschiede auftreten können, d. h. beispielsweise stark wachsende Siedlungskerne in den Tallagen sowie mehrere schrumpfende oder stagnie-rende, kleinere Siedlungskerne in den Höhenlagen. Beispiele dafür sind im Tessin und Wallis anzutreffen. Allerdings liegen aktuell keine weiteren Daten vor, um sowohl die Besonderheiten innerhalb der administrativen Gebietsgliederung zu erfassen, als auch annähernd die Bevölkerungsänderung über 15 Dekaden zu vergleichen.

2.2 Datensichtung

Die Datensichtung beginnt mit der Durchsicht der Objektdaten jeder einzelnen Varia-blen, indem Anzahl, Art, Wertebereich und insbesondere die Verteilung charakterisiert wird. Oftmals setzen klassische statistische Verfahren – mehr oder weniger explizit – voraus, dass die Daten gewisse Eigenschaften (z. B. Normalverteilung, Unabhängigkeit, Linearität, Stetigkeit usw.) und Strukturen (z. B. ellipsoid oder kugelförmig) aufweisen. Diese gehen beispielsweise auch in die Modelle ein, die den Verfahren zur Clusterbil-dung zugrunde liegen (Ultsch 2010).

Page 53: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 41

Im Bereich der Bevölkerungsgeographie repräsentiert die relative Bevölkerungsverände-rung V eine häufig verwendete Messgröße:

Die Definition der Bevölkerungsveränderung V ist problematisch für sehr kleine Werte der Ausgangsbevölkerung Der Wertebereich ist unsymmetrisch und nach oben unbeschränkt: V(Bt, Bt–1 )∈[–100,∞]. Dies kann mit Blick auf den Vergleich von Gemeinden zu Problemen führen, insbesondere wenn im Kontext von Clustering Distanzen definiert werden. Sind Variablen schief verteilt, so werden die Beiträge der großen Differenzen das Euklidische Abstandsmaß dominieren.

Betrachtet man die Semantik der Bevölkerungszahlen als Relation einer Differenz (Bt – Bt–1) zu einer Grundgesamtheit, so ist bei obiger Definition Bt–1 als Grundgesamtheit ausgezeichnet. Denkbar ist es aber auch den Mittelwert von Bt und Bt–1 als Grundge-samtheit heranzuziehen. Dies führt zur Definition der Relativen Differenz. Die Multipli-kation mit 100 dient der Reduktion von Rundungsfehlern:

Typische Anwendungen liegen bereits im Kontext von DNA Microarrays (Ultsch 2005) oder Aktienkursen (Ultsch 2008). Die Relative Differenz ist inhaltlich leicht zu interpre-tieren, d.h. die Relative Differenz ist die auf den mittleren Grundwert bezogene Ände-rung. Die relative Differenz ist grösser 0 (kleiner 0), wenn der neue Wert grösser ist als der vorherige. Die Relative Differenz beträgt 0, wenn die Bevölkerungszahl im Vergleich der Dekaden identisch geblieben ist. Der Wertebereich der Relativen Differenz ist sym-metrisch und eindeutig begrenzt Die Untere Grenze (-200) wird bei vollständigem Rückgang angenommen, die obere Grenze (200) steht für extrem großen (exorbitanten) Zuwachs. Vorteilhaft ist im Vergleich der beiden Mess-größen die numerische Stabilität. Auch der Einfluss von Ausreißern (Extremwerten) auf die Relative Differenz ist aufgrund des symmetrischen und begrenzten Wertebereichs verringert. Die Relative Differenz nimmt dadurch auch stärker Bezug auf Ähnlichkeitsbe-trachtungen und diesbezüglich relevante Aspekte wie Normalisierung, Standardisierung oder Distanzmessung.

Da die Verteilung der Variablen nicht bekannt ist, besteht die Aufgabe darin, eine Hy-pothese über die empirisch beobachtete zu gewinnen. Unter der Annahme von drei charakteristischen Veränderungen in den Gemeinden lässt sich eine zusammengesetzte Verteilung annehmen: “Verlierer” (z. B. multiplikativer Prozess, Schrumpfung, log-nor-mal Verteilung), „Typisch“ (e. g. Summe von vielen unbeobachteten zufälligen Bevölke-

Page 54: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch42

rungsmitgliedern agiert unabhängig voneinander, Zentraler Grenzwertsatz, normalver-teilt), „Gewinner“ (z. B. multiplikativer Prozess, Wachstum, log-normal Verteilung).

Basierend auf der Vermutung einer zusammengesetzten Verteilung wird ein Mischungs-modell aufgebaut. Zur Schätzung der Parameter wird der Expectation-Maximization (EM) Algorithmus eingesetzt (Bilmes 1997). Derartige Lösungen sind besonders von den Initialisierungsparametern abhängig, so dass die Ergebnisse mehrfach zu berech-nen sind. Als Gütekriterium eignet sich zusätzlich die Pareto Dichte-Schätzung (Ultsch 2003). Im Vergleich zu anderen üblichen Mischungsmodellen unterstützt diese Tech-nik den Modellierungsprozess in seiner Qualität. Q-Q-Plots dienen diesbezüglich auch dazu, die Verteilung grafisch mit einem theoretischen Modell (z. B. Normalverteilung) zu vergleichen. Bilden die aufgetragenen Quantilen der Verteilungen annähernd eine Gerade, so kann davon ausgegangen werden, dass die beiden Verteilungen gleich sind bzw. das Modell der empirischen Verteilung entspricht.

Der Modellierungsprozess erfolgt zweistufig und nimmt Bezug darauf, dass die Vertei-lungen pro Dekade in der Regel unterschiedlich sind und im Sinne der Vergleichbarkeit bzw. der anstehenden Clusterung auch Massnahmen der Standardisierung erfordern. Die Verteilung der typischen Gemeinden wird als Gauss-Modell beschrieben. Die Ver-teilungsannahme wird durch Pareto Dichteschätzung und Q-Q-Plot (Normalverteilung) verifiziert. Die typische Schweizer Bevölkerungsänderung je Dekade lässt sich durch den Mittelwert und die Standardabweichung präzise herleiten und kann als klinisches Thermometer der Bevölkerungsänderung verstanden werden (15 Messpunkte). Bei-spielsweise beträgt der Wert ca. 2 % im Jahr 1870 pro Dekade (Abb. 2). Der zweite Modellierungsschritt bezieht sich auf das ganze Mischungsmodell (Lognormal-Normal-Lognormal). Es ist zu betonen, dass standardisierte Daten Berücksichtigung finden. Die z-Transformation stützt sich auf den Mittelwert und die Standardabweichung des ers-ten Modellierungsschrittes. Unter Berücksichtigung, dass die typischen Gemeinden ei-ner Normalverteilung folgen, ist auch bekannt, dass die z-transformierten Daten einer Standardnormalverteilung folgen. Der Mittelwert und die Standardabweichung bieten an dieser Stelle eine weitere Kontrollmöglichkeit bei der Modellierung (M = 0; S = 1). Gemäß Abbildung 3 lässt sich die gegebene Verteilung mit den angenommenen Vertei-lungen geeignet modellieren. Jede Kategorie („Verlierer“, „Typisch“, „Gewinner“) hat ihre eigene Charakteristik pro Dekade: Mittelwert, Standardabweichung und Menge. Q-Q-Plots bestätigen die Verteilungsannahme je Dekade bzw. die dazu entwickelten Modelle.

Page 55: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 43

Abb. 2: Typische Bevölkerungsänderung pro Dekade: Mittelwert und Abweichung (Quelle: Eigene Erarbeitung)

Abb. 3: Typische Bevölkerungsänderung pro Dekade: Mittelwert und Abweichung(Quelle: Eigene Erarbeitung)

Page 56: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch44

2.3 Generierung der Muster

Aufbauend auf den Wertausprägungen der Bevölkerungsänderung pro Dekade und den drei Kategorien K („Verlierer“, „Typisch“, „Gewinner“) ist es möglich, die posterior Wahrscheinlichkeiten zu berechnen, welche den Grad der Zugehörigkeit zu einer spezi-fischen Kategorie ausdrücken. Das Bayes Theorem unterstützt dazu die Berechnung der posterior Wahrscheinlichkeit, dass eine spezifische Kategorie für eine gegebene Wert-ausprägung gemessen wird (Han, Kamber 2006, 311).

Für einen gegebenen Wert der Bevölkerungsänderung pro Dekade wird jeweils eine Ka-tegorie K eindeutig bestimmt. Um die Gemeinden in ihrer Entwicklung gesamtheitlich zu charakterisieren werden sogenannte Muster formiert, d. h. mit Bezug auf die Dekaden ein chronologisches Profil von 15 eindeutigen Kategorien geschaffen. Für die zügige Interpretation und im Hinblick auf die Ähnlichkeitsuntersuchung der Muster wird eine spezielle Skalierung zu ganzzahligen Ausprägungen durchgeführt.

Im Kontext von Ähnlichkeitsuntersuchung von Gemeinden (Längschnittanalysen) ist die Euklidische Distanz nun sinnvoll auf die spezifisch geschaffene Datensituation (aus skalierten posterior Wahrscheinlichkeiten) anwendbar. Der Vorteil besteht darin, dass schwierige Varianzschätzungen entfallen. Ein weiterer Mehrwert ist darin zu sehen, dass keine Unterschiede zwischen den Mustern bestehen, wenn Änderungsraten gänzlich in einer der drei Kategorien (Dynamikklassen) liegen.

Es wird erwartet, dass sich bei 2 896 Gemeinden annähernd 1 000 verschiedene Muster durch Klassifizierung herausbilden. Vermutet wird, dass zwischen drei bis fünf Muster eine größere Gruppe von Gemeinden (zwischen 300 und 500) umfassen. Weiterhin wird angenommen, dass sich einige Muster lediglich auf eine oder nur zwei Gemeinden bezie-hen. Diese Sonderfälle betreffen der Erwartung zu Folge ungefähr 10 % aller Gemeinden. In Kenntnis der Dynamikklassen und ihrer Prior-Wahrscheinlichkeiten pro Dekade wird eine größere Anzahl Muster über mehrere „typische“ Ausprägungen verfügen. Aufgrund der Schweizer Bemühungen in der Raumplanungspolitik und ihrer Ziele (z. B. ausgegli-chene Interessen, gewünschte räumliche Entwicklung, Richtplan) werden keine Muster erwartet, die durchgängig nur durch „Verlierer“ bzw. „Gewinner“ geprägt werden.

Die Abbildung 4 zeigt in graphischer Form als Matrix (2 896 Schweizer Gemeinden × 15 Dekaden) das Klassifikationsresultat von 880 Mustern, geordnet nach Häufigkeit. Bei genauer Betrachtung bestätigt sich die Mehrzahl der geäußerten Annahmen. Bei den Mustern, die eine größere Menge an Gemeinden beschreiben, ist besonders auffäl-lig, dass ein Muster gemäß des Modellierungsansatzes die typische Schweizer Bevölke-rungsentwicklung zwischen 1850 und 2000 vollständig widerspiegelt (15 x „Typisch“, 852 Gemeinden). Die Gruppe der Sonderfälle ist weitaus grösser als angenommen, d. h. 863 Gemeinden (≈1/3) verteilen sich auf 775 Muster. Es treten wesentlich weni-

Page 57: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 45

ger Muster auf, die sich auf eine Menge von lediglich 10 bis 50 Gemeinden beziehen. Die Aufgabe besteht zukünftig darin, für spezifische bzw. auffällige Muster genauere Erklärungen (Kausalitäten) zu suchen und sowohl im Raum als auch in der Zeit einen in-haltlichen Kontext aufzudecken. Erkenntnisse über die gemeindespezifischen langfristi-gen Bevölkerungsmuster sind für die Raumordnung und Raumplanung von Bedeutung. Die historische Betrachtung der Entwicklung der Gemeinden kann zur Einordnung von gegenwärtigen Phänomenen (z. B. Rückgang des Tourismus oder Deindustrialisierung) dienen und räumliche Entwicklungschancen/-defizite aufzeigen.

Abb. 4: Eigenschaften der Gemeinden , rot=“Verlierer“, gelb=“Typisch“, grün=“Gewinner“

Abbildung 5 erlaubt den Vergleich der Dekaden in Bezug auf die Menge der drei Aus-prägungen: „Verlierer“, „Typisch“ und „Gewinner“. In der Regel werden pro Dekade mehr „Gewinner“ als „Verlierer“ gemessen. In stark abstrahierter Sicht lassen sich drei Perioden benennen. Die erste Periode 1850 bis 1910 (6 Dekaden) ist Ausdruck der Industrialisierung und Verstädterung. Die zweite Periode 1910 bis 1950 bezieht sich auf die Zwischenkriegsjahre. Die Schweiz ist separiert und den negativen Einflüssen der beiden Kriege ausgesetzt. Die dritte Periode 1950 bis 2000 ist geprägt durch starke Bevölkerungszuwächse und den ökonomischen Aufschwung. Die Periode ist besonders durch Prozesse der Suburbanisierung und der Counter-Urbanisierung (Mulugeta, Scha-effer 2009) geprägt. Die drei Dekaden 11, 12 und 13 (Zeitabschnitt: 1950 bis 1980) deuten in besonders vielen Gemeinden auf Wachstumsprozesse der Bevölkerung.

Page 58: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch46

Festzustellen ist, dass die Schweiz insbesondere in der jüngeren Vergangenheit weitaus weniger starken regionalen demographischen und wirtschaftlichen Verwerfungen und Umbrüchen unterliegt, als ihre deutschsprachigen Nachbarn, d. h. es ist keine Zunahme festzustellen, dass Gemeinden vermehrt als „Verlierer“ observiert werden.

Abb. 5: Eigenschaften der Dekaden , rot = “Verlierer“, gelb = “Typisch“, grün = “Gewinner“

2.4 Überproportionale Häufigkeit

Die Musterklassifikation wird im Sinne der Möglichkeit von überproportionaler Häufigkeit einzelner Muster untersucht. Man kann beobachten, dass die Klassenwahrscheinlichkeit WT,d = W(K = Typical) über alle 15 Dekaden (Dekade d = 1, ..., 15) kaum schwankt. Die mittlere Wahrscheinlichkeit von WT,d beträgt 85 % mit einer Standardabweichung von nur 6 %. Unter der Annahme der statistischen Unabhängigkeit der Dekaden kann die Häufigkeitsverteilung der Muster als eine Binominalverteilung modelliert werden (Bortz 2005, 65).

Unterschieden wird dabei die Wahrscheinlichkeit, dass eine Gemeindeentwicklung ty-pisch oder nicht typisch, d. h. ein „Gewinner“ oder „Verlierer“ ist. Die beobachtete Häufigkeit der Musters lässt sich mit den erwarteten Häufigkeiten aus dem Binomial-modell vergleichen. Es zeigt sich, dass die beobachtete Häufigkeit des Musters mit 15 „Typischen“ Ausprägungen deutlich oberhalb der Erwartungswerte liegt (Faktor 4). Im Gegensatz dazu liegen die gemessenen Häufigkeiten von Mustern mit zwei oder drei „untypischen“ Ausprägungen unterhalb der Erwartungswerte (Faktor 2). Weitere Ab-

Page 59: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 47

weichungen zeigen sich bei den Häufigkeiten von Mustern mit sechs oder sieben „unty-pischen“ Ausprägungen, d. h. die beobachteten Werte liegen oberhalb der erwarteten Werte.

Die Abbildung 6 stellt die erwarteten und beobachteten Häufigkeiten als kumulierte Ver-teilungsfunktion (CDF) dar. Die Anzahl der „untypischen“ Entwicklungen in einem Mus-ter beträgt im Maximum 10 (siehe auch Abb. 7). Lediglich fünf Gemeinden weisen diese Charakteristik auf. Es handelt sich eher um sehr kleine einwohnerschwache Gemeinden Leysin (Waadt), Givisiez (Freiburg), Frasco (Tessin), Corippo (Tessin), Clugin (Graubün-den). Man kann deutlich sehen, dass die Muster mit u = 0 und u = 1 wesentlich häufiger vorkommen als nach dem Modell zu erwarten gewesen wäre. Zusammengenommen entsprechen diese Muster mit höchstens einem untypischen Verlauf mehr als der Hälfte aller Muster. Annähernd 70 % der Gemeinden werden durch Muster beschrieben mit u = 0, u = 1 und u = 2.

Abb. 6: Vergleich der erwarteten und gemessenen Häufigkeiten der Muster (total = 880)

2.5 Lokalisierung der Muster und räumliche Instationarität

Die Wissenskonversion als wesentlicher Teilschritt des Data Mining wird durch die Loka-lisierung und das erweiterte räumliche Verständnis maßgeblich gefördert. Das Ziel be-steht darin, Sichtweisen zu formulieren, die auch für zukünftige Musteranalysen nützlich

Page 60: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch48

sind und ggf. eine gesonderte Betrachtung von Teilpopulationen bzw. einzelnen Mus-tern in der Schweiz fördert. Die Muster werden verortet (Abb. 7), indem die Ausprägung „Typisch“ bzw. „Untypisch“ diachronisch nachverfolgt wird.

Das Muster der typischen Schweizer Entwicklung (15 x „typisch“) eignet sich besonders als Objektmenge (852 Objekte) für zukünftige Detailstudien oder Stichprobenansätze, um auf höherer räumlicher Skalierung weitere Eigenschaften quantitativ und qualitativ zu erfassen und zu analysieren. Die Regionen Jura, Mittelland und Alpen sind durch die gemessene „Typische“ Schweizer Entwicklung in unterschiedlicher Häufigkeit und räumlichem Zusammenhang charakterisiert. Sogenannte Typische Gemeinden sind häu-fig in ländlichen Regionen der Schweiz zu finden. Die Kantone Bern, Luzern, St. Gallen sind sehr deutlich durch die typische Entwicklung geprägt.

untypisch:

Anzahl: 852 675 511 359 238 131 70 36 13 6 5

kumuliert: 29.42 52.73 70.37 82.77 90.99 95.51 97.93 99.17 99.62 99.83 100 %

Kernstadt: (schwarze Markierung), Agglomeration: (weiße Umrandung)

Abb. 7: Verortung der Ergebnisse zur Musterklassifikation basierend auf der Anzahl der „untypischen“ Entwicklungen in einer Gemeinde (Zeitintervall: 1850 bis 2000)

Page 61: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 49

Im Gegensatz dazu sind die höher gelegenen und insbesondere alpinen Regionen, ge-mäß der Verortung, in vielen Fällen durch andere Muster bestimmt. Die Kernstädte der Agglomeration und viele Gemeinden innerhalb des Schweizer Agglomerationsraums lassen sich nur kaum durch reine typische Entwicklungen beschreiben. Oft sind 3 und mehr untypische Ausprägungen für diese kennzeichnend, wobei die großen Städte (sie-he Zürich) gerade in den ersten sechs Dekaden besonderen Wachstumseigenschaften unterliegen.

Es ist zu erwarten, dass sich einerseits mit Hilfe von klassenerklärenden Techniken der Disziplinen Data Mining und Knowledge Discovery und andererseits mit anderen geostatistischen und geometrischen Techniken der Raumanalyse (Berry, Marble 1998; Goodchild 1990) weitere Regeln und Eigenschaften für ihr Auftreten und ihre Ausprä-gung finden lassen.

Ergänzend zu den in Abbildung 7 bereits eingesetzten Farb-Muster-Eigenschaften kann die Dimension des Kartenblattes auch zum graphischen Transkribieren des räumlichen Sachverhaltes herangezogen werden. Sogenannte kartographische Anamorphosen (Bertin 1974) nutzen die geometrischen Dimensionen als graphische Variablen, indem der zweidimensionale Raum so verzerrt wird, dass die Flächen von Raumeinheiten pro-portional zu einer absoluten Variable dargestellt werden, jedoch unter Beibehaltung der topologischen Eigenschaften des Grenznetzwerkes. Der Algorithmus von Gastner und Newman (2004) bildet analog zu Burgdorf, 2008 die Grundlage zur Kartenerstellung (Zellen in Breite und Höhe = 2 048).

Abbildung 8 zeigt ein Beispiel, welches dadurch gekennzeichnet ist, dass die Entfernun-gen auf dem Kartenblatt aufgrund der absoluten Veränderung (thematischer Sachver-halt) für die Flächendarstellung der Gemeinden (Bezugseinheit) lokal verändert wurden. Durch Verschieben der Gemeindegrenzen werden die Flächeninhalte der Polygone pro-portional zur mittleren Bevölkerungszahl pro Dekade vergrößert oder verkleinert. Im üblichen Sinne der Präsentation von räumlichen Farbmustern dient die Dynamikklasse je Gemeinde als zweite Variable. Auffällig sind zum einen die erheblich vergrößerten Flächen der großen Städte und Agglomerationsregionen und zum anderen die dünn be-siedelten Regionen (siehe Alpenregion). Diese eher ländlichen und peripheren Bereiche verbinden nun wie Fugen die besonders großen städtisch geprägten Flächensegmente und vermitteln abstrakt gesprochen einen dynamischen Eindruck im Zuge der Verschie-bung. Die Wirkung fokussiert auf den Überraschungs- und Verfremdungseffekt, der durch die Abweichung von der normalen Gestalt der Karte entsteht. Mit Blick auf die Dynamikklassen zeichnet sich der gravierende Zuwachs der Bevölkerung am Rande der großen Städte besonders deutlich ab und deutet auf das Wachstum der Siedlungsfläche in das Umland. Im Jahr 2010 bewohnen mehr als 75 % der Bevölkerung den Agglome-rationsraum.

Page 62: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch50

Abb. 8: Kartenanamorphote basierend auf der mittleren Bevölkerung zwischen 1960 und 1970. Die Färbung entspricht der jeweiligen Dynamikklasse dieser Dekade (Quelle: Eigene Erarbeitung)

Um weitere räumliche Zusammenhänge von Gemeinden aufzudecken, eignen sich zur vertiefenden Analyse von einzelnen Mustern bzw. Gemeinden die Techniken der räumli-chen Autokorrelation. Es lassen sich so Wertausprägungen von Gemeinden in einer Deka-de untersuchen, aber auch gemittelte Ausprägungen der Bevölkerungsentwicklung über 15 Dekaden analysieren (Abb. 9). Bei gegebener räumlicher Autokorrelation bilden sich lokale Cluster hoher (sogenannte „hot spots“) oder niedriger (sogenannte „cold spots“) Werte der Attributvariablen heraus. Die Korrelationen können dabei auch lokal entgegen-gesetzt gerichtet sein (potentielle Ausreißer). Derartige räumliche Instationaritäten wer-den mit LISA (Local Indicators of Spatial Association: Anselin, 1995) visuell identifizierbar. Mit Hilfe von kartographischen Darstellungen können dadurch räumliche Cluster von Ge-meinden beobachtet werden, die stark wechselseitig voneinander abhängen. In der De-tailbetrachtung von einzelnen Zeitintervallen und der Entwicklung der Bevölkerung lassen sich in der Umgebung großer Städte sowie in sehr dünn besiedelten Regionen derartige räumliche Instationaritäten aufdecken. Identifiziert werden Gemeinden im Suburbanen Raum, Gemeinden in verkehrstechnisch eher abgelegenen Räumen oder Gemeinden in Tal- und Höhenlagen, die ähnliche oder unterschiedliche (gegenläufige) Charakteristika in Bezug auf die Bevölkerungsentwicklung aufweisen. Im Kontext zukünftiger Detailun-tersuchungen können für die gefundene räumliche Anhäufung separate Analysemodelle aufgebaut werden, um das Gesamtverständnis in Raum und Zeit weiter zu vergrößern und die klassifizierten Muster durch weitere Eigenschaften zu belegen.

Page 63: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 51

Abb. 9: Messung nachbarschaftlicher Beziehungen (LISA cluster map, Signifikanzniveau p = 0,05) basierend auf der mittleren Bevölkerung aus 15 Dekaden (Quelle: Eigene Erarbeitung)

3 Diskussion

Das fachliche Fundament zur gemeindebezogenen Beschreibung der Bevölkerungsän-derung über 15 Dekaden bildet eine umfassende Datensichtung (Datenaufbereitung, Auswahl von Messgrössen und Verteilungsannahmen). Die Verteilungsuntersuchung berücksichtigt dabei die Anwendung von Mischungsmodellen für drei angenommene Dynamikklassen („Verlierer“, „Typisch“, „Gewinner“) und bildet später die Grundlage zur Bestimmung von Posterior Wahrscheinlichkeiten über das Bayes Theorem. Die Unter-suchung der Dateneigenschaften, Masszahlen und spezifisch skalierten Posterior Wahr-scheinlichkeiten wirkt aus Sicht der Bearbeiter vorbereitend auf sachgerechte Ansätze der Clusterung. Die euklidische Distanz kann deshalb nun als semantisch zutreffendes Distanzmass verstanden werden. Die entwickelten Dynamikeigenschaften erlauben eine klare Interpretation und Unterscheidung. Eine komplizierte Varianzschätzung beispiels-weise infolge schwerer Ränder der Verteilung ist deshalb nicht mehr erforderlich.

Durch Klassifikation der analysierten Gemeindedaten werden 880 Entwicklungsmuster identifiziert, die eine genauere Beschreibung in Bezug auf ihre Lage und die beobach-tete sowie erwartete Häufigkeit (Binominalverteilung) erfahren haben. Es konnte die typische Entwicklung der Bevölkerungsänderung über 15 Dekaden extrahiert, lokalisiert und nach Mittelwert und Standardabweichung dargestellt werden. Die in diesem Bei-trag ermittelten Muster erlauben Folgeuntersuchungen z. B. eine Identifizierung von

Page 64: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch52

charakteristischen Entwicklungen (Behnisch, Ultsch 2010) mit Hilfe einer Clusterung, wobei diese gezielt mit bereits bestehende Raumklassifikationen (Schuler et al. 2005) über Kriterien der Signifikanz erklärbar sind.

Unter dem Aspekt einer zunehmend feststellbaren Verfügbarkeit von raumbezogenen digitalen Daten und leistungsstarker GI-Systeme ist damit zu rechnen, dass sich auch in der Zukunft weitere umfassende Lösungsmöglichkeiten für die Ähnlichkeitsanalyse und Erklärung von Raumobjekten ergeben werden. Derartiges Datenmaterial wird vermehrt nicht mehr auf administrative Einheiten aggregiert sein, so dass im Sinne der geogra-phischen Abbildung eine feinere Wiedergabe der vorhandenen räumlichen Situationen vorstellbar wird (Thinh 2005).

Es besteht mit Blick auf zukünftige Quer- und Längsschnittanalysen nach wie vor ein Bedarf, die (versteckte) inhaltliche, räumliche und zeitliche Datenlogik zu charakteri-sieren (Tab. 1). Das Ziel besteht dabei darin, direkt verständliche Grundlagen für Planer und Entscheidungsträger zu erarbeiten. Diese erlauben im Idealfall den Aufbau und die Weiterentwicklung von umfassenderen und strategisch angemesseneren Planungswerk-zeugen (Arlt et al. 2001). Sogenannte automatisierte Beobachtungssysteme (Monito-ring Systems) können sich dann ggf. auch dazu eignen, dass sich Untersuchungsobjekte (urbane/räumliche Basiseinheiten) diachronisch und nach dem Prinzip der Vorsorge für künftige Generationen einschätzen, messen und vergleichen lassen.

4 LiteraturAnselin, L. (1995): Local Indicators of Spatial Association-LISA, Geographical Analysis,

Vol. 27, p. 93-115.

Arlt, G.; Gössel, J.; Heber, B.; Hennersdorf, J.; Lehmann, I; Thinh, N. X. (2001): Aus-wirkungen städtischer Nutzungsstrukturen auf Bodenversiegelung und Bodenpreis. IÖR Schriften Nr. 34, Leibniz-Institut für ökologische Raumentwicklung e.V., Dres-den.

Bätzing, W.; Dickhörner, Y. (2001): Die Typisierungen der Alpengemeinden nach ‘Ent-wicklungsverlaufsklassen’ für den Zeitraum 1870-1990. Mitteilungen der Fränki-schen Geographischen Gesellschaft, 48, S. 273-303.

Behnisch, M. (2009): Urban Data Mining. KIT Scientific Publishing, Karlsruhe.

Behnisch, M.; Ultsch, A. (2010): Urban Data Mining – Swiss Population Development by 15 Decades (in review).

Berry, B. J. L.; Marble, D. F. (1998): Spatial Analysis: A Reader in Statistical Geography. Prentice Hall, Englewood Cliffs, New Jersey.

Bilmes, J. (1997): A Gentle Tutorial on the EM Algorithm and its Application to Param-eter Estimation for Gaussian Mixture and Hidden Markov Models. Technical Report (http://crow.ee.washington.edu/people/bulyko/papers/em.pdf, 15.10.2009), Uni-versity of Berkeley, ICSI-TR-97-021.

Page 65: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Populationsentwicklung von Schweizer Gemeinden 53

Bortz, J. (2005): Statistik für Human- und Sozialwissenschaftler, Berlin.

Cattel, R. B. (1953): A quantitative analysis of the change in the culture pattern of Great Britain. 1837-1937 by P-Technique. In: Acta Psychologica, Vol. 9, pp. 99-121.

Demsar, Urska (2006): Data Mining of Geospatial Data: Combining Visual and Automa-tic Methods, Urban Planning Department, KTH Stockholm.

Goodchild, M. F. (1990): Spatial Analysis Using GIS. In: Fourth International Symposium on Spatial Data Handling. University of Zurich, Zürich.

Han, J.; Kamber, M. (2006): Data Mining – Concepts and Techniques. San Francisco CA.

Hand, D.; Mannila, H.; Smyth, P. (2001): Principles of Data Mining. MIT.

Keim, D. A. (2002): Datenvisualisierung und Data Mining. In: Datenbank-Spektrum – Zeitschrift für Datenbanktechnologie. 2. Jahrgang, Heft 2, 2002, dpunkt, S. 31.

Markgraf, O. (2006): Quantitative Geographie – ein systemtheoretisches Konstrukt. In: Beiträge zum 16. Kolloquium Theorie und quantitative Methoden in der Geogra-phie. Schriften des Instituts für Geographie und Geologie, Ernst-Moritz-Arndt Uni-versität Greifswald.

Miller, H. J.; Han, J.(2009): Geographic Data Mining and Knowledge Discovery. Chap-man & Hall, S. 21.

Mulugeta, S. K.; Schaeffer, P. V. (2009): Deconcentration, Counter-urbanization, or Trend Reversal? The Population Distribution of Switzerland, Revisited. Research Pa-per 2009-7. Westvirgina University.

Open Geospatial Consortium (2010): OGC History. http://www.opengeospatial.org/ogc/history, Zugriff: 03/2010.

Schuler, M.; Ullmann, D.; Haug, W. (Ed.) (2002): Eidgenössische Volkszählung 2000 – Bevölkerungsentwicklung der Gemeinden 1850-2000. Bundesamt für Statistik (er-schienen: 01.11.2005), Neuchâtel.

Schuler, M.; Dessemontet, P.; Joye, D. (2005): Eidgenössische Volkszählung 2000 – Die Raumgliederungen der Schweiz. Bundesamt für Statistik (BfS), Neuchâtel.

Siedentop, S.; Kausch, S.; Einig, K.; Gössel, J. (2003): Siedlungsstrukturelle Verände-rungen im Umland der Agglomerationsräume. Bundesinstitut für Bau-, Stadt- und Raumforschung (Hrsg.), Heft 114, 2003, S. 190.

Thinh, X. N. (2005): Entwicklung von mathematisch-geoinformatischen Methoden und Modellen zur Analyse, Bewertung, Simulation und Entscheidungsunterstützung. In: Städebau und Stadtökologie. Habilitationsschrift der Universität Rostock, Fakultät der Agrar- und Umweltwissenschaften.

Ultsch, A. (2003): Pareto Density Estimation: A Density Estimation for Knowledge Dis-covery. In: Baier, D.; Wernecke, K. D. (Eds): Innovations in Classification, Data Sci-ence, and Information Systems. Proceedings 27th Annual Conference of the Ger-man Classification Society (GfKL), 2003, Springer, pp. 91-100.

Ultsch, A. (2005): Improving the Identification of Differentially Expressed Genes in cDNA Microarray Experiments. In: Weihs, Claus; Gaul, Wolfgang: Classification −

Page 66: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Martin Behnisch, Alfred Ultsch54

the Ubiquitous Challenge. Proceedings of the 28th Annual Conference of the Ge-sellschaft für Klassifikation e.V. University of Dortmund, March 9-11, 2004, Berlin, Heidelberg.

Ultsch, A. (2008): Is log ratio a good value for measuring return in stock investments? In: Fink, Andreas; Lausen, Berthold; Seidel, Wilfried; Ultsch, Alfred (eds.) Advances in Data Analysis, Data Handling and Business Intelligence (Proceedings 32nd An-nual Conference of the German Classification Society, Helmut-Schmidt-University, Hamburg, July 16-18, 2008), Berlin, Heidelberg.

Ultsch, A. (2010): Lecture Notes: Databionic − Knowledge Discovery, Dept. of Mathe-matics and Computer Science, University of Marburg, Germany.

Witthauer, K. (1969): Verteilung und Dynamik der Weltbevölkerung. In: Petermanns Geographische Mitteilungen, Sonderheft 272, Gotha,Leipzig.

Page 67: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 55

Definition von homogenen hedonischen Preisregionen für Österreich mittels SKATER-Algorithmus

Marco Helbich, Wolfgang A. Brunauer

Zusammenfassung

Dieser Artikel präsentiert einen datengetriebenen Ansatz zur Ableitung von räumlich homogenen Regimen auf Basis eines lokalen hedonischen Immobilienpreismodells für Einfamilienhäuser in Österreich. Die mit Geographically Weighted Regression geschätz-ten räumlich variierenden Koeffizienten werden mithilfe von Hauptkomponentenana-lyse und (räumlichen) Clusteralgorithmen in homogene, kohärente Regionen zusam-mengefasst. Die so generierten Regionen bzw. Teilmärkte erlauben die Modellierung räumlicher Heterogenität bei gleichzeitiger Vermeidung von großer Volatilität in den Parameterschätzungen wie in rein lokalen Modellen. Die Ergebnisse finden Anwendung in der automatisierten Bewertung von Kleinimmobilien in Österreich.

1 Einleitung

Die Anwendung von automatisierten Bewertungssystemen bei Hypothekendarlehen hat in den letzten Jahren zunehmende Akzeptanz erfahren. Ein wesentlicher Grund dafür liegt in den Eigenkapitalvorschriften des Basler Ausschusses für Bankenaufsicht („Basel II“), die seit dem Jahr 2007 in den EU-Mitgliedsstaaten für alle Kredit- und Finanzdienstleistungsinstitute bindend sind. Konkret fordert die in Österreich gültige Solvabilitätsverordnung, dass der Wert einer Wohnimmobilie mindestens alle drei Jahre überprüft werden muss (in volatilen Märkten in kürzeren Zyklen). Immobilienpreisindizes stellen in diesem Zusammenhang ein adäquates Mittel dar, um Sicherheitenportfolien zu bewerten. Aus diesem Grund finden automatisierte Immobilienbewertungsmodelle im Bankenbereich zunehmend Verbreitung.

Eine besondere Rolle kommt dabei sogenannten „hedonischen Immobilienpreismodel-len“ zu (basierend auf den Konzepten von Lancaster 1966 und Rosen 1974). In der angewandten Ökonomie werden Immobilien als aus Einzeleigenschaften zusammenge-setzte Güter angesehen, wobei jede dieser Eigenschaften ihren spezifischen Preis besitzt (McDonald 1997). Hedonische Immobilienpreismodelle erklären daher Preise durch die Lage- und Ausstattungsmerkmale der jeweiligen Immobilien, üblicherweise im Rahmen multipler Regressionsmodelle. Dabei ist zwischen „Struktureigenschaften“ der Immobi-lie selbst sowie deren Lageeigenschaften bzw. räumlichen Externalitäten zu unterschei-den.

Page 68: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Marco Helbich, Wolfgang A. Brunauer56

Da es sich bei der Immobilie also um ein „Bündel“ von Eigenschaften handelt, die sich nicht getrennt handeln lassen und die zudem räumlich gebunden sind, ergeben sich zwei wesentliche Problemstellungen bei hedonischen Immobilienpreismodellen: Erstens ist zu erwarten, dass die marginalen Preiseffekte der Charakteristika nicht linear sind. Eine übliche Modellspezifikation um Heteroskedastizität in den Residuen und Nichtline-arität in den Effekten zu reduzieren ist die (semi-)log-Form (Malpezzi 2002), die zudem dem multiplikativen Charakter der Immobilieneigenschaften entspricht. Die zweite He-rausforderung ist die sich durch räumliche Gebundenheiten der Immobilie ergebende räumliche Heterogenität (d. h. Variabilität des Effektes wertbestimmender Eigenschaf-ten), die bei Nichtberücksichtigung zu einer Verletzung von Modellannahmen und lokal zu erhebliche verzerrten Parameterschätzungen führen kann. Aus diesem Grund müssen räumliche Effekte explizit in der Modellstruktur berücksichtigt werden. Gegenwärtig fin-den beispielsweise räumliche bzw. raum-zeitliche Modelle von Anselin (1988), Brunsdon et al. (1996), Wood (2006), Diggle und Ribeiro (2007) oder LeSage und Pace (2009) ihre Anwendung. Obwohl räumliche Heterogenität, bei der es sich im Fall von Immobi-lienmärkten um „Teilmärkte“ handelt, eine bedeutende Rolle bei der Modellierung von Hauspreisen spielt (Bourassa et al. 2007), werden räumliche Cluster meist exogen (z. B. auf Basis von Verwaltungsgrenzen) definiert.

Ziel dieses Beitrages ist daher, eine datengetriebene/endogene Definition von räumli-chen Teilmärkten für den österreichischen Einfamilienhausmarkt zu finden. Diese ho-mogenen Modellregionen bieten damit den Ansatzpunkt für effizientere Modelle mit räumlichen Interaktionsparametern ohne den Nachteil großer Volatilität in den Parame-terschätzungen.

Dieser Artikel ist wie folgt strukturiert: In Abschnitt 2 werden das Untersuchungsgebiet und der zugrundeliegende Datensatz vorgestellt. Abschnitt 3 skizziert die angewandte Methodik und diskutiert die resultierenden Modellergebnisse, und in Abschnitt 4 schließ-lich wird eine Einordnung der Ergebnisse in den theoretischen Kontext vorgenommen und der praktische Nutzen einer solchen Regionalisierung erörtert.

2 Untersuchungsgebiet und Datengrundlage

Der Datensatz umfasst die Kaufpreise und das Kaufdatum von 3892 geokodierten öster-reichischen Einfamilienhäusern mit ihren Eigenschaften (Fläche, Qualität, Alter etc.) für den Zeitraum von 1998 bis 2009. Die Daten wurden im Zuge von Kreditvergaben der Bank Austria UniCredit Group erhoben und dienten zur Bewertung von Immobiliensi-cherheiten. Abbildung 1 visualisiert die räumliche Verteilung der Beobachtungen einer-seits anhand koordinativ verorteter Standorte und andererseits auf Basis von Dichtewer-ten einer Kerndichteschätzung. Interpretativ repräsentieren Zellen mit heller Kolorierung eine hohe Standortdichte und dunkel eingefärbte Zellen eine geringe. Allgemein ist ein,

Page 69: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 57

der Topographie folgendes, Ost-West-Gefälle und eine Konzentration der Objekte auf urbane Gebiete, wie zum Beispiel Wien, Linz und Graz, erkennbar.

Abb. 1: Räumliche Verteilung der Einfamilienhaus-Standorte (n=3892) als Punktsignatur und Dichtewerte (Quelle: Eigene Erhebung)

Zusätzlich zu den Immobilieneigenschaften umfasst der Datensatz Lage- bzw. Nachbar-schaftseigenschaften der amtlichen Statistik (Statistik Austria), die auf demographischen und sozio-ökonomischen Eigenschaften (wie etwa Akademikerquote oder Arbeitslosen-rate) beruhen und ergänzend auf drei hierarchischen administrativen Einheiten (Zähl-sprengel-, Gemeinde- und Bezirksebene) für das Jahr 2001 bzw. 2009 zur Verfügung stehen. Sogenannte Compositional Effects (Goldstein 2003) erlauben es, räumliche He-terogenität anhand von hierarchischen Strukturen zu berücksichtigen. Dabei werden jeweils die Abweichungen einer administrativen Hierarchiestufe (z. B. Gemeinde) vom Mittel der Nächsthöheren (z. B. Bezirk) gebildet. Der Effekt der resultierenden Variable kann als hierarchieebenenspezifischer Differenzeffekt vom Effekt der jeweils übergeord-neten Ebene interpretiert werden.

3 Methodik

Wie in Abschnitt 1 beschrieben, ist das Ziel dieser Untersuchung, homogene Preisregi-onen für die hedonische Modellbildung abzuleiten. Um dieses Vorgehen zu motivieren, zeigt Abschnitt 3.1.1 die aus einer globalen Modellierung – ohne Berücksichtigung lo-kaler Parametervariation – resultierenden Probleme (insb. Heteroskedastizität und Auto-korrelation) sowie Lösungsansätze auf. Zur Erfassung der räumlichen Heterogenität bie-tet sich daher ein lokales Modell an, das jedoch zu stark volatilen Parameterschätzungen führt und daher für den praktischen Einsatz von Preisprognosen nur bedingt geeignet ist (Abschnitt 3.1.2). Aufbauend auf den Ergebnissen eines adaptierten lokalen Modells

Page 70: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Marco Helbich, Wolfgang A. Brunauer58

werden in Abschnitt 3.2 Regionen ableitbar, innerhalb derer die Parametervariation ge-ring ist. Das Ergebnis ist eine datengetriebene Teilmarktdefinition für den österreichi-schen Einfamilienhausmarkt.

3.1 Hedonische Preismodellierung

3.1.1 Globale Modelle1

Wie in Abschnitt 1 beschrieben werden hedonische Preismodelle üblicherweise als (semi-)log Modelle spezifiziert. Dabei wird stets die abhängige Variable (der Kaufpreis) logarith-miert, die erklärenden Variablen gehen linear (kategoriale Variablen wie die Qualität des Gebäudes oder solche, die nicht strikt positiv sind, wie etwa das Alter) oder logarithmiert (kontinuierliche Variablen wie die Wohnfläche) in das Modell ein. In solch einem Modell kann der Koeffizient der logarithmierten erklärenden Variable als Elastizität interpretiert werden (d. h. die prozentuelle Änderung der abhängigen Variable bei einer Änderung der erklärenden Variable um 100 %) bzw. bei einer nichtlogarithmierten erklärenden Va-riable approximativ als semi-Elastizität (d.h. die prozentuelle Änderung der abhängigen Variable bei einer Änderung der erklärenden Variable um eine Einheit).

Das Ausgangsmodell bildete also ein log-lineares Ordinary Least Square (OLS) Modell mit 24 vorselektierten Variablen, die wiederum über Minimierung des Akaike Information Criterions (AIC) schrittweise auf 19 Variablen reduziert wurden. Die Ergebnisse zeigen, dass ein schlechter Zustand des Hauses den Preis um 6 %, die schlechte Ausstattung des Bades und der Heizung den Preis um 7 % bzw. 10 % reduziert. Im Gegensatz erhöht das Vorhandensein eines Kellers den Preis um 12 %. Hinsichtlich der Nachbarschaftsei-genschaften zeigte sich, dass eine um 1 Prozentpunkt höhere Arbeitslosenquote zu einer Preisreduktion von rund 2 % führt, aber urbane Gebiete einen positiven Effekt (Elastizi-tät von +7 %) auf den Preis ausüben. Eine Überprüfung der zugrundeliegenden Modell-annahmen verwies jedoch einerseits auf signifikant autokorrelierte Residuen (Moran‘s I = 0,167; p < 0,001) – dies bewirkt zwar keine Verzerrung der geschätzten Koeffizienten, jedoch werden die Standardfehler unter- und die t-Werte überschätzt – andererseits auf Heteroskedastizität (Breusch-Pagan Teststatistik (BP) = 161,523; p < 0,001).

Im Falle von Heteroskedastizität besteht die Möglichkeit, diese implizit in die Modell-struktur über einen Feasible Generalized Least Square Ansatz (FGLS, Fahrmeir et al. 2009) zu integrieren, was abermals zu heteroskedastischen (BP: 163,417; p < 0,001) und autokorrelierten (Moran‘s I: 0,181; p < 0,001) Residuen führte.

Da diese Modellverletzungen ebenso ein Resultat autokorrelierter Eingangsdaten sein können, wurden in einem nächsten Schritt räumliche Effekte explizit in das Modell inte-

1 Da im Kern der Betrachtungen die Ableitung regionaler Cluster steht, werden bei sämtlichen Model-len die Schätzergebnisse nicht im Detail diskutiert.

Page 71: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 59

griert. In der Ökonometrie werden hierzu oftmals Simultaneous Autoregressive Modelle (Anselin 1988) verwendet. Diese Modellklasse beinhaltet sowohl das Spatial Lag, als auch das Spatial Error Model. Anhand der Lagrange Multiplier Statistik fiel die Wahl auf Zweiteres.

Zusammenfassend liefern das FGLS und das Spatial Error Model ähnliche Ergebnisse wie die OLS-Schätzung. Bei einem Vergleich der Modellgüte wies FGLS, gemessen am AIC, die bessere Performanz auf. In Summe zeigten aber sämtliche globale Modelle Schwachstellen hinsichtlich der Modellannahmen.

3.1.2 Lokale Modelle

Globale Modelle basieren auf der Annahme, dass die Beziehungen zwischen abhängiger und den unabhängigen Variablen im Untersuchungsgebiet räumlich konstant sind. Ist dies nicht der Fall, kann dies zu Heteroskedastizität und Autokorrelation führen. Ein An-satz um Heterogenität in den Parameterschätzungen zu modellieren, ist die Geographi-cally Weighted Regression (GWR, Brunsdon et al. 1996). Im vorliegenden Fall wurden – dem Prinzip der Parsimonie folgend – nur jene Variablen für die Schätzung des lokalen Modells herangezogen, die im globalen Modell höchste Signifikanz aufwiesen. Da 7 der 16 Variablen (Tab. 1) auf Basis der Teststatistik nach Leung et al. (2000) keine räumliche signifikante Variation in den Parameterschätzungen aufwiesen, konnten diese als global konstant angenommen werden. Zu diesem Zweck mussten die globalen und lokalen Effekte in einem mehrstufigen Verfahren getrennt geschätzt werden. In der Literatur ist dieses Vorgehen als Mixed GWR (MGWR, Fotheringham et al. 2002) angeführt. Die Prüfung der Residuen ergab, dass ein Großteil der Autokorrelation der Residuen (I = 0,019; p = 0,013) mittels einer lokalen Modellierung absorbiert werden konnte und ließ den Schluss zu, dass Heteroskedastizität in den globalen Modellen auf eine tatsäch-lich vorhandene Variation in den Parametern rückführbar ist. Tabelle 1 listet die resultie-renden Parameterschätzungen2 auf, wobei im oberen Teil die Effekte der Variablen mit varrierenden Koeffizienten aufgeführt sind, im unteren Teil jene der räumlich konstanten Variableneffekte, außerdem vergleicht sie die globalen OLS-Schätzungen (linke Hälfte) mit den lokalen Schätzungen aus der MGWR (rechte Hälfte). Dabei zeigt sich bei den meisten signifikant variierenden Effekten, dass die ersten und dritten Quantile der lo-kalen Schätzungen außerhalb der Konfidenzintervalle der globalen Schätzungen liegen, was erneut die Wichtigkeit der Modellierung räumlicher Heterogenität betont.

Die räumlich signifikant variierenden Parameterschätzungen für jede Immobilie wurden in weitere Folge mittels Ordinary Kriging (Isaaks und Srivastava 1989) interpoliert und bilden nun den Ausgangsdatensatz zur Ableitung der räumlichen Taxonomie für den Einfamilienhausmarkt.

2 Um die Rechenzeit zu reduzieren wurde ein Sample von 35% (1393 Objekte) herangezogen.

Page 72: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Marco Helbich, Wolfgang A. Brunauer60

Tab 1: Parameterschätzungen: fixe und variierende Koeffizienten*

global lokal Schätz. Std.fehl. t-Stat. 1. Quantil Median 3. Quantil

varia

bel

gem_kaufind_09*** 0,005 0,001 4,497 0,000 0,003 0,006gem_abi*** 0,012 0,003 3,897 0,010 0,016 0,020gem_alter_index*** -0,045 0,005 -8,635 -0,040 -0,030 -0,025ln_gem_dichte*** 0,066 0,009 7,459 0,038 0,075 0,083cond_house_3* -0,044 0,019 -2,236 -0,098 -0,085 -0,004attic_dum** -0,061 0,019 -3,137 -0,063 -0,039 -0,032lnarea_plot*** 0,092 0,020 4,527 0,040 0,112 0,151lnarea_total*** 0,466 0,029 15,906 0,375 0,423 0,518age_num*** -0,006 0,001 -11,205 -0,006 -0,005 -0,005intercept -0.007 0.009 -0.828

fix

gem_alq_09 -1.232 1.735 0.478zsp_abi_dgem*** 0.008 0,002 3.939heat_3*** -0.132 0.038 -3.491bath_3 -0.017 0.035 -0.484cellar_dum*** 0.117 0.022 5.368garage_3*** -0,094 0,020 -4.765terr_dum* 0.044 0.019 2.257

* gem_kaufind_09 = Kaufkraftindex je Gemeinde 2009, gem_abi = Akademikeranteil je Gemeinde 2009, gem_alter_index = durchschnittliches Alter der Einwohner pro Gemeinde, ln_gem_dichte = Log der Anzahl der Personen pro ha pro Gemeinde, cond_house_3 = Schlechter Zustand des Hauses, attic_dum = Dachgeschoss (Dummy), lnarea_plot = Grundstücksfläche, lnarea_total = Wohnfläche, age_num = Gebäudealter, gem_alq_09 = Arbeitslosenquote je Gemeinde 2009, zsp_abi_dgem = Abweichung Akademikeranteil je Zählsprengel vom Gemeindemittel 2001, heat_3 = Schlechte Qualität des Heizungs-systems (Dummy), bath_3 = Niedere Qualität des Bades (Dummy), cellar_dum = Keller (Dummy), gara-ge_3 = niedere Qualität oder keine Garage (Dummy), terr_dum = Terrasse (Dummy) / Signif.: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05

3.2 Ableitung der räumlichen Taxonomie

3.2.1 Hauptkomponentenanalyse

Das zugrundeliegende MGWR Modell ergab 9 räumlich variierende Variableneffekte (Tab. 1). Als Vorprozessierung zur Clusteranalyse wurde die Variation dieser Effekte auf Hauptkomponenten reduziert und nicht relevante Information eliminiert, was eine prä-zisere Diskriminierung der Cluster ermöglicht. Die resultierenden Hauptkomponenten repräsentieren eine Linearkombination der Eingangsdaten und besitzen die Eigenschaft, dass diese orthogonal aufeinander stehen und somit unkorreliert sind (Reimann et al. 2008). Da meist bereits wenige Hauptkomponenten einen Großteil der in den Daten

Page 73: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 61

vorhandenen Varianz erklären, findet gleichfalls eine Dimensionsreduktion der Eingangs-daten statt. Im vorliegenden Fall wurden die 9 Eingangsvariablen auf vier Hauptkom-ponenten, die kumulativ rund 97 % der Gesamtvarianz erklären, reduziert. Abbildung 2 stellt dabei Loadings und Scores der ersten beiden Hauptkomponenten (erklären ca. 84 % der Varianz) in Beziehung.

Abb. 2: Visualisierung der ersten beiden Hauptkomponenten als Biplot (Quelle: Eigene Erhebung)

Es zeigt sich einerseits eine gewisse Gruppierung der Variablen und andererseits, dass etwa die Variablen lnarea_total, cond_house_3, ln_gem_dichte, gem_alter_index und

lnarea_plot ähnliche Ladungen aufweisen und folglich ähnliche Informationen re-präsentieren. Da die Taxonomie auf Basis der administrativen Einheiten der Gemein-de vollzogen werden soll (um eine nachträgliche Verknüpfung mit weiteren Daten zu ermöglichen), wurden die Rasterzellenwerte der vier Hauptkomponenten mittels Mit-telwertbildung aggregiert. Die Dimension der resultierenden und zur Clusterung her-angezogenen Matrix beträgt schlussendlich 2 379 Zeilen (Gemeinden) mal 4 Spalten (Hauptkomponenten).

Page 74: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Marco Helbich, Wolfgang A. Brunauer62

3.2.2 Clusteranalyse

Ziel der Clusteranalyse ist es, die einzelnen Entitäten in Gruppen zu diskriminieren (Eve-ritt 1993). Dabei soll die Ähnlichkeit der Objekte innerhalb eines Clusters maximiert und jene zwischen den Clustern minimiert werden. Die Literatur bietet hierzu zahlreiche Ansätze wie beispielsweise hierarchische, probabilistische, graphenbasierte, dichteba-sierte oder modellbasierte Algorithmen an (Han, Kamber 2006). Schwachpunkte die-ser Algorithmen sind, dass sie a) keine zusammenhängenden Regionen ableiten und b) die resultierenden Regionen scharfe Clustergrenzen aufweisen. Letzteres wurde in der geographischen Literatur bereits diskutiert (Leung 1987) und ist durch die Anwendung von fuzzy Algorithmen (Bezdek 1981; Kaufman, Rousseeuw 1990) handhabbar. Um zusammenhängende Regionen zu erzielen, muss ein Algorithmus Nachbarschaftsbezie-hungen zwischen den Objekten bei der Clusterung mitberücksichtigen (Openshaw, Rao 1995). Hierzu bieten sich etwa der SKATER-Algorithmus (Assuncao et al. 2006) an. Das Akronym SKATER steht dabei für „Spatial ‚K‘luster Analysis by Tree Edge Removal“. Die Nachbarschaftsbeziehung zwischen Objekten wird dabei über einen Graphen im-plementiert, der die einzelnen Objekte (deren Zentroide) mittels Kanten und Knoten verbindet. Dabei sind die einzelnen Kanten mit Kosten versehen, die die Unähnlichkeit zwischen den Objekten ausdrückt und sich aus deren Attributwerten errechnet. Über das Zerschneiden und Stutzen des Graphen erhält man schließlich räumlich zusammen-hängende homogene Cluster. Weitere Details zum Algorithmus sind Assuncao et al. (2006) zu entnehmen. Abbildung 3 visualisiert die resultierende Partitionierung für eine unterschiedliche Anzahl an Clustern.

Interpretativ erscheint das Clusterergebnis mit sechs Regionen (Abb. 3, links unten) am adäquatesten und wird nun kurz diskutiert. Bei dieser Partitionierung werden erstmals die Bundeshauptstadt Wien und Teile des Stadt-Umlandes als separater Cluster ausge-wiesen, was der Sonderstellung Wiens am Immobilienmarkt entspricht. Umgeben wird dieser Cluster einerseits von einer Region die in etwa das Weinviertel repräsentiert und andererseits einem Cluster der grob das restliche Bundesland Niederösterreich und Teile des Bundeslands Oberösterreich umfasst. Einen vierten Cluster formen der Oberöster-reichische sowie Salzburger Zentralraum, ein hinsichtlich des Immobilienmarktes höchst dynamischer Bereich. Gleiches ist für die südwestlich gelegene Region um Graz zu sa-gen. Den flächenmäßig umfangreichsten Cluster bilden die östlichen und südlichen Bun-desländer Vorarlberg, Tirol, Kärnten und Teilen der westlichen Steiermark.

Page 75: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 63

Abb. 3: Räumliche Regime der Parameterschätzungen (Quelle: Eigene Erhebung)

4 Resümee

Primäres Ziel dieser Untersuchung war die Ableitung räumlicher Teilmarktdefinitionen auf Basis eines lokalen hedonischen Regressionsmodells. Hintergrund dafür ist die Unzu-länglichkeit globaler Modelle, räumliche Parametervariationen adäquat zu modellieren. Es wurde eine zweistufige Vorgehensweise vorgeschlagen, in der zunächst ein (mixed) GWR-Model geschätzt wird und daraus die variierenden Parameter ableitet werden. Da die Ergebnisse der GWR, zum Beispiel im Rahmen von automatisierten Bewertungs-modellen, schlecht operationalisierbar sind, wird nach einer Möglichkeit gesucht, einen „Bias-Varianz-Trade off“ zwischen Variabilität in den Parametern und Robustheit in der Parameterschätzung zu schaffen. Zu diesem Zweck werden die räumlich variierenden Parameterschätzungen aus der GWR (nach Orthogonalisierung über Hauptkomponen-

Page 76: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Marco Helbich, Wolfgang A. Brunauer64

tenanalyse) als Inputvariablen für eine räumliche Clusteranalyse mittels SKATER-Algo-rithmus herangezogen, die kohärente räumliche Teilmarktdefinitionen ergeben. Auf diese Weise erhält man eine methodengestützte und datengetriebene Spatial Regime Definition, die im Anschluss für hedonische hierarchische Regressionsmodelle mit räum-lich variierenden Parametern verwendet werden kann.

5 LiteraturAnselin, L (1988): Spatial Econometrics. Methods and Models. Kluwer, Dordrecht.

Assuncao, R.; Neves, M.; Camara G.; Freitas, C. (2006): Efficient Regionalization Tech-niques for Socio-Economic Geographical Units Using Minimum Spanning Trees. In: International Journal of Geographical Information Science, 20, p. 797-811.

Bezdek, J. (1981): Pattern Recognition with Fuzzy Objective Function Algorithms. Ple-num Press, New York.

Brunsdon, C.; Fotheringham, S.; Charlton, M. (1996): Geographically Weighted Regres-sion: A Method for Exploring Spatial Nonstationarity. In: Geographical Analysis, 28, p. 281-298.

Bourassa, S.; Cantoni, E.; Hoesli, M. (2007): Spatial Dependence, Housing Submarkets, and House Price Prediction. In: The Journal of Real Estate Finance and Economics 35, p. 143-160.

Diggle, P.; Ribeiro, P. (2007): Model-Based Geostatistics. New York, Springer.

Everitt, B. (1993): Cluster Analysis. Arnold, London.

Fahrmeir, L.; Kneib, T.; Lang, S. (2009): Regression: Modelle, Methoden und Anwen-dungen. Springer, Berlin.

Fotheringham, S.; Brundson, C.; Charlton, M. (2002): Geographically Weighted Regres-sion: The Analysis of Spatially Varying Relationships. Chichester, Wiley.

Goldstein, H. (2003): Multilevel Statistical Models. Arnold: London.

Han, J.; Kamber, M. (2006): Data Mining. Concepts and Techniques. Morgan Kauf-mann, San Francisco.

Isaaks, E.; Srivastava, M. (1989): An Introduction to Applied Geostatistics. Oxford Uni-versity Press, Oxford.

Kaufman, L.; Rousseeuw, P. (1990): Finding Groups in Data. An Introduction to Cluster Analysis. Wiley, New York.

Lancaster, K. (1996): A New Approach to Consumer Theory. In: Journal of Political Eco-nomy, 74, p. 132-157.

LeSage, J.; Pace, K. (2009): Introduction to Spatial Econometrics. CRC Press: Boca Ra-ton.

Leung, Y. (1987): On the Imprecision of Boundaries. In: Geographical Analysis, 19, p. 125-151.

Page 77: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Definition von homogenen hedonischen Preisregionen für Österreich 65

Leung, Y.; Mei, C.-L.; Zhang, W.-X. (2000): Statistical Tests for Spatial Nonstationarity Based on the Geographically Weighted Regression Model. In: Environment and Pl-anning A, 32, p. 9-32.

Malpezzi, S. (2002): Hedonic Pricing Models: A Selective and Applied Review. URL http://econpapers.repec.org/RePEc:wop:wisule:02-05.

McDonald, J. (1997): Fundamentals of Urban Economics. Prentice Hall: Upper Saddle River.

Openshaw, S.; Rao, L. (1995): Algorithms for Reengineering 1991 Census Geography. In: Environment and Planning A, 27, p. 425-446.

Reimann, C.; Filzmoser, P.; Garrett, R.; Dutter, R. (2008): Statistical Data Analysis Explai-ned. Applied Environmental Statistics with R. Wiley, Chichester.

Rosen, S. (1974): Hedonic Prices and Implicit Markets: Product Differentiation in Pure Competition. In: Journal of Political Economy, 82, p. 34-55.

Wood, S. (2006): Low-Rank Scale-invariant Tensor Product Smooths for Generalized Additive Mixed Models. In: Biometrics, 62, p. 1025-1036.

Page 78: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 79: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 67

Bewertung der Ressourceneffizienz von Siedlungsstrukturen mit Methoden der Geoinformatik und Statistik

Nguyen Xuan Thinh, Ulrich Schumacher

Zusammenfassung

Die Ressourceneffizienz von Siedlungsstrukturen stellt eine relativ neue Thematik in der ökologischen Raumforschung dar, welche das Leibniz-Institut für ökologische Raument-wicklung (IÖR) zu einem Forschungsschwerpunkt erhoben hat. Der vorliegende Beitrag beschreibt – ausgehend von einer theoretischen Fundierung zur Ressourceneffizienz von Siedlungsstrukturen – einen Ansatz zur systematischen Entwicklung erforderlicher Indi-katoren anhand einer Aufwand-Umweltbelastung-Nutzen-Matrix. Im Rahmen raumbe-zogener Analysen wurden zehn Indikatoren ausgewählt sowie für die Grundgesamtheit aller 440 Landkreise und kreisfreien Städte in Deutschland zum Jahr 2000 berechnet. Insbesondere soll dabei auf den Zerklüftungsgrad der Siedlungsfläche als ein Maß für deren Kompaktheit sowie den Vernetzungsgrad als eine Kenngröße zur Charakterisie-rung der horizontalen räumlichen Verflechtung zwischen den Funktionen Wohnen und Arbeiten innerhalb von Siedlungsstrukturen fokussiert werden. Auf Grund der empiri-schen Untersuchungen konnte die These erhärtet werden, dass kompakte Siedlungs-strukturen mit hoher Nutzungsmischung die Ressourceneffizienz positiv beeinflussen.

1 Einführung

Die zunehmende globale Knappheit natürlicher Ressourcen wie Energie, Rohstoffe und Flächen sowie die Umweltauswirkungen der Nutzung dieser Ressourcen zählen zu den aktuellen Hauptthemen der Diskussionen in Wissenschaft, Politik und Gesellschaft. So-wohl die EU als auch Bund und Länder haben Ressourcenstrategien aufgestellt, z. B. KOM (2003), BMU (2007), BMU (2008) und Effizienz-Agentur NRW (2006), vgl. auch Reutter (2007). Die natürlichen Ressourcen bilden die Grundlage für die drei Pfeiler der nachhaltigen Entwicklung im wirtschaftlichen, sozialen und ökologischen Bereich. Die effiziente Nutzung natürlicher Ressourcen stellt daher eine entscheidende Herausforde-rung der Menschheit im 21. Jahrhundert dar.

Effizienz ist ein Grundbegriff der Ökonomik. Ausgangspunkt aller Effizienzkonzepte ist der Aspekt des Handelns unter Knappheit. Mit dem allgemeinen Effizienzkonzept wird darauf abgezielt, das Verhältnis zwischen Nutzen (Ertrag) und Aufwand zu maximie-ren. Oder anders gesagt, es wird abgewogen, um das Verhältnis zwischen Aufwand und Nutzen zu minimieren. Errichtung, Erhalt und Betrieb der gebauten Umwelt bilden einen wesentlichen Bestandteil der gesellschaftlichen Ressourceninanspruchnahme und

Page 80: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher68

verursachen außerdem Umweltbelastungen. Die Menge und Intensität der Ressourcen-inanspruchnahme hängen von der räumlichen Verteilung und dem Ausmaß der Grund-daseinsaktivitäten (Wohnen, Arbeiten, Erholen, Bildung, Verkehr und Kommunikation) ab. Deshalb gehört das Konzept der Ressourceneffizienz zu den aktuellen Leitthemen der Raumforschung und Raumplanung. Ressourceneffiziente Städte und Regionen sind Leitinitiativen und Teilstrategien auf dem Weg zur Nachhaltigkeit geworden.

Die Begriffe „Ressourceneffizienz von Siedlungsstrukturen“ und „ressourceneffiziente Siedlungsstrukturen“ wurden jedoch bisher nur allgemein verbal definiert. In der inter-nationalen Literatur fehlt ein systematisches Indikatorensystem zur Messung der Res-sourceneffizienz von Siedlungsstrukturen, auch wenn zahlreiche Indikatorensysteme für nachhaltige Raumstrukturen vorhanden sind. Das Leibniz-Institut für ökologische Raumentwicklung (IÖR) in Dresden hat die Erforschung der Ressourceneffizienz von Siedlungsstrukturen zu einem zentralen Thema erhoben und als Forschungsbereich angelegt. Dessen Arbeiten orientieren sich an quantitativen Zielen einer nachhaltigen Raum entwicklung, wie sie in der nationalen Nachhaltigkeitsstrategie der Bundesregie-rung (Verdopplung von Energie- und Rohstoffproduktivität bei gleichzeitiger Redukti-on der täglichen Flächenneuinanspruchnahme bis 2020) formuliert sind. Solche Ziele erfordern differenzierte Untersuchungen und Aussagen sowohl zur raumstrukturellen Ausprägung und Dynamik der Siedlungsentwicklung als auch zu Kosten und fiskalischen Wirkungen von Standortentscheidungen.

Zur Annäherung an diesen komplexen Begriff wird eine pragmatische Definition der Ressourceneffizienz von Siedlungsstrukturen vorgeschlagen.

2 Theoretische Fundierung und Indikatoren zur Ressourceneffizienz von Siedlungsstrukturen

2.1 Formale Definition

Um die Ressourceneffizienz von Siedlungsstrukturen definieren zu können, ist eine kurze Abhandlung der Literatur erforderlich. Eng verbunden mit dem Begriff „Ressourceneffi-zienz“ sind die Begriffe „Ökoeffizienz“, „ökonomisch-ökologische Effizienz“ und „öko-logische Effizienz“. Alle bisher genannten Effizienz-Konzepte sind im Kontext des Ma-nagements von Produkten und Unternehmen entwickelt worden. Bereits 1990 haben Schaltegger und Sturm die ökologische Effizienz eines Produkts als das Verhältnis der Gesamtheit von erwünschtem Output und positiven externen Effekten zur gesamten Schadschöpfung definiert (Dimension: Mengeneinheiten/Schadschöpfungseinheiten). Des Weiteren wurde die ökonomisch-ökologische Effizienz einer Umweltschutzinvesti-tion bzw. -maßnahme als das Verhältnis zwischen der Nettoverminderung ökologischer Schäden und dem monetärem Input eingeführt (Schaltegger, Sturm 1990). Somit kann

Page 81: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 69

die Effizienz unter folgenden vier Aspekten betrachtet werden (Multidimensionalität des Effizienzbegriffs):

finanzwirtschaftlich (Rentabilität), •

leistungswirtschaftlich (Produktivität), •

ökologisch (ökologische Effizienz) und •

ökonomisch-ökologisch (ökonomisch-ökologische Effizienz).•

Unter dem Motto „Mehr Werte schaffen und dabei weniger Ressourcen verbrauchen und die Umwelt weniger belasten“ wurde 1992 das Ökoeffizienzkonzept für Produkte und Unternehmen vom World Business Council for Sustainable Development (WBCSD) anlässlich der UN-Konferenz „United Nations Conference on Environment and Deve-lopment“ in Rio de Janeiro entwickelt. Zunehmend wird die Ökoeffizienz als ein wich-tiges Wirtschaftsprinzip des 21. Jahrhunderts anerkannt – aufgrund der Ressourcen-knappheit, des Klimawandels und der Zerstörung der biologischen Vielfalt sowie der politischen und ökonomischen Reaktion darauf. In der Literatur gibt es mehrere Defini-tionen mit unterschiedlichem Begriffsinhalt für die Ökoeffizienz (vgl. Schmidheiny 1992, Bosshardt 1999 und Günther 2005).

Angesichts der Begriffsvielfalt hat Günther (2005) verschiedene Definitionen der Ökoef-fizienz zusammengestellt und Experten in Wissenschaft und Praxis nach dem Verständnis und der Messung der Ökoeffizienz befragt. Gemäß BMU/BDI (2002) ist Ökoeffizienz als Verhältnis zwischen einer ökonomischen bzw. monetären und einer ökologischen Größe definiert und stellt eine sprachliche Verkürzung der ökonomisch-ökologischen Effizienz dar. Anhand bekannter Begriffe sowie der Auswertung der Expertenbefragung hat Günther (2005) folgende Definition zum Grundverständnis der Ökoeffizienz vorge-schlagen: Ökoeffizienz ist das Verhältnis der Inputs (Ressourcen) und/oder unerwünsch-ten Outputs (Kondukte) zum erwünschten Output (Produkt).

Für die Planer bleibt diese Definition relativ abstrakt. Dagegen ist die Definition von Schmidheiny (1992) konkreter formuliert: „Eco-efficiency means delivery of competi-tively priced goods and services that satisfy human needs and bring quality of life while progressively reducing environmental impacts of goods and resource intensity throug-hout the entire life-cycle to a level at least in line with the Earth's estimated carry-ing capacity”. Diese Formulierung betont sowohl ökonomische als auch ökologische Komponenten und kann auch als eine Definition für ökonomische-ökologische Effizienz betrachtet werden: Die Produkte und Dienstleistungen für die Gesellschaft sind zu wett-bewerbsfähigem Preis (Ökonomie) und mit weniger Umweltbelastung und reduzierter Ressourcenintensität während ihres gesamten Lebenszyklus (Ökologie) zu produzieren.

Überträgt man das Konzept der Ökoeffizienz von Produkten (Schmidheiny 1992) auf die gebaute Umwelt, so kann die Ökoeffizienz von Siedlungsstrukturen zunächst formal wie folgt definiert werden:

Page 82: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher70

Ökoeffizienz von Siedlungsstrukturen bedeutet die immer bessere Bereitstellung von Funktionen bzw. Dienstleistungen (Nutzen) von Siedlungssystemen bei abnehmendem Verbrauch natürlicher Ressourcen (Flächen, Material und Energie) und Reduzierung von Umweltbelastungen und Kosten.

Da die gesamten Kosten von Siedlungsstrukturen von der Subventions- und Förderpoli-tik abhängen und somit schwierig empirisch zu erfassen und miteinander zu vergleichen sind, soll die Komponente Kosten hier nicht betrachtet werden. Ohne die Berücksichti-gung der Kosten (in Geldeinheiten) kann bei dieser Definition von der Ressourceneffi-zienz gesprochen werden. Mit anderen Worten: Eine Siedlungsstruktur wird umso res-sourceneffizienter, wenn sie pro Nutzenseinheit weniger Ressourcenaufwand in Form von Flächeninanspruchnahme, Verbrauch von Materialien, Rohstoffen sowie Energie benötigt und gleichzeitig weniger Umweltbelastung verursacht.

Mathematisch betrachtet kann man die Ressourceneffizienz von Siedlungsstrukturen abstrakt als Optimierungsaufgabe wie folgt formulieren:

Dieses theoretische Konstrukt bedeutet in einer äquivalenten Formulierung die Maxi-mierung des Nutzens einer Siedlungsstruktur pro Einheit Ressourcenaufwand und Um-weltbelastung. Die Maximierung des Nutzens einer Siedlung bedeutet z. B., dass die Siedlung mehr Menschen die Möglichkeit zum Wohnen, Arbeiten, Bilden und Erholen mit höherer Lebensqualität bietet und gleichzeitig eine höhere Bruttowertschöpfung produziert. Die Quantifizierung dieses Quotienten erfordert eine Aufstellung komplexer Größen und Zusammenfassung in messbaren Variablen einheitlicher Dimension, die den Nutzen FNutzen und den Aufwand FRessourcenaufwand & Umweltbelastung für eine allgemeine Siedlung darstellen.

2.2 Indikatoren-Matrix

Zur Operationalisierung der Ressourceneffizienz von Siedlungsstrukturen werden aus pragmatischer Sicht der Nutzen sowie der Ressourcenaufwand bzw. die Umweltbelas-tung in Kategorien gegliedert.

Der Nutzen kann in folgende Kategorien aufgeteilt werden:

Grunddaseinsfunktionen (N1),•

Ökonomisches Leistungsvermögen (N2) und•

Lebens-, Umwelt- und raumstrukturelle Qualität (N3).•

Page 83: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 71

Ressourcenaufwand bzw. Umweltbelastung enthalten folgende Komponenten:

Flächeninanspruchnahme (K1),•

Stofflicher Verbrauch (K2),•

Energieverbrauch (K3),•

Transportaufwand von Personen und Gütern (K4) und•

Emission von Lärm und Schadstoffen (K5). •

Zur Systematisierung und Einordnung der Indikatoren wird eine Matrix aufgestellt, in der alle N-Kategorien mit allen K-Kategorien kombiniert werden (als Aufwand-Umwelt-belastung-Nutzen-Matrix):

Tab. 1: Indikatoren-Matrix zur Ressourceneffizienz von Siedlungsstrukturen

Indikatoren-Matrix Flächeninan-spruchnahme (K1)

Stofflicher Verbrauch (K2)

Energie-verbrauch (K3)

Transport-aufwand (K4)

Lärm- und Schadstoff-Emission (K5)

Grunddaseinsfunktionen (N1)Ökonomisches Leistungsvermögen (N2)Raumstrukturelle Umweltqualität (N3)

Um ein Indikatorensystem zur Messung der Ressourceneffizienz von Siedlungsstruk-turen theoretisch zu begründen und systematisch zu entwickeln, sind alle Matrixfelder NiKj (i=1(1)3, j=1(1)5) speziell zu betrachten. Für jedes Matrixfeld ist mindestens ein typischer quantifizierbarer Indikator auszuwählen. Hierzu gehört eine Beschreibung des Indikators mit Darstellung des Berechnungsverfahrens und der Datengrundlage bzw. -verfügbarkeit.

Beispielsweise können in das hervorgehobene Matrixfeld N1K1 folgende Indikatoren auf-genommen werden:

Siedlungsdichte [Einwohner je ha Siedlungs- und Verkehrsfläche (SuV)],•

Einwohner-Arbeitsplatzdichte [Einwohner & Arbeitsplätze je ha SuV] und•

Wohnungsdichte [Anzahl der Wohnungen je ha SuV].•

Weitere mögliche Indikatoren für andere Matrixfelder sind:

Flächenspezi• fische Produktivität [€ Bruttoinlandsprodukt (BIP) je ha SuV] (N2K1),

Gebäudeoberflächen pro Einwohner [m² pro Kopf] (N• 1K2),

Energieverbrau• ch pro Einwohner [MJ pro Kopf] (N1K3),

Page 84: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher72

Treibhausgas-Emission pro Einwohner [kg CO• 2 pro Kopf] (N1K5),

Gebäudeoberflächen je € BIP [m² je € BIP] (N• 2K2),

Energieverbrauch je € BIP [MJ je € BIP] (N• 2K3) und

Treibhausgas-Emission je € BIP [kg CO• 2 je € BIP] (N2K5).

Wenn zwei Siedlungen die gleiche Flächengröße beanspruchen, so unterscheidet sich ihre raumstrukturelle Qualität durch die räumliche Anordnung unterschiedlicher Nut-zungsarten, welche wiederum durch Kompaktheitsmaße und Vernetzungsgrade cha-rakterisiert werden (vgl. Arlt et al. 2005; Thinh 2002). Kompakt gebaute Städte mit hoher Nutzungsmischung und kurzen Wegen zwischen Wohnung, Arbeit, Versorgung, Bildung, Erholung und Kommunikation bringen ihren Bewohnern mehr Lebensqualität und Sozialverträglichkeit (vgl. Lynch 1984; Breheny 1992; Rogers 1995; Stete 1995; Jenks et al. 1996; Jessen 2000; Van, Senior 2000; Wentz 2000; Williams et al. 2001). Deshalb können die Kompaktheitsmaße und Vernetzungsgrade der Siedlungsflächen dem Matrixfeld (N3K1) zugeordnet werden. In der empirischen Untersuchung wird der Zerklüftungsgrad der Siedlungsfläche stellvertretend für die Kompaktheitsmaße verwen-det. Bezüglich der Berechnungsalgorithmen des Zerklüftungs- und Vernetzungsgrades sei auf Thinh (2002) und Thinh et al. (2007) verwiesen. Es ergeben sich für das genannte Matrixfeld v. a. diese zwei potenziellen Indikatoren:

Zerklüftungsgrad der Siedlungsfläche [dimensionslos] und •

Vernetzungsgrad zwischen Wohnbaufläche sowie Industrie-, Gewerbe- und Ver-•kehrsfläche [%].

Tab. 2: Übersicht möglicher Indikatoren zur Messung der Ressourceneffizienz von Siedlungs-strukturen

Feld Indikatoren(N1, K1)(N2, K1)(N3, K1)

Siedlungsdichte, Einwohner-Arbeitsplatzdichte, WohnungsdichteFlächenproduktivität der Siedlungs- und VerkehrsflächeZerklüftungsgrad und Vernetzungsgrad der Siedlungsfläche

(N1, K2)(N2, K2)(N3, K2)

Wohnfläche, Gebäudevolumen und Gebäudeoberfläche jeweils pro EinwohnerProduktivität nichterneuerbarer RohstoffeVerhältnis der Gebäudeoberfläche (Außenwände, Fenster, Dach) zum Gebäudevolumen

(N1, K3)(N2, K3)(N3, K3)

Energieverbrauch pro Einwohner, Energieverbrauch pro BeschäftigtenEnergieverbrauch bezogen auf Bruttoinlandsprodukt bzw. BruttowertschöpfungAnteil erneuerbarer Energieträger am Energieverbrauch

(N1, K4)(N2, K4)(N3, K4)

PKW-Dichte, Pendlerdistanzen, Erreichbarkeit im MIV bzw. ÖPV (Schiene)Transportproduktivität und -intensität im Personen- und GüterverkehrVerkehrsstauzeit

(N1, K5)(N2, K5)(N3, K5)

CO2-Emission, Abwasser- und Abfallmenge pro Einwohner, Bevölkerungsanteil mit LärmbelästigungCO2-EffizienzAnteil gefährdeter Biotopfläche, Überschreitungshäufigkeit von Schwellwerten bei Luftschad-stoffen (z. B. bodennahes Ozon), Luftqualität

Page 85: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 73

Durch nähere Betrachtung jedes einzelnen Matrixfeldes, kann insgesamt folgende Liste von Indikatoren (Tab. 2) aufgestellt werden.1

Es ist offensichtlich, dass die Indikatoren in den Spalten K1, K3 und K4 der Matrix (Tab. 1) die Ressourceneffizienz der Siedlungsstrukturen in besonderem Maße beein-flussen. Oben wurden die Indikatoren der Spalte K1 bereits erläutert. In der Kategorie K3 geht es um Minimierung des spezifischen Energieverbrauchs pro Einwohner, Be-schäftigten bzw. pro Euro Bruttoinlandsprodukt und um zukunftsfähige Energieversor-gung. Bei der Kategorie K4 handelt es sich um die Messung des Verkehrsaufwandes von Siedlungsstrukturen.

In der Stadtforschung und dem Stadtmanagement spielen gebäudespezifische Kenngrö-ßen wie Gebäudevolumen und Gebäudeoberfläche (Kategorie K2) eine wichtige Rolle. Das Gebäudevolumen wird z. B. als Bezugsgröße bei der Erfassung und Berechnung von energetischen Gebäudedaten sowie bei der Preiskalkulation verwendet. In den folgen-den Ausführungen ist mit dem Gebäudevolumen das Volumen eines Gebäudes gemäß den Außenabmessungen gemeint. Neben dem Gebäudevolumen ist die Gebäudeober-fläche ebenfalls eine relevante Größe bei der Erforschung des Gebäudebestandes und Charakterisierung der Stadtstruktur. In der Bauphysik und beim Wärmeschutznachweis ist das A/V-Verhältnis (Quotient aus der Oberfläche A [m²] und dem Volumen V [m³] eines Gebäudes) eine wichtige Kenngröße für die Kompaktheit eines Gebäudes. Außer-dem kann das für den Gesamtgebäudebestand berechnete A/V-Verhältnis die räumliche Verteilung von Gebäuden einer Stadt charakterisieren. Größere Werte können etwa auf eine stärkere räumliche Zerstreuung von Gebäuden hinweisen.2

3 Empirische Untersuchungen auf Kreisbasis in Deutschland

3.1 Ermittlung von Indikatoren

Für die empirische Untersuchung wurde die Grundgesamtheit der 440 Landkreise und kreisfreien Städte in Deutschland ausgewählt (Gebietsstand 2000). Die Quantifizierung und kartographische Darstellung erfolgte für folgende zehn Indikatoren:

(1) Erreichbares Bevölkerungspotenzial innerhalb einer Stunde im motorisierten Indivi-dualverkehr [Personen],

(2) Erreichbares Bevölkerungspotenzial innerhalb einer Stunde im öffentlichen Schie-nenverkehr [Personen],

1 Diese Indikatoren wurden im Ergebnis eines interdisziplinär besetzten Workshops am IÖR Dresden 2008 vorgeschlagen. 2 Das hier verwendete A/V-Verhältnis unterscheidet sich von dem nach Energieeinsparverordnung: Gebäudeoberflächen sind nur die aus der Erdoberfläche herausragenden Gebäudeflächen, nicht aber die das beheizte Volumen umschließenden Flächen.

Page 86: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher74

(3) PKW-Dichte [PKW je 1 000 Einwohner],

(4) Siedlungsdichte [Einwohner je km² SuV],

(5) Wohnfläche je Einwohner [m²],

(6) Wohnungsdichte [Wohnungen je ha SuV],

(7) Einwohner-Arbeitsplatzdichte (E-A-Dichte) [Anzahl der Einwohner und Arbeitsplät-ze je ha SuV],

(8) Flächenproduktivität der Siedlungs- und Verkehrsfläche [1.000 € BIP per ha SuV],

(9) Zerklüftungsgrad der Siedlungsfläche [-] und

(10) Vernetzungsgrad der Siedlungsfläche [%].

Diese zehn Indikatoren besitzen einen deutlichen Zusammenhang zur Ressourceneffizi-enz von Siedlungsstrukturen in folgendem Sinne: Je kleiner oder größer der Wert eines Indikators ausfällt, umso besser oder schlechter ist die Ressourceneffizienz zu bewer-ten. So wirkt sich beispielsweise eine hohe Wohnfläche je Einwohner ungünstig auf die Ressourceneffizienz aus. Einige in Tabelle 2 genannte Indikatoren sind auf Kreisbasis schwierig zu ermitteln, z. B. Energieverbrauch, CO2-Emission oder Verkehrsaufwand. Die Ermittlung der Indikatoren (1) bis (8) erfolgte auf der Basis der INKAR-Daten (Indi-katoren und Karten der Raum- und Stadtentwicklung, Quelle: Bundesamt für Bauwesen und Raumordnung) sowie des Datenpaketes „Statistik Regional“ (Quelle: Statistische Ämter des Bundes und der Länder). Für die Berechnung des Zerklüftungsgrades (9) und Vernetzungsgrades der Siedlungsfläche (10) liegen die Vektordaten von CORINE Land Cover – Bodenbedeckungsdaten für Deutschland (CLC2000) vom Umweltbundesamt zugrunde. Diese zweite CORINE-Kartierung der Bodenbedeckung und Landnutzung zum Jahr 2000 wurde für die meisten europäischen Staaten auf der Basis von Satelliten-daten im Maßstab 1:100 000 durchgeführt.

In diesem Rahmen sollen exemplarisch drei Indikatoren näher vorgestellt werden (Flä-chenproduktivität, Zerklüftungsgrad und Vernetzungsgrad der Siedlungsfläche): Davon sind die beiden letztgenannten Kenngrößen (Zerklüftungsgrad als Kompaktheitsmaß der Siedlungsflächen sowie Vernetzungsgrad zwischen Flächen der Wohnbebauung ei-nerseits und Industrie-, Gewerbe- bzw. Verkehrsflächen andererseits) mit Methoden der Geoinformatik zu ermitteln.

Flächenproduktivität der Siedlungs- und Verkehrsfläche:

Die Flächenproduktivität ist als spezifische Kenngröße definiert: Bruttoinlandsprodukt bezogen auf Siedlungs- und Verkehrsfläche (SuV) der jeweiligen Raumeinheit. Zu ihrer Berechnung sind Daten der Statistischen Ämter des Bundes und der Länder verfügbar.

Page 87: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 75

Abb. 1: Karte zur Flächenproduktivität der Siedlungs- und Verkehrsfläche nach Kreisen und kreisfreien Städten in Deutschland 2000

Page 88: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher76

Die Flächenproduktivität der Siedlungs- und Verkehrsfläche zeigt in Deutschland erheb-liche räumliche Disparitäten, wie aus Abbildung 1 deutlich zu erkennen ist. Erwartungs-gemäß sind in den Metropol- bzw. Großstadtregionen sowie anderen Verdichtungs-räumen hohe Indikatorwerte zu finden. Andererseits weisen die geringen Werte des flächenspezifischen Bruttoinlandsproduktes in Mecklenburg-Vorpommern, in Branden-burg, im Norden von Sachsen-Anhalt (Altmark), in Teilen von Rheinland-Pfalz (Eifel), in Ostfriesland sowie in ländlichen Gebieten Nordbayerns auf dünne Besiedlung mit wenig Industrie und Gewerbe hin.

Zerklüftungsgrad der Siedlungsfläche:

Der Zerklüftungsgrad der Siedlungsfläche ist definiert als Summe der Randlänge aller Flä-chen des Siedlungsraumes, geteilt durch den Umfang des äquivalenten geometrischen Kreises (vg. Thinh 2002). Er stellt eine dimensionslose Kenngröße zur Charakterisierung der Kompaktheit bzw. Dispersion von Siedlungsstrukturen dar: Geringe Werte stehen für räumlich kompakte, hohe Werte für disperse Bebauungsstrukturen. Zur automatischen Berechnung mithilfe von ArcGIS werden alle Siedlungsflächen (CORINE-Codes < 200) der einzelnen Raumeinheiten aggregiert, d. h. benachbarte Flächen mit Siedlungszuord-nung werden jeweils zu einer einzigen Fläche verschmolzen (Dissolve-Funktion).

Die Karte des Zerklüftungsgrades der Siedlungsfläche (Abb. 2) zeigt ein gewisses Nord-Süd-Gefälle in Deutschland, aber keine signifikanten Unterschiede in Ost-West-Rich-tung. Es fällt auf, dass die kreisfreien Städte generell niedrigere Zerklüftungsgrade, also eine kompaktere Siedlungsstruktur als die Landkreise besitzen. Hohe Zerklüftungsgrade finden sich vor allem in den norddeutschen Küstenländern, aber auch in Brandenburg sowie in Teilen von Nordrhein-Westfalen, Hessen, Sachsen und Baden-Württemberg. Zahlreiche Streusiedlungen (besonders im Norden und Nordosten) sowie langgestreckte Siedlungsstrukturen (beispielsweise in Sachsen), aber auch großflächige Landkreise sind dafür ausschlaggebend. Niedrige Zerklüftungsgrade finden sich dagegen in der Mitte Deutschlands, im Ruhrgebiet, in Rheinland-Pfalz und in Bayern. Bei den hier vorhan-denen kompakteren Strukturen spielen große Industrie- und Gewerbegebiete ebenso wie der Bergbau (Zuordnung von Abbauflächen zur Siedlungsfläche insgesamt) eine wichtige Rolle.

Vernetzungsgrad der Siedlungsfläche:

Der Vernetzungsgrad der Siedlungsfläche (vgl. Thinh et al. 2007) wird als Quotient der Summe der Grenzlänge zwischen Wohnbau- und Industrie-Gewerbe-Verkehrsfläche, geteilt durch die Summe der Grenzlänge der bebauten Siedlungsfläche insgesamt in Prozent berechnet (wobei die gemeinsame Grenze im Nenner nur einmal zu berücksich-tigen ist). Er stellt eine Kenngröße zur Charakterisierung der räumlichen Verflechtung zwischen den Funktionen Wohnen und Arbeiten innerhalb von Siedlungsstrukturen dar: Geringe Werte stehen für räumlich wenig, hohe Werte für stark vernetzte Siedlungsstruk-

Page 89: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 77

Abb. 2: Karte zum Zerklüftungsgrad der Siedlungsfläche nach Kreisen und kreisfreien Städten in Deutschland 2000

Page 90: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher78

Abb. 3: Karte zum Vernetzungsgrad der Siedlungsfläche nach Kreisen und kreisfreien Städten in Deutschland 2000

Page 91: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 79

turen. Auf der Basis der CORINE-Daten wird die Vernetzung zwischen Wohnbebaungs- (CORINE Code 111 und 112) sowie Industrie-, Gewerbe- bzw. Verkehrsflächen (CORINE Code 121 bis 124), durch gemeinsame Grenzlinien überblicksmäßig beschrie-ben.

Eine differenzierte räumliche Verteilung des Vernetzungsgrades der Siedlungsflächen ist aus der Karte (Abb. 3) erkennbar, welche sich dem Betrachter im Detail jedoch nicht auf den ersten Blick erschließt. Es fällt auf, dass die kreisfreien Städte fast ausschließlich hohe Vernetzungsgrade, also eine räumlich stärker verflochtene Siedlungsstruktur als die sie umgebenden Landkreise besitzen. Hohe Vernetzungsgrade finden sich vor allem in Nordrhein-Westfalen, Sachsen-Anhalt, Sachsen, Oberfranken und Baden-Württemberg. Entlang der Rheinschiene lassen sich (mit Unterbrechungen) höhere Werte ausmachen, besonders der am stärksten vernetzte Landkreis Mayen-Koblenz ist auffällig. Die histo-risch gewachsene räumliche Nähe von Wohn- und Arbeitsstätten in altindustrialisierten Gebieten – wie dem Ruhrgebiet oder dem mitteldeutschen Raum – spiegelt sich hier wider. Niedrige Vernetzungsgrade finden sich dagegen in den ländlich geprägten und schwach besiedelten Gebieten Norddeutschlands sowie Bayerns, aber auch im Pfälzer-wald. Wenn die vorhandenen Industrie-, Gewerbe- und Verkehrsflächen räumlich klar getrennt von den Wohnbauflächen oder in ihrer Größe unterhalb der Erfassungsgrenze liegen, erreicht der Vernetzungsgrad den theoretischen Minimalwert Null, was bei der Interpretation zu beachten ist.

3.2 Clusteranalyse

Eine Clusteranalyse auf Basis des Zerklüftungsgrades und Vernetzungsgrades der Sied-lungsfläche liefert fünf Cluster für alle 440 Landkreise und kreisfreien Städte mit folgen-den Eigenschaften:

Cluster Eigenschaften Anzahl Raumeinheiten

I sehr kompakt und sehr stark vernetzt 17

II kompakt und stark vernetzt 55

III mittel kompakt und moderat vernetzt 54

IV dispers und wenig vernetzt 206

V stark dispers und sehr wenig vernetzt 108

Diese Aufteilung ist ein gesichertes Ergebnis nach der Clusterzentrenmethode. Vom Cluster I bis zum Cluster V nehmen sowohl die Kompaktheit als auch die Vernetzung ab. In diesem Ergebnis manifestiert sich ein Zusammenhang zwischen Zerklüftung und Vernetzung der Siedlungsflächen.

Page 92: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher80

Abb. 4: Karte zur räumlichen Verteilung der Strukturcluster der Siedlungs- und Verkehrsfläche nach Kreisen und kreisfreien Städten in Deutschland 2000

Page 93: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 81

Die räumliche Verteilung der ausgewiesenen Strukturcluster zeigt folgendes Bild (sie-he Abb. 4): Die mehr oder weniger kompakten bzw. vernetzten Siedlungsstrukturen (Cluster I und II) sind generell in den größeren kreisfreien Städten zu finden. Das mittlere Cluster setzt sich aus kleineren kreisfreien Städten sowie einigen Landkreisen (v. a. aus Sachsen-Anhalt) zusammen. Nahezu die Hälfte aller Kreise fallen ins Cluster IV (disperse und wenig vernetzte Siedlungsstrukturen) mit starker Verbreitung in Süddeutschland (v. a. Bayern). Schließlich sind stark disperse und kaum vernetzte Strukturen im Nor-den und Nordosten vorherrschend (Schleswig-Holstein, Mecklenburg-Vorpommern und Brandenburg).

3.3 Explorative Datenanalyse

Die fünf Strukturcluster der 440 Raumeinheiten wurden mit Methoden der explorativen Datenanalyse näher untersucht. Speziell wurden die Verteilungen der Indikatoren (1) bis (8) analysiert, welche nicht in die vorangegangene Clusteranalyse eingeflossen sind. Die für jeden dieser Indikatoren erzeugten Box-Plots, differenziert nach Clusterzugehörig-keit, zeigen die Abbildungen 5 und 6.

Abb. 5: Box-Plots für vier Indikatoren nach Strukturclustern der Siedlungs- und Verkehrsfläche in Deutschland 2000 (Quelle: Eigene Erhebung)

E-A-Dichte [Ew+Ap/ha SuV] Siedlungsdichte [Ew/km² SuV]

Wohnfläche pro Kopf [m²/Ew] Wohnungsdichte [We/ha SuV]

Page 94: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher82

Abb. 6: Box-Plots für vier weitere Indikatoren nach Strukturclustern der Siedlungs- und Ver-kehrsfläche in Deutschland 2000 (Quelle: Eigene Erhebung)

Bei allen Dichteindikatoren nimmt die Dichte von Cluster I bis Cluster V tendenziell ab und somit auch das Niveau der Ressourceneffizienz. Dagegen weist die Wohnfläche pro Kopf eine steigende Tendenz von Cluster I bis Cluster IV auf (Ausnahme: Cluster V); dementsprechend verhält sich das Effizienzniveau der Siedlungsstrukturen (Abb. 5). Die-se Aussagen gelten ebenfalls für die vier Indikatoren Flächenproduktivität, Erreichbarkeit im motorisierten Individualverkehr, Erreichbarkeit im öffentlichen Schienenverkehr und PKW-Dichte (Abb. 6).

Diese Ergebnisse erhärten die These, dass kompakte Siedlungsstrukturen mit hoher Nut-zungsmischung die Ressourceneffizienz positiv beeinflussen. Für detaillierte Aussagen sind weiterführende Untersuchungen zum Zusammenhang zwischen Kompaktheit und Effizienz von Siedlungsstrukturen erforderlich.

4 Fazit

Der beschriebene Ansatz ermöglicht eine formale Definition und Bewertung der Res-sourceneffizienz von Siedlungsstrukturen. Die Aufstellung einer Indikatorenmatrix (Auf-wand-Umweltbelastung-Nutzen-Matrix) hilft dabei, wesentliche Indikatoren zur Mes-

Flächenproduktivität [1 000 Ew/ha]

Erreichbarkeit im OPV [Bev.-pot./h] PKW-Dichte [PKW/1 000 Ew]

Erreichbarkeit im MIV [Bev.-pot./h]

Page 95: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Bewertung der Ressourceneffizienz von Siedlungsstrukturen 83

sung dieser abstrakten Größe theoretisch zu begründen und systematisch zu entwickeln. Mit geeigneten Methoden aus Geoinformatik und Statistik können diese Indikatoren für verschiedene Raumeinheiten quantitativ bestimmt werden. Dabei spielen Kenngrößen zur Kompaktheit und Vernetzung von Siedlungsstrukturen eine wichtige Rolle. Die Zu-sammenfassung der berechneten Indikatorwerte ist über die Bildung von Strukturclustern mit weiterführender explorativer Geodatenanalyse möglich und sinnvoll. Die Ergebnisse der durchgeführten empirischen Untersuchungen für die Bundesrepublik Deutschland auf Kreisbasis zum Zeitschnitt 2000 zeigen: Kompakt gebaute Siedlungsstrukturen mit hoher Nutzungsmischung beeinflussen die Ressourceneffizienz grundsätzlich positiv.

5 LiteraturArlt, G.; Hennersdorf, J.; Lehmann, I.; Thinh, N. X. (2005): Auswirkungen städtischer

Nutzungsstrukturen auf Grünflächen und Grünvolumen. IÖR-Schriften, Band 47.

Bosshardt, F. (1999): Ökoeffizienz – das Leitmotiv des World Business Council for Sus-tainable Development. In: Von Weizsäcker, U.; Seiler-Hausmann, J.-D. (Hrsg.): Ökoeffizienz Management der Zukunft. Birkhäuser Verlag Berlin Basel Boston, S. 21-29.

Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit BMU/Bundesver-band der Deutschen Industrie e. V. (BDI) (Hrsg.) (2002): Nachhaltigkeitsmanage-ment im Unternehmen. Berlin.

Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit BMU (2007): Für eine ressourceneffiziente und umweltverträgliche Ökonomie 10 Thesen. Thesenpapier zur 2. Innovationskonferenz des Bundesumweltministeriums am 31.10.2007. Internetdokument, abgerufen am 01.10.2010: http://bmu.info/wirtschaft_und_umwelt/downloads/doc/40265.php.

Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit BMU (2008): Strat-egie Ressourceneffizienz – Impulse für den ökologischen und ökonomischen Umbau der Industriegesellschaft. BMU, Berlin.

Breheny, M. J. (Ed.) (1992): Sustainable Development and Urban Form, European re-search in regional science, London.

Effizienz-Agentur NRW (2006): Ressourceneffizienz – Strategie für umweltgerechtes Wirtschaften Nordrhein-Westfalen. Duisburg.

Günther, E. (2005): Öko-Effizienz – Der Versuch einer Konsolidierung der Begriffsviel-falt. Dresdner Beiträge zur Betriebswirtschaftslehre Nr. 103/05. TU Dresden.

Jenks, M.; Burton, E.; Williams, K. (Eds.) (1996): The Compact City – A Sustainable Ur-ban Form? E & FN SPON London.

Jessen, J. (2000): Leitbild kompakte durchmischte Stadt. GR 52, H. 7-8, S. 48-50.

Kommission der Europäischen Gemeinschaften KOM (2003): Entwicklung einer thema-tischen Strategie für die nachhaltige Nutzung der natürlichen Ressourcen. Brüssel, Internetdokument, abgerufen am 01.10.2010:

www.consilium.europa.eu/uedocs/NewsWord/de/misc/79626.doc

Page 96: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh, Ulrich Schumacher84

Lynch, K. (1984): Good City Form. The MIT Press, Cambridge, Massachusetts.

Reutter, O. (Hrsg.) (2007): Ressourceneffizienz – Der neue Reichtum der Städte Impulse für eine zukunftsfähige Kommune. Oekom München.

Rogers, R. (1995): Umweltverträgliche Städte. ARCH+127, Juni, 32-39.

Schaltegger, S.; Sturm A. (1990): Ökologische Rationalität. In: Stefan Schaltegger 1990, in: Die Unternehmung Nr. 4/90, S. 273-290.

Schmidheiny, S. (1992): Changing course – A global business perspective on develop-ment and environment. MIT Press, Cambridge.

Stete, G. (1995): Frauen unterwegs. Forderungen an die Stadtplanung. In: Internationa-les Verkehrswesen. Jg. 47, Nr. 1/2, S. 35-42.

Thinh, N. X. (2002): Entwicklung von AML-Programmen zur räumlichen Analyse der Flächennutzungsmuster von 116 kreisfreien Städten in Deutschland. Photogram-metrie Fernerkundung Geoinformation 6/2002, S. 409-422.

Thinh, N. X.; Schumacher, U.; Geier, K. (2007): Modellierung und Bewertung der Ökoef-fizienz von Siedlungsstrukturen – Ein pragmatischer Ansatz. In: Gnauck, A. (Hrsg.): Modellierung und Simulation von Ökosystemen. Shaker Verlag. Aachen, S. 254-268.

Van, U.-P.; Senior, M. (2000): The Contribution of Mixed Land Uses to Sustainable Travel in Cities. In: Williams, K.; Burton, E.; Jenks, M. (Eds.): Achieving Sustainable Urban Form, E & FN Spon, London and New York, p. 139-148.

Wentz, M. (Hrsg.) (2000): Die kompakte Stadt. Campus Verlag Frankfurt New York.

Williams, K.; Burton, E.; Jenks, M. (Eds.) (2001): Achieving Sustainable Urban Form, E & FN Spon, London and New York.

Page 97: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 85

Sensitivität des Raumwiderstandes von Elbauenflächen gegenüber der Parametrisierung von Indikatoren

Rico Vogel

1 Einführung

Im Rahmen einer wissenschaftlichen Arbeit (Vogel 2010) die im Kontext des BMBF-Verbundvorhabens VERIS-Elbe (VERIS-Elbe 2009; Schanze et al.) entstand, wurde eine Methodik zur multikriteriellen Bewertung der Retentionseignung von Auenflächen ent-wickelt. Auf der Basis raumbezogener Indikatoren werden zunächst Raumwiderstände (RW) ermittelt. Diese bilden die Grundlage für die Ableitung der Retentionseignung von Auenflächen. Die Anwendung der entwickelten Methodik erfolgt auf Teilflächen der deutschen Elbauen.

Der vorliegende Beitrag fokussiert die Sensitivität der multikriteriellen Bewertung der RW mit der Methode Compromise Programming (CP, s. Zeleny 1982, 314-383). Auf der Basis eines Indikatorensystems wird dargelegt, welchen Einfluss unterschiedliche Parametrisierungen der Indikatoren auf die resultierenden RW ausüben. Die Variation von Parameterwerten umfasst neben unterschiedlichen Bewertungszielen insbesondere ausgewählte Distanzmaße und Gewichtungsoptionen. Anhand systematischer Verände-rungen von Indikatorkombinationen bei der CP-Berechnung wird aufgezeigt, von wel-chen Indikatoren die RW in besonderem Maße abhängig sind und welche Indikatoren lediglich untergeordneten Einfluss auf die Bewertungsergebnisse ausüben.

Zunächst werden die Grundzüge der Bewertungsmethodik vorgestellt. Anschließend er-folgt eine umfassende Diskussion der Resultate der Sensitivitätsanalyse.

2 Grundlagen der Bewertungsmethodik

Im Kontext eines integrierten Hochwasserrisikomanagements (vgl. Schanze 2007) wur-de eine rechnergestützte Methodik zur Bewertung der Retentionseignung morphologi-scher Auenflächen großer Flussgebiete erarbeitet. Die Methodik (Vogel 2010, 57-80) ist im Bereich der Hochwasservorsorge angesiedelt und bildet die Basis für die Reakti-vierung morphologischer Auenflächen, die der Realisierung von Retentionsmaßnahmen dienen. Im Fokus liegt die Bewertung der Auen und die Identifikation relativ konfliktar-mer Standorte.

Auenflächen unterliegen in der Regel verschiedenen Akteursansprüchen, welche vielfach konträr sind. Im Rahmen einer Wirkungsanalyse werden diese durch ein Indikatorensys-tem repräsentiert. Klassifikations- und Grenzwerte sind das Ergebnis eines Quantifizie-

Page 98: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel86

rungsprozesses und geben die Funktionseignung und die bewertungszielspezifischen Einwirkungspotenziale je Indikator wieder. Geobasisdaten und Geofachdaten bilden die Grundlage für die GIS-basierten (Geo-Informationssystem) Prozessierungsschritte. Die Homogenisierung der Ausgangsdaten zu flächendeckenden Basisdatensätzen erfolgt indikatorspezifisch durch Geoprocessing-Algorithmen. Dabei bilden quadratische Ras-terzellen, in die das Untersuchungsgebiet unterteilt wird, die Raumbezugseinheiten. Auf der Grundlage der homogenisierten Basisdatensätze werden bewertungszielspezifische Indikatordatensätze abgeleitet, deren Wertausprägungen auf den Klassifikations- und Grenzwerten basieren.

Die Indikatordatensätze bilden die Geodatenbasis für die raumbezogene multikriterielle Bewertung mit der Methode CP. Diese wird in Form einer ArcGIS-Extension implemen-tiert und unter Parametrisierung mit den Indikatordatensätzen angewendet. Die dabei für jeden Indikator anzugebenden Gewichte werden durch eine webbasierte Befragung ausgewählter Experten gewonnen. Auf der Grundlage paarweiser Vergleiche von Indi-katoren und durch unmittelbare Auswertung mit der Methode Analytic Hierarchy Pro-cess (AHP) werden unter ständiger Überprüfung der Konsistenz die Indikatorgewichte abgeleitet. Der Algorithmus des von Saaty (1980) entwickelten AHP wird als serverseitig ausführbare Applikation implementiert. Die Speicherung von Indikatordaten und von ermittelten Gewichten erfolgt in einer relationalen Datenbank.

Rasterzellen, die infolge der GIS-gestützten multikriteriellen Bewertung der Auenflächen geringe RW gegenüber einem bestimmten Bewertungsziel aufweisen, werden zu Regi-onen potenzieller Retentionsflächen zusammengefasst, wenn sie ausgewählte hydrau-lische Bedingungen erfüllen. In einem einfachen additiven Punktbewertungsverfahren werden die Regionen hinsichtlich weiterer Kriterien bewertet und gemäß den Wertaus-prägungen mit Punkten belegt. Die Werte der aus einer entsprechenden Geodaten-prozessierung resultierenden Datensätze hängen von der Gesamtpunktzahl und im Fall von Punktgleichheit vom RW ab. Sie repräsentieren die Retentionseignung potenzieller Retentionsflächen.

3 Sensitivitätsanalyse

Eine Sensitivitätsanalyse (vgl. Ligmann-Zielinska, Jankowski 2008) dient der Untersu-chung der Wirkung einer Veränderung von Eingangsparametern bei CP-Berechnungen auf die Bewertungsergebnisse und dementsprechend auf den RW. Wie eingangs bereits angedeutet, lässt die Bewertungsmethodik eine Variation der Parametrisierung hinsicht-lich Indikatorkombination, Bewertungsziel, Gewichtung und Distanzmaß (bzw. Expo-nent) zu. Die diesbezüglichen Analysen werden von Vogel (2010, 134-141) publiziert und beziehen sich auf die in Sachsen-Anhalt befindlichen Flächen der deutschen Elbau-en.

Page 99: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 87

Der Einfluss, den die einzelnen Indikatoren (Tab. 1) auf die RW ausüben, wird abge-schätzt, indem parametrisierungsspezifische Berechnungen unter Ausschluss jeweils ei-nes Indikators erfolgen. Als Referenz dient jeweils ein RW-Datensatz, in dessen Ermitt-lung alle Indikatoren einbezogen werden.

Hinsichtlich der Bewertungsziele wird eine Unterscheidung zwischen dem „Einstau bei Hochwasser“ (EHW) und der „Errichtung eines Deiches“ (DCH) vorgenommen. Im Fall der Variation des Distanzmaßes werden die drei p-Werte „1“, „2“ und „10“ verwen-det. Für die Gewichtung bedeutet die Betrachtung von jeweils 10 Indikatoren, dass die „Expertengewichtung“ (EG in Tab. 1) nicht unmittelbar im Rahmen der Sensitivitäts-analyse nutzbar ist. Vorher ist eine Skalierung der Gewichtswerte in Abhängigkeit vom jeweils ausgeschlossenen Indikator erforderlich. Die Werte der EG bilden die Basis der Skalierung. Zu Vergleichszwecken wird die „Gleichgewichtung“ (GG) der Indikatoren herangezogen.

Auf Grund der gewählten Parametrisierungen resultieren aus den CP-Berechnungen 144 RW-Datensätze. Diese bilden mit den 22 Indikatordatensätzen (je 11 pro Bewertungs-ziel) die Geodatenbasis der Sensitivitätsanalyse. Den GIS-technischen Berechnungen liegt die multivariate Funktion „Band Collection Statistics“ der ESRI-Software ArcGIS Desktop zu Grunde.

Tab. 1: Indikatorensystem für die deutschen Elbauen mit Expertengewichtung EG (veränd. nach Vogel 2010, 64, 127)

Nr. Indikator Akronym EG1 Qualität von Oberflächengewässern QuaGe 0,1212 Seltenheit von Böden BSelt 0,0793 Natürlichkeitsgrad NatGr 0,0884 Entfernung von Siedlungsflächen EntSi 0,1895 Entfernung von Kultur- und Sachgütern EntGu 0,1096 Zerschneidungsgrad ZerGr 0,0857 Vielfalt der Landschaft VieLa 0,0818 Biotisches Ertragspotenzial BioEr 0,0399 Entfernung zu landwirtschaftlichen Betrieben EntLw 0,04910 Entfernung zu Lagerstätten EntLa 0,05911 Entfernung zu Infrastruktureinrichtungen EntIn 0,102

Aus den Berechnungen resultieren Textdateien, welche neben einer Tabelle mit statis-tischen Daten zu den auszuwertenden Rasterdatensätzen die Kovarianz- und Korrela-tionsmatrizen enthalten. Tabelle 2 fasst die relevanten Korrelationskoeffizienten aller Dateien zusammen. Neben der Unterscheidung von Indikatorkombinationen erfolgt eine Differenzierung von Bewertungszielen, von Gewichtungen und von Distanzmaßen.

Page 100: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel88

Zur Abschätzung der Einflüsse der einzelnen Parameter auf die RW werden diejenigen Korrelationskoeffizienten einer Mittelwertbildung unterzogen, bei deren Berechnung die gleiche Wertausprägung des jeweiligen Parameters zugrunde liegt. Die Ermittlung von Mittelwerten erfolgt separat für jeden Indikator. Beispielsweise werden im Fall der GG unabhängig vom Bewertungsziel und vom Distanzmaß sämtliche Korrelationskoeffizi-enten gemittelt, bei deren Berechnung ein unter gleicher Gewichtung der Indikatoren ermittelter RW-Datensatz beteiligt war.

Tab. 2: Mittlere Korrelationskoeffizienten ausgewählter Korrelationen zwischen Indikatordaten-sätzen und RW-Datensätzen (veränd. nach Vogel 2010, 136)

Indikator-akronym

Bewertungsziel Gewichtung DistanzmaßEHW DCH GG EG p = 1 p = 2 p = 10

Indika

torda

tensa

tz

QuaGe 0,001 -0,159 -0,090 -0,068 -0,120 -0,083 -0,035BSelt -0,069 -0,117 -0,102 -0,084 -0,118 -0,095 -0,066NatGr -0,435 -0,255 -0,373 -0,318 -0,453 -0,369 -0,214EntSi -0,823 -0,739 -0,650 -0,912 -0,780 -0,780 -0,749EntGu -0,103 -0,077 -0,087 -0,093 -0,109 -0,095 -0,067ZerGr -0,321 -0,019 -0,195 -0,145 -0,260 -0,179 -0,071VieLa -0,262 -0,450 -0,329 -0,383 -0,429 -0,370 -0,270

BioEr -0,139 -0,166 -0,270 -0,036 -0,083 -0,137 -0,239EntLw -0,467 -0,355 -0,504 -0,317 -0,420 -0,430 -0,382EntLa -0,117 -0,066 -0,148 -0,035 -0,107 -0,094 -0,073EntIn -0,707 -0,525 -0,584 -0,648 -0,668 -0,641 -0,538

Auss

chlus

sindik

ator

QuaGe 1,000 0,997 0,999 0,998 0,997 0,999 1,000BSelt 1,000 0,987 0,989 0,997 0,992 0,994 0,994NatGr 0,989 0,952 0,958 0,982 0,961 0,970 0,979EntSi 0,882 0,785 0,950 0,717 0,886 0,832 0,783EntGu 0,999 1,000 0,999 1,000 0,999 1,000 1,000

ZerGr 0,993 0,989 0,988 0,993 0,981 0,992 0,999VieLa 0,999 0,995 0,996 0,998 0,993 0,998 1,000BioEr 0,965 0,944 0,910 0,998 0,996 0,984 0,883EntLw 0,943 0,945 0,894 0,994 0,963 0,950 0,920EntLa 0,989 0,993 0,984 0,998 0,991 0,992 0,990EntIn 0,970 0,968 0,961 0,977 0,960 0,970 0,978

Page 101: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 89

3.1 Variation der Bewertungsziele

Zunächst wird der Einfluss einer Differenzierung der Bewertungsziele auf die RW be-trachtet. Dazu werden die Korrelationen entsprechender Indikatordatensätze mit den RW-Datensätzen analysiert (Abb. 1a und 1b). Außerdem wird eine Unterscheidung hin-sichtlich des Ausschlusses jeweils eines Indikators vorgenommen (Abb. 1c und 1d). Die im Folgenden beschriebene Diagrammanalyse bezieht sich primär auf die mit „avg“ gekennzeichneten Mittelwerte.

Aus den Diagrammen 1a und 1b werden im Allgemeinen negative Korrelationen zwi-schen den Indikatordatensätzen und den RW-Datensätzen deutlich. Dies ist darin be-gründet, dass im Fall der monokriteriellen RW der Indikatordatensätze hohe Werte einem geringen RW entsprechen, während geringe multikriterielle RW durch kleine Werte in den RW-Datensätzen repräsentiert werden. In den Diagrammen werden die gemittelten Korrelationskoeffizienten einer Parameterausprägung durch Balken darge-stellt. Tabelle 2 liefert die zugehörigen Daten. Beispielsweise entspricht „avg(EHW)“ in Abbildung 1a der Spalte EHW. Ergänzt werden die Diagramme durch die Darstellung der einzelnen Korrelationskoeffizienten, die der jeweiligen Mittelwertberechnung zugrun-de liegen. Diese sind jedoch nicht Bestandteil der Tabelle. Ihre Parametrisierung wird durch spezifische Symbole repräsentiert. Für Vergleichszwecke wird zudem der mitt-lere Korrelationskoeffizient der anderen Ausprägung(en) des betrachteten Parameters durch ein Strichsymbol dargestellt. Diagramm 1a enthält beispielsweise die Mittelwerte „avg(DCH)“, welche im Diagramm 1b in Form der Balken enthalten sind.

Aus den Diagrammen wird deutlich, dass die Indikatordatensätze der Indikatoren „Ent-fernung zu Siedlungsflächen“ (EntSi) und „Entfernung zu Infrastruktureinrichtungen“ (EntIn) stark negativ mit den RW-Datensätzen korrelieren. Mittlere Korrelationen sind im Fall des Bewertungszieles „Einstau bei Hochwasser“ hinsichtlich der Indikatoren „Na-türlichkeitsgrad“ (NatGr) und „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) zu beobachten. Bei Betrachtung der „Errichtung eines Deiches“ weist dagegen der In-dikator „Vielfalt der Landschaft“ (VieLa) entsprechende Wertausprägungen auf. Erheb-liche Differenzen in der Beeinflussung der RW gegenüber den beiden Bewertungszielen treten insbesondere im Fall des Indikators „Zerschneidungsgrad“ auf. Dieser Effekt wird vor allem durch die stark differierenden Grenzwerte (vgl. Vogel 2010, 227 f.) hervorge-rufen. Diesbezüglich wird darauf hingewiesen, dass die Größenordnung der Korrelati-onen unter anderem von der Anzahl und dem Ausmaß der einer Indikatorberechnung zugrunde liegenden Objekte eines Untersuchungsgebietes abhängt.

Page 102: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel90

Abb. 1: Einfluss der Indikatoren auf die RW in Abhängigkeit vom Bewertungsziel ((a) und (b): Korrelation zwischen dem RW gegenüber einem Bewertungsziel und jeweils einem Indikator-datensatz; (c) und (d): Korrelation zwischen unterschiedlich parametrisierten RW bei Einbezug aller Indikatoren und bei Ausschluss jeweils eines Indikators (Quelle: Vogel 2010, 138 f.)

(a)

Eins

tau

bei H

ochw

asse

r (E

HW

)(b

) Er

rich

tung

ein

es D

eich

es (

DC

H)

(c)

Eins

tau

bei H

ochw

asse

r (E

HW

)(d

) Er

rich

tung

ein

es D

eich

es (

DC

H)

Page 103: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 91

Wenn sich in einem Untersuchungsgebiet beispielsweise lediglich eine Gemeinde befin-det, hat der Indikator „Entfernung zu Siedlungsflächen“ (EntSi) selbst bei hoher EG nur lokalen Einfluss auf die berechneten RW. In solchen Fällen ist die Korrelation zwischen dem Indikatordatensatz und dem RW-Datensatz entsprechend gering.

Während hinsichtlich des Indikators „Zerschneidungsgrad“ eine schwach negative Kor-relation mit dem RW gegenüber dem „Einstau bei Hochwasser“ festgestellt werden kann, ist der Einfluss in Bezug auf das Bewertungsziel „Errichtung eines Deiches“ deutlich kleiner und bei wenigen Parametrisierungen auch positiv. Etwas geringer, jedoch gleich gerichtet, sind die Differenzen vor allem im Fall der Indikatoren „Natürlichkeitsgrad“ (NatGr) und „Entfernung zu Infrastruktureinrichtungen“ (EntIn). Bei den Indikatoren „Qualität von Oberflächengewässern“ (QuaGe) und „Vielfalt der Landschaft“ (VieLa) ist die Korrelation mit den RW gegenüber der „Errichtung eines Deiches“ stärker.

Wie bereits angedeutet zeigen die Abbildungen 1c und 1d die Korrelationskoeffizienten von RW, die unter Einbindung aller Indikatoren sowie unter Ausschluss jeweils eines Indikators berechnet werden. Ein Korrelationskoeffizient von 1,0 bedeutet, dass der Ausschluss eines Indikators nur marginalen Einfluss auf den RW ausübt. Je kleiner ein Korrelationskoeffizient ist, desto stärker differieren die betrachteten RW-Datensätze. Er-hebliche Beeinflussung kann erneut dem Indikator „Entfernung zu Siedlungsflächen“ (EntSi) attestiert werden, da die Korrelationskoeffizienten deutlich kleinere Werte anneh-men als die der anderen Indikatoren. Dies bedeutet, dass das Weglassen des Indikator-datensatzes in der CP-Berechnung erhebliche Auswirkungen auf die RW hat. Besonders stark ist der Einfluss im Fall des Bewertungszieles „Errichtung eines Deiches“. Auffällig ist außerdem die Wirkung des Ausschließens der Indikatoren „Biotisches Ertragspoten-zial“ (BioEr), „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) und „Entfernung zu Infrastruktureinrichtungen“ (EntIn). Im Fall des RW gegenüber der „Errichtung eines Deiches“ ist zudem eine deutliche Wirkung des Ausschlusses des Indikators „Natürlich-keitsgrad“ (NatGr) zu beobachten.

3.2 Variation der Gewichtungen

Im Weiteren werden die Korrelationen hinsichtlich der Gewichtungen verglichen. Die Differenzierung erfolgt wieder zunächst für die Korrelation der Indikatordatensätze mit den RW (Abb. 2a und 2b). Anschließend werden die Korrelationen der unter Einbezug aller Indikatoren berechneten und der unter Ausschluss jeweils eines Indikators ermittel-ten RW untersucht (Abb. 2c und 2d).

Der Vergleich der Korrelationen zwischen den Indikatordatensätzen und den mit die-sen berechneten RW-Datensätzen zeigt im Fall der GG (Abb. 2a) stark negative Kor-relationen zwischen dem Indikator „Entfernung zu Siedlungsflächen“ (EntSi) und den RW. Mittlere negative Korrelationen werden hinsichtlich der Indikatoren „Entfernung zu

Page 104: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel92

Abb. 2: Einfluss der Indikatoren auf die RW in Abhängigkeit von der Gewichtung (a) und (b): Kor-relation zwischen unterschiedlich parametrisierten RW und jeweils einem Indikatordatensatz; (c) und (d): Korrelation zwischen unterschiedlich parametrisierten RW bei Einbezug aller Indikatoren und bei Ausschluss jeweils eines Indikators (Quelle: Vogel 2010, 142 f.)

Infrastruktureinrichtungen“ (EntIn) und „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) festgestellt. Im Fall der EG (Tab. 1) verstärkt sich die Korrelation zwischen dem

(a)

Gle

ichg

ewic

htun

g (G

G)

(b)

Exp

erte

ngew

icht

ung

(EG

)

(c)

Gle

ichg

ewic

htun

g (G

G)

(

d) E

xper

teng

ewic

htun

g (E

G)

Page 105: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 93

Indikatordatensatz des Indikators „Entfernung zu Siedlungsflächen“ (EntSi) und den RW erheblich. Dies geht aus Diagramm 2b hervor. Die höhere Gewichtung des Indika-tors „Entfernung zu Infrastruktureinrichtungen“ (EntIn) gegenüber der GG wird eben-falls deutlich. Dämpfend wirkt sich dagegen die erheblich geringere EG der Indikatoren „Biotisches Ertragspotenzial“ (BioEr), „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) und „Entfernung zu Lagerstätten“ (EntLa) aus. Die Korrelationskoeffizienten sind gegenüber der GG deutlich kleiner, was mit einer erheblichen Einflussminderung vergleichbar ist.

Der korrespondierende Vergleich der Korrelationen zwischen RW-Datensätzen (Abb. 2c und 2d) bestätigt die vorherigen Aussagen. Im Fall der GG verursacht das Fehlen der Indikatoren „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) und „Biotisches Ertragspotenzial“ (BioEr) in den CP-Berechnungen im Allgemeinen erhebliche Verände-rungen bei den resultierenden RW. In geminderter Form gilt dies auch für die Indikatoren „Entfernung zu Siedlungsflächen“ (EntSi), „Entfernung zu Infrastrukturmaßnahmen“ (EntIn) und „Natürlichkeitsgrad“ (NatGr). Wird dagegen die EG in die multikriterielle Bewertung einbezogen (Abb. 2d), führt dies bei den meisten Indikatoren zu einer Er-höhung der Korrelationskoeffizienten und damit zu einer Verminderung ihres Einflusses auf die RW. Dies trifft mit Ausnahme des Indikators „Entfernung zu Siedlungsflächen“ (EntSi) in erheblichem Maße auf die zuvor genannten Indikatoren zu. Der Einfluss des Indikators EntSi wird dagegen maßgeblich verstärkt. Hierbei wird deutlich, dass die Ex-pertenbeteiligung an der Ableitung von Indikatorgewichten starken Einfluss auf die Be-rechnung der RW ausüben kann.

3.3 Variation der Distanzmaße

Schließlich erfolgt eine Analyse der Korrelationen getrennt nach Distanzmaßen (bzw. Exponenten). Die Diagramme der Abbildung 3 veranschaulichen zunächst die Korre-lationen zwischen Indikatordatensätzen und den entsprechend berechneten RW. Die Wirkung des Ausschlusses jeweils eines Indikators wird durch die Diagramme der Abbil-dung 4 visualisiert.

Die Betrachtung der Mittelwerte in den Diagrammen 3a bis 3c bestätigen die Aussagen der vorherigen Analysen. Die Indikatordatensätze des Indikators „Entfernung zu Sied-lungsflächen“ (EntSi) und „Entfernung zu Infrastruktureinrichtungen“ (EntIn) korrelie-ren mit den entsprechenden RW im Allgemeinen stark negativ. In Bezug auf die Indika-toren „Natürlichkeitsgrad“ (NatGr), „Vielfalt der Landschaft“ (VieLa) und „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) können zumindest schwache bis mittlere Korrelationen festgestellt werden. Die größten Wertunterschiede treten hinsichtlich der Indikatoren „Natürlichkeitsgrad“ (NatGr), „Zerschneidungsgrad“ (ZerGr), „Vielfalt der Landschaft“ (VieLa) und „Biotisches Ertragspotenzial“ (BioEr) auf.

Page 106: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel94

Abb. 3: Einfluss der Indikatoren auf die RW in Abhängigkeit vom Distanzmaß ((a) bis (c): Kor-relation zwischen unterschiedlich parametrisierten RW und jeweils einem Indikatordatensatz (Quelle: Vogel 2010, 144 f.)

(a)

Cit

y-B

lock

-Nor

m (

p =

1)

(b)

Euk

lidis

che

Nor

m (

p =

2)

(c)

Max

imum

-Nor

m (

p =

10)

Page 107: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 95

(a)

Cit

y-B

lock

-Nor

m (

p =

1)

(b)

Euk

lidis

che

Nor

m (

p =

2)

(c)

Max

imum

-Nor

m (

p =

10)

Abb. 4: Einfluss der Indikatoren auf die RW in Abhängigkeit vom Distanzmaß ((a) bis (c): Kor-relation zwischen unterschiedlich parametrisierten RW bei Einbezug aller Indikatoren und bei Ausschluss jeweils eines Indikators (Quelle: Vogel 2010, 146 f.)

Page 108: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Rico Vogel96

Die Untersuchung des Ausschlusses einzelner Indikatoren bei der Berechnung der RW führt im Fall der „City-Block-Norm“ (p = 1; Abb. 4a) und der „Euklidischen Norm“ (p = 2; Abb. 4b) zu ähnlichen Korrelationskoeffizienten. Der Indikator „Entfernung zu Siedlungsflächen“ (EntSi) ist wieder durch die geringsten Werte gekennzeichnet, wo-durch sein Einfluss auf die berechneten RW bekräftigt wird. Zudem deuten die Korrela-tionskoeffizienten im Fall der Indikatoren „Natürlichkeitsgrad“ (NatGr), „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) und „Entfernung zu Infrastruktureinrichtungen“ (EntIn) auf eine erhebliche Einflussnahme hin. Bei Anwendung der „Maximum-Norm“ (p = 10; Abb. 4c) wird der Einfluss des Indikators „Entfernung zu Siedlungsflächen“ (EntSi) noch verstärkt, da sich der mittlere Korrelationskoeffizient im Vergleich zu den beiden anderen Distanzmaßen vermindert. Auffällig ist zudem die deutliche Verstärkung des Einflusses des Indikators „Biotisches Ertragspotenzial“ (BioEr) und weniger stark des Indikators „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw).

4 Zusammenfassung

In einem multikriteriellen Raumbewertungsverfahren können Auenflächen eines Flusses hinsichtlich ihrer Retentionseignung bewertet werden. Anhand einer Sensitivitätsanalyse lassen sich die Einflüsse der Veränderung einzelner Eingangsgrößen auf die Berechnungs-ergebnisse analysieren. Am Beispiel eines für die deutschen Elbauenflächen konzipierten Indikatorensystems wurde aufgezeigt, wie RW, welche das zentrale Zwischenergebnis der Methodik sind, durch die Variation der Inputparameter beeinflusst werden.

Aus der Sensitivitätsanalyse lässt sich ableiten, dass der Indikator „Entfernung zu Sied-lungsflächen“ (EntSi) im Vergleich zu den anderen Indikatoren den größten Einfluss auf die Berechnung von RW hat. Verstärkt wird die Einflussnahme durch die hohe EG. Diese ist zudem ursächlich für die deutliche Verminderung des Einflusses der Indikatoren „Bio-tisches Ertragspotenzial“ (BioEr) und „Entfernung zu landwirtschaftlichen Betrieben“ (EntLw) auf die berechneten RW.

Bei der Betrachtung der Wirkung des Ausschlusses einzelner Indikatoren weisen insbe-sondere die Indikatoren „Qualität von Oberflächengewässern“ (QuaGe) und „Entfer-nung zu Kultur und Sachgütern“ (EntGu) lediglich marginalen Einfluss auf die RW auf, da sich die Korrelationskoeffizienten nahe dem Wert 1,0 bewegen. Dies liegt vor allem an der geringen Anzahl an Objekten, die von der Klassifikation und die Grenzwerter-mittlung betroffen sind. Da von den Indikatoren jedoch lokale Wirkungen ausgehen, ist ihre Aufnahme in das Indikatorensystem gerechtfertigt. Außerdem spricht die ver-gleichsweise hohe EG der beiden Indikatoren (Tab. 2) für ihr Einbeziehen in das Indika-torensystem.

Page 109: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Sensitivität des Raumwiderstandes von Elbauenflächen 97

5 LiteraturLigmann-Zielinska, A.; Jankowski, P. (2008): A framework for sensitivity analysis in spa-

tial multiple criteria evaluation. In Geographic Information Science, Springer-Verlag, Berlin, Heidelberg, pp. 217-233.

Saaty, T. L. (1980): The Analytic Hierarchy Process: Planning, Priority Setting, Resource Allocation. McGraw-Hill, New York, St. Louis, San Francisco.

Schanze, J. (2007): A conceptual framework for flood risk management research. In: Schanze, J. (Ed.): Flood Risk Management Research – From extreme events to ci-tizens involvement. Proceedings of EFRM 2007, 6th-7th Feb. 2007, IÖR Dresden, Germany, pp. 1-10.

Schanze, J.; Schwarze, R.; Horlacher, H.-B.; Deilmann, C.; Rademacher, S. (Hrsg.): Ver-änderung und Management der Risiken extremer Hochwasserereignisse in großen Flussgebieten – am Beispiel der Elbe (VERIS-Elbe). Weissensee Verlag Berlin, (in Vor-bereitung).

VERIS-Elbe (2009): Veränderung und Management der Risiken extremer Hochwasser-ereignisse in großen Flussgebieten – am Beispiel der Elbe. Webseite, URL: http://www.veris-elbe.ioer.de; Zugriff: 2009-12-03.

Vogel, R. (2010): GIS-basierte multikriterielle Bewertung der Retentionseignung von Auenflächen – am Beispiel der Elbe. Berlin: Mensch und Buch Verlag (Dissertation an der Universität Rostock).

Zeleny, M. (1982): Multiple criteria decision making. McGraw-Hill, New York, St. Louis, San Francisco.

Page 110: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 111: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Strategien zur Förderung des europäischen Schienengüterverkehrs 99

Multikriterielle Bewertung von Strategien zur Förderung des europäischen Schienengüterverkehrs

Ralf Hedel

1 Einführung

Effiziente und effektive Transportlösungen sind elementar wichtig für die produzierende Wirtschaft sowie für die Versorgung der Gesellschaft. Zudem ist die Transportbranche selbst zu einem bedeutsamen Wirtschaftszweig geworden. Doch der in den vergangenen Jahren rasant angewachsene Güterverkehr hat auch erhebliche und nahezu allgegen-wärtige, negative Auswirkungen auf Umwelt und Gesellschaft. Der Schienengüterver-kehr (SGV) kann eine bedeutende Rolle bei der Bereitstellung von Transportkapazitäten einnehmen, da er zugleich umweltfreundlich und sicherer ist als der Verkehr auf der Straße.

Vergegenwärtigt man sich den Rückgang des Verkehrsträgeranteils des Schienengüter-verkehrs von etwa 55 % in den 1960-er Jahren auf aktuell etwa 15 %, so gelangt man zu der Frage, warum der Schienengüterverkehr keine attraktive Transportalternative im Vergleich zum Lkw darstellt? Die Ursachen für diesen Missstand sind vielseitig: So sind z. B. Transportzeiten in der Regel erheblich länger auf der Straße, denn es fallen zusätz-liche Bündelungs- und Umschlagvorgänge an. Darüber hinaus ist ein längerer Planungs-vorlauf notwendig, z. B. für die Bestellung der Trassen. Hinzukommen geringere Flexi-bilität, bezogen auf Ladungsmengen und Relationen, sowie hohe interne und externe Kosten im Vor- und Nachlauf.

In Fachöffentlichkeit und Politik werden derzeit die Situation von verschiedenen für den Schienengüterverkehr essentiellen Rahmenbedingungen diskutiert und Verbesserungen angekündigt (EC 2001, EC 2006, BMBVS 2008). Diese betreffen vor allem die Bahnin-frastruktur, die Fahrzeugtechnik sowie den Marktzugang. Weitere Themenfelder sind finanzielle, administrative und institutionelle Bedingungen, in denen Verbesserungen als notwendig angesehen werden. Verbesserungen der Rahmenbedingungen erfordern – sicherlich in Art und Umfang sehr unterschiedlich – den Einsatz von Ressourcen, seien es Finanzmittel oder personelle Kapazitäten. Unter der Prämisse eines möglichst effizienten Einsatzes von Ressourcen ist eine objektive, d. h. datengeleitete Priorisierung der Hand-lungsfelder unabdingbar.

Vor diesem Hintergrund stellte sich die Herausforderung, ein Bewertungskonzept zu entwickeln, dass die Priorisierung von Handlungsansätzen zur Förderung des SGV er-möglicht und mit diesen 28 Handlungsfelder auf der Basis von im EU-Projekt REORIENT bereits erhobenen Daten zu priorisieren.

Page 112: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf Hedel100

2 Methodik

2.1 Eingangsdaten

Als Eingangsdaten der Bewertung dienen a) die Ergebnisse einer Befragung aus dem EU-Projekt REORIENT sowie b) nationale Makroindikatoren, welche im Wesentlichen von öffentlich zugänglichen Statistiken bezogen wurden.

Die angesprochene Befragung fand als Vollerhebung innerhalb eines Korridors statt, der sich von Skandinavien nach Südost-Europa erstreckt und dabei elf Länder einschließt: Bulgarien, Finnland, Griechenland, Norwegen, Österreich, Polen, Rumänien, Schweden, Slowakei, Tschechische Republik und Ungarn. Die Serie leitfadengestützter, teilstandar-disierter Experteninterviews hatte zum Ziel, den aktuellen Stand von 28 für den SGV maßgeblichen Bedingungen zu erfassen. Das Spektrum aus technischen, administrati-ven, institutionellen, kulturellen, politischen sowie finanziellen Bedingungen und die Be-fragungsergebnisse wurden in REORIENT (2007) umfassend dokumentiert. Abbildung 1 vermittelt einen ersten Eindruck der Landesbewertungen am Beispiel der politischen Rahmenbedingungen.

Abb. 1: Netzdiagramm der Länderbewertungen am Beispiel der politischen Rahmenbedingun-gen (Quelle: Eigene Erstellung)

Um zu verlässlichen Aussagen zu gelangen, wurden Stakeholder aus verschiedenen Kategorien befragt: Infrastrukturmanager, Gewerkschafter, Vertreter von langjährig am Markt bestehenden sowie neuen privatwirtschaftlich organisierten Bahnunternehmen etc. Die Befragungsergebnisse wurden in Form einer Ländermatrix aufbereitet, wobei

Page 113: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Strategien zur Förderung des europäischen Schienengüterverkehrs 101

der aktuelle Stand jeder Bedingung auf eine einheitliche neustufige Skala abgetragen wurde. Diese Stufen können wiederum zu drei Bewertungskategorien zusammengefasst werden, die jeweils für I) ungenügende Bedingungen, II) Bedingungen mit partiellen Einschränkungen sowie III) im Wesentlichen adäquate Bedingungen stehen. Acht feh-lende Einzelwertungen wurden mit dem Verfahren multiple imputation ergänzt (King et al. 2001).

Die recherchierten Makroindikatoren beschreiben die wesentlichen ökologischen, ge-sellschaftlichen und ökonomischen Eigenschaften bzw. Wirkungen des Schienengüter-verkehrs (Tab. 1). Als Quellen dienen hierfür Eurostat (2008), Weltbank (Worldbank 2007) und SCI (1999); die ETIS-Base (NEA 2005) sowie Modellierungsergebnisse des EU-Projektes ASSESS (2005).

Tab. 1: Gewähltes Indikatorenset

Nachhaltigkeitsdimension Nachhaltigkeitskriterien/Wirkungen Nachhaltigkeitsindikator

Ökologie Klimawandel Ozonschädigung Ressourcenverbrauch Luftverschmutzung/Eutrophierung Fragmentierung/Trennwirkung

CO2-Emision NOx-Emission Energiebedarf NOx-Emission Netzlänge

Gesellschaft Sicherheit Luftreinheit

Anzahl Unfälle NOx-Emission Feinstaub

Wirtschaft Transportpreis Transportgeschwindigkeit Erreichbarkeit

Transportkosten max. Transportgeschwindigkeit Netzdichte/105 Ew.

2.2 Bewertungsverfahren

Das Bewertungsverfahren sieht zwei Bewertungsschritte vor: Zum einen wird mit Hilfe des Outrankingverfahrens ELECTRE III untersucht, wie zulänglich jede Bedingung im gesamten Korridor ausgeprägt ist. Zum anderen wird anhand der Korrelationsanalyse nach Kendall-Tau-b analysiert, ob von einer Verbesserung einer Bedingung auch eine Verbesserung des Schienengüterverkehrs erwartet werden kann. Die Ergebnisse beider Bewertungsschritte werden in einem zweidimensionalen Diagramm visualisiert und dar-aus Handlungsempfehlungen abgeleitet.

Multikriterielle Bewertung mittels ELECTRE III

Im ersten Bewertungsschritt werden als Alternativen – resp. Fälle – die einzelnen Rah-menbedingungen angesehen, denn es gilt sie zu priorisieren. Die Bewertungen der Be-dingung in den einzelnen Korridorländern hingegen sind die Kriterien für die Wichtigkeit

Page 114: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf Hedel102

deren Verbesserung oder anders formuliert: Je schlechter eine Bedingung in einem Land ausgeprägt ist, desto höher die Bedeutsamkeit einer Verbesserung.

Im Rahmen eines Verfahrensvergleiches wurde die Klasse der Outranking-Verfahren (Figueira et al. 2005; Zimmermann, Gutsche 1991) als für den Bewertungskontext am besten geeignet identifiziert. Sie zeichnen sich vor allem dadurch aus, dass sie mit ver-schiedenen Qualitäten und Skalenniveaus sowie Unsicherheit in den Eingangsdaten um-gehen können. Ein weiteres herausragendes Merkmal ist, dass das Ausmaß zulässiger Kompensation unter den Indikatoren explizit einstellbar ist, sich ausschließlich auf die Kriteriengewichtung bezieht und somit nicht von der absoluten Höhe der Kriterienwerte abhängt. In der Klasse der Outrankingverfahren zeichnet sich ELECTRE III dadurch aus, dass das Verfahren:

Rangunterschiede zwischen zwei Alternativen nur dann ausweist, wenn deutliche •Argumente dafür sprechen und keine wesentlichen dagegen,

geringe Anforderungen an Präferenzinformationen stellt, denn die Modellierung er-•folgt mittels dreier absoluter oder relativer Grenzwerte.

Diese wurden wie folgt gewählt: Als Indifferenzgrenzwert wurde ein Unterschied von einer Stufe in der Bewertung gewählt, das heißt, ein Unterschied von höchstens einer Bewertungsstufe ist das Äußerste, was noch als indifferent angesehen wird. Darüber hinausgehende Unterschiede werden bereits als signifikant angesehen. Als Signifikanz-grenzwert wurde ein Unterschied von drei Bewertungsstufen – eine gesamte Bewer-tungskategorie – gewählt. Als Vetogrenzwert wurden fünf Bewertungsstufen gewählt – das heißt, ab einem Bewertungsunterschied von fünf Stufen in einem Land erhält eine Bedingung auch dann eine hohe Priorität, wenn sie in anderen Ländern vergleichsweise adäquat ausgeprägt ist.

Im Verfahren ELECTRE III können Kriterien gewichtet werden. Damit entsteht die Mög-lichkeit, die Länder auf Basis ihres erreichten Niveaus in den wesentlichen ökologischen, gesellschaftlichen und ökonomischen Merkmalen zu gewichten. Abbildung 2 visualisiert die dafür vorgenommene Monte-Carlo-Simulation.

Im ersten Schritt werden die nationalen Makroindikatoren mit Hilfe des Verfahrens der Verhältnisschätzung (Unfälle, NOx, CO2, PM10, Energiebedarf, Netzlänge) sowie mit Hil-fe des Rangreziprokenverfahrens (Kosten, Geschwindigkeit, Erreichbarkeit) zu Landes-gewichten transformiert (Malczewski 1999). Im zweiten Schritt wird die Spannweite der Gewichte für jedes Land ermittelt, indem separat die Gewichte aller ökologisch relevan-ten Indikatoren betrachtet wurden, die der gesellschaftlich relevanten Indikatoren sowie die der ökonomisch bedeutsamen Kenngrößen. Unter Berücksichtigung aller Indikato-ren kann eine Gesamtspannweite ermittelt werden. Aus diesen Spannweiten wurden im dritten Schritt jeweils 1 000 Folgen von Gewichten gezogen, wobei eine uniforme Verteilung gewählt wurde.

Page 115: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Strategien zur Förderung des europäischen Schienengüterverkehrs 103

Abb. 2: Prinzipdarstellung Monte-Carlo-Simulation (Quelle: Eigene Erstellung)

Die Vorteile des Verfahrens ELECTRE III können für umfassende Sensitivitätsanalysen nur mithilfe einer Software erschlossen werden. Hierzu wurde der Algorithmus vollstän-dig in Microsoft VisualBasic implementiert.

Bewertung mittels KorrelationsanalyseIm zweiten Bewertungsschritt wurde untersucht, inwieweit von einer Verbesserung einer Bedingung auch eine Verbesserung bei den wesentlichen Eigenschaften und Wirkungen des Schienengüterverkehrs erwartet werden kann. Für die Beurteilung des numerischen Zusammenhangs wurde der Korrelationskoeffizient nach dem Verfahren Kendall-Tau-b berechnet (Siegel, Castellan 1988).

Bei der Berechnung des Rangkorrelationskoeffizienten nach Kendall-Tau-b werden die Werte aller Beobachtungen (elf Korridorländer) – Länderbewertungen und Makroindi-katoren – ausschließlich bezüglich der ordinalen Reihenfolge analysiert; die konkreten Werte gehen in die Berechnung nicht ein. Die im Rahmen der multiple imputation ermittelten Ersatzwerte können unverändert in die Berechnung einfließen. Aufgrund der Transformation der Eingangsdaten in ordinale Stufen ist das Verfahren nach Kendall-Tau-b unempfindlicher gegenüber Ausreißern als andere Korrelationsverfahren.

Die Makroindikatoren wurden bezüglich der Transportleistung relativiert: Netzdichte 1 auf die Einwohneranzahl und Netzdichte 2 auf die Flächengröße des Landes. Die Stich-probe umfasst alle elf Korridorländer.

Page 116: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf Hedel104

Zur Identifikation von einflussreichen Bedingungen werden ein Signifikanzniveau von 0,05 (zweiseitig) sowie ein Schwellenwert von mindestens 0,6 (Betrag) beim Korrelati-onskoeffizient verwendet. Es zeigt sich, dass alle Beziehungen mit einem Rangkorrelati-onskoeffizienten (Betrag) von größer als 0,6, zugleich signifikant sind.

3 Ergebnisse

Aus der Vielzahl der numerischen Ergebnisse der Monte-Carlo-Simulationen kann im Rahmen dieser Veröffentlichung nur eine Auswahl präsentiert werden.

Die Bedingung, die unter Berücksichtigung der für die Wirtschaft bedeutenden Kriterien am besten bewertet wurde, ist die administrative Bedingung A1 (Fähigkeiten, Wissen und Einblicke der nationalen Eisenbahn-Regulierungsbehörden, um Veränderungen zu-gunsten des Schienengüterverkehrs umzusetzen). Abbildung 3 präsentiert die Rangver-teilung der Monte-Carlo-Simulation. An zweiter Stelle rangiert die politische Bedingung P3 (Kompatibilität und Vereinbarkeit der Gesetzgebung der EU mit bestehenden natio-nalen Gesetzgebungen im Bereich des Schienenverkehrs).

Abb. 3: Ergebnis der Monte-Carlo-Simulation: Rangverteilung der besten Rahmenbedingungen im Simulationsprofil „Wirtschaft“ (Quelle: Eigene Erstellung)

Von größerem Interesse sind die unzulänglichsten Bedingungen, denn hier gibt es offen-bar das größte Defizit resp. den größten Handlungsbedarf (Tab. 2).

Tab. 2: Simulationsergebnis: unzulänglichste Bedingungen

Simulationsprofil schlechteste Platzierung

zweit- schlechteste

dritt- schlechteste

viert- schlechteste

Ökologie A7 S2 F2 F1Gesellschaft A7 S2, F1 F1 M2, S3Wirtschaft A7 S2 F2 M2, F1Gesamtspannweite A7 S2 F2 M2, F1

Page 117: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Strategien zur Förderung des europäischen Schienengüterverkehrs 105

Hier wird deutlich, dass die Platzierung unter den unzulänglichsten Bedingungen weit-gehend unabhängig von der Wahl der Indikatoren ist, auf denen die Gewichteberech-nung basiert, denn bei allen Simulationsläufen wurde gleichermaßen die Bedingung A7 (Bereitschaft, bei der Umsetzung administrativer Veränderungen zugunsten des Schie-nengüterverkehrs zu kooperieren) als schlechteste Bedingung identifiziert, gefolgt von S2 (Akzeptanz von Veränderungen in Beschäftigungsverhältnissen). Der dritte Bereich, der als äußerst gravierend identifiziert wurde, sind finanzielle Rahmenbedingungen, ins-besondere F1 (Fähigkeit, erforderliche Investitionsmittel zu akquirieren) sowie F2 (Bereit-schaft, in technologische Verbesserungen und neue Geschäftskonzepte zu investieren).

Für die Bewertung mittels Korrelationsanalyse kann eine Rangfolge der Bedingungen anhand der Anzahl an starken und sehr starken Korrelationen ermittelt werden.

Tab. 3: Anzahl stark und sehr stark korrelierter Beziehungen (nur die vorderen Plätze 1 bis 4) zw. den Landesbewertungen und allen Makroindikatoren

Rang Bedingung/Hand-lungsfeld

Gesamtanzahl stark und sehr stark korre-lierter Beziehungen

Anzahl stark korrelierter

Beziehungen (0,6 ≤ |r| < 0,8)

Anzahl sehr stark korrelierter Bezie-hungen (|r| ≥ 0,8)

1 P3 4 4 02 A2, F1 3 3 03 A1, A4 2 1 14 A5, A6, F2, F4, F6, I1,

I2, M1, P22 2 0

In der Gesamtbewertung, d. h. bei Berücksichtigung aller nationalen Makroindikatoren, ist die Alternative P3 (Kompatibilität der EU-Gesetzgebung und nationaler Gesetzge-bung) am häufigsten mit Makroindikatoren assoziiert. Auf den beiden Folgeplätzen zwei und drei stehen ausschließlich administrative sowie finanzielle Bedingungen.

Die Zusammenschau der Ergebnisse der Bewertung mittels ELECTRE III (auf der x-Achse) sowie die Rangfolge anhand der Korrelationsanalyse (y-Achse) erleichtert die Identifika-tion der Bedingungen, die sowohl gravierend schlecht ausgeprägt als auch deutlich mit Makroindikatoren assoziiert sind, d. h. von deren Verbesserung auch eine Verbesserung im Schienengüterverkehr erwartet werden kann (Abb. 4).

Hierdurch wird ersichtlich, dass insbesondere finanzielle Rahmenbedingungen in bei-den Bewertungsdimensionen eine hohe Priorität aufweisen. Zusätzlich zu den bereits erwähnten Bedingungen F1 und F2 sind mit etwas geringerer Priorität noch F6 (Be-reitschaft der Regierung, die Wettbewerbsbedingungen zwischen Straße und Schiene finanziell auszugleichen) sowie F4 (Fähigkeit der Regierungen, Investitionen in das Sys-tem Schienengüterverkehr zu fördern) relevante Handlungsfelder zur Förderung des Schienengüterverkehrs.

Page 118: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf Hedel106

Abb. 4: Zusammenschau der beiden Bewertungsergebnisse (Quelle: Eigene Erstellung)

4 Schlussfolgerungen

Die numerischen Ergebnisse lassen sich wie folgt zusammenfassen: Die datengeleite-te Priorisierung hat gezeigt, dass die Verbesserung der finanziellen Bedingungen die höchste Priorität aufweist. Das Ergebnis ist insofern überraschend, da Verbesserungen bei technischen Bedingungen häufig als wichtigste Bedingungen kommuniziert werden. Diese sind aber weder wirklich schlecht ausgeprägt, noch zeigen sie eine starke Korrela-tion mit Eigenschaften oder Wirkungen des SGV.

Daraus lassen sich folgende Handlungsempfehlungen ableiten: Zunächst muss festge-stellt werden, dass die finanzielle Situation in den einzelnen Korridorländern höchst un-terschiedlich ist – d. h. es sind regions- und akteurspezfische, differenzierte Maßnahmen zu entwickeln. An dieser Stelle können beispielhaft Maßnahmen genannt werden, die die finanzielle Leistungsfähigkeit der Akteure stärken können, wobei eher der Betrieb im Vordergrund stehen sollte als die Infrastruktur: Zum einen erscheinen staatliche Bürg-schaften für Anschubfinanzierungen oder auch Finanzierungsbeihilfen für neu aufge-nommene Relationen erforderlich, denn Eisenbahnunternehmen müssen in den ersten Monaten nach Aufnahme einer neuen Verbindung häufig einen erheblichen Leeranteil hinnehmen und erst das Vertrauen der versendenden Wirtschaft wiedergewinnen. Eine weitere Maßnahme kann in der Förderung vertikaler und horizontaler Unternehmens-kooperationen bestehen mit dem Ziel, betriebliches Know-how von den erfolgreicheren Ländern in bislang weniger erfolgreiche Unternehmen zu transferieren. Schließlich, das zeigt die Priorität der Bedingungen F6, werden die Wettbewerbsnachteile des SGV nicht ausreichend durch dessen Kostenvorteile aufgewogen. Hier kann durch Internalisierung externer Kosten ein Vorteil für den Schienengüterverkehr generiert werden.

Die wesentliche Schlussfolgerung zur Bewertungsmethodik ist, dass Outrankingverfah-ren – hier das Verfahren ELECTREIII – durchaus für eine datengeleitete Priorisierung im

Page 119: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Strategien zur Förderung des europäischen Schienengüterverkehrs 107

Bereich des SGV eingesetzt werden können; ihre Komplexität behindert jedoch eine breite Anwendung. Es muss zudem konstatiert werden, dass die in den Landesbewer-tungen enthaltenen drastischen Unterschiede das Ergebnis des Bewertungsprozesses stark beeinflussen.

Daraus lassen sich die folgenden Empfehlungen für künftige Anwendungen sowie For-schungsthemen ableiten: Um die Zwischenschritte und -ergebnisse von Outrankingver-fahren verständlicher darstellen zu können, sollten die Möglichkeiten der graphischen Semiologie voll erschlossen werden. Für einige wichtige Kriterien wie Lärmemissionen, Verlust/Beschädigungen von Gütern oder Verspätungen standen bzw. stehen derzeit noch keine europaweit einheitlichen Daten bereit, diese sollten nach Verfügbarkeit be-rücksichtigt werden. Um Handlungsempfehlungen besser auf die Bedürfnisse der Länder oder Regionen abstimmen zu können, ist die Bildung kleinerer – homogenerer – Länder-gruppen ratsam, innerhalb derer dann die Bewertung ausgeführt wird. Dazu ist jedoch eine Steigerung der Anzahl der Beobachtungen erforderlich.

5 Danksagung

Dieser Beitrag stellt die Ergebnisse einer Dissertation vor. Ein herzlicher Dank gilt Frau Prof. Lenz, Herrn Prof. Mieg, Herrrn PD Dr. habil. Thinh sowie Herrn Prof. Vance für die Begleitung des Dissertationsvorhabens.

Die Finanzierung dieser Forschungsarbeit wurde maßgeblich durch das Forschungspro-jekt REORIENT – Implementing change in the european railway system – getragen (6. Forschungsrahmenprogramm der EU).

6 Literatur ASSESS (2005): Assessment of the contribution of the TEN and other transport policy

measures to the midterm implementation of the White Paper on the Euro-pean Transport Policy for 2010. Final Report: DG TREN, European Commission.

BMVBS (2008): Masterplan Güterverkehr und Logistik. Online verfügbar unter http://www.bmvbs.de/Anlage/original_1046533/Masterplan-Gueterverkehr-und-Logis-tik.pdf, zuletzt geprüft am 07/08/2008.

EC [Commission of the European Communities] (2001): White paper. European trans-port policy for 2010 - time to decide. Brüssel.

EC (2006): Keep europe moving. Sustainable Mobility for our continent. Mid-term re-view of the European Commission’s 2001 transport White Paper. Brüssel.

Eurostat (2008): Onlinestatistiken der EU. Online verfügbar unter http://epp.eurostat.ec.europa.eu, zuletzt geprüft am 19.09.2008.

Figueira, J.; Greco, S.; Ehrgott, M. (Hrsg.) (2005): Multiple criteria decision analysis. State of the art surveys. New York: Springer.

Page 120: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf Hedel108

King, G.; Honaker, J.; Joseph, A.; Scheve, K. (2001): Analyzing Incomplete Political Sci-ence Data: An Alternative Algorithm for Multiple Imputation. In: American Political Science Review, Jg. 95, H. 1, p. 49-69.

Malczewski, J. (1999): GIS and multicriteria decision analysis. New York: J. Wiley & Sons.

NEA (2005): ETIS-BASE User manual of database access & data. NEA Transport Re-search and Training BV (Hrsg.).

REORIENT Project (2007): Deliverable D2.1 – Progress Toward Rail Interoperability in Countries Along the REORIENT Corridor: An Analysis of Status. Verfasst von P. Grashoff und W. E. Walker. Delft.

SCI (1999): Marktstudie Schienengüterverkehr. Köln.

Siegel, S.; Castellan, N. J. (1988): Nonparametric statistics for the behavioral sciences. New York: McGraw-Hill.

Worldbank (2007): Railway Database. Washington D.C.

Zimmermann, H.-J.; Gutsche, L. (1991): Multi-Criteria-Analyse. Einführung in die The-orie der Entscheidungen bei Mehrfachzielsetzungen. Berlin: Springer (Heidelberger Lehrtexte).

Page 121: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Statistische Methoden in der Klimageographie 109

Statistische Methoden in der Klimageographie

Werner Kirstein

1 Lineare und nichtlineare Statistik der Temperaturreihen

Die Daten der Jahresmittelwerte der Lufttemperatur sind in der Regel von Jahr zu Jahr sehr starken Schwankungen unterworfen. Um den Temperaturtrend quantifizieren zu können, werden Regressionslinien berechnet. Oft wird dabei ein lineares Modell ver-wendet. Zum Beispiel kann damit die Zunahme der Temperatur von 1900 bis 2008 aus Anfangs- und Endpunkt der Regressionsgerade abgelesen werden (hier ∆t = 0,9K). Für nichtlineare Modelle kann man größere oder kleine Temperaturdifferenzen ermitteln. Für ein Polynom-Model 4. Grades beträgt die Temperaturzunahme von 1900 bis 2008 bei etwa 1,6K und für eine Polynom 2. Grades zeigt die Regressionslinie eine Differenz von 0,6K an – immer für dieselbe Datenbasis (Abb. 1).

Abb 1: Lineares Modell sowie polynomisches Modell zweiten und dritten Grades der Tempera-turdaten in Deutschland von 1900 bis 2008 (Quelle: Eigene Grafik nach Daten des Deutschen Wetterdienstes)

Im Grunde lassen sich mit weiteren Regressionsmodellen z. B. als Exponential-, Potenz- oder Logarithmus-Funktion weitere unterschiedliche Werte des Temperaturanstiegs in den letzten 100 Jahren generieren, je nachdem ob nun eine dramatische oder nur ge-ringe Temperaturzunahme vorgeführt werden soll. In verschiedenen Veröffentlichun-gen wurde oft neben dem linearen Trend immer wieder auch ein polynomischer Trend höherer Ordnung angegeben, da der Graph für die letzten Jahre einen steileren Tem-peraturanstieg zeigt und damit einen dramatischeren Klimawandel präsentieren kann. Ganz abgesehen davon ist es fraglich, ob eine Erwärmung oder auch Abkühlung irgend-welchen mathematischen Gesetzmäßigkeiten mehr oder weniger folgt und damit als „Erklärungsmodell“ grundsätzlich eine naturwissenschaftliche Relevanz besitzt.

Page 122: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Werner Kirstein110

2 Kleinere Trends als Charakteristikum auf der zeitlichen Mikroskala

Betrachtet man nur die letzten 30 Jahre, dann kann man 2-5-jährige, kurze Trends er-kennen, die entweder ansteigende oder absteigende Tendenz aufweisen (Abb. 2).

Abb. 2: Globale Temperaturänderungen in der unteren Atmosphäre von 1979 bis 2008 (Quelle: Verändert nach University of Alabama, Huntsville)

Diese „Kleinphasen“ zeigen unregelmäßige Amplituden und Längen, sind aber für die Entwicklung von Klimatrends auf einer Kurzzeitskala ein offensichtlich deutliches Charakteristikum. Außer einem Wechsel zwischen ansteigenden und absteigenden Kleinphasen ist keine weitere Regelmäßigkeit aus diesen Aufzeichnungen herzuleiten. Sowohl ansteigende als auch absteigende Kleinphasen sind von unterschiedlicher Amp-litude und Phasenlänge. Im Ergebnis aller Kleinphasen resultiert eine „Global trend line“ (s. Abb. 2). Dieser Trendlinie muss aber keine Gesetzmäßigkeit zugeschrieben werden. Sie ist vielmehr abhängig vom gewählten Untersuchungszeitraum. Hier ist auffällig, dass der so genannte Rekordsommer des Jahres 2003 nicht erkennbar ist. Das zeigt, dass hier tatsächlich eine lokale Witterungsanomalie vorlag, die nur räumlich und zeitlich (14 Tage!) begrenzt in Erscheinung trat. Betroffen von der kurzen Hitzewelle waren auch nur einige Teile Westeuropas. In Deutschland wurde diese Phase – zeitweise bis 41°C – als symptomatisch für die künftige anthropogene Klimaentwicklung propagiert. Solche kurzzeitigen Wetteranomalien können aber in unregelmäßigen Abständen und an unterschiedlichen Orten auftreten, ohne irgendeine Bedeutung für einen längerfris-tigen Trend.

Page 123: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Statistische Methoden in der Klimageographie 111

3 Korrelation und Kausalität

Seit 1958 wird auf dem Mauna Loa (Hawaii) ununterbrochen die Konzentration des Kohlendioxids in der Atmosphäre gemessen. Der Chemiker Charles David Keeling erreg-te mit der Veröffentlichung seiner Messkurve Anfang der 1980er Jahre weltweit großes Aufsehen. Mit der Keeling-Kurve konnte gezeigt werden, dass die CO2-Konzentratio-nen stetig zunehmen. Gleichzeitig schien es weltweit zunehmend wärmer zu werden. Diese zeitliche Übereinstimmung war der Anfang einer fatalen Fehlinterpretation ei-nes statistischen Zusammenhangs, der eine deutliche positive Korrelation zeigt und – wie sich später zeigte – aber keinerlei Indiz für einen kausalen Zusammenhang liefert. Grundsätzlich muss man wissen, dass statistische Aussagen immer nur den Charakter von Wahrscheinlichkeiten besitzen. Einen mathematisch exakten Beweis – „die Winkel-summe im Dreieck ist immer 180 Grad“ – kann die Statistik nicht liefern. Unter anderem gehen auch Wissenschaftler mit Statistiken in dieser Weise um. Ein hochsignifikanter Korrelationskoeffizient kann völlig unabhängig von Kausalzusammenhängen sein. Eines der berühmt gewordenen Beispiele ist die früher in Schweden dokumentierte Korrela-tion zwischen dem Rückgang der Säuglingsgeburten und der Abnahme der Anzahl der Störche im gleichen Zeitraum – außer Frage: eine klassische Zufallskorrelation von sehr hoher Signifikanz. In scharfer Formulierung und vereinfacht kann man sagen: „Mit Sta-tistik kann man nichts beweisen“.

Genau das war aber die Fehlinterpretation, die sich hier zwischen der Variablen Tem-peratur und CO2-Konzentration eingeschlichen hatte. Im Zeitraum von etwa 1970 bis 2000 verlaufen nämlich die Kurven der beiden Variablen annähernd gleichmäßig anstei-gend. Die „Schlussfolgerung“ hieß: Der Mensch mit seinen CO2-Emissionen aus Indust-rie und Verkehr erwärmt die Erde. Die „Klimakatastrophe“ wurde angekündigt und Mo-dellrechnungen approximierten die weitere Entwicklung der Erwärmung bis zum Jahr 2100. In dem vorausgegangenen Zeitraum von ebenfalls 30 Jahren, also von 1940 bis 1970, gab es allerdings keinen übereinstimmenden Anstieg. Im Gegenteil: man glaubte damals an den Beginn einer neuen Eiszeit, obwohl auch hier bereits das Ansteigen des Kohlendioxidgehaltes vorhanden war. Seit etwa 2000 nehmen nun die Temperaturen insgesamt und weltweit betrachtet wieder ab und immer noch steigt der CO2-Gehalt der Atmosphäre. Auch in vorindustrieller Zeit, in der man von einem quasi konstanten Kohlendioxidanteil von 280 ppm ausging, sind die Temperaturen nicht entsprechend invariant geblieben.

Statistisch betrachtet heißt das: Im Zeitraum von 1970 bis 2000 stimmen die Zunahmen von Temperatur und CO2-Gehalt zufällig überein. Der Statistiker weiß, dass beim Ver-gleich zweier Zeitreihen fast immer eine begrenzte Epoche auffindbar ist, aus der ein Zu-sammenhang zweier Variablen „konstruiert“ werden kann. Mittels einer so betriebenen Statistik mit selektiven Zeitskalen, ausgewählt nach gewünschten Übereinstimmungen,

Page 124: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Werner Kirstein112

wurde in der Vergangenheit schon häufiger versucht, „Beweise“ zu konstruieren, um eine wirtschaftliche oder politische Ideologie zu unterstützen oder eine politische Ent-wicklung zu beeinflussen nach dem Motto: „Wie die Wissenschaft bewiesen hat“.

4 Datenmanipulationen

Bei näherer Betrachtung des sogenannten anthropogenen Klimawandels kommen aber neben den genannten statistisch-methodischen Fehlern der „Selektiven Statistik“ zu-sätzlich auch noch massive Datenmanipulationen hinzu. Zwei besonders gravierende Beispiele, die den Laien auf die Spur der menschgemachten Klimakatastrophe bringen sollen, werden hier kurz vorgestellt werden.

4.1 Die gefälschte Hockeystick-Kurve

Von der Klimawissenschaft, die den anthropogenen Klimawandel propagiert, wurde vie-le Jahre lang behauptet, das Klima sei im Holozän, also nach der letzten Eiszeit, quasi konstant gewesen. Erst durch industrielle Technologien habe eine sehr deutliche Zunah-me der Temperatur stattgefunden (Abb. 3, unten). Die starke Temperaturzunahme in den letzten Jahrzehnten sei auf die anthropogenen Treibhausgase, allen voran auf das Kohlendioxid zurückzuführen. So sollte in dieser Kurve von M. Mann ausgehend von einem klimatischen „Gleichgewichtszustand“ eine vom Menschen verursachte Instabi-lität suggeriert werden.

Aus Proxidaten des holozänen Klimaablaufs wurden aber sehr bald massive Zweifel an Manns Klimaablauf angemeldet. Seine Kurve, die graphisch an einen Hockeyschläger erinnert (in Abb. 3, unten: grauer Bereich), ist inzwischen weltweit als Fälschung entlarvt worden. Hinzu kommt, dass M. Mann und auch Phil Jones (CRU Climate-Research-Center of East Anglia) eine vollständige Offenlegung zu den Methoden und Daten die-ser Grafik verweigern.

Glücklicherweise war aber schon vor der Veröffentlichung der Hockeystick-Kurve das mittelalterliche Klimaoptimum um 1200 und die kleine Eiszeit im 16. und 17. Jahrhun-dert sehr gut bekannt. Die Daten der wirklichen Temperaturkurve (Abb. 3, oben) im Holozän zeigen auch, dass es vor rund 800 Jahren – ohne einen menschengemachten Einfluss – bereits wesentlich wärmer war als heute. Das Klima hat in historischen und geologischen Zeiten schon immer deutliche, zeitweise sogar ganz erhebliche Schwan-kungen gezeigt. Die von M. Mann nivellierten Phasen der Fälschung sind mit roten Pfeilen gekennzeichnet.

Page 125: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Statistische Methoden in der Klimageographie 113

Abb. 3: Die gefälschte Hockeystick-Temperaturkurve (unten) im Vergleich zur korrigierten Grafik (oben). Die Temperaturkurve von Michael E. Mann ähnelt einem Hockey-Schläger (grau) und unterdrückt den starken Temperaturanstieg im mittelalterlichen Klimaoptimum um 1200 und die Temperaturabsenkung während der sogenannten „Kleinen Eiszeit“ im 17.Jahr-hundert. Die Kurve soll ein quasi konstantes Klima seit 1 000 Jahren suggerieren und damit einen starken Anstieg der Temperatur seit dem Industriezeitalter ab etwa 1900 vortäuschen. Die roten Pfeile kennzeichnen die stark gefälschten Zeitepochen (Quelle: Verändert nach Chr. Monckton: Sunday Telegraph, 05/11/2006: Climate chaos? Don`t .believe it)

4.2 Die Reduzierung der ländlichen Klimastationen

Am 26. Januar 2010 erregte eine Veröffentlichung von Joseph D’Aleo und Anthony Watts “Surface Temperature Records: Policy Driven Deception?“ (updated: June 2, 2010) in Fachkreisen erhebliches Aufsehen. In der 111 Seiten umfassenden Studie zei-gen die Autoren unter anderem, dass von der „offiziellen Klimawissenschaft“ die Anzahl von bisher über 5 000 Klimastationen zur Ermittlung von Temperaturmittelwerten um 1990, um mehr als die Hälfte gesenkt wurden.

Die Manipulation wurde auf unterschiedliche Weise vorgenommen, beispielsweise bei der Berechnung der Durchschnittstemperatur einer Region durch das Weglassen der Da-ten von Stationen auf ‚kalten Standorten’ oder das unsachgemäße Einrichten von Sta-

Page 126: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Werner Kirstein114

tionen auf ‚warmen Standorten’. Beide Arten der Manipulation täuschen eine wärmere Temperatur vor. In Abbildung 4 ist eindrucksvoll belegt, dass die Reduzierung der Stati-onszahl um 1990 zeitgleich einher geht mit dem Anstieg der Temperaturmittelwerte.

Abb. 4: Um 1990 wurde die Zahl der Messstationen mehr als halbiert. Die Mittelwerte der Temperatur stiegen deshalb gleichzeig stark an (Pfeil), weil überwiegend ländliche Stationen eliminiert wurden und das wärmere Stadtklima jetzt in der Klimastatistik dominiert (Quelle: http://icecap.us/images/uploads/JSD_CCSP_DataIntegrity.pdf)

Das bedeutet, dass bei der Aussonderung von ländlichen Stationen der Effekt des Stadt-klimas benutzt wurde, um weltweit höhere Mitteltemperaturen vorführen zu können. Ebenso wurden auch zahlreiche Stationen in hohen geographischen Breiten und viele Bergstationen ausgesondert. Damit wird auch deutlich, warum die Autoren im Titel ihrer Arbeit von „Betrug“ sprechen.

Weiterhin hat das Moskauer Institut für Ökonomische Analysen (IEA) Anschuldigungen gegen die CRU erhoben, die das zentrale Temperatur-Sammel- und Auswertungsinstitut den Weltklimarat (IPCC) ist. Die Baumringdaten auf der sibirischen Halbinsel Yamal sei-en sorgsam selektiert worden. Nur 12 von 252 Baumdaten wurden aus dem Datensatz benutzt. Andere Daten, die keinen Nachweis für eine aktuelle dramatische Erwärmung liefern, aber auf höhere Temperaturen im Mittelalter hinweisen, blieben unberücksich-tigt.

Auf viele andere Manipulationen, Datenfälschungen und angebliche Pannen die beim IPCC oder den Datenzulieferern durch den Climategate-Skandal bekannt geworden

Page 127: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Statistische Methoden in der Klimageographie 115

sind, soll hier nicht weiter eingegangen werden. Zusammenfassend kann aber die Äu-ßerung von Dr. Vincent Gray (ehemaliger IPCC-Expert-Reviewer) die mehr als fragliche Glaubwürdigkeit des Weltklimarates wohl sehr eindrucksvoll verdeutlichen: „The IPCC is fundamentally corrupt. The only ‚reform‘ I could envisage would be its abolition.“ Er belegt diese Vorwürfe umfassend in seiner im Juli 2008 erschienenen Kritik: „The Intergovernmental Panel on Climate Change: Spinning the Climate”.

5 Politische Implikationen

Nachdenklich zum Thema „anthropogener Klimawandel“ macht eine erstaunlich, oft fast wörtlich übereinstimmende Aussage von vielen Meteorologen: „Klimawandel? – Das ist Politik und hat mit Wissenschaft nichts zu tun!“ Richtiger und vollständiger müsste es wohl heißen: „Klimawandel? – Das ist Politik und hat mit normaler Wissen-schaft nichts zu tun, wohl aber mit postnormaler Wissenschaft!“

Die normale Wissenschaft geht von der Methode aus, absolut vorrangig Wahrheits-suche zu betreiben. Eingesetzte Mittel sind zum Beispiel die messende Technik in der Naturwissenschaft.

Bei der sogenannten postnormalen Wissenschaft steht die Politik im Vordergrund. Wis-senschaftliche Arbeitsweisen dienen nur als Hilfsmittel, um politischen Ziele oder Ideo-logien zu untermauern. Dogmatische „Wahrheiten“ werden – wenn nötig – mit Ängs-ten kombiniert. Apokalypse und Katastrophen-Szenarios werden oft als Bedrohung der Menschheit verkündet. Angst ist ein Machtinstrument der postnormalen Wissenschaft.

Einer der bekanntesten deutschen Klimaforscher Prof. Hans von Storch (Direktor des Instituts für Küstenforschung am GKSS-Forschungszentrum in Geesthacht) sagt in der Weltwoche Nr. 23.07: „Die Klimaforschung ist nicht ‚normal‘, sondern ‚postnormal‘. Der postnormale Wissenschaftler tritt als Anwalt einer „wertorientierten“ guten Sache oder auch politischen Agenda auf. Wissenschaftler, die sich zu Anwälten einer guten Sa-che machen, missbrauchen ihren Status. In der Klimadebatte üben sie Macht aus, ohne dafür haften zu müssen.“

Im Programm der Klimapolitik spielt die (großzügige) Vergabe von Fördergeldern eine wichtige Rolle. Prof. Dr. Gernot Patzelt, einer der bekanntesten Alpen-Glaziologen, der das immer wiederkehrende Vor- und Zurückweichen der Gebirgsgletscher als ganz nor-malen und natürlichen Vorgang betrachtet, sagt zum Thema Fördergelder: „An den Universitäten und Forschungsinstituten kriegen sie ihre Förderung nur, wenn sie die Klimakatastrophe schon in den Antrag schreiben.“

Vorfinanziert werden die gigantischen Fördergelder durch erwartete und noch größere Einnahmen aus späteren Klimasteuern und dem Emissionshandel, d. h. aus Kauf und

Page 128: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Werner Kirstein116

Ersteigerung von „Verschmutzungsrechten“, die erst mal das Recht geben, die Umwelt weiterhin zu verschmutzen, vor allem aber um Haushaltsdefizite verkleinern zu kön-nen.

Ein weiteres Ziel der postnormalen Wissenschaft ist die „große soziale Transformation“ mit dem angestrebten Endziel einer „Green Economy“. Kritiker nennen das auch eine schrittweise Deindustrialisierung unserer Gesellschaft. Wenn diese Gesellschaftsform mehrheitlich gewünscht wird, wäre das wohl wenig kritikfähig. Fakt ist aber, dass dies undemokratisch und ohne Befragung der Betroffenen geschehen soll. Die Beweise hier-zu werden vom und im Umfeld des IPCC selbst präsentiert:

Maurice Strong, erster UNEP-Direktor (Konferenz 1992, in Rio de Janeiro): „Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der industriellen Zivilisation? Liegt es nicht in unserer Verantwortung dafür zu sorgen, dass dieser Zusam-menbruch eintritt?“

John Houghton, Vize-Präsident des IPCC (10.09.95 im Sunday Telegraph): „Wenn wir in Zukunft gute Umweltpolitik haben wollen, dann müssen wir eine Katastrophe be-kommen.“

Prof. Dr. Stephen Schneider, (IPCC 1989): Deshalb müssen wir Schrecken einjagen-de Szenarien ankündigen. Um Aufmerksamkeit zu erregen brauchen wir dramatische Statements und keine Zweifel am Gesagten. Jeder von uns Forschern muss entscheiden, wie weit er eher ehrlich oder eher effektiv sein will.“

Die politischen Implikationen werden in der Wissenschaft wohl bei kaum einem anderen Problem so deutlich, wie beim „inszenierten Klimawandel“. Einige Kritiker des anthro-pogenen Klimawandels meinen: „Das, was vom IPCC in den vergangenen beiden Jahr-zehnten an Berichten publiziert wurde, darf man als wissenschaftlichen Skandal von gi-gantischer Größenordnung bezeichnen.“ (Prof. Dr. Gerhard Kramm, Research Associate Professor of Atmospheric Sciences University of Alaska Fairbanks, Geophysical Institute and Department of Atmospheric Sciences).

Page 129: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 117

Climate Twins – eine Applikation zur Suche von Regionen, deren heutiges Klima dem zukünftigen Klima eines Point of Interest entspricht

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger

Zusammenfassung

Der Beitrag beschreibt Hintergrund, Ziel und Realisierung des Climate Twins Tools. Climate Twins ist ein Konzept, um einen Eindruck von der Wirkung einer künftigen Klimaveränderung in einer Quell-Region anhand des ähnlichen aktuellen Klimas in „Cli-mate Twins Regionen“ zu vermitteln. Dies erfolgt mittels eines interaktiven, kartogra-phischen Tools, mit welchem ein regionaler Vergleich von Klimaausprägungen durch-geführt werden kann. Die im Zuge der „Climate Twins“ Suche in einer Europakarte gefundenen Regionen erlauben, zukünftige Klimaveränderungen in der Quell-Region intuitiv „fassbar“ zu machen und reale Maßnahmen aufzuzeigen, wie mit künftigen Klimaverhältnissen in den Climate Twin Regionen schon heute umgegangen wird.

In methodischer Hinsicht wird auf die Realisierung der interaktiven Kartographie, auf die einbezogenen Daten, auf davon abgeleitete Indikatoren, auf Methoden zum Vergleich von Regionen ähnlichen Klimas (heute und künftig), sowie auf mögliche Ähnlichkeits- und Unsicherheitskriterien eingegangen. Nach der Vorstellung der aktuellen Umsetzung werden auch weitere Entwicklungs- und Anwendungsmöglichkeiten diskutiert.

1 Einführung

1.1 Hintergründe und Legitimation

Um die Auswirkungen des Klimawandels auf Umwelt und Gesellschaft in den kommen-den Jahrzehnten zu bewältigen ist es nötig, Strategien und Maßnahmen zu entwickeln, wie mit diesen Auswirkungen umgegangen werden kann.

Klimamodelle simulieren die Entwicklung des künftigen Klimas und liefern dabei große Datenmengen, welche dessen Entwicklung über künftige Dekaden, regional gegliedert in Rasterfelder in kleinen Zeitschritten, beschreiben. Die Daten werden in weiterer Folge zu Klima-Indikatoren für größere Zeitabschnitte komprimiert. Da deren Interpretation für die Öffentlichkeit nur schwer nachvollziehbar ist und um auch Nicht-ExpertInnen einen Einblick in regionale Effekte künftiger Klimaveränderungen zu bieten und Anpas-sungsstrategien aufzuzeigen, werden Modellregionen gesucht, deren derzeitiges Klima eine große Ähnlichkeit mit dem künftigen Klima in der „Quell-Region“/Point of Interest

Page 130: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger118

(POI) aufweist. Die dabei gefundenen „Climate Twins“ erlauben, „spielerisch” zukünf-tige Klimaveränderungen in der Quell-Region „fassbar“ zu machen und reale Maßnah-men aufzuzeigen, wie unter diesen Klimaverhältnissen in den Climate Twin Regionen schon heute umgegangen wird.

1.2 Ausgangssituation

Der letzte Bericht des Intergovernmental Panel on Climate Change (IPCC 2007) erläu-tert die in aller Deutlichkeit die weltweiten Auswirkungen des Klimawandels – allerdings eher aus globaler und kontinentaler Sicht. Um zu klären, wie sich das regionale Klima verändern wird, werden von einer Vielzahl an Klimaforschungseinrichtungen kleinräu-mige Simulationen zukünftiger Klimaentwicklungen durchgeführt. Die Ergebnisse sind allerdings oft nur für jene erkenn- und interpretierbar, die schon mit der Thematik ver-traut sind.

Klima ergibt sich aus den physikalischen und chemischen Zuständen der Atmosphä-re und setzt sich aus unterschiedlichen Faktoren1 zusammen, die in vielen vertikalen Schichten sowie in Bodennähe (wo weitere Effekte wie etwa Albedo, Schneebedeckung und Bodenfeuchte hinzukommen) unterschiedliche Ausprägungen haben und zueinan-der in Wechselwirkung stehen.

Das künftige Klima kann nur unter Vorgabe entsprechender Rahmenbedingungen – im wesentlichen Sonneneinstrahlung, sowie die Entwicklung der Treibhausgaskon-zentration – und mit Hilfe numerischer Modelle simuliert werden, welche die physi-kalischen Prozesse in der Atmophäre abbilden. Globale Klimamodelle (GCMs) wie das Modell ECHAM 5 (Roeckner et al. 2003) berechnen die atmosphärischen Zustände in kleinen Zeitschritten für ein über die Erdkugel „gebreitetes“, sphärisches 3-dimensiona-les Gitternetz mit einem Gitterabstand von etwa 1° (also 100-120 km in Mitteleuropa) (vgl. Mc Guffie, Henderson-Sellers 1997). Regionale Klimamodelle (RCMs) übernehmen für kleinere Modellregionen – sogenannte Domains – die Ergebnisse der Globalmodelle (im Stundenintervall) an den Domainrändern und berechnen die atmosphärischen Pro-zesse in einem feineren Raster (etwa 10-20 km), dies nun in Iterationsschritten von we-nigen Minuten, um die subskaligen Effekte der Atmosphäre und des Geländes innerhalb der GCM-Gittermaschen berücksichtigen zu können. Die Simulationsergebnisse der ver-schiedenen Parameter stehen schließlich als Stunden - bzw. Tagesdaten als 3-dimensio-nale Matrix zur Verfügung. Die Identifikation von Signalen des Klimawandels erfordert also komplexe Datensätze, komplexe Indikatoren und entsprechendes Wissen, um die Ergebnisse zu analysieren bzw. zu interpretieren, um dann entsprechende Schlussfolge-rungen ziehen zu können.

1 Z. B. Luftdruck, Temperatur, Eis, Wasser, Partikel, Gaskomponenten, Feuchtigkeit, Wind, Bewölkung oder Strahlung.

Page 131: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 119

Häufig wird das Klima – und dessen Wandel – mit einigen wenigen integrierten In-dikatoren, welche die bodennahen Schichten betrachten, beschrieben. Die folgende Abbildung zeigt den Schritt von die Ausprägung und Variabilität von Temperatur und Niederschlagsdaten beschreibenden Datensätzen hin zu integrierten Mittel- und Sum-menwerten.

Abb. 1: Von der jährlichen Temperatur und Niederschlagsvariation zu Indikatoren, welche Kom-plexe, sich über die Zeit ändernde Zustände durch integrierte Indikatoren darstellen: Mittelwer-te und Summen (Quelle: Eigene Erarbeitung)

Das Beispiel zeigt, dass derartige integrierte Indikatoren eine erhebliche Vereinfachung der Aussagen über die Klimacharakteristik in sich bergen und dass die damit vermittel-te Botschaft – etwa einer Gegenüberstellung von Mittelwerten – entsprechendes Hin-tergrundwissen erfordert – etwa was durch einen Mittelwert ausgesagt werden kann und was nicht (mehr) – und welche Zusatzinformationen notwendig sind, um darauf aufbauend sinnvolle Aussagen treffen zu können. So können etwa Regionen mit iden-ten Mittelwerten völlig andere Klimata haben (siehe auch Kap. 3.1). Derartige einfache integrierte Indikatoren müssen also durch zusätzliche Information ergänzt werden um wirklich Ähnlichkeit ausmachen zu können (etwa durch Einbezug von Maxima und Mi-nima, durch saisonale Indikatoren, durch Häufigkeiten von Verteilungen).

Doch – um öffentliche Aufmerksamkeit zu erzielen sind einfachere Botschaften not-wendig (wobei hier außer Frage steht, dass eine Anwendung, die pädagogische Ziele verfolgt, natürlich ebenfalls wissenschaftlich fundiert sein muss und nur wenig (wenn überhaupt) Informationsreduktion betreiben darf)). Climate Twins versucht daher bei-des zu sein: Wissenschaftlich fundiert und pädagogisch ansprechend, indem es als ein interaktives Kartographie-Werkzeug hilft, das künftige Klima und dessen Auswirkungen in beliebigen Regionen Europas zu „erspüren“. Um dies zu erreichen, ermöglicht es die dazu entwickelte Webapplikation dem Benutzer, Climate Twins Regionen zu identifizie-

Page 132: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger120

ren, indem Ergebnisse regionaler Klimamodelle für derzeitige und zukünftige Klimata rasterzellenweise miteinander verglichen werden.

2 Climate Twins – die Umsetzung

2.1 Datengrundlagen

Um Klimacharakteristika vergleichen zu können, müssen die Datengrundlagen ähnliche Qualität, Schärfe/Unschärfe sowie räumliche Repräsentativität aufweisen.

Dies heißt, dass man keine Messergebnisse (für Messstationen) mit Modellergebnissen (die für andere Räume repräsentativ sind und die durch die Vereinfachung gewisse Feh-ler oder Unschärfen beinhalten) vergleichen kann, sondern immer nur auf den selben Modellraster bezogene (validierte) Modellergebnisse des heutigen mit jenen eines künf-tigen Klimas in der jeweiligen identen zeitlichen und räumlichen Auflösung.

Eingangsdaten für den Vergleich eines künftigen mit dem aktuellen Klima an unter-schiedlichen Orten sind nun Modellergebnisse von Klimasimulationen des aktuellen und künftigen Klimas, welche in einem regelmäßigen Raster (10x10km für den Alpenraum (aus unserer nationalen Klimasimulation des Projekts reclip:more bzw reclip:century – Loibl et al. 2009, 2010) bzw. 18x18km für Europa) (aus den „Konsortialläufen“(vgl. Böhm 2010) digital vorliegen.

Die verfügbaren Datensets reichen von Stundendaten über Tagesmittelwerte als direk-tem Output der Simulationsmodelle bis zu, viele Datensätze integrierenden Indikatoren, wie Monatsmittelwerte (der Temperatur) oder Monatssummen (des Niederschlags).

Als weitere Aufgabe ist nun zu prüfen, welche der Rasterzellen – als „Climate Twins“ – bereits heute eine ähnliche Ausprägung der Klimaindikatoren zeigen, wie jene des künf-tigen Klimas in der „Heimatzelle“ bzw. des Point of Interest (POI).

Die betreffenden Forschungsfragen sind:

welche Klimaparameter werden herangezogen, um die Klimacharakteristik best-•möglich abzubilden,

welche Bedingungen werden festgelegt um Ähnlichkeit zu prüfen und•

welche Bandbreiten werden festgelegt um die Unsicherheiten in den Modellergeb-•nissen zu berücksichtigen?

Zurzeit werden neue Indikatoren anhand der Häufigkeiten der Ausprägung von Tempe-ratur und Niederschlag generiert. Die Daten bzw. vorab berechneten Indikatoren je Ras-terzelle des Klimamodellrasters werden in einer Datenbank abgelegt, die Ausprägungen Rastermittelpunkten zugeordnet und mit einer digitalen Karte georeferenziert.

Page 133: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 121

2.2 Technische Umsetzung

Climate Twins ist als Client-Server Applikation konzipiert und wurde wie folgt imple-mentiert:

a) Datenbank Organisation

Die serverseitige PostGreSQL (http://www.postgresql.org) Datenbank beinhaltet zurzeit zwei Klimaindikatoren, Temperatur und Niederschlag (weitere werden mo-mentan hinzugefügt), die als Jahresgänge von Monatsmittelwerten in den Spalten einer Datenbank Tabelle als Arrays von zwölf Fließkommawerten abgelegt sind. Für die Climate Twin Suche werden für jeden Indikator zwei Spalten benötigt:

Spalte 1: Scenario Run (zukünftige Werte des POI)

Spalte 2: Control Run (gegenwärtige Werte zum Vergleich mit den POI Werten)

Die Rasterzellen werden über die Zellen-Mittelpunkte angesprochen. Die einzel-nen Arrays sind über eine ID mit ihrer geographischen Position innerhalb eines 18 x 18 km Vektor Rasters, der als PostGIS Layer abgelegt ist, verbunden, welche über die Clientapplikation abgefragt werden kann (siehe unten).

b) Mapserver

Zur Visualisierung der Übersichts- sowie der Ergebniskarte(n) wird serverseitig UMN Mapserver (http://mapserver.org/) verwendet, welcher einerseits die Shapefiles für die Hintergrundkarten (EU Ländergrenzen (NUTS0) und Gemeindegrenzen (LAU2), anderseits die PostGIS Layer des Vektor ID-Rasters und die (in der Datenbank er-zeugten) Climate Twins Ergebnis Layer für Temperatur und Niederschlag als Web Feature Service (WMS) bereitstellt. Die Ergebniskarten werden jeweils nach Ähn-lichkeitsklassen eingefärbt (hellrot bis dunkelrot für die Temperaturähnlichkeiten, hellblau bis dunkelblau für die Niederschlagsähnlichkeitsklassen) und dann im Client angezeigt.

c) Client Applikation

Zur Kommunikation mit dem User kommt clientseitig Flamingo Viewer (http://www.flamingo-mc.org), ein Mapviewer auf Adobe® Flash® Basis, zum Einsatz, der über XML Dateien eine Vielzahl von Konfigurationsmöglichkeiten bietet und auf die jeweilige Anwendung hin optimiert werden kann (z. B. Abfragen von Karten-features, Navigationstools, Legenden etc.) (siehe Abb. 3 und 4). Weiter kann der Viewer mittels JavaScript mit den HTML Objekten der ihn einbettenden HTML Seite kommunizieren (hier: Slider zur Threshold Veränderung der Climate Twin Ähnlich-keitsspannweiten).

d) Abfrage der Ähnlichkeit

Wie oben beschrieben sind für jede der (aktuell über 60 000) Rasterzellen die 12 Monatsmittelwerte (Januar-Dezember) einer 10 Jahresperiode für Control und

Page 134: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger122

Scenario Lauf in jeweils einem Array pro Rasterzelle abgelegt. Als Ähnlichkeitskrite-rien wurden bisher folgende herangezogen:

Zahl der Monate in welchen die Indikatoren (innerhalb einer Unsicherheitsbandbrei-te) zwischen 2 Rasterzellen übereistimmen:

Übereinstimmung von 11-12 Monaten: sehr hohe Ähnlichkeit•

Übereinstimmung von 9-10 Monaten: hohe Ähnlichkeit•

Übereinstimmung bei 6-8 Monaten: geringe Ähnlichkeit•

Als Unsicherheitsbandbreiten (bzw. Tolerance Range) wurden folgende Default-Werte festgelegt:

Bandbreite der Temperatur-Monatsmittelwerte innerhalb +/-0,6°C•

Bandbreite der Niederschlags-Monatssummen innerhalb +/-40%•

In der aktuellen Climate Twins – Version kann die Unsicherheitsbandbreite inzwischen interaktiv vergrößert oder verringert werden (s. Sliderbars in Abb. 3 und 4 unten.)

Die vom User ausgewählte Rasterzelle ID wird schließlich von einem Servlet regist-riert, welches daraufhin die Climate Twin Regionen nach folgendem Schema inner-halb der Datenbank ermittelt:

Abb. 2: Flussdiagramm der Climate Twin Ähnlichkeitsfindung (Quelle: Eigene Darstellung)

Page 135: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 123

e) Lauffähiger Prototyp

Der ClimateTwins Prototyp ist momentan in ständiger Weiterentwicklung und ist unter: http://foresight.ait.ac.at/projects/climatetwins/ erreichbar.

Abb. 3: Climate Twins Applikation v1.0, (Quelle: http://foresight.ait.ac.at/projects/climatetwins/, 31.05.2010)

Abb. 4: Climate Twins Applikation v2.0 (Development Version), (Quelle: http://sf5.arcs.ac.at/jsp-examples/ct_dev/flamingo-mc_3/index6.html, 31.05.2010)

Page 136: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger124

3 Abschätzung von Ähnlichkeit und Unsicherheiten – Ausblick

Die Identifizierung klimatischer Ähnlichkeit mag zunächst einfach scheinen, doch die Genauigkeit und Anwendbarkeit der Vergleichs-Operationen hängt in hohen Maße von der Auswahl der Klimaindikatoren, den verwendeten Vergleichsoperationen und Ähn-lichkeitsbedingungen, sowie der Unsicherheitsbandbreiten ab.

Zu viele Klima-Indikatoren, wenig geeignete Vergleichsoperationen und zu schmale Unsicherheitsbereiche führen dazu, dass nur wenige bzw. gar keine Regionen mit ähn-lichem Klima identifiziert werden, wohingegen zu wenige Indikatoren, Vergleichsope-rationen mit zu „weichen“ Verknüpfungskriterien (etwa ein generelles „oder“) und zu breite Unsicherheitsspannweiten dazu führen, dass zu viele Rasterzellen – und somit zu große Regionen – als ähnliche Regionen klassifiziert werden.

Beides ist wenig hilfreich, da die Ergebnisse eine deutliche Identifikation von Climate Twins Regionen liefern müssen, um von diesen Beispielregionen zu lernen. Daher ist es für die Weiterentwicklung der Applikation nötig, geeignete Methoden zur Abschät-zung der Ähnlichkeiten zu finden, die aussagekräftige Vergleichsergebnisse liefern. Zwei mögliche Methoden sollen als Ausblick beschrieben werden, die momentan evaluiert werden: Proportional Similarity und der Hellinger Koeffizient.

3.1 Proportional Similarity und Hellinger Koeffizient

Nachdem gängige klimatische Eigenschaften mit zeitlich grob zusammengesetzten Indi-katoren wie Durchschnittstemperaturen oder Niederschlagssummen auf Monats- bzw. Jahresbasis dargestellt werden, besitzen sie eine große Unsicherheitsbandbreite, die sich auf das Ergebnis der Ähnlichkeitsidentifikation auswirken. Zwei Regionen mit derselben Jahresdurchschnittstemperatur können völlig unterschiedlich ausgeprägte Temperatur-amplituden zwischen Sommer und Winter haben, wenn sie beispielsweise stark konti-nental oder maritim geprägt sind. Ähnliches gilt beim Niederschlag, wo es einen Un-terschied macht, ob es relativ viel in relativ kurzer Zeit regnet oder nur ein wenig dafür regelmäßig, obwohl die Niederschlagssummen über den beobachteten Zeitraum gleich sind. Statistisch gesehen können zwei Verteilungen somit zwar den gleichen Mittelwert, jedoch unterschiedliche Spannweiten oder Varianzen aufweisen. Der Mittelwert ist also nur eine mögliche Beschreibung der Eigenschaften einer Verteilung.

In einer Studie von Vegelius et al. (1986) wurden verschiedene Maße zur Bestimmung von Ähnlichkeit zwischen zwei statistischen Verteilungen untersucht und zwei Metho-den empfohlen, die Proportional Similarity (PD) und der Hellinger Koeffizient (rH). In Abbildung 5 werden die beiden Maße dargestellt, wobei U und V für die zu verglei-chenden statistischen Verteilungen stehen und fUi und fVi für die jeweiligen relativen Häufigkeiten.

Page 137: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 125

Abb. 5: Berechnung der Proportional Similarity (PD) und des Hellinger Koeffizienten (rH) (Quelle: Eigene Erarbeitung)

Mit beiden Methoden ist es möglich, zwei Verteilungen so miteinander zu vergleichen, dass wesentliche Eigenschaften wie Mittelwert, Varianz, Spannweite, Schiefe oder Mehr-gipfligkeit indirekt in die Berechnung einfließen. Als Ergebnis wird ein Wert zwischen 0 und 1 berechnet (siehe Abb. 6), der es außerdem ermöglicht, sowohl verschiedene Ab-stufungen von Ähnlichkeiten zu bestimmen als auch die Ähnlichkeiten mehrerer klimati-scher Eigenschaften wie Temperatur und Niederschlag miteinander zu kombinieren.

Abb. 6: Bestimmung der Ähnlichkeit von zwei Verteilungen mittels der Proportional Similarity (Quelle: Eigene Erarbeitung) )

Page 138: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Jan Peters-Anders, Wolfgang Loibl, Joachim Ungar, Hans Züger126

Die beiden Maße errechnen die Unterschiede der einzelnen relativen Häufigkeiten an-hand von bestimmten Klassen, wie z. B. die relative Anzahl der Tage mit einer Tages-durchschnittstemperatur zwischen 10°C und 12°C. Da die relativen Häufigkeiten zur Berechnung herangezogen werden, geht allerdings der zeitliche Verlauf der Klimaindi-katoren verloren. In der Climate Twins Anwendung wird dem entgegengewirkt, indem die Ähnlichkeit der einzelnen Jahreszeiten zweier Regionen bestimmt und diese Ähnlich-keitswerte zu einem Jahreswert zusammengesetzt werden. Bei diesem Schritt können auch Ausschlussverfahren eingebunden werden, die eine mögliche Zielregion dann als Climate Twin ausschließen, wenn eine Jahreszeit zu viele Unterschiede aufweist. Hier ist es jedoch noch wichtig, Unsicherheitsbandbreiten in Form maximaler Abweichungen zu evaluieren und zu bestimmen, da eine zu große Bandbreite wieder zu viele und eine zu kleine Bandbreite zu wenige Climate Twins zur Folge hätte.

Momentan werden die Ähnlichkeitsmaße für diese spezifische Anwendung kalibriert und in die Applikation eingebaut. Weiter wird die Datenbank mit vorkalkulierten Werten befüllt, welche die tatsächliche Berechnung der Ähnlichkeiten zeitsparender durchfüh-ren lässt. In der Endversion soll es dann möglich sein, zwischen den Maßen, den Indika-toren und den zu vergleichenden Zeiträumen auszuwählen und den Schwellenwert für Ähnlichkeit interaktiv zu beeinflussen.

Zusätzlich wird weiteres überlegt, Climate Twins klimatische Charakteristika mit örtlichen (Gelände, Boden und Landnutzung) zu verbinden, um Twin Regionen mit klimatischen und physischen Übereinstimmungen zu finden.

4 LiteraturBöhm, U. (2010): Regionalmodellierung II, Präsentation, PIK Potsdam:

http://www.pik-potsdam.de/members/boehm/regionalmodellierung-ii-1 (31.05.2010).

IPCC (2007): Climate Change 2007: The Physical Science Basis. Final Report Working Group 1, Intergovernmental Panel on Climate Change, Assessment Report 4. Geneva, Swiss: http://ipcc-wg1.ucar.edu/wg1/Report/AR4WG1_Print_SPM.pdf

Loibl, W.; Züger J.; Köstl, M. (2009): Reclip:more – kleinräumige Klimaszenarien für Österreich. In: Standort 3/2009, Springer Verlag.

Loibl, W.; Peters-Anders, J.; Züger, H.; Ungar, J. (2010): Climate twins – a tool to explore future climate effects by identifying regions with similar current climate, Poster P8. Universität für Bodenkultur Wien (Hrsg.), Tagungsband, 11. Österreichischer Klimatag 2010, Wien: http://www.austoclim.at/fileadmin/user_upload/ppt_11.Klimatag/Tagungsband_upload.pdf

Mc Guffie, K.; Henderson-Sellers, A. (1997): A Climate Modelling Primer, 2nd Edition, Wiley & Sons.

Page 139: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Climate Twins – eine Applikation zur Suche von Regionen 127

Roeckner, E.; Baeuml G.; Bonaventura L.; Brokopf R.; Esch M.; Giorgetta M.; Hagemann S.; Kirchner I.; Kornblueh L.; Manzini E.; Rhodin A.; Schlese U.; Schulzweida U.; Tompkins A. (2003): The Atmospheric General Circulation Model ECHAM5. Part 1: Model Description, Report 349, Max Planck Institute for Meteorology (MPI), Hamburg.

Vegelius, J.; Janson, S.; Johansson, F. (1986): Measures of similarity between distribu-tions, Quality and Quantity 20, Nr. 4, S. 437-441.

Page 140: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 141: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren 129

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren

Antje Katzschner, Sebastian Kupski

1 Einleitung

Angesichts einer erwarteten deutlichen Zunahme von extremen Hitzeperioden im Som-mer, wird insbesondere in Städten der Hitzestress für Menschen ansteigen, intensiver werden und länger andauern. Ausschlaggebend dafür sind die Phänomene des Stadt-klimas, die sich unter dem Begriff urbane Wärmeinsel bzw. urbanes Wärmearchipel zusammenfassen lassen. Damit Leistungsfähigkeit, Wohlbefinden und Gesundheit von Menschen in Städten auch zukünftig gesichert sind, muss die Stadtplanung schon heute städtebauliche Planungen so optimieren, dass die thermischen Belastungen auch unter extremen Hitzebedingungen sowohl im Freien als auch in den Innenräumen auf ein erträgliches Maß reduziert werden.

Anhand einer in GIS erstellten Klimafunktionskarte besteht die Möglichkeit stadtklimati-sche Belange weiterhin mit sozioökonomischen Daten zu verknüpfen. In vorliegendem Artikel wurde die Gruppe der älteren Menschen gewählt, da zum einen eine umfassende Datenlage vorliegt und diese Personen zum anderen eine Risikogruppe darstellen.

Die durch soziale Faktoren begründete besondere lokale Situation bietet Anknüpfungs-punkte für die räumliche Planung. Sei es einerseits, um diese sozialen Unterschiede generell zu verringern, oder diese Unterschiede im Falle eines Extremwetters ins Risi-komanagement zu integrieren. Fleischhauer (2004, 99) misst Hitze als Extremwetter „aufgrund ihrer geringen Standortbezogenheit“ eine geringe raumplanerische Relevanz bei. Der sozialdifferenzierte Zugang liefert demnach eine Erweiterung der Handlungs-möglichkeiten.

Darüber hinaus wirkt sich neben der sozialen Struktur die ebenfalls standortgebundene, bauliche Struktur auf die Auswirkungen von Extremwetter aus. Beispielsweise wirkt sich Hitze dort stärker aus, wo die Bebauung einer Stadt dichter ist, und ist somit während einer Hitzewelle räumlich ungleich verteilt. Dies kann mithilfe der Klimafunktionskarte ermittelt werden.

Zunächst wird in vorliegendem Artikel die technische Erstellung von Klimafunktionskar-ten mittels GIS dargestellt und darauf aufbauend der Ansatz einer sozial differenzierten Risikoanalyse vorgestellt.

Page 142: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Antje Katzschner, Sebastian Kupski130

2 Stadtklimaanalysen mittels Klimafunktionskarten

Eine Klimafunktionskarte stellt ein klimaökologisches Gutachten dar, welches haupt-sächlich für Ballungsräume und größere Städte angefertigt wird. Grundlage ist stets die Analyse der Ist-Situation, also eine möglichst präzise Abbildung der realen Klimafunkti-onen im Untersuchungsraum. Für diese komplexe Aufgabe ist eine entsprechende Da-tenbasis Grundvoraussetzung. Aus klimaökologischen Gesichtspunkten sind Faktoren, wie Höheninformationen und Fließgewässer ein erster Anhaltspunkt, um die natürlichen Bedingungen abzubilden. Analog hierzu hat die vom Menschen verursachte Verände-rung der Erdoberfläche den größten und in den meisten Fällen auch negativen Einfluss. Deshalb werden ebenso Daten bezüglich der Flächennutzung und Gebäudeinformatio-nen benötigt. Je detaillierter diese Daten vorliegen, umso präziser können die Analysen ausfallen.

Neben diesen Geoinformationen ist das Wissen klimarelevanter Parameter ebenso von Bedeutung. Besonders die Belüftung eines verdichteten Stadtgebietes, der eine hohe positive Wirkung zukommt, hängt von der Lage in Bezug auf das regionale Zirkulati-onssystem ab. Aber auch lokale und kleinräumige Zirkulationen entwickeln sich durch physikalische Prozesse und können im Rahmen einer Klimafunktionskarte berechnet werden. Weitere Klimaparameter lassen sich durch die geografische Lage des Untersu-chungsraumes ableiten.

2.1 Technische Realisierung einer Klimafunktionskarte

Bei der Verknüpfung verschiedenster Sachinformationen ist die Gewichtung bzw. die Einflussnahme der einzelnen Faktoren von großer Bedeutung. Da diese Faktoren aus klimatischen Gründen von Untersuchungsraum zu Untersuchungsraum unterschiedlich sind, besteht derzeit noch kein automatisiertes System zur Erstellung einer Klimafunkti-onskarte (Lohmeyer 2008). Diesbezüglich können nur systematische Vorgehensweisen von Fallbeispielen herangezogen werden, da die klimatische Einordnung in den jeweili-gen übergeordneten Kontext stets an das Gebiet angepasst werden muss.

Klimatische Rahmenbedingungen sind sehr heterogen, was durch die geografische Lage, den absoluten Höhen über dem Meeresspiegel des Untersuchungsgebietes oder durch eine kontinentale, bzw. maritime Beeinflussung verursacht wird. Neben diesen über-geordneten Faktoren gibt es eine Vielzahl kleinräumiger Einflüsse. Auf einer kleineren Skala können unterschiedliche Effekte, wie Binnenseen oder Tallagen die örtlichen kli-matischen Verhältnisse stark prägen. Somit ist eine vorgeschaltete klimatische Einschät-zung unumgänglich, wobei entsprechend ein größerer Ausschnitt als der abgegrenzte Untersuchungsraum zu betrachten ist.

Das verwendete Datenmaterial für das Beispiel der Klimafunktionskarte „Ballungsraum Kassel“ beinhaltet für die Berechnungen topografische Karten, ein digitales Höhenmo-

Page 143: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren 131

dell (DGM), eine Realnutzungskartierung, verschiedene Luftbilder und Thermalbeflie-gungen, klimaökologische Studien, sowohl kontinuierliche Messstationsdaten als auch räumlich hoch aufgelöste Messkampagnen. Aus der Vielzahl der Eingangsdaten wer-den unterschiedliche Themenkarten generiert, welche in einem darauffolgenden Schritt durch verschiedene Geo-Analyse-Prozesse in unterschiedlichen Gewichtungen mitein-ander verschnitten werden (Abb. 1).

Abb. 1: Schematisches Anwendungsbeispiel, Gruppierung unterschiedlicher Themenkarten in die klimatischen Komponenten Dynamik und Thermik mit anschließendem Ergebnisbeispiel (Quelle: Eigene Erarbeitung)

Nach der Gruppierung der Themenkarten in die beiden klimatischen Komponenten Dy-namik und Thermik, die jeweils Einfluss auf unterschiedlichen Ebenen des Stadtklimas haben, wird durch geeignete Funktionen und anschließenden Generalisierungen die Kli-mafunktionskarte aggregiert. In diesem Beispiel farbig unterschieden als Klimatopsaus-weisung (Abb. 2).

Die dynamische Komponente beinhaltet die Luftbewegungen und damit die Frischluft- und Kaltluftabflüsse, die physikalisch bedingt, auch ohne Antrieb der regionalen Strö-mungsbedingung entstehen, und der Hauptwindrichtung, die bei entsprechenden Wet-

Page 144: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Antje Katzschner, Sebastian Kupski132

terlagen die Kasseler Belüftung bestimmt. Die entsprechenden Themenkarten wurden auf Grundlage des DGM und der Strömungsmessdaten angefertigt. Weitere Kriterien wie die Rauhigkeitslängen der Erdoberfläche wurden ebenfalls in diese Rechenschritte integriert, um das Belüftungssystem im Kasseler Becken realgetreu darzustellen und die tatsächlichen Wirkungsgrade mit Hilfe der Messdaten zu kalibrieren.

Abb. 2: Klimafunktionskarte für den Ballungsraum Kassel (Nordhessen) (Quelle: Eigene Erarbeitung)

Parallel zu diesen Rechenschritten wurden die thermischen Eigenschaften auf der Grund-lage der aktuellen Realnutzungskartierung erzeugt. Dieser detaillierte Eingangsdaten-satz wird mit weiteren Themenkarten ergänzt, wobei der Oberflächenversiegelungsgrad und das Gebäudevolumen Aufschluss über die Wärmespeicherkapazität geben, und Freiflächen mit niedriger Oberflächenrauhigkeit Kaltluftentstehungsflächen darstellen. In diesem Zusammenhang ist die Albedo der Oberfläche eine zentrale Größe, da un-terschiedliche Reflexions- und Absorptionsverhalten maßgeblich den Wärmehaushalt der städtischen Grenzschicht bestimmen (Oke 2006). Hier ist der Effekt der Wärmeinsel Stadt besonders gut erkennbar, denn durch die Erwärmung der künstlichen Baumateria-lien, gekoppelt mit dem hohen Wärmespeicher und der langsamen Abkühlrate, werden gerade Nachts höhere Lufttemperaturen als im unbebauten Umland verursacht (Hupfer, Kuttler 2006; Baumüller et al. 1993).

Aufgrund der zum Teil sehr genauen Themenkarten entstehen durch die GIS Berechnun-gen sehr kleinräumige Ergebnisse, die in diesem Maßstab allerdings nicht aussagekräf-

Page 145: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren 133

tig sind und zu Fehlinterpretationen führen können. Deshalb werden Nachbarschafts-analysen mit unterschiedlichen Kriterien angeschlossen um Klimatope abzubilden, die auf einem stadtklimatischen Maßstab abgestimmt sind und eine Genauigkeit von ca. 1:10 000 bis 1:20 000 aufweisen. Analog zu dieser Generalisierung werden die ermittel-ten Werte in 6 Klimatopstypen kategorisiert um eine übersichtliche und aussagekräftige Klassifizierung bereitzustellen.

Das Ergebnis der Analyse ist eine Klimafunktionskarte des Ballungsraums Kassel, die die klimatischen Verhältnisse in der bodennahen Atmosphärenschicht darstellt. In Abbil-dung 2 ist das Produkt dargestellt.

2.2 Klimafunktionskarten als Hilfsmittel um zukünftige Entwicklungen darzustellen

Neben der Darstellung der aktuellen klimatischen Verhältnisse, können darauf aufbau-end auch Prognosen über zukünftige Veränderungen modelliert werden. So können zum Beispiel zukünftige städtebauliche Entwicklungen, in Form von Flächennutzungs-änderungen des Flächennutzungsplans (FNP), übernommen werden und die Auswir-kungen auf das Klima prognostiziert werden. Ein weiteres Vorhaben ist, neben der zu-künftigen Flächenentwicklung auch klimatische Veränderungen, verursacht durch den globalen Klimawandel, kleinräumig abzubilden. Hierzu wird die Klimafunktionskarte mit den analysierten Klimatopeigenschaften um das Entwicklungspontenzial laut FNP 2020 erweitert und darauf aufbauend werden die prognostizierten Klimatrends der aktuellen Projektionen, eingerechnet.

Grundlage der regionalen Klimaprojektionen waren die globalen Simulationen der ECHAM5 Reihe, die durch das dynamische Regionalisierungsmodell CLM auf ein 0,2° Raster verfeinert wurden. Diese großräumigen Mittelungsdaten wurden anschließend analysiert und die relevanten Parameter mit den Klimatopkategorien verschnitten.

Die Hauptannahme der zukünftigen klimatischen Ereignisse ist eine Zunahme an aus-tauscharmen Hochdruckwetterlagen. Daraus ergeben sich eine Zunahme der jährlichen Einstrahlungssumme, sowie länger andauernde Strahlungsperioden. In diesem Zusam-menhang kommt der Albedo der Erdoberfläche eine höhere Bedeutung zu und die Kli-maveränderung in Form von einer Steigerung der Hitzebelastung nimmt zu. Ausgehend von dieser Annahme wurden den Klimatopen spezifische Attributwerte zugeordnet, die ein realistisches downscaling der regionalen Projektionen auf einen stadtklimatischen Maßstab ermöglichen. Ein deutliches Ergebnis ist eine Zunahme in den ohnehin benach-teiligten Gebieten mit einem hohen Anteil künstlicher Baumaterialien. Im Gegenzug sind unversiegelte Bereiche mit Vegetation nicht so stark betroffen. Problematisch ist bei den Berechnungen, dass durch die Veränderungen der solaren Einstrahlung und der zukünf-tigen Flächenentwicklung wichtige Luftleitbahnen und Kompensationsflächen verloren

Page 146: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Antje Katzschner, Sebastian Kupski134

gegangen sind. Die Konsequenzen sind eine ungleichmäßige Belastungssteigerung der schon aktuell benachteiligten Stadtgebiete.

3 Anwendungsbezogener Ansatz der sozialen Differenzierung

Im Folgenden Kapitel wird die Verwendung der Klimafunktionskarte um den Aspekt der sozialen Differenzierung ergänzt. Diese soziale Differenzierung ist deshalb ein relevanter Aspekt des Umgangs mit Risikopotenzialen, da das Schadensausmaß und die Betrof-fenheit als Folge von Hitze von verschiedenen sozialen Faktoren abhängen. Um diesen Problemzusammenhang zur Diskussion zu stellen, wird im Folgenden das Phänomen Hitze als Extremwetter, behandelt.

Der Klimawandel bringt auch für Deutschland eine Zunahme von Extremwetterereignis-sen, z. B. Hochwasser-, Sturm- und Hitzeereignisse. So waren die Hitzewellen 2003 und 2006 in ihrer Intensität erste Anzeichen eines sich verändernden Klimas in Deutschland. Während der Hitzewellen 2003 und 2006 kam es in Europa zu überdurchschnittlich vielen Todesfällen, welche in einigen Ländern (Frankreich, Portugal) als unmittelbar hit-zebedingt bescheinigt wurden, auch wenn nur wenige direkt als Hitzschlag oder andere hitzebedingte Erkrankungen bezeichnet wurden (Europäische Kommission 2007). Viele der hitzebedingten Todesfälle waren ältere Menschen. Dieser Trend war vor allem in Frankreich zu verzeichnen (Europäische Kommission 2007). Dies ist ein Grund dafür, dass sich vorliegender Artikel mit älteren Menschen als einer Risikogruppe auseinander-setzt.

3.1 Konzept der Vulnerabilität

Soziale Unterschiede in Auswirkungen von Naturgefahren werden in der Hazardfor-schung mit dem Konzept der Vulnerabilität (Verletzlichkeit) erfasst. Hierbei steht im Mit-telpunkt, welche Ressourcen Personen zur Verfügung stehen, um mit Naturgefahren umgehen zu können (Blaikie et al. 1994). Soziale Unterschiede in Bezug auf Extrem-wetter werden zudem in dem Konzept der umweltbezogenen Gerechtigkeit (Environ-mental Justice) gefasst. Dieses Konzept bezieht sich nicht nur auf Extremwetter, sondern befasst sich mit sozialen Unterschieden in der Verteilung von Umweltgüte. Ein Zustand wird dann als umweltbezogene Ungerechtigkeit bezeichnet, wenn Gruppen, die sich durch eine bestimmte Ausprägung sozialer Merkmale bspw. Einkommen, Bildung oder Migrationshintergrund auszeichnen, vorrangig in Gebieten mit einer unverhältnismäßig schlechteren Umweltgüte als andere Mitbürger leben. Hinzu kommt, dass sie möglicher-weise weniger in die entsprechenden Entscheidungsprozesse eingebunden sind, die für ihre Umweltgüte ausschlaggebend sind, oder vergleichsweise weniger von vorsorgen-dem Umweltschutz profitieren.

Page 147: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren 135

Basierend auf diesen Konzepten lässt sich die Gruppe der älteren Menschen als eine Risikogruppe definieren, da sie physisch nicht mehr auf extreme Hitze reagieren können und möglicherweise auf Hilfe angewiesen sind, jedoch nicht notwendigerweise auf diese zurückgreifen können. Zum Beispiel wohnen ältere Menschen häufig in den innenstadt-nahen Risikogebieten, sind aufgrund ihrer eingeschränkten Mobilität jedoch nicht in der Lage sich während einer Hitzewelle entsprechend zu versorgen, indem sie beispielsweise eine entsprechende Kühlung ihrer Wohnung veranlassen. Häufig ist das aufgrund der bestehenden baulichen Struktur auch gar nicht möglich. Um diesem Problem zu begeg-nen, kann beispielsweise eine Analyse der Bausubstanz vorgenommen werden.

3.2 Sozial differenzierte Risikoanalyse bezogen auf Hitze am Beispiel der Stadt Kassel

Anhand von Klimafunktionskarten, welche für einige Städte Deutschlands bereits vor-liegen, können hitzebedingte Risikogebiete erkannt und gekennzeichnet werden. Um Risikogebiete bezogen auf Hitze sozialdifferenziert zu betrachten, können bestehende Klimafunktionskarten mit sozialen Daten verschnitten werden. Auch wenn in den vori-gen Kapiteln (Kap. 2) der klimatischen Betrachtung der Ballungsraum Kassel betrachtet wurde, bezieht sich die Analyse der Risikogebiete im Folgenden lediglich auf die Stadt Kassel, da für diese von einer besseren Datengrundlage der Sozialdaten ausgegangen werden kann. Zur Gesamtbetrachtung einer Klimafunktionskarte sind jedoch die Rah-menbedingungen des Regionalklimas von grundlegender Bedeutung.

Um einen sozialdifferenzierten Zugang zur Risikoanalyse zu finden, ist es möglich, die Klimafunktionskarte als Planungsinstrument zu verwenden. Ein Ansatz ist die Karte mit einem weiteren Layer der Alten- und Seniorenheime zu verschneiden. Grundlage der Abbildung 3 ist die in Kapitel 2 vorgestellte Klimafunktionskarte. Aus der Verschneidung wird ersichtlich, wo die Risikogebiete liegen und in welchen dieser Gebiete Alten- oder Seniorenheime angesiedelt sind. Diese gilt es, während auftretender Hitzewellen beson-ders zu versorgen. Festzustellen ist dabei, dass Alten- und Seniorenheime leicht zu errei-chen und die Versorgung dementsprechend gewährleistet werden kann. Wichtiger sind in diesem Zusammenhang ältere Menschen, die allein wohnen. Hierfür können über die statistischen Bezirke (Abb. 3, schwarze Linien) Stadtteile mit einem hohen Anteil an über 75-jährigen, die nicht in Pflegeeinrichtungen versorgt werden, ermittelt werden. Diese gilt es gezielt in einen Versorgungsplan einzubinden. Betrachtet man über die statistischen Bezirke weiterhin die Bevölkerungsstruktur, so lässt sich ermitteln, wo z. B. vermehrt Menschen mit Migrationshintergrund oder andere mögliche Risikogruppen wohnen und diese gezielt zu versorgen.

Page 148: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Antje Katzschner, Sebastian Kupski136

Abb. 3: Klimafunktionskarte für den Ballungsraum Kassel mit Alten- und Seniorenheimen und statistischen Bezirken (Quelle: Eigene Erarbeitung)

3.3 Präventive Planungen vor dem Hintergrund des Klimawandels

In der Planung besteht darüber hinaus die Möglichkeit präventiv einzugreifen, indem bereits im FNP Flächen als solche definiert werden, in welchen sensible Nutzungen, wie Altenheime oder auch Schulen angesiedelt werden können, da sie ein geringes Über-wärmungspotenzial aufweisen. Im Rahmen des Neubaus von Alten- oder Seniorenhei-men kann somit definiert werden, dass sie nicht in den Gebieten mit der stärksten Über-wärmung gebaut werden sollten. Betrachtet man weiterhin den Klimawandel und die damit verbundene erhöhte Einstrahlungsmenge (Kap. 2.3) verstärkt sich die Situation in den bereits bestehenden Risikogebieten und es kommen neue hinzu. Zudem ist eine Stadt einem dynamischen Prozess unterworfen, so dass sich die Bebauung sowie ihre Dichte verändern. Dies hat ebenfalls Folgen für das Stadtklima. Vor diesem Hintergrund ist es wichtig, dies im FNP, welcher einen langen Planungshorizont hat, bereits in der aktuellen Phase zu berücksichtigen, um Anpassungsmaßnahmen ergreifen zu können. Bezüglich der bestehenden Bebauung können kleinräumige Maßnahmen ergriffen wer-den (Verschattung usw.). Die dafür infrage kommenden Gebiete können über die Klima-funktionskarte analysiert werden.

Page 149: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Möglichkeiten, mittels Stadtklimaanalysen vulnerable Nutzergruppen zu lokalisieren 137

Tab. 1: Verschiebung der Überwärmungskategorien für den Ballungsraum Kassel unter Berück-sichtigung der Klimawandelszenarien und geplanter Bebauung (Quelle: Eigene Erarbeitung)

Stadtklimatische Kategorie Alten- und Seniorenheime 2009 Alten- und Seniorenheime 20301 / /

2 1 /

3 5 4

4 5 5

5 10 9

6 / 3

Wie aus Kapitel 2.3 und aktuellen Klimaprognosen hervorgeht, ist ein deutlicher Trend hin zu einer Erwärmung zu verzeichnen. Dadurch verschieben sich die stadtklimatischen Kategorien basierend auf den Szenariorechnungen (vgl. Kap. 2.3). Die Verschiebung be-deutet ebenfalls eine Verschiebung der Alten- und Seniorenheime innerhalb der Über-wärmungsgebiete. Wie aus Tabelle 1 ersichtlich wird, befinden sich im Jahr 2009 noch 6 dieser in den Kategorien 1-3, welche den Pontenzialgebieten zugeordnet werden können, während es nach der aktuellen Prognose in 2030 nur noch 4 sein werden. Die Anzahl der in Kategorie 4 (Überwärmungspotenzial) befindlichen Alten- und Senioren-heime bleibt gleich während sich die Anzahl der in Kategorie 6 befindlichen maßgeblich erhöht. Diese Gebiete sind als Überwärmungsgebiet 2 bezeichnet. Das bedeutet, dass sowohl die Anzahl von Alten- und Seniorenheimen in den Potenzialgebiete abnimmt, als auch die Anzahl derer in den Risikogebieten steigt. Diesem Problem kann mittels der Integration der Klimafunktionskarte in anstehende Planungsprozesse zumindest teilwei-se begegnet werden.

4 Fazit

Der Planung kommt vor allem die Rolle zu, präventiv zu wirken. Eine Verschneidung von Klimafunktionskarten und sozialen Daten oder besonders empfindlichen Nutzungen liefert hier einen ersten konkreten Ansatz. Somit ist mit Hilfe von Klimafunktionskarten eine nachhaltigere Planung möglich. Vor allem vor dem Hintergrund des Zeithorizontes von Stadtplanung, der nicht auf die nächsten 10 Jahre begrenzt ist, und Zukunftssze-narien den Klimawandel betreffend. Es können potenzielle Risikogebiete frühzeitig als solche identifiziert werden und im Flächennutzungsplan dementsprechend berücksich-tigt werden.

Um dieses Ziel zu erreichen ist eine bindende Integration der Klimafunktionskarte in die Planung erforderlich. Dafür wäre eine verbindliche Rechtsprechung wünschenswert, die

Page 150: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Antje Katzschner, Sebastian Kupski138

direkt in § 5 des BauGB verankert werden sollte, da hier die vorbereitende Bauleitpla-nung geregelt wird.

Außerdem haben die Betrachtungen bezüglich sozial differenzierter und räumlicher Analyse gezeigt, dass den bestehenden Problematiken nicht allein mit Mitteln der Pla-nung begegnet werden kann. Es gilt spezifische Kommunikationswege der betroffenen Gruppen zu ermitteln, um anhand dessen zielgruppenspezifisch vorgehen zu können. Im vorgestellten Beispiel kann von einem überschaubaren Kommunikationsnetzwerk ausgegangen werden, da die Betroffenen unter Beaufsichtigung stehen. Sehr viel kom-plexer müsste ein Netzwerk geschaffen sein, um auch alleinstehende ältere Menschen, oder Personen mit Migrationshintergrund zu erreichen.

5 LiteraturBaumüller, J.; Hoffmann, U.; Reuter, U. (1993): Städtebauliche Klimafibel. Hinweise für

die Bauleitplanung. Stuttgart: Innenministerium Baden-Württemberg. www.staed-tebaulicheklimafibel.de.

Blaikie, P. et al. (1994): At Risk. Natural hazards, people‘s vulnerability, and disasters. Routledge. New York.

EU Canicule Project (2007): Report on excess mortality in Europe during summer 2003 – EU Canicule Project – 2007. http://ec.europa.eu/health/ph_information/dissemi-nation/unexpected/unexpected_1_de.htm. Zugriff am 22.04.2010.

Europäische Kommission; DG Gesundheit und Verbraucherschutz (2007): Die Hitze-welle in Europa 2003. http://ec.europa.eu/health/ph_information/dissemination/unexpected/unexpected_1_de.htm, Zugriff am 22.04.2010.

Fleischhauer, M. (2004): Klimawandel, Naturgefahren und Raumplanung. Ziel und In-dikatorenkonzept zur Operationalisierung räumlicher Risiken. Dortmunder Vertrieb für Bau- und Planungsliteratur. Dortmund.

Hupfer, P., Kuttler, W. (Hrsg.) (2006): Witterung und Klima. 12. Auflage, B. G. Teubner Verlag/GWV Fachbuchverlag GmbH. Wiesbaden.

Katzschner, A.; Katzschner, L. (Hrsg.) (2008): Thermal Comfort in Urban Planning and Architecture under Consideration of Global Climate Change: Proceedings of the Workshop, Feb. 20th and 21st 2008, Kassel, Germany.

Lohmeyer, A. (2008): Klimafunktions- und Klimaplanungskarten. Lohmeyer Aktuell, 20/2008, Karlsruhe.

OKE, T. R. (2006): Boundary layer climates. Routledge. London. New York.

Regierungspräsidium Gießen (2007): Außergewöhnliche Hitzeperioden: Vorbereitung und Vorgehen stationärer Pflegeeinrichtungen. http://www.hessen.de/irj/servlet/prt/portal/prtroot/slimp.CMReader/HMdI_15/RPGIE_Internet/med/831/83170a05-fc3f-c311-1010-4397ccf4e69f.pdf.

Page 151: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 139

Hochauflösende Modellierung urbaner Veränderungsprozesse auf Basis multitemporaler topographischer Kartenserien

Hendrik Herold, Robert Hecht, Gotthard Meinel

1 Hintergrund und Zielstellung

Die Entwicklung von Verfahren zur automatisierten Detektion urbaner Veränderungen (urban change detection) ist seit vielen Jahren Gegenstand fernerkundlicher und photo-grammetrischer Forschung. Etablierte change detection – Verfahren erfassen im mittel-maßstäbigen Bereich bauliche Veränderungen großflächiger Areale, beispielsweise die Anlage neuer Siedlungskomplexe. Daraus lassen sich jedoch nur unzureichende Aussa-gen bezüglich der Ver- und Entdichtung bestehender Siedlungsflächen ableiten.

Räumliche Modellierungs-, Planungs- und Evaluierungsprozesse im Sinne einer nachhal-tigen Flächenverbrauchsreduktion stellen neue qualitative Datenanforderungen. Geeig-nete Monitoring-, Planungsunterstützungs- und Geoinformationssysteme (GIS) benö-tigen zunehmend großräumig vorliegende gebäudebezogene Informationen bezüglich des Neubaus, der erheblichen Grundrissänderung oder des Abrisses der letzten Jahr-zehnte. Auf diese Weise kann beispielsweise die Umsetzung von Leitlinien nachhaltiger städtischer Entwicklung wie „Innen- vor Außenentwicklung“ (Pahl-Weber 2003) über größere Flächen und längere Zeiträume geprüft und die Entwicklung neuer Planungsins-trumente vorangebracht werden (Henger, Schröter-Schlaack 2008). Die gebäudebasier-te Erkennung, Auswertung und Visualisierung der Bestandssituation baulicher Anlagen bildet somit die Grundlage für hochauflösende Ex-post-Analysen der Siedlungsentwick-lung.

Die klassische GIS-gestützte Erhebung der Flächennutzungsentwicklung bedient sich häufig dem rückwärtigen Editieren durch visuelle Interpretation multitemporaler Daten, wie georeferenzierte historische Karten sowie Luft- und Satellitenbilder (z. B. Meinel, Neumann 2003). Eine derartige Erfassung auf Gebäudeebene und für große Flächen bedeutet einen nicht erbringbaren Editieraufwand. Ungeachtet steigender Sensorauflö-sungen und wesentlicher methodischer Fortschritte der photogrammetrisch-fernerkund-lichen Forschung ist die automatisierte Erfassung und sichere Extraktion von Gebäude-objekten aus LiDAR-, Luft- und Satellitenbilddaten noch immer entweder mit hohen Datenkosten oder umfassenden manuellen Nacharbeiten verbunden.

In diesem Beitrag wird die Methodik eines Verfahrens zur Generierung dieser hoch-aufgelösten Informationen für die Modellierung und quantitativen Erfassung urbaner

Page 152: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel140

Veränderungsprozesse auf Basis geeigneter, multitemporal verfügbarer und kostengüns-tiger topographischer Geodaten beschrieben.

2 Charakteristik der Datengrundlage

Für die hochauflösende Veränderungsdetektion urbaner Flächen sind folgende Daten-grundlagen denkbar: Fernerkundungsdaten (hochauflösende Satelliten- und Ortholuft-bilddaten, LiDAR (Light Detection and Ranging)), digitale Daten der amtlichen Ver-messung (Katasterdaten), sowie die amtlichen topographischen Kartenwerke. Tabelle 1 gibt einen Überblick über mögliche Datengrundlagen und der jeweiligen Eignung für multitemporale Analysen. Während bei den relativ kostengünstigen, aber nur teilweise multitemporal verfügbaren Fernerkundungsdaten weiterer Forschungsbedarf hinsicht-lich der automatisierten Gebäudeextraktion besteht, verhindern bei den hochgenauen und leicht automatisch auswertbaren Katasterdaten unzureichende zeitliche Abdeckung sowie hohe Beschaffungskosten die Nutzung für großflächige Analysen. Für eine auto-matisierte Bestandsanalyse auf Grundlage amtlicher topographischer Karten sprechen demgegenüber die landesweite Verfügbarkeit von älteren Zeitständen, eine gesicher-te Datenfortführung, sowie eine ausreichende Datenhomogenität, die für den Aufbau konsistenter Zeitreihen Voraussetzung sind.

Tab. 1: Übersicht der möglichen Datengrundlagen für eine hochaufgelöste, urbane Verände-rungsdetektion (Bewertung: o neutral bzw. teilweise, - schlecht bzw. nein, + gut bzw. ja)

Daten/KriteriumFernerkundungsdaten Geobasisdaten

Satelliten-bilddaten

Ortholuft-bilddaten

LiDAR-Daten

Kataster-daten

Topogr. Karten

Flächendeckung + + o + +

Historische Abdeckung (letzte 5 Dekaden) o + o - +

Automatische Gebäudeextraktion + o + + +

Fortführung gesichert (+) gesichert (+) unsicher(o) gesichert (+) gesichert (+)Kosten moderat (+) hoch (-) hoch (-) hoch (-) gering (+)

Homogenität (horizontal) + - o + +

Homogenität (vertikal) - - o + +

Studien (Meinel et al. 2008a; Meinel et al. 2009) haben gezeigt, dass topographische Karten der Maßstabebene 1:25 000 einen optimalen Kompromiss zwischen Datenmen-ge und -kosten sowie hinreichender Genauigkeit darstellen, da sie den Gebäudebestand fast vollständig und mit hinnehmbarer Generalisierung abbilden (vgl. Abb. 1). Die Daten

Page 153: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 141

stehen in Deutschland seitens der Landesvermessungsämter als Digitale Topographische Rasterkarte DTK25-(V), in Österreich seitens des Bundesamtes für Eich- und Vermes-sungswesen als Österreichische Karte (ÖK25) und in der Schweiz seitens des Bundes-amtes für Landestopografie als Landeskarte der Schweiz (LK25 bzw. Swiss Map 25) flächendeckend zur Verfügung.

Digitale bzw. gescannte topographische Karten stellen aus Sicht der Datenmodellierung unstrukturierte Rasterdaten dar. Im Gegensatz zu Katasterdaten, die im Vektordaten-modell vorliegen, müssen die entsprechenden „objects of interest“ zunächst mit Hilfe geeigneter Methoden der Bildverarbeitung extrahiert werden. Im binären Kartengrund-risslayer sind die Hauptinhaltselemente (Gebäude, Verkehr, Vegetationssignaturen, Schriftelemente) vereint abgebildet und müssen semantisch getrennt werden. Im Fol-genden wird eine Methode zur Extraktion und Klassifikation der Gebäudeobjekte als Voraussetzung einer hochauflösenden urbanen Veränderungsdetektion beschrieben.

Abb. 1: Beispiel einer Gebäuderepräsentation in Fernerkundungsdaten und in topographischem Kartenmaterial. Deutlich sichtbar sind die Unterschiede in Komplexität, Textur und verfügbarer spektraler Information. (Quelle: links, IKONOS ©GeoEye; rechts, DTK25-V ©BKG 2006)

3 Methodik einer kartenbasierten Veränderungsdetektion

Die automatisierte Kartenauswertung stellt seit vielen Jahren ein lebendiges Forschungs-feld dar. Die überwiegende Anzahl der Ansätze beschäftigt sich mit der automatisierten Erfassung und unitemporalen Auswertung von Kartenwerken (zum Beispiel Maderlech-ner, Mayer 1994; Frischknecht, Kanani 1998). Bisherige Arbeiten zur multitemporalen Auswertung topographischer Karten sind unter anderem in Dodt und Lechtenbörger (2004) beschrieben. Dabei werden gescannte topographische Karten verschiedener Zeitstände in einem RGB-Farbkomposit zusammengestellt, um Landschaftsänderungen nachzuweisen. Eine Bilanzierung ist mit dieser Methodik nicht möglich, da die Objekte lediglich über deren Grauwert bestimmt sind und keine Trennung von Gebäuden und anderen Signaturen (z. B. Verkehrstrassen) möglich ist.

Page 154: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel142

Neue Anwendungen für hochauflösende Veränderungsanalysen fordern jedoch bilan-zierbare quantitative Daten (vgl. Kapitel 1). Abbildung 2 zeigt die Konzeption eines Verfahrens zur Gewinnung dieser Informationen mit den Verarbeitungsschritten Da-tenvorverarbeitung, Segmentierung und Objektextraktion, Gebäudeklassifikation, Ge-bäudematching sowie der Veränderungsdetektion und Bilanzierung. In den folgenden Abschnitten werden die einzelnen Verfahrensschritte detailliert erläutert.

Abb. 2: Konzept des Verfahrens zur hochaufgelösten urbanen Veränderungsdetektion (Quelle: Eigene Erarbeitung)

3.1 Datenvorverarbeitung

Die einzelnen Karten der unterschiedlichen Zeitstände müssen hinsichtlich der Daten-struktur, des Koordinatensystems und der geometrischen Lage homogenisiert werden. Für ältere Ausgaben der topographischen Karte erfolgt ein Farbscan der Karte mit einer Scanauflösung von 1 016 dpi. Aus dem Farbscan werden mittels digitaler Bildverarbei-tung alle schwarz dargestellten Kartenelemente extrahiert, binarisiert und anschließend auf eine Auflösung von 508 dpi transformiert, um sie in die digitale Form der aktuellen DTK25-V zu bringen. Das Ergebnis entspricht dem schwarz dargestellten Grundrisslayer des mehrfarbigen Originaldrucks im binären Rasterformat. Damit ist die erforderliche Datenstruktur für den Vergleich mit aktuellen, seitens der Landesvemessung angebote-nen, digitalen Karten geschaffen.

Page 155: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 143

Um Geodaten unterschiedlicher Quellen zu visualisieren und in einem GIS analysie-ren zu können, müssen diese in einem einheitlichen Koordinatensystem (gemeinsames Referenz-Koordinatensystem) vorliegen. Geodaten mit bereits definiertem aber vom Referenzsystem abweichendem Koordinatensystem, müssen in das gemeinsame Refe-renzsystem transformiert werden. Dazu stehen die nötigen Transformationsalgorithmen in GIS-Softwarepaketen zur Verfügung. Gescannte analoge Karten müssen hingegen über Passpunkte georeferenziert werden. Dazu werden die Karten (Rasterbilder) so auf das zugrunde liegende Bezugsnetz eingepasst, dass für jeden Punkt des Rasterbildes die Gauß-Krügerkoordinaten abgegriffen werden können. Bei abweichenden Kartennet-zen (z. B. Geographische Koordinaten) muss zusätzlich eine Koordinatentransformation durchgeführt werden.

Untersuchungen haben gezeigt, dass eine affine Georeferenzierung über die Blattecken der topographischen Karten, für die die Koordinaten bekannt sind, zur Herstellung der erforderlichen Deckungsfähigkeit unzureichend sein kann (Meinel et al. 2008a). Da sich für eine gebäudebasierte Analyse alle identen Gebäude in den unterschiedlichen Kar-tenzeitständen möglichst überdecken sollten, wurde eine Technologie zur Verbesserung der Passfähigkeit eingesetzt, die eine Entzerrung unter Berücksichtigung der Kartenin-halte erlaubt. Die Software AutoSync™ (unter der Bildverarbeitungssoftware ERDAS IMAGINE™) erlaubt die automatische Registrierung von Bilddaten unter Nutzung von Matching-Algorithmen. Als Referenz wird dabei die jeweils aktuellste Kartengrundla-ge verwendet, da hier die beste Qualität sowohl bezüglich der Darstellung als auch der Lagetreue angenommen wird. So können die binären Rasterkarten der historischen Zeitschnitte bezüglich der aktuellsten DTK25-V automatisch anhand ca. 1 000 identi-schen Punkten stückweise linear entzerrt werden (rubber sheeting) und die Lagetreue deckungsgleicher Geoobjekte der Karte effizient verbessert werden. Mit diesem Verfah-ren wird in der Regel die notwendige Lagetreue erreicht.

3.2 Segmentierung und Objektextraktion

Wie in Kapitel 2 gezeigt, sind in den Ausgangsdaten die zu extrahierenden Gebäudeob-jekte zusammen mit Verkehrs- und Grenzlinien, Vegetations- und weiteren Signaturen binär gespeichert. Im Gegensatz zu fernerkundlichen Bilddaten stehen für eine Separati-on (Bildsegmentierung) keine Spektral- und nur sehr eingeschränkt Texturinformationen zur Verfügung. Die Unterscheidung in eine Menge von Gebäude- und eine Menge von Nichtgebäudeobjekte muss dementsprechend anhand morphologischer Objekteigen-schaften (z. B. Kompaktheit, Konvexität, Anisometrie und Orientierung) erfolgen. Zu diesem Zweck kann die morphologische Filteroperation Opening (Erosion gefolgt von einer Dilatation) angewendet werden:

Page 156: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel144

wobei A die Bildmatrix und X das Strukturelement darstellen (Serra 1988; Gonzales, Woods 2008). Bei optimaler Parametrisierung (Größe und Form des Strukturelementes X) dieses Operators sind bereits gute Segmentierungsergebnisse erzielbar. Einige karto-graphische Repräsentationen (insbesondere Schriftsignaturen) verfügen aufgrund ihrer Form über gebäudeähnliche Eigenschaften und werden dementsprechend als Gebäu-de fehldetektiert. Aus diesem Grund wurde eine Objekterkennung für Schriften und Signaturen entwickelt, die alle Objekte in Bildpyramiden (gestaffelte Bildauflösungen) analysiert. Dieses Vorgehen ermöglicht eine robuste, hierarchisch organisierte Musterer-kennung. Die Objekteigenschaften werden in verschiedenen Auflösungsstufen mit den Werten einer wissensbasierten Parameterdatenbank verglichen. Diese Wissensbasis wird mit Hilfe eines dafür entwickelten Trainingstools aufgebaut, welches flexible Anpassun-gen an landesspezifische Signaturen und Signaturänderungen zwischen verschiedenen Zeitständen der jeweiligen topographischen Karten ermöglicht. Es werden parallel nicht nur in den Bildauflösungsstufen, sondern auch in verschiedenen Bearbeitungsständen der Bilddatei die Objekteigenschaften abgeglichen. Dadurch ist der Kontext von Objekt-fragmenten und Gebäuden (Zielobjekten), der durch einen Bearbeitungsschritt verän-dert wurde, rekonstruierbar. Zwischen den Bearbeitungsstufen wird der jeweils nächste Ergebnislayer berechnet. Mittels Map-Algebra werden abschließend alle detektierten Signaturen vom Originalbild subtrahiert. Die auf diese Weise extrahierten Gebäudeob-jekte werden als Vektordatensatz ausgegeben und die für die nachfolgende Gebäude-klassifikation relevanten Merkmale als Attribute mitgeführt.

Das beschriebene Verfahren wurde mit Hilfe der Entwicklungsumgebung (IDE) des Bild-verarbeitungssystems HALCON für den operationellen Einsatz implementiert.

3.3 Gebäudeklassifikation

Die Gebäude liegen nach der Segmentierung als unklassifizierte Polygone für jeden Zeit-schnitt vor. In dem Prozess der Gebäudeklassifikation erfolgt die automatisierte Zuord-nung jedes Gebäudes zu einer gegebenen Gebäudeklasse. Für die spätere Berechnung siedlungsstruktureller Kennzahlen spielt die Klassifikation eine entscheidende Rolle, da den Gebäuden typenspezifische Belegungsparameter wie die angenommene Geschoss-, Wohnungs- oder Einwohnerzahl zugewiesen werden. Folglich beeinflusst die Klassifika-tion die Genauigkeit der auf Baublockebene aggregierten Kennzahlen maßgeblich.

Im Rahmen der Entwicklung des am Leibniz-Institut für ökologische Raumentwicklung entwickelten SettlementAnalyzers (SEMENTA®) wurde eine Gebäudetypologie erarbei-tet, welche die Gebäude hinsichtlich baustruktureller Merkmale und Baukörpergröße in insgesamt 7 Wohngebäudeklassen und 2 Nichtwohnnutzungsklassen unterscheidet (Meinel et al. 2008a). Tabelle 2 zeigt die Gebäudetypen und deren typisches Muster in der topographischen Karte. Die Klassifikation der Gebäudepolygone erfolgt mit einem

Page 157: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 145

Tab. 2: Gebäudetypen und deren typisches Muster in der topographischen Karte

Gebäudetyp Muster der extrahierten Gebäude

Gebäudetyp Muster der extrahierten Gebäude

Mehrfamilienhaus (geschlossene Bauweise)

Ein- und Zweifa-milienhaus

Freistehende Mehrfamilienhaus (offene Bauweise)

Reihenhaus

Mehrfamilienhaus in Reihe (oft Zeilenbauweise)

Dörfliches Haus

Mehrfamilienhaus in Reihe (oft Plat-tenbauweise)

Gebäude der Industrie und für Gewerbe

Hochhäuser (>50m)

Gebäude mit besonderer funktionaler Prägung

in SEMENTA® implementierten Regelwerk (Entscheidungsbaum). Das Regelwerk be-zieht sich dabei auf insgesamt 17 Gebäudemerkmale (z. B. Gebäudefläche, -umfang, Kompaktheit, Abstand zum Nachbargebäude, Abstand zur Blockgrenze, etc.) sowie 46 blockbezogene Merkmale (z. B. die Gebäudeanzahl, Überbauungsgrad, etc.), die mit Hilfe der Bildverarbeitung und GIS automatisch errechnet werden. Die Gebäude mit ihren charakteristischen Merkmalen werden anschließend über Wenn-Dann-Regeln in Verbindung mit vorab statistisch erhobenen Entscheidungsschwellwerten klassifiziert.

Page 158: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel146

Ein Beispiel für eine einfache Regel zur Klassifikation von Einfamilienhäusern, wäre z. B. die Selektion aller Gebäude, welche eine Grundfläche von 200 m² unterschreiten.

Die automatische Klassifikation wird zunächst auf alle Zeitstände angewandt. Nach dem Gebäudematching können Inkonsistenzen (z. B. unterschiedlich erkannte Gebäudety-pen in den Zeitschnitten) über eine Mehrheitsregel beseitigt werden, in dem der am häufigsten zugeordnete Typ dem Gebäude gegeben wird.

3.4 Objektmatching

Für eine gebäudebasierte Analyse der Siedlungsentwicklung ist es notwendig, die Ge-bäudepolygone der unterschiedlichen Zeitstände räumlich miteinander zu verknüpfen (Gebäudematching, feature conflation). Der Versuch, urbane Veränderungen mit Hilfe des Überbauungsgrades unterschiedlicher Zeitstände zu messen, zeigte, dass Abwei-chungen in der Kartendarstellung identer Gebäude die Ergebnisse der daraus abgelei-teten siedlungsstrukturellen Kennwerte stark verfälschen können (Meinel et al. 2009). Aufgrund unterschiedlicher Kartenqualitäten kann die Gebäudegröße um bis zu 50 % variieren, falls z. B. Kartenscans älterer Vorlagen mit geringeren Binarisierungsschwell-werten erzeugt wurden. Näheres zur Problematik über Kartenqualitäten ist in Meinel et al. (2008b) beschrieben. Ferner liegen die extrahierten Gebäude aufgrund unter-schiedlicher Scanbedingungen, Kartendarstellung und geometrischen Restversätzen nicht vollkommen deckungsgleich vor. Deshalb wurde eine Methodik entwickelt, wel-che idente Gebäude unterschiedlicher Zeitschnitte miteinander verknüpft und eine Ge-bäudedatenbank erstellt, in dem alle jemals existenten Gebäude samt einer definierten Geometrie beschrieben sind und die Gebäudegenese nachvollziehbar ist.

Im aktuellsten Zeitschnitt wird gegenüber den Gebäuden aus älteren Kartengrundlagen mit schlechterer Kartengraphik eine höhere geometrische Genauigkeit erwartet. Daher wird von der Gebäudegeometrie des aktuellsten Zeitschnitts ausgehend die Deckung jedes Gebäudes mit den jeweils früheren Darstellungen überprüft. Gibt es eine Über-deckung, die meist trotz hochgenauer Georeferenzierung nicht vollständig ist, wird von einer Gebäudeidentität ausgegangen. Der Aufbau der Gebäudedatenbank mit der Ge-bäudegenese als Attributwert (existent oder nichtexistent für jeden Untersuchungszeit-punkt) erfolgt iterativ:

Ausgangspunkt ist der Gebäudelayer des aktuellsten Zeitschnittes T• i (genauste Dar-stellung).

Prüfung jedes Gebäudes in T• i auf Überdeckung mit einem anderen im nächst älteren Zeitschnitt Ti. Bei Gebäudeüberdeckung erfolgt Kennzeichnung der Gebäudeexis-tenz zu diesem früheren Zeitpunkt.

Page 159: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 147

Prüfung jedes Gebäudes in T• i-1 auf Überdeckung mit Gebäude in Ti. Bei fehlender Gebäudeüberdeckung erfolgt eine Übernahme des Gebäudegrundrisses aus Ti-1 in den aktuellen Gebäudedatensatz und Kennzeichnung des Abrisszeitpunktes.

Wiederholung ab (2) bis alle Karten bis zum ältesten Zeitschnitt jeweils gegenein-•ander verglichen sind.

Somit werden iterativ alle Gebäude, des nächst älteren Zeitschnittes Ti-1 in den aktuells-ten Layer geschrieben, sofern an dieser Stelle kein Gebäude existiert (z. B. nach Gebäu-deabriss). Eine Überdeckung von Gebäuden ist dann gegeben, sofern es mindestens eine gemeinsame Schnittfläche gibt. Im Ergebnis kann auf diese Weise eine multitemporale Gebäudedatenbank aufgebaut werden. Eine typische Entwicklungslinie von Gebäuden, wie sie aus der Attributtabelle dieser Gebäudedatenbank gelesen werden kann, ist am Beispiel von fünf Zeitschnitten T1 bis T2 in Tabelle 3 dargestellt.

Tab. 3: Typische Muster der Gebäudebestandsentwicklungen (0 - keine Existenz, 1 - Existenz im jeweiligen Zeitschnitt)

Bestandsänderung/Zeitschnitt T1 T2 T3 T4 T5

Keine Änderung, Gebäude existent schon vor T1 1 1 1 1 1

Abriss zwischen T3 und T4 1 1 1 0 0

Neubau zwischen T3 und T4 0 0 0 1 1

Abriss zwischen T2 und T3 und Neubau zwischen T4 und T5 1 1 0 0 1

In der resultierenden Datenbank können Inkonsistenzen erkannt und automatisch berei-nigt werden. Bei der Kombination von 0-1-0 in einer Entwicklungslinie wird der mittlere Wert mit 0 gefüllt, da dieses Gebäude höchstwahrscheinlich eine Fehldarstellung bzw. -extraktion ist und der Bau und Abriss eines Gebäudes zwischen zwei Kartenfortfüh-rungszeitpunkten (entspricht in Deutschland ca. fünf Jahre) sehr unwahrscheinlich ist. Analog dazu wird der mittlere Wert der Entwicklungslinie 1-0-1 mit 1 aufgefüllt, da hier eine fehlende Gebäudedarstellung vermutet wird. Die Gebäudedatenbank wird an-schließend mit den mit Hilfe von SEMENTA® abgeleiteten, gebäudebasierten Kennzah-len (Größe, Typ, Geschosszahl, Wohnungszahl usw.) gefüllt.

Bei extremen lokalen kartenblattinternen Lagedifferenzen oder der Verknüpfung mit Gebäudegrundrissen aus Katasterdaten kann die Prüfung auf Gebäudeüberdeckung mittels der Existenz einer gemeinsamen Schnittfläche zu fehlerhaften Egebnissen führen. In diesem Fall muss die Zuordnung anhand von Objektähnlichkeiten erfolgen. Für ein Matching auf der Basis von Ähnlichkeitskriterien wird derzeit die Java Conflation Suite (JTC) für das Open-Source GIS OpenJUMP getestet.

Page 160: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel148

4 Anwendung und Ausblick

Das beschriebene und in seinen Grundzügen entwickelte und unter der Bezeichnung SEMENTA®-CHANGE implementierte Verfahren der gebäudebasierten Siedlungsent-wicklung ermöglicht die Berechnung großer Gebietskulissen. Es wird derzeit an verschie-denen Untersuchungsgebieten getestet, optimiert und weiter qualifiziert. Abbildung 3 zeigt beispielhaft die Art und räumliche Auflösung der Ergebnisse.

Obwohl das Verfahren gebäudebasiert arbeitet, verwendet es mittelmaßstäbige Karten, die lediglich überschlägige Ergebnisse für regionale und vergleichende Untersuchungen bedingen. Das Verfahren sollte deshalb sinnvollerweise um lokale Analysen auf Grund-lage genauerer Gebäudedaten (z. B. ALK-Daten) im Zusammenhang mit weiteren Real-daten wie Boden-, Klima- und Vegetationsdaten ergänzt werden.

Abb. 3: Ergebnisbeispiel der gebäudebasierten Veränderungsdetektion auf Raster- (oben links) und Gebäudebasis (oben rechts) sowie siedlungsflächenbezogen (unten) (Quelle: Kartengrundlagen und Siedlungsflächen © BKG 2006)

Page 161: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hochauflösende Modellierung 149

Die Innovation des beschriebenen Verfahrens besteht darin, dass erstmals großflächige Analysen der Siedlungsentwicklung auf Gebäudebasis durchgeführt werden können. Damit sind die Bewertung der baulichen Dichte, des Anteils verschiedener Gebäudety-pen am Neubau sowie die Einschätzung der Lage neuer Gebäude hinsichtlich siedlungs-politischer Vorgaben und Ziele möglich. Die Ergebnisse können durch einen Soll-Ist-Vergleich mit älteren Planungen einen Beitrag für die Analyse von Planungsprozessen und Planungsinstrumenten darstellen. Damit wird eine Grundlage für die Bilanzierung des Verhältnisses von Bauen im Bestand (Verdichtung) gegenüber dem Bauen auf bisher nicht erschlossenen Flächen geschaffen, die nicht mit arbeits- und damit kostenaufwen-digen Luftbildinterpretationen operiert.

Da alle Ergebnisse in einem GIS vorliegen, sind in Kombination mit weiteren lokalen und regionalen Daten interessante weiterführende Analysen möglich. Als Bezugsgrundla-ge für die Bestandsänderungsbilanzen kann eine regelmäßige Rastergeometrie oder in Deutschland beispielsweise die Baublockgeometrie der Objektgruppe „Baulich geprägte Fläche“ (2100) des ATKIS Basis-DLMs verwendet werden. Bei Vorhandensein einer lo-kalen Innenbereichsabgrenzung kann eine genaue Bilanzierung des Verhältnisses von Innen- zu Außenentwicklung erfolgen und damit die Zielerreichung von Leitlinien real und quantitativ geprüft werden.

Im Zusammenhang mit zunehmend höheren Datenqualitäten und einer Gebäudegeo-metrie aus digital fortgeführten Geobasisdaten sind in Zukunft Verbesserungen hinsicht-lich der Gebäudeklassifikation sowie des Objektmatchings zu erwarten. Mit Hilfe der geschaffenen Verfahrensimplementierung SEMENTA®-CHANGE können die Daten für große Gebiete generiert werden und als Basisdaten für ein flächendeckendes Monito-ring der Siedlungs- und Freiraumentwicklung dienen (Meinel 2009).

Letztlich kann mit den generierten Daten die sich schleichend vollziehende Siedlungsent-wicklung eindrücklich in Form eines Zeitraffers visualisiert werden. Entscheidungsträger, Planer und Zivilgesellschaft können dadurch stärker als bisher für das Umweltproblem „Flächeninanspruchnahme“ aufgeschlossen werden, dass sich offensichtlich nicht durch die allgemeine demographische Entwicklung vermindert.

5 LiteraturDodt, J.; Lechtenbörger, C. (2004): Farbkomposition – Ein Hilfsmittel zur multitempora-

len Kartenauswertung. Kartographische Nachrichten 5/2004, S. 2, 113-2, 118.

Frischknecht, S.; Kanani, E. (1998): Automatic Interpretation of Scanned Topographic Maps: A Raster-Based Approach. Lecture Notes in Computer Science 1389/1998. Heidelberg, Springer Berlin.

Gonzales, R. C.; Woods, R. E. (2008): Digital Image Processing. Pearson Prentice Hall International, London, 954 S.

Page 162: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Hendrik Herold, Robert Hecht, Gotthard Meinel150

Henger, R.; Schröter-Schlaack, C. (2008): Designoptionen für den Handel mit Flächenaus-weisungsrechten in Deutschland, Land Use Economics and Planning – Discussion Paper No. 08-02, Georg-August-Universität Göttingen, Göttingen, ISSN 1866-6973 (Schriftenreihe), 47 S.

Leica Geosystems (2006): IMAGINE AutoSyncTM, White Paper: http://gi.leica-geosys-tems.com/documents/pdf/IMAGINEAutoSyncWhitePapeFeb06.pdf, 21 S. (Stand: 25.05.2010)

Maderlechner, G.; Mayer, H. (1994): Automated acquisition of geographic information from scanned maps for GIS using frames and semantic networks. In: Proceedings of the 12th IAPR International Conference on Pattern Recognition, p. 361-363.

Meinel, G.; Neumann, K. (2003): Siedlungsflächenentwicklung der Stadtregion Dresden seit 1790 – GIS-Methodik und Analyseergebnisse. In: Photogrammetrie-Fernerkun-dung-Geoinformation (2003) 5, S. 409-422.

Meinel, G.; Hecht, R.; Herold, H. (2009): Analyzing Building Stock using Topographic Maps and GIS. In: Building Research & Information 37 (2009) 5-6, S. 468-482.

Meinel, G.; Hecht, R.; Herold, H.; Schiller, G. (2008a): Automatische Ableitung von stadtstrukturellen Grundlagendaten und Integration in einem Geographischen In-formationssystem. In: Forschungen, BBR, 134, BBR, Bonn 2008, S. 98.

Meinel, G.; Knop M.; Hecht, R. (2008b): Qualitätsaspekte und Verfügbarkeit digita-ler Geobasisdaten in Deutschland unter besonderer Berücksichtigung des ATKIS® Basis-DLM und der DTK25(-V). In: Photogrammetrie – Fernerkundung – Geoinfor-mation, Heft 1/2008, S. 29-40.

Meinel, G. (2009): Konzept eines Monitors der Siedlungs- und Freiraumentwicklung auf Grundlage von Geobasisdaten. In: Meinel, G.; Schumacher, U. (Hrsg.): Flächennut-zungsmonitoring. Konzepte – Indikatoren – Statistik. Aachen, Shaker, S. 177-194.

Pahl-Weber, E. (2003): Städte der Zukunft – Bausteine für den Umbau der Stadt. In: BBR 2003, Bonn, S. 617 ff.

Serra, J. (1982): Image Analysis and Mathematical Morphology, Vol. 1, Academic Press, London.

Page 163: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 151

Untersuchungen des Landschaftswandels anhand von Landschaftsstrukturmaßen mittels digitalisierter historischer Karten am Beispiel des TK25-Blattes Plauen

Ralf-Uwe Syrbe, Falk Ullrich

Zusammenfassung

Aus den letzten drei Jahrhunderten liegen für Sachsen mehrere flächendeckende to-pographische Kartenwerke vor. Mit Hilfe ihrer Digitalisierung ist es möglich, den nut-zungsbedingten Landschaftswandel quantitativ zu analysieren und zu bewerten. Im Be-reich des 119 km² großen TK25-Kartenblattes 5538 „Plauen/Vogtland“ wurden Karten aus den Jahren 1794-95 (Meilenblätter 102, 103, 126-129, 143, 154; 1:12 000), 1877 (Aquidistantenkarte 142 Section Plauen; 1:25 000) sowie 1994 (Topographische Karte 5538 Plauen; 1:25 000 Normalausgabe) digitalisiert und die aufgetretenen Landschafts-veränderungen untersucht.

Der digitale Kartenvergleich erlaubte sowohl inhaltliche als auch strukturelle Auswer-tungen, wobei für letztere Landschaftsmaße (landscape metrics) des freien Programms FRAGSTATS zur Anwendung kamen. Mit diesen Strukturindizes können generelle Aus-sagen zu ansonsten eher intuitiv wahrnehmbaren Landschaftsveränderungen getroffen werden. Durch die Quantifizierung ließen sich Zusammenhänge zwischen Struktur und Funktion herstellen und damit landschaftlich bedeutsame Veränderungen von der zufäl-ligen Variabilität unterscheiden. Die Qualität der erreichbaren Aussagen hängt ab von einer geeigneten Parametrisierung und besonders von der Passfähigkeit der digitalen Grundlagen. Eine schrittweise rekursive Anpassung der historischen Geodaten an die Geometrie der jeweils aktuelleren Topographie gewährleistet die erforderliche Passfähig-keit. Zu den wichtigsten Parametrisierungsmethoden gehört die Auswahl der Pufferbrei-te bei Kernflächenmaßen. Am Beispiel einer gezielten Variation dieser Pufferbreite zeigte ein Vergleichstest, welche Auswirkung diese Änderungen auf die Indizes ausüben.

Das spezifische Verhalten einzelner Landschaftsmaße zeigt sich auch im Vergleich des suburban geprägten nordöstlichen Teilraumes am Rande der Stadt Plauen mit dem eher ländlich geprägten Quadranten im Südwesten des Kartenblattes. Die Auswertung der Landschaftsmaße ermöglicht ein tieferes Verständnis vieler Veränderungen und deren funktionale Interpretation. Vorteile und Schwierigkeiten der Aussagekraft ausgewählter Maße werden eingehend diskutiert. Die Studie möchte damit einen Beitrag zum bes-seren Verständnis und zur praktischen Anwendbarkeit von Landschaftsmaßen in Land-schaftsmonitoring und -planung leisten.

Page 164: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich152

1 Einführung

1.1 Motivation

Untersuchungen der historischen Landnutzung und der Landnutzungsänderungen stel-len eine Schlüsselmethodik für Landschaftsökologie und Landschaftsplanung dar, weil die Landschaftshistorie ein entscheidender Faktor für die aktuelle und künftige Land-schaftsentwicklung ist. Informationen über historische Landnutzung sind aus verschie-denen Quellen verfügbar, aber nur wenige von ihnen ermöglichen auch flächenkonkrete und strukturelle Einblicke. Für Strukturanalysen ausgewertet wurden schon historische topographische Karten (Petit, Lambin 2002; Neubert et al. 2006; Haase et al. 2007; Walz 2008), historische Katasterpläne (Bender, Jens 2001; Schumacher, Bender 2002; Skaloš, Engstová 2010), Fernerkundungsdaten (Luque et al. 1994; Hietel et al. 2004; Alados et al. 2004; Kennedy et al. 2009) oder Kombinationen o. g. Quellen (Aavikso 1993; Van Eetvelde, Antrop 2009). Dabei musste vor allem das Problem der Datenqua-lität angesprochen werden (Ludwig et al. 2007; Walz, Berger 2003).

Wir suchten nach einer geeigneten Methodik zur Analyse historischer Landschaftsver-änderungen anhand topographischer Karten, die mit Geographischen Informationssys-temen ausgewertet werden können. Vorangegangene Studien zeigten, dass eine exakte Digitalisierung älterer topographischer Karten sehr problematisch ist und die resultieren-den Daten durch unterschiedliche geodätische Grundlagen, Karteninhalte, -legenden und -maßstäbe oft nur bedingt miteinander verglichen werden können (Bender et al. 2005; Bach et al. 2006; Walz 2008). Offensichtlich muss bereits die Aufbereitung der digitalen Daten zielgerichtet auf den gewünschten Zeitvergleich hin erfolgen, um die erforderliche Datenhomogenität zu ermöglichen (Leyk et al. 2006).

Für den Zeitraum mehrerer Jahrhunderte konnten auf diese Weise nur Veränderungen der Hauptnutzungsformen ausgewertet werden, insoweit sie auf den Kartengrundlagen eindeutig erkennbar sind. Dabei lag das Forschungsinteresse vor allem auf der quantita-tiven Erfassung der Landschaftsstruktur mit Hilfe geometrischer Maßzahlen, die im Fol-genden als Landschaftsmaße oder Indizes bezeichnet werden. Die praktische Nutzung dieser Landschaftsmaße in der Planung und im Monitoring ist im Gegensatz zu ihrer breiten wissenschaftlichen Anwendung noch sehr gering verbreitet (Lipp 2006; Walz 2006; Lang et al. 2009). Dies liegt nicht zuletzt an den unzureichenden Kenntnissen über den Zusammenhang von Struktur und Funktion für mehrere planungsrelevante Themen. Erfahrungen fehlen insbesondere zur Auswirkung der Strukturen auf eine Rei-he abiotischer Prozesse und zur Wirkung auf das Landschaftsbild als Bestandteil der Erholungsfunktion. Hierfür müssen genauere Kenntnisse über die Auswirkung konkreter Landschaftsveränderungen oder bestimmter Datenkonstellationen auf einzelne Land-schaftsmaße aufbereitet werden.

Page 165: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 153

1.2 Ziele der Untersuchung

Anhand der verfügbaren topographischen Karten im großen Maßstab (1:10 000 bis 1:25 000) wurde versucht, soweit wie möglich in die Vergangenheit zurückzublicken (vgl. Berger, Walz 2004) und gleichzeitig eine exakt vergleichbare digitale Datenbasis zur Dokumentation des Landschaftswandels aufzubauen. Durch die strukturelle Aus-wertung des Landschaftswandels beleuchtet die Studie jene Aspekte, die über einzelne Nutzungs- und Flächenänderungen hinaus den Charakter der Landschaft im Verlaufe der letzten Jahrhunderte entscheidend prägten. Über eine Aufdeckung des Zusammen-hangs von Landschaftsstruktur und Funktion im Untersuchungsgebiet hinaus war beab-sichtigt, generelle Aussagen für die Nutzbarkeit einzelner Landschaftsmaße im Bereich der von Planung und Management abzuleiten (vgl. Wickham et al. 1997; Herzog et al. 2001; Lang, Blaschke 2007). Dafür war vor allem zu klären, inwieweit bestimmte Vor-entscheidungen beim Umgang mit den Daten und bei der Berechnung der Landschafts-maße, im Folgenden als Parametrisierung bezeichnet, Einfluss auf die absoluten Werte und die Qualität der Ergebnisse haben. Auf Basis dieser historischen Untersuchungen wurden letztlich Schlussfolgerungen für ein Landschaftsmonitoring erwartet.

2 Grundlagen

2.1 Untersuchungsgebiet

Der Untersuchungsraum gehört zum Freistaat Sachsen und entspricht der Fläche des Kartenblattes 5538 (Plauen) der Topographischen Karte 1:25 000 (Normalausgabe). Das Gebiet liegt im Sächsischen Vogtland und damit gleichzeitig in Grenzlage zu den deutschen Bundesländern Thüringen und Bayern. Die genaue Abgrenzung berücksich-tigte außerdem den Kartenschnitt der verfügbaren historischen Karten, deren Blattab-grenzung um wenige Meter variiert, sodass eine etwas kleinere Fläche von 119 km² untersucht wurde (Abb. 1). Das Untersuchungsgebiet liegt in einer Höhenlage von 340 bis 593m über NN mit nordöstlicher Abdachung. Großräumig gesehen bildet das Vogt-land eine Senke in der west-östlich ausgerichteten Mittelgebirgsschwelle, die hier mit 7,5 bis 8°C Jahrestemperatur relativ wärmebegünstigt ist und im Lee der umliegenden Hochlagen nur Jahresniederschläge von ca. 600 mm erhält (Paulig 1993).

Es trägt den Charakter eines Schiefergesteins-Hügellandes mit vielen kleinen Kuppen aus Diabasen und besonders tief (50 bis 100 m) eingeschnittenen Tälern. Im Nordosten überwiegt die landwirtschaftliche Nutzung auf flachgründigen Lössböden (Abb. 2). Nach Südwesten hin, nimmt auf immer steinreicheren Verwitterungsböden der Waldanteil all-mählich zu. Es handelt sich um einen Übergangsraum zwischen den urbanisierten Rand-bereichen der kreisfreien Stadt Plauen im Nordosten und dem eher ländlich geprägten „Burgsteingebiet” im Südwesten. Wegen einer Konzentration von Handelsrouten durch

Page 166: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich154

die Mittelgebirgsschwelle wurde der Raum relativ früh erschlossen. Die wichtigsten Leit-linien der Gebietsentwicklung sind das L-förmig abgeknickte Tal der Weißen Elster von Südost über West nach Nordost, die Bahnlinie Plauen-Oelsnitz und die Bundesfernstra-ße 173 bzw. Bundesautobahn 72. Historische Meilensteine bei der Erschließung waren der Bau der Bahnlinie Leipzig-Hof bis zum Jahr 1851 sowie die Anlage der Talsperre Pirk (bei Oelsnitz) in den Jahren 1935-38 (Zühlke 1986).

Abb. 1: Flächennutzungskarte des Untersuchungsgebietes Plauen (schwarzes Rechteck) zwischen den Städten Plauen und Oelsnitz (Datenquelle: BTLNK Sachsen)

Abb. 2: Einblick in das Unter-suchungsgebiet (Foto: Ullrich)

Page 167: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 155

2.2 Historische Kartenwerke mittleren Maßstabs in Sachsen

Das ausgewählte Testgebiet „Plauen“ (vgl. 2.1) liegt in einem der traditionsreichsten Gebiete historischer Landesvermessung und Kartographie (Landesvermessungsamt Sachsen 2006, Atlas für Geschichte und Landeskunde Sachsen o. J.). Exakte Karten sind seit dem Mittelalter bekannt und für die o. g. Zwecke jedoch unterschiedlich nutzbar (Brunner 2002, Moser 2006). Tabelle 1 zeigt (ohne Anspruch auf Vollständigkeit) eine Übersicht über die historischen Kartenwerke Sachsens, welche das Land größtenteils abdecken und mittlere bis große Maßstäbe aufweisen. Die ersten Landeskartierungen aus dem 16. Jhd. und früher bilden jedoch entweder nur bestimmte Nutzungen (Wäl-der) ab oder sind zu wenig mit späteren Karten vergleichbar. Bemerkenswert ist, dass die Konzeptkarten der Öder’schen Landesaufnahme flächendeckend Grundrisse abbilden. Diese Karten wurden im Hinblick auf die Waldentwicklung von Überfuhr und Miethke (2004) ausgewertet. Leider ging deren Beschaffung und Interpretation über den mögli-chen Aufwand des Projektes hinaus, sie dürften aber für weitere Untersuchungen dieser Art sehr interessant sein.

Die späteren Kartenwerke, also die Öder’schen Reinzeichnungen, die Zürner-Karte und ihre Ableitungen (Schenk, Erben, vgl. Tab. 1) haben wesentlich kleinere Maßstäbe und enthalten lediglich Überblicksdarstellungen und Aufrisssymbole, sodass eine flächenbe-zogene, strukturelle Auswertung zu ungenau wäre. Vergleichbar sind dagegen die Mei-lenblätter, die Äquidistantenkarten, die Messtischblätter und moderne topographische Karten. Dabei täuschen die Messtischblätter mit ihrem hohen Detailreichtum eine im Vergleich zu früheren und auch später hergestellten Karten (zwischen 1960 und 1990) eine größere Diversität in der Landschaft vor. Weil unter Einbeziehung der Messtisch-blätter sowie von topographischen Karten aus der Zeit der DDR außerdem stark unter-schiedliche Zeitdifferenzen zustande gekommen wären, konzentrierten wir die Auswer-tung auf die zwei zuerst genannten Kartenwerke und die aktuelle topographische Karte 1:25 000, welche jeweils Zeitabstände von ungefähr 100 Jahren einschließen.

Page 168: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich156

Tab. 1: Historische Kartenwerke in Sachsen (mittlerer Maßstab)

Kartenwerk Entstehung Maßstab InhalteKarten kurfürstlicher Wälder 1557-1560 unterschiedlich WaldverbreitungKurfürstl. Landesaufnahme Öder & Zimmermann (Abbruch im 30-jähr. Krieg)

1586-1633 Konzeptkarte 1:13 333

Reinzeichng. 1:53 333

Trig. P., Grundrisse, Gewässer, Wälder Ansichtszeichnungen

Atlas Augusteus Saxonicus v. A. F. Zürner (Messwagenaufnahme)

1713-1742 Ämterkarten, Landkar-te 1:125 000

Aufrisssymbole

Atlas Saxonicus Novuw v. P. Schenk & Erben

1760 Umzeichnung o. g. Aufnahmen

Meilenblätter v. F. L. Aster nach Triangulation für das Militär

1780-1806 1820-1825

1:12 000 digital im Internet

Grundrisse, Relief mit Schraffen, Beilagen

Topgraphischer Atlas des Kgr. Sachsen v. J. A. H. Oberreit

1819-1860 1:57 600 eingeordnete Ver-kleinerung der o. g.

Äquidistantenkarte (Grundlage für Geologische Spezialkarte)

1870-1884 1:25 000 digital im Internet

Relief mit Höhenlinien Äquidistanz 10 m

Messtischblätter n. Triangula tion v. Nagel

ab 1900 1:25 000 digital im Internet

wesentlich höherer Detailreichtum

Die Ausgewerteten Karten waren daher im Einzelnen:Meilenblätter 102, 103, 126-129, 143, 154; 1:12 000 von 1794 bis 1795 (Freiberger Exemplar, Ausschnitt Abb. 3)Äquidistantenkarte 142 Section Plauen 1:25 000 von 1877 (Ausschnitt Abb. 4)Topographische Karte (Normalausgabe) 5 538 Plauen 1:25 000 von 1996.

Abb. 3: Meilenblatt-Ausschnitt südlich von Plauen ca. 1794 (verkleinert abgebildet, Freiberger Exemplar, Datenquelle: Sächsisches Staatsarchiv)

Page 169: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 157

3 Methoden

3.1 Digitalisierung, Datenaufbereitung und Homogenisierung

Schon wenn man sich die uneinheitlichen Vermessungsmethoden, geodätischen Grund-lagen, Erfassungs- und Zeichnungsvorschriften, Generalisierungsregeln sowie Ziele bei der Herstellung der einzelnen Kartenwerke vor Augen hält, wird klar, dass die gleichen Sachverhalte oft in völlig verschiedener Weise zur Darstellung gelangten. Das bloße Verschneiden separat digitalisierter Karten würde eine Vielzahl von Veränderungen auf-zeigen, die sich in der realen Welt nicht ereignet haben, sondern von Unterschieden in den Karten nur vorgetäuscht werden. Eine Trennung solcher „scheinbarer“ Landschafts-veränderungen von den “echten” anhand der Daten allein wäre nachträglich in vielen Fällen nicht mehr möglich. Folglich muss bereits die Digitalisierung bzw. Aufbereitung der digitalen Daten mit einer spezifischen Methodik erfolgen, welche zielgerichtet auf den gewünschten Zeitvergleich hin die erforderliche Datenhomogenität gewährleistet (Petit, Lambin 2002):

Die Legenden aller bearbeiteten Karten waren zunächst unter Berücksichtigung der 1. Zeichenvorschriften aufeinander abzustimmen, wobei die genauest mögliche ge-meinsame Objektklassifizierung zur Anwendung kam (vgl. Baumbach et al. 2007).

Die Karten wurden gescannt und im Rasterformat georeferenziert. Dafür waren 2. Passpunkte auszuwählen, deren genaue Koordinaten bekannt sind. Je weiter man in die Vergangenheit zurückblickt, umso schwieriger lassen sich genügend Punkte finden, deren Koordinaten exakt bestimmt werden können. Unterschiedliche Grün-de können zu falschen Bezugspunktkoordinaten führen, weil z. B. ein Objekt falsch vermessen wurde, ein Gewässer seinen Wasserstand und damit die Ausdehnung veränderte, ein Gebäude erweitert oder (nach einem Brand) lageversetzt wieder aufgebaut wurde, oder weil sich durch Flurneuordnung bzw. Straßenausbau Kreu-zungen und Eckpunkte geringfügig verschoben. Die Suche nach „sicheren“ Refe-renzpunkten erfordert eine gewisse Mindestgröße der Karte und ein hohes Maß an Erfahrung (Walz, Berger 2003). Bevorzugt verwendet wurden Kirchtürme, Brücken und Eckpunkte größerer Gebäude (Gutshöfe, Burgen), weil man dabei gleichzeitig von einer exakteren Vermessung und selteneren Lageänderung ausging.

Die Vektorisierung der Rasterkarten erfolgte in chronologisch umgekehrter Reihen-3. folge (Neubert, Walz 2002; Šrédl 2006). Vollständig erfasst wurde zuerst nur die neueste Karte. Jeder ältere Datensatz erhielt zunächst die Geometrie der jeweils jüngeren Karte als Kopie. In diesen wurden dann nur die geprüften Abweichungen aufgenommen. Dabei war zu entscheiden, ob die betreffende Abweichung tatsäch-lich einer Landschaftsveränderung entspricht.

Page 170: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich158

Abb. 4: Ausschnitt aus der Äquidistantenkarte 142, Stand des Karteninhaltes: 1877 oben: mit aus der Karte extrahierten Vektordaten unten: mit dem angepassten Vektordatensatz der TK25 (Kartenlayout: Syrbe, Ullrich 2010)

Page 171: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 159

Damit sind die entstandenen Geo-Datensätze räumlich exakt vergleichbar, weil bei jeder noch so geringen Geometrieänderung zwischen ihnen eine Einzelfallprüfung aufgrund des vorliegenden Materials vorausging. Zum Beispiel besteht der Geo-Datensatz der Äquidistantenkarte grundsätzlich aus der Geometrie der modernen Topographischen Karte mit jenen Abweichungen, die im manuellen Vergleich zum Scan der Äquidistan-tenkarte ausgewählt und eingetragen worden sind.

Die Abbildung 4 zeigt den Scan eines Ausschnittes der Äquidistantenkarte, mit der da-rauf liegenden Vektor-Geometrie dieses Datensatzes. Da manche dieser Einzelfallent-scheidungen nicht auf der Basis sicheren Wissens getroffen werden konnten, wurde eine Regelbasis für kritische Fälle erstellt, welche diese Entscheidungen zumindest nach-vollziehbar machte und vereinheitlichte. Eine solche Regelbasis, nach der bei möglichen Veränderungen umgegangen wurde, ist in Abbildung 5 vereinfacht dargestellt. Bei der Überprüfung der Veränderungen wurde immer auf das jeweilige Umfeld geachtet. Erst wenn die Änderung mit dem Umfeld bzw. teils auch mit dem vorherigen oder nach-folgenden Karten übereinstimmten, wurden die Geometrien angepasst. Eine konkrete Regelbasis für ganz bestimmte Veränderungen ist schwierig aufzustellen, da die Unter-schiede respektive die Veränderungen zu vielgestaltig sein können. Letztendlich ist jede Entscheidung eine Einzelfallentscheidung für sich.

Abb. 5: Vereinfachte Darstellung der Behandlungsregeln bei der Anpassung der Geometrien (Quelle: Eigene Erarbeitung)

Page 172: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich160

3.2 Parametrisierung

Als Parametrisierung bezeichnen wir alle Einstellungen und Entscheidungen, die vor ei-ner Berechnung von Landschaftsmaßen getroffen werden und diese beeinflussen. Im Falle dieser Studie galten folgende Festlegungen:

Indexauswahl anhand der zu untersuchenden Fragestellungen (keine einfachen •Berechnungsgrundlagen wie z. B. Umfang oder Flächengröße, keine Dichte- und Fraktalmaße) (s. Tab. 5)

einheitliche Klassenzahl für alle Zeitschnitte: 12 Nutzungsklassen (vgl. Tab. 3)•

Berechnungsweise am Rand des Untersuchungsgebietes (s. Abschn. 3.3)•

Hintergrundklasse (sinnvoll etwa versiegelte Flächen bei Diversitätsstudien): keine•

Kantenkontraste: Wichtung nach Stärke der anthropogenen Beeinflussung•

Pufferbreite bei Kernflächenmaßen (s. Abschn. 4.1)•

Gebietsgliederung (s. Abschn. 3.3.)•

Das Ausmaß dieses Einflusses der Parametrisierung auf die Ergebnisse ist wichtig für die Vergleichbarkeit der Ergebnisse und sollte daher an einigen Beispielen gezielt untersucht werden. Um die Auswirkungen der Parametrisierung abschätzen zu können, wurden in einigen Fällen Indizes mit unterschiedlichen Voreinstellungen berechnet (Abschnitt 4.1).

3.3 Teilräume

Die wichtigste Vorentscheidung für die Berechnung von Landschaftsmaßen ist die Ge-bietsabgrenzung und -gliederung. Da die äußeren Grenzen zumeist von bestimmten Rahmenbedingungen (Datenlage, Projektziel, Auftraggeber etc.) vorgegeben sind, kann man meist nur die numerische Behandlung der Umgebung frei festlegen. Allerdings war es sinnvoll, die Maße für ein etwas kleineres Gebiet zu berechnen als die Datenlage maximal hergab. So wurde in dieser Untersuchung derjenige Ausschnitt gewählt, der für alle Zeitschnitte gemeinsam verfügbar war.

Über die innere Gliederung des Untersuchungsraumes kann man oft auch nach inhalt-lichen Aspekten entscheiden. Natürlich lassen sich Entwicklungen nur dann quantitativ nachweisen, wenn sie für das gesamte Untersuchungsgebiet uneingeschränkt gültig sind. Vollzieht sich dagegen eine bestimmte Landschaftsveränderung nur in einem Aus-schnitt, so können zufällige oder sogar gegensätzliche Tendenzen anderswo das Ergeb-nis relativieren oder verfälschen.

Die Abgrenzung von Teilgebieten für spezifische Untersuchungen birgt viele Probleme. So sollten bestimmte Prozesse am besten in ihren Wirkungsräumen (z. B. Überschwem-mungen innerhalb der Auen) betrachtet werden. Doch schwierig wird es, wenn der

Page 173: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 161

Wirkungsraum sich selbst verändert. Wird zudem eine funktionale Grenze definiert, so kann ihr Verlauf selbst bestimmte Nachbarschaftseffekte ausschließen oder sogar Arte-fakte erzeugen. Schließlich stellen unterschiedliche Gebietsgrößen und Inventare eine Vergleichbarkeit vieler Indizes infrage.

Für die folgenden Untersuchungen wurde deshalb eine sehr pauschale Methode ge-wählt. Neben der Gesamtbetrachtung kamen zwei gleich große rechteckige Teilräume von je 19 km² im Nordosten und im Südwesten zur Auswertung (Abb. 6). Beide Gebiete waren groß genug, um das ganze Klasseninventar zu umfassen und hatten geometrisch definierte Grenzen. Sie sollten die differenzierten Trends um die stark wachsende Stadt Plauen einerseits und der ländlichen Entwicklung im Grenzraum andererseits aufzei-gen (4.4). Die Ausgangssituation ist in beiden Teilräumen ähnlich. In den ersten beiden Zeitschnitten handelt es sich um ländliche Räume mit Acker-Grünland-Wald-Mosaik, wobei der Ackeranteil im Nordosten etwas größer ist. Der Südwesten besitzt zu keinem Zeitpunkt städtische Besiedlung.

Abb. 6: Untersuchungsgebiet Plauen zum Zeitpunkt 1794 und Lage der zwei Teilräume (Quelle: Sächsische Meilenblätter, Sächsisches Staatsarchiv, Kartenlayout Ullrich, Ludewig 2010; rot: Siedlung, grau: Verkehr, hellgelb: Acker, gelbgrün: Grünland, grün: Wald, dunkelgrün: Gehölze, blau: Wasser)

Page 174: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich162

3.4 Software und Berechnung

Alle Karten wurden als Vektor-Datensätze in Form von ArcInfo-Coverages verarbeitet (Abb. 9). Linienhafte Landschaftselemente (Verkehrswege und Flüsse) erhielten durch Pufferung, mit einer pauschal für ihren Typ festgelegten Breite, Flächencharakter. Zur Berechnung der Landschaftsmaße diente das freie Programm Fragstats 2.0 (McGarigal, Marks 1994) auf Basis von ArcInfo. Die Ergebnisse wurden schließlich als Statistiken und Graphiken mit Excel bearbeitet sowie mit Hilfe von ArcGIS kartographisch dargestellt.

4 Ergebnisse

4.1 Auswirkung verschiedener Parametrisierungen

4.1.1 Klassenzahl

Wenn Gebietsgröße und Datenqualität feststehen, beeinflusst vor allem die Festlegung der Klassenzahl die Ergebnisse. Bei der Untersuchung des Landschaftswandels können nur Elemente berücksichtigt werden, die für alle Zeitschnitte flächenhaft kartiert sind. Die Legende moderner Karten darf nicht als Maßstab dienen, weil viele Objekttypen auf älteren Karten entweder nicht erfasst sind oder trotz entsprechender Zeichenvorschriften nur unvollständig aufgenommen wurden. Aus diesem Grund wurden im untersuchten Raum die auf der TK25 ausgewiesenen 21 Nutzungsklassen im Vergleich mit den älteren Karten zu 12, sicher auf allen Kartenwerken erkennbaren Klassen zusammengefasst. Abbildung 7 zeigt anhand der Anzahl der Einzelflächen (number of patches NP) und der gesamten Kantenlänge aller kartierten Objekte (total egde, TE) die Auswirkung einer unterschiedlichen Klassenanzahl auf elementare Landschaftsmaße.

Abb. 7: Veränderung von Elementzahl und Gesamt-Kantenlänge durch unterschiedliche Klassen-zahl (Quelle: Eigene Erarbeitung)

Page 175: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 163

Trotz der sehr starken Reduzierung (-43%) der Nutzungsklassen kam es im Karten-ausschnitt nur zu einer recht geringen Veränderung dieser beiden Maße, welche wir auch als Indizes bezeichnen. TE und NP (Abb. 7) nahmen nur um ca. 1 % ab. Diese relative Unempfindlichkeit ist allerdings durch die Wahl der Nutzklassen bedingt. Die entfallenen Klassen waren zumeist seltene Nutzarten, wie Kläranlagen, Gewerbegebie-te, Campingplätze, die nur geringe Flächenanteile oder wenige Flächen einnahmen. Bei Zusammenlegung dominanter Nutzklassen ist zu erwarten, dass sich die Indizes deutli-cher verändern.

4.1.2 Pufferbreiten

Innenpuffer

Es gibt zwei Fälle in denen Pufferbreiten zu definieren sind. Erstens erfordert die Berech-nung der Kernflächenmaße eine solche Festlegung für die Pufferung nach innen. Im Fragstats-Programm wird dafür eine pauschale Entfernungsangabe abgefragt. Jedoch ist es ebenso gut möglich, ein eigenes Buffer-Coverage zu erstellen, indem jede Objekt-klasse oder sogar jeder einzelne Kantenabschnitt eine individuelle Randbreite besitzt. Fragstats nutzt auch ein bereits vorhandenes Buffer-Coverage mit dem Standardnamen (<cover>_b). Als Anhaltspunkte für die Definition dieser Randbreite wird man je nach untersuchter Funktion z. B. auf Licht- und Windschatten-Bereiche, Reichweiten von Stoff- und Energieflüssen, Mindestlebensraumgrößen, Flucht- oder Wanderungsdistan-zen zurück greifen. Natürlich wirken sich diese Randbreiten nur auf die Kernflächenma-ße selbst aus. Beispielhaft wurde die Veränderung der Anzahl entstehender Kernflächen im Untersuchungsgebiet nach Abzug von jeweils 10 m und 50 m Randbreite verglichen (Tab. 3, Abb. 8).

Tab. 3: Kernflächenanzahl der Nutzungsklassen bei den Randbreiten 10 und 50 m

Nutzungstyp Kernflächenzahl (10 m) Kernflächenzahl (50 m)Verkehrsinfrastruktur 2 0Wald 489 316Einzelsiedlung 40 0Steinbruch 63 6Friedhof 7 0Acker 566 415Grünland 445 143Feldgehölz 165 40Fließgewässer 3 0Standgewässer 90 4städtische Siedlung 443 153ländliche Siedlung 434 70

Page 176: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich164

Wie Tabelle 3 zeigt, machen sich die unterschiedlichen Pufferbreiten in den Ergebnissen sehr deutlich bemerkbar. Viele Klassen mit kleineren Flächengrößen verlieren bei grö-ßeren Randbreiten ihre Kernflächen weitgehend. Veränderungen in der Größenstruktur oder Form dieser Klassen werden daher bei einem 50 m Puffer nur bei extremen Ände-rungen (Zusammenlegung vieler Elemente zu einem) sichtbar.

Abb. 8: Kernfläche und Kernflächenzahl Plauen bei unterschiedlicher Pufferbreite (Quelle: Eigene Erarbeitung)

Allerdings ist in Abbildung 8 erkennbar, dass die Trends der Werte zu fast allen Zeitpunk-ten bei den zwei Pufferbreiten gleichmäßig sind. Die absolute Pufferbreite ist also für rein strukturelle Untersuchungen nicht unbedingt vordergründig. Für eine allgemeine Landschaftsuntersuchung reicht deshalb eine einzige feste Pufferbreite für die Kern-flächenstatistik aus. In der Arbeit wurde eine Breite von 10 m gewählt, da hiermit der größte Teil der Elemente einen Kernbereich behält und somit strukturelle Änderungen leichter zu erkennen sind.

Außenpuffer

Zweitens kann es sinnvoll sein, bestimmte Objekte nach außen zu puffern, um als Linien digitalisierte Elemente in Flächen umzuwandeln und so in die Strukturberechnung ein-zubinden. Auch hier könnte man natürlich für jeden Verkehrsweg oder für jedes Fließ-gewässer eine individuelle Breite erzeugen. Doch die Notwendigkeit eines solchen Vor-gehens ist fraglich, da schon die Ermittlung exakter Breiten sehr aufwändig und unsicher sein kann. Ein Ausweg ist daher, für einzelne Objektklassen durchschnittliche Breiten zu bestimmen und diese allen Objekten dieser Klassen pauschal zuzuweisen. Die Größen der im Untersuchungsgebiet vorgenommenen Zuweisung zeigt Tabelle 4.

Page 177: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 165

Tab. 4: Pauschale Festlegung von Randbreiten der linienhaft digitalisierten Landschaftselemente

Verkehrsweg Breite ZusammensetzungAutobahn 30 m 6 Spuren á 4 m + 6 m RandFernstraße 12 m 2 Spuren á 4 m + 4 m RandStaatsstraße 8 m 2 Spuren á 3 m + 2 m Randbefestigter Weg 6 m 1 Spur 5 m + 1 m Randsonstiger Weg 4 m 1 Spur 3 m + 1 m RandWanderpfad 2 m Pfad/Weg 2 mBahndamm 8 m 1-2 Gleise in 8 m Schotterbett

Bei den Fließgewässern treten naturgemäß die stärksten Schwankungen auf. Deshalb wurde am Beispiel dieser Objektklasse die Auswirkung einer Variation auf die Land-schaftsmaße durch Verdoppelung der jeweiligen Pufferbreiten untersucht.

Diese Verdopplung brachte den Fließgewässern einen Bedeutungsgewinn innerhalb der Landschaft (+90 % Fläche), wobei dieser Gewinn hauptsächlich zu Lasten typischer flussnaher Nutzungen (-5,5 % Grünlandfläche) ging. Die Grenzlängen der Fließgewäs-ser, die für die Ausbildung der Landschaftsstruktur mit entscheidend sind, blieben al-lerdings nahezu konstant. So wurde der strukturelle Aufbau der Landschaft durch die unterschiedlichen Flussbreiten kaum verändert. Die einzigen deutlichen Veränderungen waren bei den Kernflächenmaßen auf Klassenebene zu bemerken. Hier bewirkte die Verdopplung eine Erhöhung der Anzahl der Kernflächen bei Fließgewässern (+125 %), während die angrenzenden Nutzungen (Kernflächen von Grünland -3,5 %) verloren.

4.2 Offensichtliche Landschaftsveränderungen

Schon ohne die Benutzung von komplexeren Landschaftsmaßen lassen sich aus der Flä-chenstatistik (Abb. 9 und 10), auf dem Kartenbild und anhand der historischen Gege-benheiten bereits eine Vielzahl spezifischer Aussagen über den Landschaftswandel des Untersuchungsraumes machen. Diese werden hier dargelegt, um aufzuzeigen, welche zusätzlichen Informationen mit Hilfe der Landschaftsmaße gewonnen werden können.

Intervall 1794 bis 1877

In diesem Zeitraum ist die Ausweitung der Ackerflächen auffallend, die allerdings auch mit einer Zersplitterung (Verkleinerung) der Felder einhergeht. Das Verkehrsnetz wird um 90 % erweitert, wobei der Neubau der Eisenbahn sehr bedeutend ist. Grünland und Wald werden auf Ungunstlagen zurück gedrängt. Besonders stark ist der Siedlungszu-wachs am Stadtrand von Plauen um ca. 360 % der Ausgangsfläche.

Page 178: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich166

1794 1877 1994

Abb. 9: Flächennutzung nach den ausgewerteten topographischen Karten (Quelle: Ullrich, Syrbe 2007; rot: Siedlung, grau: Verkehr, hellgelb: Acker, gelbgrün: Grünland, grün: Wald, dunkelgrün: Gehölze, blau: Wasser)

Intervall 1877 bis 1994

Diese Zeit ist durch größere Umstrukturierungen in der landwirtschaftlichen Fläche geprägt. Die Ackerfläche nimmt dabei wieder ab, während die verbliebenen Flächen zu größeren Schlägen zusammengelegt werden. Die Flächen von Wald und Grünland wachsen wieder an. Die größte Flächenerweiterung erfahren wiederum die Siedlungs-bereiche. Die städtische Siedlung wird um 910 % vor allem äußerlich erweitert, wäh-rend in den Dörfern v. a. der innere Ausbau einen Flächenzuwachs von 228 % mit sich bringt. Das Verkehrsnetz bleibt quantitativ konstant, wobei die Verkehrswege qualitativ aufgewertet (Autobahnbau) werden. Für das Landschaftsbild sehr bedeutend ist die Entstehung des großen Staussees Pirk.

Allgemeine Tendenzen 1794 bis 1994

In dem Gebiet erfahren in diesem Zeitraum ca. 55 % der Fläche keine, 34 % eine ein-malige und 11 % eine zweimalige Nutzungsänderung (Abb. 11). Die Siedlungsfläche wächst stetig und mit zunehmender Geschwindigkeit. Obwohl einige Flächenanteile 1994 wieder ähnlich derjenigen von 1794 sind, hat sich in beiden Intervallen die Nut-zungsintensität erhöht, was sehr deutlich an dem Verlust v. a. kleinerer Strukturelemente erkennbar wird.

Diese teils subjektiven, aber auch qualitativen Aussagen sollten mit Hilfe der Land-schaftsstrukturmaße quantitativ belegbar sein. Strukturelle Veränderungen, Feldgrößen, Innen- bzw. Außenentwicklung im Siedlungsbereich, Verinselung von Waldflächen und die Intensivierung der Landnutzung sollten genauer untersucht sowie, wenn möglich, quantifiziert werden.

Page 179: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 167

Abb. 10: Flächenanteile der Nutzungsklassen 1794, 1877 und 1994 (Quelle: Eigene Erarbeitung)

4.3 Veränderungen von Landschaftsmaßen im Gesamtgebiet

Tabelle 5 listet die wichtigsten Landschaftsmaße der drei Zeitschnitte im Überblick auf. Viele Indizes zeigen bei grober Betrachtung im Jahr 1994 ähnliche Werte wie zum ers-ten Zeitschnitt zweihundert Jahre früher. Erst ein näheres Hinsehen auf einzelne Maße eröffnet spezifische Veränderungen in einer hohen Detailliertheit. Im Folgenden werden ausgewählte Indexgruppen in ihrem Verhalten beschrieben und jene Maße benannt, welche die gefundenen Veränderungen am klarsten abbilden (Abkürzungen s. folgender Text).

Flächengrößen: Mittlere Einzelflächengröße (MPS), Standardabweichung der Flächen-

größen (PSSD) größte Einzelfläche je Klasse (LPI) und Flächenzahl (NP)

Die Klasse Acker stellt zu allen drei Zeitpunkten die größte Einzelfläche mit LPI-Werten von 1,58/1,24/2,65. Genau umgekehrt verändert sich die Anzahl der Ackerflächen (1. Intervall: +20 %, 2. Intervall -44 %), was die Veränderung des eigentlichen Flächen-anteiles (vgl. Abb. 10) deutlich überzeichnet. Die gegensätzliche Schlaggrößenentwick-lung zeigt der Index MPS mit zuerst -7%, dann +42% je nach Zeitintervall, wobei die Standardabweichung PSSD (erst -5%, dann +65%) nach einer geringen Homogenisie-

Page 180: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich168

rung einen starken Anstieg der Flächengrößenheterogenität belegt. Eine Verringerung der MPS tritt im ersten Intervall (1794 bis 1877) bei fast allen Klassen auf, gefolgt von der PSSD die jedoch bei den Siedlungen ansteigt. Eine Sonderrolle im 2. Intervall (1877 bis 1994) spielt der Wald, dessen MPS und PSSD sich gegen den Gesamttrend verrin-gern. Während Acker- und Grünlandschläge allgemein vergrößert werden, verstärkt sich also demgegenüber im Wald die Zerschneidung durch den Wegebau.

Tab. 5: Strukturindizes für das gesamt Untersuchungsgebiet mit ihren englischen Bezeichnungen für die drei untersuchten Zeitschnitte (Quelle: Eigene Erarbeitung)

Symbol Index 1794 1877 1994TA Total area 11 872 11 872 11 872LPI Largest Patch Index 2,55 2,99 3,69NP Number of Patches 2 458 2 658 2 441PD Patch Density 20,70 22,39 20,56MPS Mean Patch Size 4,83 4,47 4,86PSSD Patch Size Standard Deviation 11,84 11,97 15,35TE Total Edge 1 968 258 2 090 196 1 965 441ED Edge Density 165,8 176,1 165,6CWED Contrast Weighted Edge Density 95,59 98,35 90,13TECI Total Edge Contrast Index 56,41 54,72 53,26MECI Mean Edge Contrast Index 54,32 53,02 51,02AWMECI Area-Weighted MECI (see above) 56,72 55,23 55,16LSI Landscape Shape Index 52,09 55,25 52,02MSI Mean Shape Index 2,18 2,18 2,04AWMSI Area-Weighted Mean Shape Index 6,71 7,93 8,34TCA Total Core Area 9 103,0 9 023,1 9 092,7NCA Number of Core Areas 2 861 2 902 2 747CAD Core Area Density 24,10 24,44 23,14MCA1 Mean Core Area per Patch 3,70 3,39 3,72CASD1 Patch Core Area Standard Deviation 126,4 130,2 114,1MCA2 Mean Core Area per Disjunct Core 3,18 3,11 3,31CASD2 Disjunct Core Area Standard Deviation 117,2 124,6 107,5TCAI Total Core Area Index 76,68 76,01 76,59MCAI Mean Core Area Index 46,16 44,72 50,63PR Patch Richness 12 12 12SIDI Simpson’s Diversity Index 0,6 0,53 0,68SHDI Shannon’s Diversity Index 1,23 1,17 1,56SIEI Simpson’s Evenness Index 0,65 0,58 0,75SHEI Shannon’s Evenness Index 0,5 0,47 0,63IJI Interspersion and Juxtaposition Index 53,82 53,20 63,30

Page 181: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 169

Formenmaße: Flächen-gewichtete mittlere Formenvielfalt (AWMSI), Formenvielfalt al-

ler Flächen (LSI, mit NP korreliert), Mittlere Formenvielfalt (MSI, ambivalent wegen des

Einflusses von Splitterflächen)

Der LSI ist nur auf Klassenebene sinnvoll und spiegelt teilweise die Flächenanzahl (s. o.) wider. Der AWMSI wächst im gesamten Zeitraum, womit er sich im zweiten Intervall damit gegensätzlich zu einem sinkenden MSI verhält. Da der MSI stärker von (geome-trisch meist einfach geformten) Kleinstflächen beeinflusst wird, weist diese Divergenz auf eine Diversifizierung der Flächengrößen (und -formen) hin. Nur Siedlung und Acker folgen dem Gebietstrend nicht; deren Formen werden trotz Flächenzuwachs einfacher und regelmäßiger.

Kontrastmaße: Gesamt-Kantenkontrast (TECI), Mittlerer Kantenkontrast (MECI), Flä-

chengewichteter mittlerer Kantenkontrast (AWMECI), Kontrast-gewichtete Kanten-

dichte (CWED, abhängig von der allgemeinen Kantendichte ED)

Gemessen an Unterschieden der Nutzungsintensität (3.2) nehmen die o. g. Kontrast-maße auf Landschaftsebene stetig ab. Die Ausdehnung der Siedlungsfläche legt eigent-lich eine gegensätzliche Dynamik nahe, doch der stark fallende Kontrast der beiden Siedlungsklassen (-12 % bzw. -59 %) weist auf ein hohes Maß an Arrondierung und Vergesellschaftung mit anderen anthropogenen Nutzungsklassen hin. Geringe Kontrast-wertzunahmen verzeichnen nur die Offenland-Klassen, darunter am stärksten Grünland (+9 %) und die beiden Gewässertypen (+11 % bzw. +16 %). Neben dem Bau der Tal-sperre und der Reduzierung des Wegenetzes belegen diese Zahlen eine Konzentration ländlicher bzw. urbaner Nutzungen sowie eine Verflachung der Hemerobie-Gradienten innerhalb des urbanen bzw. ländlichen Raumes.

Kernflächenmaße: Gesamt-Kernflächensumme (TCA) und -index (Verhältnis zur

Elementfläche: TCAI), Anzahl von Kernflächen (NCA), Mittlere Kernflächengröße

(MCA1/2), ihre Standardabweichung (CASD1/2) und -index (MCAI), Kontrast-gewich-

tete Kantendichte (CWED, abhängig von der allgemeinen Kantendichte ED)

Die Kernflächenmaße zeigen im Grunde ähnliche Trends wie die Flächengrößen selbst, jedoch mit stärkerer Differenzierung und robusteren Eigenschaften (gegenüber Feinhei-ten in der Geometrie). Erstaunlich über die schon beschriebenen Tendenzen hinaus ist, dass z. B. im 1. Intervall (1794 bis 1877) die beiden Standardabweichungen CASD1/2 im Gegensatz zu ihren Grundmaßen MCA1/2 zulegen. Dies ist nur dadurch zu erklä-ren, dass die Teilung und Verkleinerung von (Kern-)Flächen nur partiell erfolgt, nämlich durch die Zurückdrängung der Wälder und des Grünlandes, während bestehende (gro-ße) Ackerflächen weitgehend unangetastet bleiben.

Vielfaltsmaße: informationstheoretisch berechnete Shannon-Diversität (SHDI) und ihre

Flächengrößenverteilung (SHEI), wahrscheinlichkeitstheoretisch berechnete Simpson-

Diversität (SIDI) und deren Flächengrößenverteilung (SIEI)

Page 182: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich170

Die zwei Diversitätsmaße verringern sich im 1. Intervall (-5 % bzw. -12 %), während sie im 2. Intervall stark ansteigen (+33 % bzw. +28 %). Dies widerspricht der offensicht-lichen Feinstrukturierung bis 1877 und erst recht der Großflächenbewirtschaftung im letzten Jahrhundert. Mit dem Anwachsen der zuerst marginalen baulichen Nutzungsty-pen und der Gewässer (durch die Talsperre) ist immerhin eine stärkere Durchmischung der Statistik gegeben, welche allerdings nicht mit einer erhöhten Vielfalt in der Fläche einher gehen muss, wie die o. g. Kontrastmaße zeigen.

Die beiden Evenness-Maße extrahieren die Verteilungskomponente aus der ursprüng-lichen Gesamt-Diversität. Danach ergibt sich für das 1. Intervall eine leichte Verringe-rung (-6 % bzw. -11 %) und für das 2. Intervall eine deutliche Erhöhung (+34 % bzw. +29 %), welche die Ausschläge der Diversitätsmaße mit einer Ausnahme (SIEI im 1. Intervall) übersteigt. Damit wird klar, dass das unerwartete Verhalten der Diversitätsma-ße (Verringerung bei Strukturierung, Erhöhung bei Ausräumung der Flächen) tatsächlich auf die veränderte Verteilung der Nutzungsklassenzusammensetzung zurückzuführen ist.

Verteilungsmaß: Einstreuungs- und Anordnungsindex (IJI)

Auch der zwischen 0 und 100 Punkten definierte IJI zeigt auf Landschaftsebene zuerst eine geringe Absenkung (um 2 %) und im 2. Intervall einen kräftigen Anstieg (um 20 %). Diese Ausschläge fallen jedoch moderater aus als bei der Evenness. Offensicht-lich gibt es unter den Einflussgrößen auch gegenläufige Trends, welche nur eine klassen-bezogene Betrachtung aufdecken kann.

Der IJI der Klassen Wald, Acker, Grünland sowie Verkehrswege verhält sich wie der IJI der Gesamtlandschaft. Stets negativ verhalten sich dagegen städtische und ländliche Siedlungen (flächenhafte Zunahme mit Klumpung und Wachstum entlang der Straßen), während sich die Werte bei den Klassen Steinbruch, Feldgehölz, Gewässer und Friedhof erhöhen (zeigt an: geringe Flächenzunahme aber Zerstreuung im Gebiet).

4.4 Veränderungen von Landschaftsmaßen in den beiden Teilräumen

Bei einer Betrachtung von Teilräumen konzentriert sich die Betrachtung auf herausra-gende Differenzen zwischen ihnen im ersten bzw. letzten Zeitschnitt, da ein kompletter Vergleich aller Landschaftsmaße, Zeitschnitte und Klassen sonst zu umfangreich wäre:

Zeitschnitt 1794:

Im ersten Zeitschnitt (vgl. Abb. 6) ist das Nutzungsmuster des südwestlichen Teilraumes (SW), dem nordöstlichen Teilraum (NE) visuell noch relativ ähnlich. Erkennbar ist der größere Waldanteil des SW, während im NE Acker und Feldgehölze dominieren. Nicht so leicht erkennt man, dass der SW kleinflächiger strukturiert ist, wie besonders die Kern-flächenmaße TCA, TCAI und MCA2 (84 % bis 97 % vom NE) anzeigen. Dabei liegen

Page 183: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 171

sowohl NP (mit 120 %) als auch NCA (113 %) über denen des NE. Die Formenmaße MSI und AWMSI (im SW 96 % bzw. 122 % vom NE) geben widersprüchliche Werte an, wobei wiederum die Tendenz des MSI befremdet. Erwartungsgemäß liegen die Kon-trastwerte MECI, AWMECI und TECI im SW 7 % bis 10 % über denen des NE. Dies hängt mit der mittleren Position, der im NE dominierenden Ackerflächen innerhalb der zugrunde liegenden Hemerobieskala zusammen, während der im SW häufigere Wald die höchsten Kontrastwerte erzeugen kann (vgl. Abb. 6). Interessant ist, das im SW trotz geringerer Nutzungsklassenzahl (10 von 12) höhere Diversitätsmaße als im NE (SHDI: SW 1,27, NE 1,26; SIDI: SW 0,65, NE 0,58) auftreten. Auch dieser Unterschied ist klar auf die Verteilungskomponente zurückzuführen (SHEI: SW 0,55, NE 0,51; SIEI: SW 0,72, NE 0,63; vgl. 4.3).

Tab. 6: Ausgewählte Landschaftsmaße der Teilräume Nordost (NE) und Südwest (SW)

Index LPI / Klasse NP MPS PSSD ED TECI MECI AWMECI1794 NE 2,99/Wald 476 4,2 8,92 167,05 52,87 50,79 54,311794 SW 2,96/Wald 572 3,49 7,21 193,37 58,91 55,07 60,141994 NE 5,51/Acker 639 3,13 6,90 213,45 41,30 41,34 47,241994 SW 4,09/Acker 454 4,40 9,51 175,41 60,28 54,37 61,77Index AWMSI MSI TCA NCA TCAI MCAI MCA2 CASD21794 NE 3,73 2,30 1515 534 75,81 40,33 2,84 46,021794 SW 4,56 2,22 1469 603 73,51 42,43 2,44 38,501994 NE 6,33 1,93 1388 697 69,45 48,96 1,99 27,961994 SW 4,68 2,27 1506 480 75,35 45,73 3,14 43,49Index TA PR LSI SHDI SHEI SIDI SIEI IJI1794 NE 1999,06 12 22,20 1,26 0,51 0,58 0,63 55,181794 SW 1999,07 10 25,53 1,27 0,55 0,65 0,72 56,151994 NE 1999,06 12 28,06 1,68 0,67 0,76 0,83 57,071994 SW 1999,06 11 23,26 1,33 0,56 0,66 0,73 56,57

Zeitschnitt 1994:

Im aktuellen Zeitschnitt stellen sich die beiden Teilräume sehr unterschiedlich dar (Abb. 1). Der NE wird zu einem Drittel von dem, auf 61-fache Größe angewachsenem Stadtge-biet von Plauen eingenommen, was eine Verdrängung von Acker (-45 %), Grünland (-50 %) sowie von Feldgehölzen (-45 %) zur Folge hat. Nur der Wald geht mit - 8 % weniger stark zurück. Demgegenüber hat sich die Nutzungsstatistik im SW kaum verän-dert. Lediglich das Grünland verliert 14 % an Fläche. Die Verluste von Wald (-3 %) und Acker (-1 %) bleiben gering und die ländliche Siedlungsfläche vervierfacht sich auf 4 %. In beiden Gebieten wird die größte Einzelfläche statt vom Wald (wie 1794) nun von Acker eingenommen, wobei das Verhältnis dieser Größen zur Klassenfläche (der LPI) im NE mit 84 % stärker wächst als im SW mit 38 %. Auch andere Indizes zeigen, dass

Page 184: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich172

strukturelle Änderungen den SW stärker betreffen als es der Augenschein nahe legt. Hier steigen die Größenmaße MPS und PSSD mit abnehmender Einzelflächen- und Kan-tenzahl an, während der NE genau gegensätzliche und dabei stärkere Veränderungen aufweist. Auch die Kontrastmaße, TECI und AWMCI laufen auseinander, indem sie im SW von höherem Niveau ansteigen, aber im NE aber weiter sinken. Vergleichsweise sind in Umkehrung zu 1794 alle Diversitäts- und Verteilungsmaße im NE mit Abstand größer als im SW, wo es nur zu geringen Zuwächsen kommt. Formen- und Kernflächenmaße verhalten sich uneinheitlich. Der SW zeigt höhere AWMSI und größere Kernflächen, während die Kernflächenanzahl anders als 1794 deutlich unter jene im NE sinkt. Dort verringert sich die Kernflächensumme bei wachsender Kernflächenzahl und bei stark steigender Formvielfalt (AWMSI); MCAI und MSI wiederum reagieren uneinheitlich.

Es zeigt sich, dass sich hier nicht etwa ein dynamisches und ein relativ stabiles Gebiet gegenüber stehen; sondern beide Teilräume entwickeln sich deutlich – in partiell ge-gensätzlicher Richtung. Viele strukturelle Differenzen des 1. Zeitschnittes kehren sich im 3. Zeitschnitt um: ein relativ homogener und großflächiger NE wird heterogen und zerstückelt, im SW erhöht sich der Nutzungskontrast um größere aber auch komplexere Flächen. Einer stetigen ländlichen Siedlungsentwicklung im SW steht die förmliche Ex-plosion der Stadt Plauen gegenüber (Abb. 9).

5 Diskussion

5.1 Auswahl und Berechnung der Landschaftsmaße

Für die Untersuchungen wurde mit Fragstats 2.0 das wahrscheinlich am häufigsten genutzte Berechnungsprogramm für Landschaftsmaße eingesetzt. Obwohl inzwischen neuere und größere Tools verfügbar sind (z. B. Fragstats 3.3, Patch Analyst, VLate, ATtILA), sollten bereits früher erstellte ArcInfo-Coverages verarbeitet werden und eine vektorbezogene Auswertung erfolgen. Bei der Auswahl spielte auch die freie Verfügbar-keit des Programms eine Rolle. Damit stieß die Studie natürlich auch schnell an Grenzen: die in der Fragstats-Version 3.0 und anderen Programmen verfügbaren Maße zur Viel-gestaltigkeit, Nachbarschaft, Klumpung und Zerschneidung von Flächen könnten für bestimmte Anwendungsaspekte sehr wertvoll sein. Leider handelt es sich dabei zumeist um rasterbasierende Programme mit ihren bekannten Schattenseiten, wozu u. a. die richtungsabhängigen Zahnungen (Verlängerung) von Kanten und eine eingeschränkte Anschaulichkeit zählen. Doch auch im Vektor-Bereich gibt es interessante Entwicklun-gen die z. B. auf Puffer-Berechnungen basieren (Syrbe 2004) oder auf der Analyse der Konturen (Moser et al. 2002).

Page 185: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 173

5.2 Aussagekraft der Landschaftsmaße

Die Studie beschränkte sich auf Strukturmaße der Klassen- bzw. Landschaftsebene, so-dass die folgenden Ausführungen nicht auf Raster- und nicht auf Patch-Indizes übertra-gen werden können. Es zeigte sich, dass mit Hilfe dieser Landschaftsmaße sehr spezifi-sche Informationen gewonnen wurden, die deutlich über die Erkenntnisse des einfachen Kartenstudiums oder der statistischen Auswertung hinausgehen. Einzelne Veränderun-gen konnten nicht nur belegt, sondern auch quantitativ in ihrer Größenordnung an-gegeben bzw. mit anderen Zeiträumen oder anderen Räumen verglichen werden. So lassen sich z. B. die deutliche Geschwindigkeitszunahme der Veränderungen zwischen den beiden Zeitintervallen beziffern oder die strukturellen Auswirkungen der Urbanisie-rung des NE im Vergleich zur „Normalentwicklung“ des naturräumlich vergleichbaren SW sauber extrahieren.

Es wurde deutlich, dass die Aussagekraft von Landschaftsmaßen entscheidend davon abhängt, ob ein Index tatsächliche Strukturänderungen aufzeigt und nicht etwa sekun-däre Phänomene der Daten oder der Methodik (z. B. kleinste Unterschiede in der Linien-führung, Grenzeffekte, Marginalflächen). Ein Qualitätsmerkmal ist daher die Robustheit der Maße bzw. der Datenbasis. Für letztere könnte unter bestimmten Umständen sogar ein Rasteransatz sprechen (Vermeidung von Verschnittpolygonen) oder die Anwendung topologischer Konsistenzregeln wie sie z. B. ArcGIS ab Version 9 anbietet.

Vergleichsweise robust sind auf jeden Fall die Kernflächenmaße, da sie diejenigen Be-reiche erfassen, welche unbeeinflusst von Rand-Effekten sind. Damit stehen die um die Grenzzonen reduzierten Bereiche einer Landschaft im Mittelpunkt. Geht es dagegen ge-rade um die Untersuchung von Ökotonen, sollte man „echte“ Puffer-Maße einsetzen, welche statt der (inneren) Kernflächen die (äußeren) Randzonen auswerten. Mit Hilfe von Puffer-Berechnungen sind übrigens auch auf Vektorbasis spezifische Nähe- und Nachbarschaftsmaße berechenbar, welche sonst für Rasterdaten zur Verfügung stehen (vgl. Syrbe 2004).

Ebenfalls als robust gelten Indizes mit ausdrücklicher (AWMSI, AWMECI) oder indirek-ter Flächengewichtung (TCAI, MCA2), weil sie die Auswirkung von Marginalflächen zurückdrängen. Andererseits dominieren dadurch einzelne übergroße Flächen (wie z. B. die Talsperre Pirk anstelle der vielen kleinen Teiche) die Statistik. Vielfach ist zu beob-achten, dass flächengewichtete Indizes genau umgekehrte Trends anzeigen wie ihre ungewichteten Pendants. Also kann das Verhältnis dieser Indexgruppen (also AWMSI gegenüber MSI oder AWMECI vs. MECI) von Interesse sein. Zu Testzwecken wäre es sogar überlegenswert, gegenteilig (also mit dem Flächeninversen) gewichtete Maße zu betrachten.

Logischerweise ist jede strukturelle Veränderung (z. B. Zuwachs einer Fläche) mit einer entsprechenden Gegenbewegung (Schrumpfung der benachbarten Fläche oder einer

Page 186: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich174

anderen Klasse) verbunden. Die Betrachtung von Maßen auf Landschaftsebene allein (ohne Klassenauflösung) kann also gefährlich in die Irre führen. Zumindest ist zu beach-ten, dass sich wichtige Tendenzen nicht überlagern und ausgleichen.

Die untersuchten Diversitätsmaße beruhen allein auf den Größenverhältnissen der Ein-zelflächen. Weder die Qualität der Nutzungen noch deren Anordnung spielen dabei eine Rolle. Die genauere Interpretation erfordert auf jeden Fall eine Betrachtung der entsprechenden Verteilungsmaße. Tatsächlich tragen nicht alle Klassen gleichermaßen zur Vielfalt in der Landschaft bei. Hierfür können bestimmte Klassen als Hintergrund definiert oder alle Klassen bei der Indexberechnung gewichtet werden. Vergleichsbe-rechnungen zeigten allerdings, dass sich die ohnehin vorgefundenen Verhältnisse damit nicht wesentlich ändern.

Am IJI ist interessant, dass hiermit ein explizit-räumliches Maß (vgl. Blaschke 2000) vor-liegt, welches die Lagebeziehungen über eine Nachbarschaftsanalyse direkt auswertet. Jedoch sind die ökologische Interpretation des IJI und seine Bewertung für das Land-schaftsbild sehr ambivalent. Eine Erhöhung kann ebenso positiv (mehr Vielfalt) wie ne-gativ (mehr Unordnung) bewertet werden. Veränderungen der Flächengrößen, typi-scher Abfolgen, Klumpung oder Klassen-Dominanzen mischen sich auf unentwirrbare Weise.

5.3 Anwendbarkeit der Landschaftsmaße

Im Folgenden werden die verwendeten Indizes nach ihrer Anwendbarkeit für Planungs- und Monitoringzwecke klassifiziert und eventuelle Einschränkungen kurz benannt:

Allgemein aussagekräftig: MPS, AWMSI, SIDI/SIEI, %LAND (pro Klasse)•

Aussagekräftig in Abhängigkeit von der Parametrisierung: AWMECI und alle Kon-•trastmaße, TCAI (gemittelt über die Klassenfläche, reagiert sensibel auf große Flä-chen) und alle Kernflächenmaße, MECI/TECI

Bedingt bzw. nur in Bezug auf einzelne Klassen geeignet: LPI (abhängig von Daten •einer einzigen Fläche, sensibel auf deren vollständige oder unvollständige Sektion; wichtig ist Klassenzugehörigkeit dieser größten Fläche), MSI (stark durch Marginal-flächen: Dreiecke, Quasi-Linien beeinflusst), MCA2 (Durchschnittsgröße einzelner disjunkter Kernareale, robuster als MCA1), MCAI (gemittelt über die Anzahl auch kleinster Elemente)

Bedingt bzw. nur unter Berücksichtigung anderer LSM geeignet, die in Klammern •vermerkt sind: PSSD (MPS), CWED (ED), CASD1/2 (MCA1/2, Variante 2 robuster), SHDI (Maximalwert abhängig von PR), SHEI (SHDI), IJI (NP)

Page 187: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 175

Grundlagenmaße bzw. nur für spezifische Vergleiche sinnvoll: PD, ED, MCA1 •(Durchschnittsgröße aller Kernareale pro Patch über alle Patches mit und ohne Kernfläche)

Nur für gleich große Gebiete geeignet: CA, NP, TE, LSI, TCA, NCA.•

6 Schlussfolgerungen

Bei der teilweise gegensätzlichen Entwicklung in den beiden Teilräumen wird klar: räum-lich begrenzte Trends können nur innerhalb jener Grenzen entdeckt werden, wo sie tatsächlich ablaufen, denn eine scheinbar statische Umgebung kann diese nicht nur im Datenrauschen untergehen lassen, sondern durch schwer erkennbare gegenläufige Ver-änderungen völlig maskieren.

Viele Indikatoren korrelieren untereinander, wodurch sich der verständliche Wunsch ab-leitet, zunächst nicht-korrelierte Indizes auszuwählen und die anderen beiseite zu lassen. Die Vielfalt der Maßzahlen hat jedoch meist einen inhaltlichen Hintergrund, sodass nicht Indizes mit der höchsten Faktorladung zu wählen sind (Riitters et al. 1995), sondern jene, die dem Auswertungsziel am ehesten entsprechen. Somit sollte auch Neuentwick-lungen von Formeln nicht pauschal mit dem Reflex “stop the flood” entgegen getreten werden. Die obige Zusammenstellung zeigt vielmehr, dass wirklich universell einsetzba-re, aussagekräftige, robuste und dazu noch vernünftig interpretierbare Landschaftsma-ße in der Minderheit sind.

Viele Maße sind nur sinnvoll im Zusammenhang mit anderen zu interpretieren. Häufig ist es daher empfehlenswert, zwei oder mehrere Indizes gemeinsam auszuwerten (vgl. 5.3). Ohne Berücksichtigung anderer Maße, die zumeist korrelieren, wären Fehlinterpre-tationen unvermeidbar.

Besonders interessant sind daher Landschaftsmaße 2. Ordnung, welche die räumlichen Beziehungen zwischen verschiedenen Indizes auswerten. Zu dieser Gruppe zählen das Ordnungsmaß (Ernould et al. 2003) und alle quantitativen Vergleiche von Landschafts-maßen, so wie z. B. die oben prozentual angegebenen Veränderungsraten der Zeitin-tervalle oder die Verhältnisse der flächengewichteten zu den direkten Form- bzw. Kont-rastmaßen. Natürlich gehört dazu auch die Auswertung der Häufigkeit von Änderungen in Einzelflächen (Abb. 11).

Allgemeine Maße auf Landschaftsebene integrieren die Eigenschaften aller Klassen. Wie auf Basis benachbarter Flächen bereits gezeigt, ist generell der Zuwachs bzw. die Arron-dierung einer Klasse mit dem Verlust bzw. der Zerstückelung alternativer Nutzungen ver-bunden. Ein Großteil der Strukturinformation erschließt sich also erst auf Klassenebene. Auch wenn Aussagen zum Charakter der Gesamtlandschaft gemacht werden sollen, ist es bei vielen Fragen angebracht, die Indexwerte ausgewählter Klassen heranzuziehen.

Page 188: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich176

Insgesamt erweisen sich Landschaftsmaße als taugliches Instrument, um Landschafts-veränderungen zu ermitteln, die nicht auf den ersten Blick erkannt werden können. Wesentliche Merkmale des Landschaftswandels lassen sich quantitativ beschreiben und damit auch bilanzieren. Besonders für die Planung und für die Strategie des Naturschut-zes bieten quantitative Landschaftsuntersuchungen ein großes Potenzial, zu dessen bes-serer Erschließung dieser Artikel hoffentlich einen Beitrag leistet.

Abb. 11: Nutzungsänderungshäufigkeit im Kartenblatt Plauen und Lage der zwei untersuchten Teilräume (Quelle: Ullrich, Syrbe 2007, Projektergebnis)

7 Danksagung

Unser Dank geht an Dr. E. Sandner, der bei der Auswahl des Themas und des Unter-suchungsraumes Pate stand sowie für die Beschaffung der digitalen Meilenblätter den Weg ebnete. Unterstützt wurde diese Arbeit vom Sächsischen Landesamt für Archäo-logie, welches uns die Scans der verwendeten Meilenblätter zur Verfügung stellte. Den Scan der Äquidistantenkarten durften wir im Rechenzentrum der TU Dresden durch-führen. Henry Kittel begann in seinem Praktikum mit der aufwändigen Vektorisierung der Grundlagendaten. Für verschiedene Tipps zu den verwendbaren historischen Karten danken wir Jana Moser und dem Redaktionskollegium des Atlas für Geschichte und Landeskunde Sachsen.

Page 189: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 177

8 LiteraturAaviksoo, K. 1993. Changes in plant cover and land use types (1950‘s to 1980‘s) in

three mire reserves and their neighbourhood in Estonia. Landscape Ecology 8 (4), p. 287-301.

Alados, C. L.; Pueyo, Y.; Barrantes, O.; Escós, J.; Giner, L.; Robles, A. B. (2004): Vari-ations in landscape patterns and vegetation cover between 1957 and 1994 in a semiarid Mediterranean ecosystem. Landscape Ecology 19 (5), p. 543-559.

Atlas zur Geschichte und Landeskunde von Sachsen. Sächsische Akademie der Wissen-schaften zu Leipzig. Vertrieb: Landesvermessungsamt Sachsen.

Bach, M.; Breuer, L.; Frede, H. G.; Huisman, J. A.; Otte, A.; Waldhardt, R. (2006): Accu-racy and congruency of three different digital land-use maps. Landscape and Urban Planning 78 (4), p. 289-299.

Bastian, O.; Steinhardt, U. (Eds.) (2002): Development and perspectives of landscape ecology. Kluwer, Dordrecht.

Baumbach H.-H.; Kadler, A.; Fischer, M. (2007): Digitale Erfassung des vorbergbauli-chen Zustandes der ostdeutschen Braunkohlenreviere als Grundlage der Wieder-nutzbarmachung. Kartographische Nachrichten 57 (1), S. 15-23.

Bender, O.; Boehmer, H. J.; Jens, D.; Schumacher, K. P. (2005): Using GIS to analyse long-term cultural landscape change in Southern Germany. Landscape and Urban Planning, 70, (1-2), p. 111-125.

Bender, O.; Jens, D. (2001): Ein katasterbasiertes GIS zur Erfassung und Interpretation der Landschaftsentwicklung. AGIT 2001.

Berger, A.; Walz U. (2004): Landschaftsmaße für eine Langzeituntersuchung von Flä-chennutzungsänderungen in Ostsachen. In: Walz, U.; Lutze, G.; Schultz, A.; Syrbe, R.-U. (Hrsg) (2004): Landschaftsstruktur im Kontext von naturräumlicher Vorprä-gung und Nutzung – Datengrundlagen, Methoden und Anwendungen. IÖR Schrif-ten-Bd. 43, Dresden, S. 255-272.

Blaschke, T. (2000): Landscape Metrics. Konzepte eines jungen Ansatyes in der Land-schaftsökologie und Anwendungen in Naturschutz und Landschaftsforschung. in: Archiv für Naturschutz und Landschaftsforschung 39, S. 267, 299.

Brunner, H. (2002): Wie Sachsen vermessen wurde – Die Meilenblätter und die kursäch-sische Landesvermessung von 1780 bis 1825 – Eine Geschichte der topographi-schen Kartographie in Sachsen. Dresdner Kartographische Schriften, Hochschule für Technik und Wirtschaft Dresden, Dresden.

Ernould, A.; Bureau, F.; Poudevigne, I. (2003): Patterns of organisation in changing land-scapes : implications for the management of biodiversity. Landscape Ecology 18 (3), p. 293-251.

Haase, D.; Walz, U.; Neubert, M.; Rosenberg, M. (2007): Changes to Central European landscapes – Analysing historical maps to approach current environmental issues, examples from Saxony, Central Germany. Land Use Policy, 24 (1), p. 248-263.

Page 190: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich178

Herzog, F.; Lausch, A.; Müller, E.; Thulke, H.-H.; Steinhardt, U.; Lehmann, S. (2001): Landscape Metrics for Assessment of Landscape Destruction and Rehabilitation.En-vironmental Management 27 (1), p. 91-107.

Hietel, E.; Waldhardt, R.; Otte, A. (2004): Analysing land-cover changes in relation to environmental variables in Hesse, Germany. Landscape Ecology 19 (5), p. 473-489.

Keller, R. (1962): Gewässer und Wasserhaushalt des Festlandes. Teubner Verlagsgesell-schaft, Leipzig.

Kennedy, R. E.; Townsend, P. A.; Gross, J. E.; Cohen, W. B.; Bolstad, P.; Wang, Y. Q.; Adams, P. (2009): Remote sensing change detection tools for natural resource ma-nagers: Understanding concepts and tradeoffs in the design of landscape monito-ring projects. Remote Sensing of Environment 113 (7), p. 1382-1396.

Landesvermessungsamt Sachsen (Ed.) (2006): Die Vermessung Sachsens. 200 Jahre Ver-messungsverwaltung. Verlag Klaus Gumior, Chemnitz, 250 S.

Lang, S.; Blaschke, T. (2007): Landschaftsanalyse mit GIS. Eugen Ulmer Stuttgart 404 p.

Lang, S.; Walz, U.; Klug, H.; Blaschke, T.; Syrbe, R.-U. (2009): Landscape metrics – A toolbox for assessing past, present and future landscape structures. In: Bender, O. et al. (Eds.) (2009): Geoinformation Technologies for Geocultural Landscapes. Euro-pean Perspectives. Boca Raton, CRC Press, p. 207-234.

Leyk, S.; Boesch, R.; Weibel, R. (2006): Saliency and semantic processing: Extracting forest cover from historical topographic maps. Pattern Recognition 39 (5), p. 953-968.

Lipp,T. (2006): Landschaftsstrukturmaße in der Landschaftsplanung – Aufgaben, Rah-menbedingungen, Perspektiven. In: Kleinschmit, B.; Walz, U. (Eds.) (2006): Land-schaftsstrukturmaße in der Umweltplanung. Beiträge zum Workshop der IALE-AG Landschaftsstruktur – Berlin 2006, S. 18-29.

Ludwig, J. A.; Bastin, G. N.; Chewings, V. H.; Eager, R. W.; Liedloff, A. C. (2007): Leaki-ness: A new index for monitoring the health of arid and semiarid landscapes using remotely sensed vegetation cover and elevation data Ecological Indicators 7 (2), p. 442-454.

Luque, S. S.; Lathrop, R. G.; Bognar, J. A. (1994): Temporal and spatial changes in an area of the New Jersey Pine Barrens landscape. Landscape Ecology 8 (4), p. 287-300.

McGarigal, K.; Marks, B. J. (1994): FRAGSTATS – Spatial pattern analysis program for quantifying landscape structur – version 2.0. Corvallis.

Miethke, H.; Ueberfuhr F. (2004): Die Waldentwicklung im Freistaat Sachsen während der letzten vier Jahrhunderte. Studie im Auftrag des Landesforstpräsidiums Sach-sen.

Moser, J. (2006): Mit dem fünften Rad am Wagen. Historische Landesaufnahmen im sächsischen Raum. Sächs. Heimatblätter (1), S. 63-68.

Page 191: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Untersuchungen des Landschaftswandels 179

Moser, D.; Zechmeister, H. G.; Plutzar, C.; Sauberer, N.; Wrbka, T.; Grabherr, G. (2002): Landscape patch shape complexity as an effective measure for plant species richness in rural landscapes. Landscape Ecology 17, p. 657-669.

Neubert, M.; Walz, U. (2002): Auswertung historischer Kartenwerke für ein Landschafts-monitoring. In: Strobl, J., Blaschke, T.; Griesebner, G. (Eds.) (2002): Angewand-te Geographische Informationsverarbeitung XIV – Beiträge zum AGIT-Symposium Salzburg 2002, Wichmann, Heidelberg, S. 396-402.

Neubert, M.; Walz, U.; Tröger, M. (2006): Veränderungen der Landschaftsstruktur in der Nationalparkregion Sächsische Schweiz. In: Kleinschmit, B.; Walz, U. (Eds.) (2006): Landschaftsstrukturmaße in der Umweltplanung. Beiträge zum Workshop der IALE-AG Landschaftsstruktur – Berlin 2006. S. 141-153.

Paulig, H. 1993. Kleine sächsische Landeskunde, Hellerau Verlag Dresden, Dresden.

Petit, C.; Lambin, E. F. (2002): Impact of data integration technique on historical land-use/land-cover change: Comparing historical maps with remote sensing data in the Belgian Ardennes. Landscape. Ecology 17 (2), p. 117-132.

Riitters, K. H.; O’Neill, R. V.; Hunsacker, C. T.; Wickham, J. D.; Yankee, D. H.; Timmins, S.; Jones, K. B.; Jackson, B. L. (1995): A factor analysis of landscape pattern and structure metrics. Landscape Ecology 10 (1), p. 23-39.

Schumacher, K. P.; Bender, O. (2002): GIS-basierte Analyse der Agrarlandschaftsent-wicklung – Gemarkung Wüstenstein. Mitt. Fränk. Geogr. Ges. 49, S. 1-15.

Skaloš, J.; Engstová, B. (2010): Methodology for mapping non-forest wood elements using historic cadastral maps and aerial photographs as a basis for management. Journal of Environmental Management 91 (4), p. 831-843.

Šrédl, V. (2006): Využití GIS pro hodnocení krajiny – Modelování prírodního rekre-acního potenciálu v Národním parku Ceské Švýcarsko. http://gis.vsb.cz/GISacek/GISacek_2006/sbornik/sredl/sredl.pdf.

Syrbe, R.-U. (2004): Buffer metrics. In: Walz, U.; Lutze, G.; Schultz, A.; Syrbe, R.-U.; (Eds) (2004): Landschaftsstruktur im Kontext von naturräumlicher Vorprägung und Nutzung. IÖR Schriften 43, S. 65-78.

Van Eetvelde, V.; Antrop, M. (2009): Indicators for assessing changing landscape cha-racter of cultural landscapes in Flanders (Belgium). Land Use Policy 26 (4), p. 901-910.

Walz, U. (2006): Landschaftsstruktur zwischen Theorie und Praxis. In: Kleinschmit, B.; Walz, U. (Eds.) (2006): Landschaftsstrukturmaße in der Umweltplanung. Beiträge zum Workshop der IALE-AG Landschaftsstruktur. Schriftenreihe Landschaftsent-wicklung und Umweltforschung, S219, S. 4-17.

Walz, U. (2008): Monitoring of landscape change and functions in Saxony (Eastern Ger-many) – Methods and indicators. Ecological Indicators 8, (6), p. 807-817.

Walz, U.; Berger, A. (2003): Georeferenzierung und Nosaikerstellung historischer Kar-tenwerke. Photogrammetrie, Fernerkundung, Geoinformation 3, S. 213-219.

Wickham, J. D.; O’Neill, R. V.; Riitters, K. H.; Wade, T. G.; Jones; K. B. (1997): Sensi-tivity of Selected Landscape Pattern Metrics to Land-Cover Misclassification and

Page 192: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Ralf-Uwe Syrbe, Falk Ullrich180

Differences in Land-Cover Composition. Photogrammetric Engineering & Remote Sensing 63 (4), S. 397-402.

Zühlke, D. (1986): Plauen und das mittlere Vogtland – Ergebnisse der heimatkundlichen Bestandsaufnahme in den Gebieten Plauen-Nord, Treuen, Plauen-Süd und Oelsnitz. In: Werte unserer Heimat 44.

Page 193: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 181

Modellierung der slowenischen Warentransportströme mit einem Multiagentenmodell

Christian Neff, Jürgen Rauh

1 Einleitung

„Es gilt, die Urbanität unserer Städte und Ballungsgebiete durch Verkehrsreduzierung wesentlich zu verbessern; es gilt gleichzeitig die Umsätze der Wirtschaft als Basis un-serer Existenz lokal, regional und europaweit zu erhalten (und auszubauen); hierfür ist ein effizientes Transportsystem für Personen und Güter unabdingbar“ (Haefner et al. 1994, 3).

Das angeführte Zitat ist freilich bereits älteren Datums, dennoch besitzt die darin for-mulierte Grundaussage heute noch Gültigkeit, auch wenn sich die inneren und äußeren Umstände gerade in der Güterverkehrsbranche im letzten Jahrzehnt deutlich gewandelt haben. Ein effizientes Transportsystem ist für die Funktionalität und Aufrechterhaltung von wirtschaftlichen Aktivitäten einer Region von unschätzbarem Wert. Unter dem Ein-fluss von Deregulierungs-, Liberalisierungs- und Globalisierungsprozessen haben sich lo-gistische Dienstleistungsunternehmen entwickelt, die komplexe Aufgaben in der Orga-nisation von Wertschöpfungsketten übernehmen und entscheidend zur Vernetzung der Weltwirtschaft beitragen (vgl. Neiberger, Bertram 2005). Gerade die weltweite Vernet-zung von Produktions- und Distributionsstandorten zwingt die Transportunternehmen zu neuen Konzepten und Ideen, Transportsysteme sind an die veränderten Rahmen-bedingungen anzupassen. Dazu bedienen sich diese Unternehmen zahlreicher neuer Technologien und Verfahren.

Der vorliegende Beitrag stellt mit der Multi-Agenten-Modellierung ein in der Praxis noch weitgehend unbekanntes Verfahren zur Simulation vor, das auch zur Planung von Trans-portsystemen eingesetzt werden kann, um z. B. Transportkosten, -zeit und -länge zu reduzieren. Um eine profunde Übersichtlichkeit und Transparenz des Transportsystems eines Landes zu gewährleisten, wurde darauf verzichtet, den globalen Warenstrom ab-zubilden. Die Untersuchung bleibt daher auf ein einzelnes Land, Slowenien, begrenzt. Slowenien besitzt zum einen ein sehr übersichtliches Straßennetz, welches gut simulier-bar erscheint. Bedingt durch die Lage in Europa, welche das Land zu einem klassischen Transitraum macht, spielt der Warenverkehr in Slowenien zum anderen eine bedeutsa-me wirtschaftliche Rolle.

Durch die Simulation des Warenverkehrs auf der Grundlage realer Warenströme in Slo-wenien soll das Ziel verfolgt werden, Optimierungsmöglichkeiten innerhalb dieses kom-plexen Systems aufzuzeigen sowie mögliche Handlungsempfehlungen zu unterbreiten.

Page 194: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh182

Die grundlegenden Fragen, die sich dabei stellen, sind:

Lässt das slowenische Transportwesen Optimierungspotenziale erkennen?•

Durch welche Maßnahmen können die Faktoren • Transportkosten, Transportzeit und Transportlänge, die im Wesentlichen die Einhaltung und Ausführung eines Transportauftrages bestimmen, positiv beeinflusst werden?

Neben diesen inhaltlichen Aspekten soll dieser Beitrag dem interessierten Leser die •Methodik einer Multi-Agenten-Simulation (MAS) näher bringen; einer Methodik, die zwar auch in der deutschsprachigen Geographie zuletzt an Bedeutung gewann (z. B. Koch, Mandl 2003; Rauh, Hesse 2002; Rauh et al. 2007; Soboll 2007), jedoch bei weitem noch nicht ihre vielfältigen Möglichkeiten für planungsbezogene Fragen ausschöpft.

Zur Beantwortung dieser Fragen stellt das nachfolgende Kapitel 2 das Modellierungs-werkzeug SeSAm und den Untersuchungsraum vor. Kapitel 3 beschreibt den Aufbau und die Funktionsweise der Simulation mit den erstellten Agentenklassen und den Inter-aktionen der einzelnen Simulationsteilnehmer. Kapitel 4 beinhaltet die Darstellung und Auswertung des Analysefalls sowie eines ausgewählten Szenarios.

2 Grundlegende Simulationsvoraussetzungen

2.1 Modellierungswerkzeug – SeSAm

Bei der grundsätzlichen Überlegung, mit welcher Methode die Darstellung der Waren-ströme eines Landes realisiert werden könnte, waren letztendlich zwei wesentliche Punk-te für eine MAS ausschlaggebend, die Biethahn et al. folgendermaßen formulieren:

„Durch die Simulation wird es möglich:

komplexe Beziehungen innerhalb eines Systems zu analysieren und mit ihnen zu 1.

experimentieren.

dass die Auswirkungen verschiedener Umgebungen auf ein System deutlich wer-2. den“ (Biethahn et al. 2004, 14).

Ein MAS ermöglicht, Informationen über die Entscheidungsvorgänge auf niedrigster Ebene zu erhalten. Diese Tatsache ist gegenüber den herkömmlichen Untersuchungs-weisen von entscheidendem Vorteil, da somit die Entscheidungen, die einzelne Agenten in Abhängigkeit von ihrer veränderten Umgebung treffen, nachvollziehbarer werden.

Bevor nun das Simulationswerkzeug SeSAm erläutert wird, werden zunächst kurz die Merkmale einer MAS angeführt. Orientiert wird sich hierbei an der Beschreibung der Be-standteile einer MAS, wie sie von Klügl (2001) vorgenommen wurde. Im Wesentlichen

Page 195: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 183

lassen sich diese Merkmale von agentenbasierten Modellierungen in vier Schlagworte zusammenfassen (Abb. 1).

situiert reaktivautonom sozial

Abb. 1: Merkmale agentenbasierter Modellierung (Quelle: in Anlehnung an Klügl 2001, 14 ff.)

Situiert bedeutet, dass Agenten in eine sie umgebende Umwelt eingebunden sind, die einerseits Einflüsse auf das Agentenverhalten ausübt, andererseits aber durch diese auch wiederum selbst beeinflusst wird. Reaktiv sind Agenten in Bezug auf Impulse und Reize, die durch das Verhalten von anderen Agenten entstehen können. Autonom bedeutet, dass die Agenten nach eigenen Vorstellungen und Präferenzen handeln, und lediglich in der Ausführung bei dieser Zielerreichung beeinflussbar sind. Demgegenüber liegt die soziale Komponente in der Tatsache begründet, dass Agenten trotz ihrer Autonomie in der Lage sind, mit anderen Agenten zu interagieren und somit gemeinsam zu einer Zielerfüllung gelangen können (Klügl 2001, 3 ff.).

Nach diesem Muster funktioniert auch die Erstellung einer MAS mit SeSAm. SeSAm steht für Shell for Simulated Agent Systems und beschreibt eine Computershell, welche eine generische Umgebung zum Modellieren und Experimentieren mit agentenbasierter Simulation bereitstellt (vgl. www.simsesam.de). Dieses auf JAVA-Basis operierende Pro-gramm ermöglicht es dem Benutzer, die o. g. Merkmale einer MAS in eine zu erstellen-de Simulation mit einzubinden. Da sich bei der Simulationserstellung unabhängig von dem Untersuchungsgegenstand immer wieder die gleichen Muster heraus kristallisieren lassen, wäre es lästig und umständlich, diese Teilaufgaben (wie beispielsweise: die Er-zeugung gleichverteilter Zufallsvariablen, die Überwachung des zeitlichen Ablaufs der Simulation, die Speicherung und Analyse von Daten, etc.) immer wieder von neuem programmieren zu müssen (Steinhausen 1994, 23).

SeSAm wurde im Rahmen der Dissertation von Klügl am Lehrstuhl für Informatik (Künstliche Intelligenz) der Universität Würzburg entwickelt und ist im Internet als frei verfügbares Modellierungstool herunter zu laden. Grundsätzlich eignet sich SeSAm be-sonders gut für Anwender mit wenigen Kenntnissen in der Computerprogrammierung, da es mit einer graphischen Oberfläche arbeitet, die sehr benutzerfreundlich gestaltet ist. Abbildung 2 zeigt die angesprochene Oberfläche des Programms. Auf der linken Sei-te der Oberfläche sind neben den Model Basics und den Simulation Elements noch die zu implementierenden Klassen von Ressources, Agents und der Worlds zu erkennen. Die Bedeutung und Funktion der Agentenklasse wird in Kapitel 3 noch detailliert erläutert.

Page 196: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh184

Abb. 2: Benutzeroberfläche in SeSAm

2.2 Untersuchungsgebiet

Das slowenische Staatsgebiet besitzt eine Größe von 20 273 km². Insgesamt hat Slowe-nien knapp 2 Millionen Einwohner, von denen 50 % in den Städten wohnen (Statistical Office of the Republic of Slovenia 2009). Aufgrund dieser Daten lassen sich ein eher ge-ringes Nachfragepotenzial und ein dementsprechend kleines Transportwesen vermuten. Jedoch tragen nicht zuletzt die überschaubare Größe des einheimischen Marktes sowie die Lage Sloweniens im Europäischen Wirtschaftsraum zur Bedeutung des Transportsek-tors erheblich bei. Gerade diesen verkehrsgeographischen Aspekt der Lage Sloweniens hat Klemćić in seiner geographischen Beschreibung des Südost-europäischen Raumes besonders hervorgehoben. Denn, „[d]ank dieser bedeutenden geostrategischen Lage [war] das heutige slowenische Territorium in allen geschichtlichen Epochen ein bedeu-tendes Verkehrs-, politisch-geographisches, wirtschaftliches und kulturelles Durchgangs-gebiet“ (Klemćić 1996, 44).

Das Gebiet des heutigen slowenischen Staates ist demnach als ein traditioneller Tran-sitraum anzusehen, in dem bereits in frühgeschichtlicher Zeit die ersten Verkehrswege angelegt wurden. Diese sollten damals wie heute den mitteleuropäischen Raum mit den Balkanstaaten verbinden, was wiederum den an diesen Strecken gelegenen Städten zu gewissem Reichtum verhalf1. Trotz beträchtlicher Investitionen in den Ausbau des Auto-bahnnetzes nach der politischen Wende und dem EU-Beitritt 2004 sind „einige Teile Slo-weniens verkehrsmäßig noch immer isoliert oder zumindest mit dem neuen Autobahn-

1 Siehe hierzu die Werke über die geschichtliche Entwicklung Ljubljanas von Prunk 1996 und Vovdopi-vec 1998.

Page 197: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 185

netz nur schlecht verbunden“ (Klemćić 1996, 61). Dies spiegelt sich auch in der heute noch heterogenen Wirtschaftsstruktur der slowenischen Regionen wider (Abb. 3).

Abb. 3: Regionen Sloweniens: Anzahl der Arbeitsplätze (Quelle: Eigener Entwurf, Datenquelle: Statistical Office of the Republic of Slovenia 2009)

Es zeigt sich, dass gerade die Grenzregionen im Westen und Süden Sloweniens durch die fehlende Förderung infrastruktureller Projekte vernachlässigt wurden. Ausnahmen bilden diejenigen Regionen, die bereits einen bewährten Grenzübergang besaßen. In den Regi-onen mit hoher Wirtschaftskraft sind zumeist die größeren Städte Sloweniens (Ljubljana, Maribor, Celje) gelegen, die auf Grund der gut ausgebauten Infrastruktur zu wirtschaft-liche Zentren ausgebaut werden konnten. Die Region um die Haupt- und Primatstadt Ljubljana als größte Stadt und wichtigstes Wirtschaftszentrum (Region 6, Osrednjeslo-venska) bildet das Kultur-, Bildungs-, Gesundheits-, Gerichts- und Verwaltungszentrum des gesamten Staates. Zusätzlich liegt Ljubljana an der wichtigen Kreuzung des V. und X. europäischen Verkehrskorridors (Cerne 2008, 212). Gerade die Funktion als Kreuzungs-punkt der beiden wichtigen Verkehrskorridore trug erheblich zur Bedeutungssteigerung dieser Region bei. Außerdem sind die Regionen um Koper (Region 5, Obalno-kraška) und Maribor (Region 7, Podravska) für das Land von großer wirtschaftlicher Bedeutung. Mit Koper befindet sich ein Handelspunkt von internationalen Ausmaßen auf slowe-nischem Staatsgebiet. Auch für den Warenverkehr ist Koper einer der bedeutsamsten Ausgangspunkte. Die Region um Maribor im Nordosten Sloweniens besticht dagegen eher durch die hohe Anzahl an Arbeitsplätzen im produzierenden Gewerbe.

Page 198: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh186

2.3 Datenbasis

Die Ausgangsdaten, welche von der Universität Maribor, Faculty of civil engineering, dankenswerterweise zur Verfügung gestellt wurden, geben Auskunft über die Waren-transportströme in Slowenien im Jahr 20072. Die Faculty of civil engineering unter-sucht bereits seit mehreren Jahren das slowenische Transportwesen und ist nach einer jahrelangen rein statistischen Auswertung nun an einer weiteren Nutzungsmöglichkeit dieser Daten interessiert. So entstand eine enge Zusammenarbeit mit dem Ziel, neue Nutzungsmöglichkeiten dieser Daten aufzuzeigen. Die Daten beschreiben die Menge an Waren, die zwischen den Regionen Sloweniens transportiert wurden. Zusätzlich un-terteilt wird noch nach der jeweiligen Art der Fahrzeuge, die zum Transport dienten. Außerdem enthalten die Daten Informationen, aus welchen ersichtlich wird, ob die je-weiligen Mengen

a) in eine andere slowenische Region,

b) innerhalb einer slowenischen Region oder

c) von oder nach außerhalb Sloweniens geliefert wurden.

Desweiteren werden die durchschnittliche Distanz, die bei diesem Warentransport zu-rückgelegt wurde, sowie der Ladungsfaktor der entsprechenden Fahrzeuge angegeben. Diese Variablen spielen in der weiteren Betrachtung jedoch keine Rolle, so dass sie hier nur der Vollständigkeit wegen erwähnt werden sollten. Die angesprochenen Kategorien sowie eine beispielhafte Auswahl an Werten der Rohdaten sind in Abbildung 4 aufge-führt.

Um die Daten der Zielsetzung entsprechend verarbeiten zu können, mussten die Roh-daten noch weiter aufbereitet werden. Dies geschah in mehreren Schritten, wobei die Daten zunächst in

a) Warenströme innerhalb Sloweniens und

b) Warenströme, die als Ziel- oder Startort eine Region außerhalb Sloweniens aufwiesen, aufgeteilt werden mussten.

Die zu b) gehörenden Daten finden im weiteren Verlauf keine Berücksichtigung mehr. Zu diesem Datenteil zählt auch der Transitverkehr, der in Slowenien zwar einen beachtli-chen Anteil am gesamten Warentransport besitzt. Da er aber zum allergrößten Teil nicht von slowenischen Transportunternehmen abgewickelt wird, ist er auch für die Simulati-on der slowenischen Warentransportströme nicht entscheidend. Da in der Simulation die

2 Die Daten wurden der Universität Maribor von dem Statistical Office of the Republic of Slovenia zur Verfügung gestellt. Es handelt sich dabei um nicht frei verfügbare Daten, die speziell auf Anfrage der Universität zusammengestellt wurden. Um keine Urheberrechte zu verletzten, wird im Folgenden immer die Universität Maribor, Statistical Office of the Republic of Slovenia (2007) als Quelle für die Daten angegeben.

Page 199: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 187

slowenischen Städte als Ursprungs- und Zielorte der Waren dienen, erschien es zudem wenig sinnvoll, beispielsweise eine Stadt in Verbindung zu einem gesamten Land zu setzten. Die in a) erwähnten Daten mussten noch weiter transformiert werden, da diese lediglich auf regionaler und nicht auf kommunaler Ebene vorlagen. Für die ortsgenaue Simulation der Warenströme war entscheidend, die Rohdaten dahingehend zu verän-dern, um zu einer Aussage folgender Art zu gelangen:

‚Eine bestimmte Menge M eines beliebigen Gutes muss von Stadt 1 nach Stadt 2 ge-

liefert werden.‘

Abb. 4: Auszug aus der Datenbasis des slowenischen Warentransportstroms 2007 (Quelle: Universität Maribor, Statistical Office of the Republic of Slovenia 2007)

Diese Art der Aussage kann man somit, laut Definition, auch als Transportauftrag ver-stehen. Da die Auftragsabwicklung den grundlegenden Teil des Aufgabenspektrums eines Transportunternehmens bildet3, stellen die Aufträge auch die Grundlage für die Aktivität der entsprechenden Agenten (Speditionen) in der Simulation dar. Um die restli-chen Daten für die beabsichtigten Zwecke nutzen zu können, erfolgte noch ein weiterer Transformationsschritt, welcher aus den Rohdaten die konkreten Aufträge werden ließ. Zu diesem Zweck wurden zunächst die Mengen aller Waren pro Region addiert. Dies ergab folgendes Bild:

3 Zur Stellung der Auftragsabwicklung siehe Martin 2009, 7.

Page 200: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh188

Tab. 1: Gesamtmenge der Waren pro Region und Monat (Quelle: Eigene Berechnung, Datenquelle: Universität Maribor, Statistical Office of the Republic of Slovenia 2007)

Regionen Code Name der Region Gesamtmenge der Güter in Tonnen0 Gorenjska 308 3771 Goriska 298 6902 Jugovzhodna Slovenija 194 4523 Koroška 107 5044 Notranjsko-kraška 81 8465 Obalno-kraška 213 4426 Osrednjeslovenska 506 8947 Podravska 625 9478 Pomurska 312 6329 Savinjska 345 591

10 Spodnjeposavska 113 51311 Zasavska 78 579

Der mit Abstand größte Warenstrom konnte in den Regionen Osrednjeslovenska und Podravska mit über 500 000 Tonnen pro Monat festgestellt werden. Dies verwundert auch nicht, da in diesen Regionen die Städte Ljubljana und Maribor liegen. Am gerings-ten erwies sich der Warenstrom in den Regionen Notranjsko-kraska und Zasavska mit unter 100 000 Tonnen. Insgesamt sind laut dieser Rohdaten somit 3 187 467 Tonnen an Waren in Slowenien in einem Monat innerhalb oder zwischen den einzelnen Regionen transportiert worden.

Um die Daten von einer regionalen auf eine kommunale Ebene möglichst realitätsnah zu transformieren, wurde mit einer sog. Attraktivitätsmatrix gearbeitet. Diese gibt die Attraktivität bzw. die Anziehung zweier Städte aufeinander wider. Die Herstellung dieses Beziehungsgefüges basiert auf dem Gravitationsmodell. Ausschlaggebend für den Grad der Attraktivität sind hierbei „drei Faktoren[, die] über das Handelsvolumen zwischen zwei [Städten] entscheiden: die Größe beider Bruttoinlandsprodukte und die Entfernung zwischen ihnen“ (Krugman et al. 2004, 41). Als diese Daten für die relevanten Städ-te gesammelt waren, mussten die Regionaldaten mit dieser Matrix verknüpft werden. Sollten beispielsweise in der Region Podravska 100 Tonnen transportiert werden, so entfielen 80 % der Güter auf die Stadt Maribor und noch 20 % auf die Stadt Ptuj. Die angenommenen Prozentwerte orientierten sich letztendlich an der erwähnten Attrakti-vitätsmatrix.

Durch die beschriebene Verteilung der Daten auf die Städte Sloweniens ergaben sich insgesamt 375 216 Aufträge mit einem durchschnittlichen Auftragsgewicht von 8,5

Page 201: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 189

Tonnen und einer Varianz von +/- 8,4 Tonnen4. Der letzte Schritt der endgültigen Gene-rierung der Aufträge war deren Verteilung auf die einzelnen Speditions-Agenten, wobei je nach Größenklasse der Spedition, diesen eine bestimmte Anzahl zugeordnet wurde.

Aus Gründen der Vergleichbarkeit zwischen dem Szenario und dem Analysefall werden die Aufträge zu Beginn der Simulationsdurchläufe einmalig an die Speditions-Agenten verteilt. Dies gewährleistet, dass jeder Agent in jedem Szenario dieselben Aufträge ab-arbeitet, was die Auswertung der Szenarien erheblich erleichtert.

3 Aufbau der Simulation

3.1 Agenten

Grundsätzlich unterscheiden sich die Agenten von den anderen Elementen der Simulati-on durch die Tatsache, dass sie sowohl aktiv als auch reaktiv an dem Simulationsgesche-hen teilhaben und den Ausgang der Simulation somit weitestgehend bestimmen bzw. beeinflussen. Im Gegensatz zu den Ressourcen besitzen Agenten nicht nur Zustandsva-riablen, die Auskunft über deren Präferenzen oder auch Tätigkeiten geben können, son-dern zusätzlich noch einen ‚Körper‘, der es ihnen ermöglicht, Handlungen auszuführen (im Weiteren als Aktivitätsgraph bezeichnet). Diese Art der Handlungsausführung wird in dem nun folgenden Abschnitt für die an der Simulation beteiligten Agentenklassen der Speditionen und Lastkraftwagen (Lkw) erläutert.

Agentenklasse: Speditionen

Eine Transportkette setzt sich aus mehreren Handlungsträgern zusammen, die jeweils einen spezifischen Teil des Warentransportes übernehmen. Neben Lagerhaltungs-, Um-schlags-, Verpackungs- und Warenverteilbetrieben sind dies vor allem die exekutiven Unternehmen, welche nach der Planung des Transports diesen auch physisch durchfüh-ren (Ihde 1991, 35). Der Urtyp dieser Art von Unternehmen ist der Verkehrsbetrieb, der als eine der ersten Organisationen die Aufgabe übernommen hat, sowohl Personen als auch Güter zu transportieren. Dieser Entwicklungsschritt im Transportwesen verlief par-allel zu dem Aufkommen von Verkehrsträgern zum Massentransport, wie dem Bus oder auch dem Lkw. Auf Grund der bald darauf auftretenden Vielfalt der Güterbeschaffenheit, von Massen-, über Stück-, bis hin zu Spezialgütern, kamen immer neue unternehmeri-sche Formen in dem Transportsektor auf (z. B. Spezialisten für Schwer-, Gefahrguttrans-porte, usw.). Das fundamentalste Interesse an der Erfüllung von Aufträgen, welche stets

4 Es wurde hierzu eine Standard-Normalverteilung angewandt. Dies hatte zur Folge, dass die meisten Aufträge eine Mengenangabe um 8,5 Tonnen besitzen. Die Varianz wurde gewählt, um auf der einen Seite die kleinsten Aufträge mit 0,1 Tonnen und auf der anderen Seite die größten Aufträge mit 16,9 Tonnen zu generieren. Mit dieser Spannweite ist gewährleistet, dass vor allem die größeren Aufträge (also diejenigen mit einer großen Menge) das maximale Ladungsvolumen eines Lkw von 17 Tonnen nicht übersteigen.

Page 202: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh190

durch den Transport einer Ware von Ort A nach Ort B gekennzeichnet ist, haben hierbei die Logistik-Dienstleister, welche in der Realität häufig als Speditions-Unternehmen auf-treten (Simon 1992, 4). Die Speditionen erhalten externe Transport aufträge und wickeln letztendlich diese ab. Dabei haben die Speditionen die Wahl, entweder auf ein externes Transportunternehmen zurückzugreifen oder aber, wie es in der Realität häufiger der Fall ist, den Transport mit eigenen Transportmitteln durchzuführen (Oelfke 1990, 4). Dieser Fall tritt auch im slowenischen Transportwesen verstärkt auf. Deshalb wird diesem Um-stand in der Simulation Rechnung getragen, indem jede Spedition eigene Lkw-Agenten unterhält. Ein externer Auftrag besitzt üblicherweise „a delivery node, a product type, a single order quantity q and a delivery time window” (Davidsson et al. 2008, 3).

Neben dem Kosten- ist es vor allem der Zeitfaktor, der für Speditionen zur erfolgreichen Durchführung eines Transportauftrages von großer Bedeutung ist. In der Simulation be-sitzen die Speditionsunternehmen einen immobilen Standort im Netzwerk, der dem Fir-mensitz eines Unternehmens entspricht. Die räumliche Verteilung dieser Standorte auf dem Netzwerk konnte anhand einer Unternehmensbefragung der Universität Maribor bestimmt werden. Deren Auswertung ergab eine starke Konzentration der Speditionen in und um die wirtschaftlichen Zentren Ljubljana, Koper und Maribor. Diese Daten fan-den auch in der Simulation Berücksichtigung, bei der von den 6 434 Speditions-Agenten 1 529 in Ljubljana, 636 in Maribor und 279 in Koper verortet wurden. Neben der Dif-ferenzierung nach Standorten werden die Speditions-Agenten zusätzlich anhand der Anzahl ihrer Mitarbeiter unterschieden. In Tabelle 2 werden die Speditionen nach Anzahl der Beschäftigten in drei Größenklassen kategorisiert.

Tab. 2: Prozentuale Verteilung der Speditionsunternehmen in der Simulation (Quelle: Eigene Darstellung)

Kleine Speditionen (0-9) Mittlere Speditionen (10-249) Große Speditionen (+250)Anzahl der Speditionen 94,40 % 5,40 % 0,20 %

Charakteristisch ist demnach für große Speditionsunternehmen eine Mindestanzahl von 250 Beschäftigten. Die Grenze zwischen den kleinen und mittleren Speditions-Agenten hingegen liegt bei 10 Mitarbeitern pro Unternehmen. Letztendlich konnten von den insgesamt 6 434 Agenten 14 der großen, 347 der mittleren und 6 073 der kleinen Spedi-tionsklasse zugeordnet werden. Die Zuordnung zu einer bestimmten Größenklasse wird in der Simulation durch die Variable Type ausgedrückt. Diese ist sowohl für die Anzahl der Aufträge, die eine Spedition pro Tag zu erfüllen hat, als auch für die Anzahl der ihr zur Verfügung stehenden Lkw-Agenten von Bedeutung. Tabelle 3 zeigt die Auswirkun-gen dieser Variable auf das Verhalten der Speditions-Agenten während der Simulation.

Page 203: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 191

Tab. 3: Speditionsunternehmen in der Simulation (Quelle: Eigene Darstellung)

Speditionsunter-nehmen

Type Anzahl der Mitarbeiter (max.) Anzahl der Lkw-Agenten Aufträge pro Tag

Klein 1 9 6 2Mittel 2 249 40 10Groß 3 > 250 100 20

Die Anzahl der Aufträge pro Tag beeinflusst die Aktivitäten einer Spedition erheblich. Sie regelt im Wesentlichen den Wechsel eines Speditions-Agenten von einem ‚passiven‘ in einen ‚aktiven‘ Zustand. Zu Beginn der Simulation ermittelt jede einzelne Spedition ihre individuelle Öffnungszeit. Diese kann grundsätzlich aus einem Zeitintervall zwi-schen 6:30 Uhr und 8:30 Uhr zufällig gewählt werden und markiert gleichzeitig den Beginn der ‚aktiven‘ Phase. Es wurde bewusst darauf verzichtet, allen Speditionen eine einheitliche Öffnungszeit zu geben, um eine gewisse Dynamik in den Tagesabläufen der Unternehmen zu gewährleisten. Durch die Addition von 8 Simulationsstunden zu dieser Öffnungszeit wird auch das Ende eines Arbeitstages bestimmt, was die Agenten in einen ‚passiven‘ Zustand zwingt. Sind diese beiden Zeiten ermittelt, bleiben sie für den restlichen Simulationsverlauf unveränderlich. Die hier beschriebenen Zustände re-präsentieren letztlich nichts anderes als die Summe der Aktionen, welche ein Speditions-Agent während der Simulation zu vollführen hat. Abbildung 6 zeigt den entsprechenden Aktivitätsgraph, wie er mittels SeSAm erstellt wurde. Man kann hierbei sehr deutlich zwischen dem ‚passiven‘ und ‚aktiven‘ Zustand unterscheiden.

Abb. 5: Aktivitätsgraph der Speditions-Agenten aus SeSAm (Quelle: Eigene Darstellung)

Page 204: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh192

Ist ein Speditions-Agent ‚aktiv‘ so bedeutet dies, dass er in einem vorgegebenen Takt die anfallenden Aufträge an die zur Verfügung stehenden Lkw-Agenten verteilt. Dieser Takt ist durch die Anzahl der Aufträge pro Tag beschrieben. Im ‚passiven‘ Zustand kann der Agent keine Aufträge verteilen, die Spedition ist ‚geschlossen‘. Folgende Aktionen werden von den ‚aktiven‘ Agenten immer wieder aufs Neue während der Simulation ausgeführt:

Aus der Liste der noch zu bearbeitenden Aufträge wird der Erste ausgewählt.•

Im Anschluss vergibt der Speditons-Agent diesen in Abhängigkeit von der Menge •der zu transportierende Ware an einen entsprechenden Lkw-Agenten des Spediti-onsunternehmens. Zu diesem Zweck besitzt jedes Speditionsunternehmen eine Art ‘Garage’, in der sich die momentan zur Verfügung stehenden Lkw-Agenten befin-den. Die wesentliche Aufgabe des Speditionsunternehmens ist es, Aufträge an die entsprechenden ausführenden Einheiten weiter zu leiten. Hat ein Auftrag beispiels-weise eine Größenordnung von 8 Tonnen, so wird dementsprechend ein Lkw der mittleren Größe gewählt. Um eine möglichst hohe Auslastung der Lkw-Agenten zu erreichen, startet dieser nicht sofort mit der Erfüllung des Auftrages. Er bewegt sich erst auf dem Netz, wenn der nächste Auftrag, der dieselbe Größenordnung besitzt, wie der vorher gehende, sein eigenes Ladungsmaximum übersteigt. Erst dann wird dieser die ‘Garage’ verlassen und der nächste Lkw der gleichen Größenordnung bekommt den neuen Auftrag zugewiesen.

In Abhängigkeit von der Größe des Speditionsunternehmens wiederholt sich diese Auf-tragsverteilung solange, bis das Ende eines Tages erreicht ist, das Unternehmen seine Auftragsliste abgearbeitet hat oder sich zu diesem Zeitpunkt kein Lkw-Agent mehr in der ‘Garage’ befindet. In dem letzten Fall wird der Auftrag solange zurückgehalten, bis wieder ein entsprechender Lkw-Agent zur Verfügung steht. Neben dieser Auftragsver-teilung kommt den Speditionsunternehmen noch eine weitere grundlegende Aufga-be zu. Diese beinhaltet die Informationssammlung und -verwaltung (Transportkosten, -zeit, -länge), nachdem die Aufträge erfolgreich erfüllt wurden. Das Sammeln dieser Informationen bildet letztendlich die Grundlage für die Analyse der Szenarien.

Agentenklasse: Lastkraftwagen

Die wirklich ‚aktiven‘ Simulationsteilnehmer sind jedoch die Lkw-Agenten. Unter Bezug-nahme auf die vorliegende Datenbasis wurden drei verschiedene Klassen von Transport-fahrzeugen identifiziert, die im slowenischen Transportwesen von Bedeutung sind und welche auch in der Simulation Berücksichtigung finden:

Kleinlaster (mit einem zulässigen Gesamtgewicht von maximal 3,5 Tonnen) –

leichte und mittelschwere Lkw (von 3,5 bis 12 Tonnen) sowie –

schwere Lkw (bis zu 17 Tonnen). –

Page 205: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 193

Diese Kategorien entsprechen auch im Wesentlichen der Einteilung nach EU-Richtlinien (Europäische Union 1996, 8 ff.). Vergleichbar mit der Typ-Variable der Speditions-Agen-ten sind auch die Lkw-Agenten mit einer Größenvariable ausgestattet, die Auskunft über ihre maximale Ladekapazität gibt. Die Lkw-Agenten bekommen von ihrem jewei-ligen Speditionsunternehmen eine bestimmte Anzahl an Aufträgen zugeteilt. Diese An-zahl richtet sich nach dem Ladevolumen des entsprechenden Lkw. Würde dieses durch einen weiteren Auftrag überschritten, so wird dem Lkw signalisiert, dass er sich zur Ausführung der vorliegenden Aufträge auf das Straßennetz begeben soll. Dies fördert die Annahme, dass die Lkw-Agenten nahezu immer ihr Lademaximum erreichen. Es wird versucht, Leerfahrten von Lkw-Agenten zu vermeiden. Demnach entstehen immer lediglich die Minimalkosten, die für einen Auftrag aufgebracht werden müssen. Abbil-dung 6 zeigt schematisch die Verhaltensregeln der Lkw-Agenten. Auch bei dieser Agen-tenklasse können verschiedene Aktivitätsphasen unterschieden werden. Der ‚passive‘ Zustand symbolisiert das Warten eines Agenten am Standort seiner Spedition.

Abb. 6: Aktivitätsgraph der Lkw-Agenten aus SeSAm (Quelle: Eigene Darstellung)

Der Übergang in die nächste Phase (‚Aktiv auf dem Netzwerk‘) ist bedingt durch das Signal der Spedition zur Auftragserfüllung. In dieser Phase, die noch von einer dritten (‚Auf- oder Abladevorgang‘) unterbrochen wird, erfüllt der Lkw-Agent einen Auftrag nach folgendem groben Schema:

A) SUCHE den zeitkürzesten Weg von deinem Standort (S) zum Ursprungsort (U) des Auftrages

B) BEWEGE dich auf dem Netzwerk zu (U)

Page 206: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh194

C) VERWEILE auf (U) eine bestimmte Zeit (=Aufladevorgang)

D) SUCHE den zeitkürzesten Weg von (U) zum Zielort (Z) des Auftrages

E) BEWEGE dich auf dem Netzwerk zu (Z)

F) VERWEILE auf (Z) eine bestimmte Zeit (=Abladevorgang)

G) WENN kein Auftrag mehr,

DANN SUCHE den zeitkürzesten Weg von (Z) zu (S) UND BEWEGE dich zu (S), SONST SETZE (S) gleich (Z) und BEGINNE bei A)

Die Phasen A) und B), sowie G) können bei Übereinstimmung der entsprechenden Kno-ten entfallen. Die Berechnung der Wege in den Phasen A), D) und G) erfolgt auf Grund-lage des Dijkstra-Algorithmus. Dieser Algorithmus sucht auf einem vorhandenen Netz-werk den kürzesten Weg. Normalerweise bezieht er sich somit auf die Länge des Weges. In diesem Fall hat jedoch die schnellstmögliche Erfüllung eines Auftrages Priorität vor der Wahl des kürzesten Weges. Deshalb orientiert sich der Dijkstra-Algorithmus in der Simu-lation an der Kantenlänge mit der Information über die aktuell fahrbare Geschwindigkeit auf den einzelnen Kanten (Arcs). Erreicht ein Lkw-Agent die Phase G) und hat er keine Aufträge mehr zu erfüllen, berechnet er zunächst anhand der folgenden Formel einen Kostenwert, welcher dem Unternehmen für den Transport dieser Ware entstanden ist:

K = KFahrer + KMaut + KStrecke

K steht in diesem Fall für die gesamten Transportkosten. Diese setzten sich zusammen aus den Lohnkosten für den Fahrer KFahrer, den Summanden KMaut, der die Summe aller zu passierenden Mautstationen angibt, sowie dem Summanden KStrecke, der sich aus der Multiplikation der Streckenlänge mit dem Kraftstoffverbrauch und dem Kraftstoffpreis ergibt.

Die Kosten für den Fahrer richten sich nach der kompletten Transportzeit und fließen mit 20 € pro angebrochener Transportstunde in die Formel ein. Die Kosten für die zu bezahlende Maut sind von der Größenklasse der Lkw-Agenten abhängig. Für die Agen-ten der kleinen Klasse wird keine Maut erhoben, da diese mit einer Jahresvignette zur Benutzung der slowenischen Autobahnen ausgestattet sind. Der Betrag, der hierbei für einzelne Fahrten entsteht, ist so gering, dass er in der Kostenformel vernachlässigt werden kann und deshalb den Wert ‚0‘ erhält. Wurde jedoch ein mittelschwerer oder schwerer Lkw zum Transport des vorliegenden Auftrags bestimmt, entstehen dadurch Mautkosten, die sehr wohl berücksichtigt werden müssen. Auf den entsprechenden Autobahnabschnitten, an denen sich auch in der Realität eine Mautstation befindet, besitzt der jeweilige Straßenabschnitt im Netzwerk der Simulation eine Variable, die den zu entrichtenden Preis für die jeweilige Lkw-Klasse angibt. Der streckenbezogene Summand der Kostenformel ist sehr stark an die zurückgelegte Wegelänge gebunden.

Page 207: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 195

Auch hierbei ist zunächst die Größe des Lastkraftwagens entscheidend. So wird für den Kraftstoffverbrauch ein grober Durchschnittswert von 10, 20 oder 30 Liter/100 km je nach Größenklasse des Lkw-Agenten zu Grunde gelegt. Diese Werte mussten jedoch geschätzt werden, da es „kaum möglich [ist], hierzu Standardwerte anzugeben, weil

viele Randbedingungen, z. B. Fahrzeugabmessungen, Einsatzprofil, Beladung, Topogra-

phie, Windverhältnisse oder Verkehrsdichte die Ergebnisse beeinflussen“ (Steinparzer et al. 2007, 38). Weiterhin wird dieser Faktor (KStrecke) durch die Multiplikation des zu-rückgelegten Weges mit dem Kraftstoffpreis5 und dem durchschnittlichen Verbrauch bestimmt.

Die aufgeführte Formel repräsentiert den zentralen Aspekt der finalen Bewertung der Szenarien. Es sei erwähnt, dass die hier beschriebene Formel der Kostenberechnung nur einen Teil der gesamten Logistikkosten ausmacht. Die hier untersuchten Kosten sind reine Transportkosten, die lediglich für die ausführenden Unternehmen (Speditio-nen) anfallen. Sobald die Transportkosten nach der obigen Formel errechnet wurden, werden diese Informationen an das Speditionsunternehmen des Lkw-Agenten gesen-det. Zwangsläufig sammelt der Lkw-Agent auch Informationen über die Länge seines zurückgelegten Weges und die Zeit, die er für einen Auftrag benötigte. Auch diese Variablen werden bei dem zugehörigen Speditionsunternehmen gesammelt und die-nen letztendlich zur Auswertung. Die Simulation berücksichtigt insgesamt 51 718 Lkw-Agenten.

Zusammenfassend kann festgehalten werden, dass die Agentenklassen die Handlungs-träger der Simulation darstellen. Sowohl die Speditions- wie auch die Lkw-Agenten sam-meln während der Aktionsdurchführung verschiedenste Daten, welche einerseits zur Validierung, andererseits zur Bewertung der Szenarien heran gezogen werden können.

Doch die Agenten sind nicht die einzigen Simulationsbestandteile. Neben der Agen-tenklasse existiert noch die Klasse der Ressourcen, die in der Simulation überwiegend passive Aufgaben übernehmen. Zu dieser Klasse zählen neben dem Netzwerk auch noch die errechneten Aufträge.

Als dritte Instanz kommt die Simulationsumgebung (Welt) ins Spiel. Sie hat die Aufgabe die Umwelt, in der sich die Agenten bewegen, zu überwachen und neuen Gegeben-heiten anzupassen. Konkret bedeutet dies, dass sie in bestimmten Zeitintervallen die Geschwindigkeit in Abhängigkeit von der Benutzungshäufigkeit aktualisiert.

3.2 Handlungsweise der Simulationsteilnehmer

Eine spezielle Interaktions-Verbindung besteht zwischen den beiden Agentenklassen (Speditions- und Lkw-Agenten). Dass gerade zwischen diesen die Interaktionen beson-

5 Kraftstoffpreis in der Simulation = 1,05 € je Liter (Diesel)

Page 208: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh196

ders ausgeprägt sind, liegt in der Tatsache begründet, dass die Agenten aktiv handeln und demnach stärker aufeinander reagieren. Die Klasse der Lkw-Agenten wäre für sich genommen eigentlich ohne Aufgabe und Nutzen, wenn nicht die Speditions-Agenten diese ständig mit Informationen versorgen würde. Die Speditionen in der Simulation haben somit die Aufgabe der Verteilung der Aufträge auf adäquate ‚Auftragserfüller‘ übernommen. Sie verwalten das individuelle Angebot an Lkw-Agenten und initiieren somit eine festgelegte Handlungsabfolge.

Abb. 7: Die Interaktionen zwi-schen den einzelnen Simulati-onsteilnehmern (Quelle: Eigene Darstellung)

Die Agentenklasse der Lkw wiederum reagiert auf zwei verschiedenartige Reize. Der erste Reiz (oder auch Impuls) geht von den Speditions-Agenten aus und veranlasst die Lkw zu einer Aktivität, welche unter anderem aus einer Routenwahl auf dem Netzwerk besteht. An diesem Punkt agieren die Lkw-Agenten nun mit einem zweiten Simulati-onsteilnehmer, den Arcs, die als Ressource in SeSAm abgebildet werden. Wie bereits er-läutert, suchen sich die Lkw anhand der Variable der aktuell fahrbaren Geschwindigkeit auf den einzelnen Arcs den schnellsten Weg. Dementsprechend besteht eine starke Ab-hängigkeit von dem Informationsgehalt der Arcs in Bezug auf die Handlungsweise der Lkw-Agenten. Zusätzlich ergeben sich Interaktionen zwischen der „Welt“ und einzelnen Simulationsteilnehmern. Die „Welt“ nimmt als kontrollierende und überwachende Ins-tanz de facto Einfluss auf die Ressourcenklasse der Arcs und aktualisiert in bestimmten Zeitintervallen die relevanten Variablen (z. B. die aktuell fahrbare Zeit). Eine zentrale Rol-le für die Funktionalität der Simulation an sich nimmt die Ressourcenklasse der Aufträge ein. Ohne die hier gespeicherten Informationen über den Ursprungs- und Zielort einer Ware oder auch deren Gewicht würde gar keine Aktivität anderer Agenten zu Stande kommen, da diese ohne jene Informationen keinerlei Impulse erhalten würden. In Abbil-dung 7 werden die bestehenden Interaktionen nochmals vereinfacht dargestellt. Die In-

Page 209: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 197

teraktionen kommen hierbei auf zweierlei verschiedene Arten zu Stande: Die erste Form der Interaktion basiert auf einem reinen Informationsaustausch zwischen den Simulati-onsteilnehmern (blaue Pfeile). Die zweite Art der Interaktion ist eine Art Impulsgebung von einem Agenten zum anderen, oder auch von der Welt zu der korrespondierenden Ressourcenklasse (grüne Pfeile).

Die Nummern neben den Pfeilen verdeutlichen dabei den idealtypischen Ablauf:

So beschreibt der erste Schritt die Dringlichkeit einer Auftragserfüllung (1). Die •Speditions-Agenten erhalten dabei Informationen über den Ursprungs- und Zielort sowie die Menge der zu transportierenden Ware.

Die Speditions-Agenten leiten diese Informationen im Anschluss an einen adäqua-•ten Lkw-Agenten weiter (2).

Dieser wiederum entfernt den Auftrag aus dem Auftrags-Pool, womit die Annahme •dieses Auftrages bestätigt wird (3).

Danach kommt es zur Ausführung des Auftrages, wobei die Lkw-Agenten das •Netzwerk nicht beeinflussen, sondern sich lediglich der Informationen aus diesen bedienen (4).

Nach Beendigung des Auftrages sendet der Lkw-Agent seine gesammelten Infor-•mationen an die Spedition, wo diese gespeichert werden (5).

Mit der Simulation des Normalzustandes, dem Analysefall, wird versucht, den Zustand des Transportwesens in Slowenien möglichst realitätsnah wiederzugeben. Die Grundla-ge für eine realistische Abbildung des Transportwesens bildet hierbei die in Kapitel 2 er-läuterte Datenbasis. Durch die bereits beschriebene Verteilung dieser Warenströme auf die einzelnen Speditionen in Form von Aufträgen, sollte gewährleistet werden, dass der Warentransport in der Simulation sowohl in Bezug auf die Menge der Waren als auch bezüglich der Richtung der Warenströme die Realität möglichst genau wiedergibt. Trotz der Generierung der Aufträge und der anschließenden Verteilung auf die Speditionen stimmte die Menge der Warenströme nach den ersten Probe-Simulationsläufen nicht mit den erhobenen Daten überein. Es kann vermutet werden, dass durch Rundungs- und/oder Verteilungsfehler bei der Erstellung der Auftrags-Ressource die deutlichen Unterschiede von bis zu 20 % zu Stande kamen. Diese Differenzen gaben Anlass zu weiteren Kalibrierungsdurchgängen. So mussten beispielsweise die Aufträge in ihrem Ziel- und Ursprungsort geändert werden. Teilweise verschob sich auch die Transport-menge, wobei jedoch darauf zu achten war, dass die Gesamtmenge an transportierten Waren unveränderlich blieb. Nach insgesamt sechs verschiedenen Simulationsläufen konnte eine Übereinstimmung der Ergebnisse mit den realen Daten von durchschnittlich 98 % erreicht werden.

Page 210: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh198

4 Die Simulationsläufe

Beginnend mit einer Interpretation der Simulationsergebnisse des Analysefalls wird im Anschluss ein Szenario beispielhaft beschrieben und dessen Ergebnis mit dem Analysefall verglichen. Bei der Durchführung der Szenarien-Simulation wurde darauf geachtet, im-mer nur geringfügige Veränderungen der Einstellungen bzw. Parameter, vorzunehmen, um eine gewisse Transparenz zu erzeugen. Diese ermöglicht es, Kausalzusammenhänge zwischen dem In- und Output erkennen zu lassen.

4.1 Der Analysefall

Der Analysefall dient dazu, Vergleichswerte zu generieren. Im günstigsten Fall reprä-sentiert der Analysefall ein Bild der realen Verhältnisse. Dies wird allerdings nur in den seltensten Fällen erreicht. Beim Analysefall handelt es sich demnach im Wesentlichen um einen Simulationsdurchlauf, der am adäquatesten der Realität entspricht (in diesem Fall: 98 %). Hier werden keine planerischen Aspekte berücksichtigt, sondern es wird versucht, den Ist-Zustand zu beschreiben.

Um den Analysefall zu berechnen, benötigte ein Simulationslauf insgesamt 3 Tage und 11 Stunden6. Dieser Wert kann auch mit kleinen Abweichungen für die Dauer eines Szenarios angenommen werden. Grundsätzlich existieren zwei verschiedene Output-Varianten, die einen Ergebnisvergleich ermöglichen. Die erste der beiden bezieht sich auf die Speditionen und gibt Auskunft über deren gesammelten Informationen bezüg-lich Transportkosten, Transportlänge und benötigter Transportzeit. Der zweite Output erzeugt Informationen über die Frequentierungshäufigkeit der einzelnen Arcs durch die Lkw-Agenten. Die Ergebnisse aus dieser Datei sind in graphischer Form aufgearbei-tet worden, wohingegen die Ergebnisse des ersten Outputs geeigneter in tabellarischer Form darzustellen sind.

In dem Analysefall schwanken die durchschnittlichen Transportkosten pro Auftrag zwi-schen 141,43 € und 209,64 € (Tab. 4). Hierbei bewegen sich die großen Speditionen auf einem relativ hohen Preisniveau. Dies spiegelt die Tatsache wider, dass Aufträge an große Unternehmen in der Regel Spezialaufträge sind, die wegen ihrer speziellen Abfertigungs- und Transportweise einen höheren Preis rechtfertigen. Die mittleren Spe-ditionen liegen mit den durchschnittlichen Transportkosten von 165,14 € pro Auftrag weit unter dem Kostenniveau der großen, aber nahe am Niveau der kleinen Speditionen. Betrachtet man den Output der Länge des benötigten Transportweges, so fällt zunächst auf, dass sich die durchschnittliche Wegelänge pro Auftrag in allen drei Kategorien auf einem ähnlichen Niveau befindet. Die großen Speditionen fahren im Schnitt pro Auf-trag die meisten Kilometer (256,72 km), wohingegen die mittelgroßen Speditionen die

6 Die Simulationsläufe wurden auf einem Rechner mit den folgenden Eigenschaften durchgeführt: 1,00 GB RAM, 2,13 GHz CPU, Betriebssystem: Windows XP.

Page 211: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 199

wenigsten Kilometer pro Auftrag zurücklegen (224,77 km). Auch unterscheiden sich die Transportlängen pro Spedition sowie die Gesamt-Wegelängen stark. So legen die kleinen Speditionen zwar mit ca. 51,2 Mio. km insgesamt die meisten Kilometer zurück, durch die Vielzahl der kleinen Speditionen wird dieser Wert allerdings relativiert. Betrachtet man letztlich noch die Zeit, welche pro Auftrag benötigt wird, so ist die Differenz nicht so erheblich. Man kann also feststellen, dass im Durchschnitt knapp zwei Stunden für die Auftragserfüllung in Anspruch genommen werden.

Tab. 4: Output des Analysefalls (Quelle: Eigene Ergebnisse)

Kategorie (Speditionen)

Transportkosten (Gesamt) in €

durchschnittliche Trans-portkosten pro Firma in €

durchschnittliche Trans-portkosten pro Auftrag in €

Klein 31 355 694,37 5 163,13 141,43Mittel 21 807 508,21 62 845,84 165,14Groß 1 780 893,34 127 206,67 209,64Kategorie (Speditionen)

Transportlänge (Gesamt) in km

durchschnittliche Trans-portlänge pro Firma in km

durchschnittliche Trans-portlänge pro Auftrag in km

Klein 51 119 781,70 8 417,55 230,58Mittel 29 681 476,80 85 537,40 224,77Groß 2 180 840,80 155 774,30 256,72Kategorie (Speditionen)

Transportzeit (Gesamt) in Minuten

durchschnittliche Trans-portzeit pro Firma in

Minuten

durchschnittliche Trans-portzeit pro Auftrag in Minuten

Klein 25 762 410,00 4 242,12 116,20Mittel 16 759 165,00 48 297,31 126,91Groß 1 122 943,00 80 210,21 132,19

Abb. 8: Arc-Belastung mit Lkw-Agenten (Quelle: Eigene Darstellung)

Page 212: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh200

Neben den Output-Daten, deren Parameter direkt auf die Speditionsunternehmen ab-zielen, erhält man nach jedem Simulationslauf noch zusätzliche Informationen über die Lkw-Belastung der einzelnen Arcs. Dieser Output kann sowohl für die Bestätigung einer Hypothese, als auch zum besseren Überblick über das Routenwahlverhalten der Lkw-Agenten genutzt werden.

In Abbildung 8 ist zu erkennen, dass vor allem das Autobahnnetz von den Lkw-Agenten sehr häufig frequentiert wird. Dies macht auch Sinn, da auf diesen Strecken die schnells-te Route zu erwarten ist. Neben dem Hauptstraßen- wird zudem das Nebenstraßennetz v. a. im Südosten Sloweniens rege genutzt. Da in diesem Teil des Netzwerkes sowohl die Güternachfrage als auch das -angebot besonders hoch sind, kommt es dementspre-chend zu einer höheren Belastung als beispielsweise im Nordwesten des Landes.

Es bliebe nun letztlich die Frage zu klären, wie gut die erzielten Ergebnisse mit den realen Verhältnissen übereinstimmen. Die Bestrebungen, Durchschnittswerte für die Transport-zeit-, -länge und -kosten aus dem Analysefall mit realen Verhältnissen zu vergleichen, scheiterten an der fehlenden Kooperation relevanter Speditions-Unternehmen in Slowe-nien. Da gerade die nachgefragten Daten als äußerst betriebsspezifisch angesehen wer-den, konnte auch nicht auf eine Unternehmensbefragung zurückgegriffen werden. Die Aufträge pro Spedition und pro LKW im Analysefall erscheinen sehr gering. Dies liegt zum einen an der Ausklammerung der grenzüberschreitenden Aufträge, aber sicherlich auch an der pauschalen Zuweisung einer LKW-Anzahl aufgrund der Mitarbeitergrö-ßenklasse einer Spedition. Auf Grund der hohen Komplexität des Transport- und Logis-tiksektors ist es ohnehin äußerst schwierig, die realen Verhältnisse in all ihren Facetten abzubilden. Dennoch werden die erzielten Ergebnisse als Grundlage für die Bewertung und Auswertung des folgenden Szenarios verwendet.

4.2 Darstellung eines Szenarios: Kooperation von Speditionen

Im Verlauf der Untersuchung wurden insgesamt vier verschiedene Szenarien simuliert. Diese können anhand der Organisation, die für die jeweiligen Veränderungen hinsicht-lich des Analysefalls verantwortlich sind, in staatliche und betriebswirtschaftliche Szena-rien unterteilt werden. Zu den staatlichen Szenarien zählt zum einen der Ausbau einer Landstraße und die damit verbundene Ausweitung des vorhandenen Autobahnnetzes. Zum anderen wurden die Auswirkungen auf das Transportwesen untersucht, die ein Abbau der vorhandenen Mautstationen mit sich bringen würde. Das dritte Szenario beschäftigte sich mit der Nutzung der Eisenbahn als zusätzliches Transportmittel. Da die Interaktion einzelner Agenten am besten in dem vierten Szenario nach zu vollziehen ist, soll sich an dieser Stelle auf das vierte Szenario konzentriert werden. Es wurde hierbei der Versuch unternommen, die Effekte einer zwischenbetrieblichen Zusammenarbeit der Speditionen zu simulieren.

Page 213: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 201

Beschreibung des Szenarios

Das Szenario besitzt im Gegensatz zum Analysefall eine besonders weitreichende Ver-änderung der Input-Parameter. Es ist hierbei den Agenten einer bestimmten Speditions-klasse gestattet, Aufträge untereinander auszutauschen. Sollte beispielsweise eine Spe-dition auf Grund ihres Standortes in der Lage sein, einen Auftrag besser, weil zeit- und kostensparender, zu erfüllen, so kann dieser an die entsprechende Spedition weitergelei-tet werden. Das Szenario wurde erstellt, um folgende Hypothese zu untersuchen:

Die Kooperation von mittelgroßen Speditionsunternehmen im Bereich der Auftragsabwicklung, trägt entscheidend zu einem effizienteren

Warentransport bei.

Für die Konzentration auf die mittlere Speditionsklasse waren zwei wesentliche Gründe ausschlaggebend: Zum einen besitzen mittelgroße Speditionen genügend Kapazitäten (an Lkw-Agenten), um zusätzliche Aufträge entgegen nehmen zu können. Der zwei-te Grund basiert auf einem Ausschlussverfahren: Eine Kooperation zwischen kleinen Speditionen erscheint aufgrund ihrer großen Anzahl zu unübersichtlich, wohingegen große Speditionen erwiesenermaßen eher zu geringem kooperativen Verhalten bereit sind. Dadurch erscheinen die mittelgroßen Transportunternehmen als geeignete Wahl, um zu beweisen, dass neben „der Einführung neuer Produkte und Prozesse [...] die

institutionell-organisatorischen Innovationen wie [...] spezifische Kooperationen oder

Güterverkehrszentren von hervorgehobener Bedeutung [für den Warenverkehr sind]“ (Ihde 1991, 40). Ihde bestätigt also, dass besonders im zwischenbetrieblichen Bereich ein großes Einsparungspotenzial vorliegt. Das Szenario soll insbesondere die angesproche-nen Wettbewerbsvorteile durch die Verringerung des Kostenparameters untersuchen.

Im Gegensatz zum Analysefall, in welchem die Agentenklasse der Speditionen noch einen starren und unbeweglichen Auftragspool besaß, wird dieser nun aufgebrochen. Die Bedingungen für einen Austausch sind, dass der Auftrag nicht aus derselben oder einer angrenzenden Region stammen und er zusätzlich nur an Speditionen derselben Größenklasse weitergeleitet werden darf.

Hierzu ein Beispiel: Eine mittelgroße Spedition hat ihren Standort in der Region Podravs-ka. Diese erhält im Simulationsverlauf den Auftrag, eine Ware von Koper nach Ljubljana zu transportieren. Da Koper in der Region Obalno-kraška liegt, wird der Auftrag an eine mittlere Spedition aus Koper abgegeben. Der Auftrag ‚wandert‘ in der Simulation nun in den Auftragspool des entsprechenden Speditions-Agenten, welcher wiederum den Auftrag ausführt. In der Realität wäre, zur Umsetzung dieser Zusammenarbeit, die Installation eines firmenübergreifenden Netzwerkes zwingend notwendig. Solche Kommunikationssysteme ermöglichen eine stete Verbindung zwischen den einzelnen Transportmodulen, also den Speditionen und Lkw, aber auch zwischen den Speditionen

Page 214: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh202

(Wannenwetsch 2002, 9). Auch Jünemann weist in seiner Arbeit über das Logistik-Management darauf hin, dass „[d]er technologische Fortschritt bei den Informations-systemen [...] eine wichtige Voraussetzung für die Entwicklung der Logistik [ist]. [...] Für die Logistikunternehmen wird die Fähigkeit zur computergestützten Kommunikati-on untereinander und mit der verladenden Wirtschaft zur notwendigen Voraussetzung des Überlebens“ (Jünemann et al. 1994, 10). In der Auswertung des Szenarios wird ein merklicher Rückgang aller Output-Parameter, welche von den mittelgroßen Speditionen gesammelt wurden, erwartet. Nicht nur die Transportkosten, sondern insbesondere die Transportzeit und -länge sollten sich soweit verringern, dass man von einer merklichen Effizienzsteigerung sprechen kann.

Auswertung des Szenarios

Tab. 5: Darstellung des Outputs aus dem Szenario (Quelle: Eigene Ergebnisse)

Kategorie (Speditionen)

Transportkosten (Gesamt) in €

durchschnittliche Trans-portkosten pro Firma in €

durchschnittliche Trans-portkosten pro Auftrag in €

Klein 30 957 389,22 5 097,54 143,06Mittel 6 281 907,16 18 103,48 58,23Groß 1 721 919,23 122 994,23 209,56Kategorie (Speditionen)

Transportlänge (Gesamt) in km

durchschnittliche Trans-portlänge pro Firma in km

durchschnittliche Trans-portlänge pro Auftrag in km

Klein 50 499 638,50 8 315,44 233,36Mittel 5 723 105,50 16 493,10 53,05Groß 2 113 722,10 150 980,15 257,24Kategorie (Speditionen)

Transportzeit (Gesamt) in Minuten

durchschnittliche Trans-portzeit pro Firma in Minuten

durchschnittliche Trans-portzeit pro Auftrag in

MinutenKlein 25 363 947,00 4 176,51 117,21Mittel 10 211 413,00 29 427,70 94,65Groß 1 093 740,00 78 124,29 133,11

Tabelle 5 macht deutlich, dass sich alle drei Parameter der mittelgroßen Speditionen deutlich von denen der beiden anderen abheben. So liegen beispielsweise die durch-schnittlichen Transportkosten für einen Auftrag bei 58,23 € und sind somit um 85 € niedriger als bei der nächsten Speditionsklasse (kleine Speditionen mit 143,06 €). Die Transportzeit bewegt sich zwar im Vergleich mit dem Analysefall ungefähr auf einem gleichen Niveau, wohingegen die Transportlänge signifikant gegenüber den anderen Klassen verringert werden konnte. Deutlich tritt demnach der Unterschied zwischen den einzelnen Speditionsklassen hervor. Wie sich diese Unterschiede bezüglich des Analyse-falls äußern, ist in den Tabellen 6, 7 und 8 aufgeführt.

Page 215: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 203

Tab. 6: Prozentuale Veränderung der Transportkosten hinsichtlich des Analysefalls (Quelle: Eigene Ergebnisse)

Kategorie (Speditionen)

Transportkosten im Durchschnitt pro Spedition

Transportkosten im Durchschnitt pro Auftrag

Klein -1,27 % 1,15 %Mittel -71,19 % -64,74 %Groß -3,31 % -0,04 %

Durch die zwischenbetriebliche Zusammenarbeit zeigt sich ein großes Einsparungspo-tenzial in Hinblick auf die Transportkosten der Speditionen (- 71,19 %) (Tab. 6). Es zeigt sich außerdem, dass pro Auftrag immerhin noch knapp zwei Drittel der Transportkosten eingespart werden können. Die Veränderungen des Kostenparameters bezüglich der kleinen und großen Speditionen können an dieser Stelle, wegen ihrer geringen Ausprä-gung, vernachlässigt werden.

Tab. 7: Prozentuale Veränderung der Transportlänge hinsichtlich des Analysefalls (Quelle: Eigene Ergebnisse)

Kategorie (Speditionen)

Transportlänge im Durchschnitt pro Spedition

Transportlänge im Durchschnitt pro Auftrag

Klein -1,21 % 1,21 %Mittel -80,72 % -76,40 %Groß - 3,08 % 0,20 %

Tab. 8: Prozentuale Veränderung der Transportzeit hinsichtlich des Analysefalls (Quelle: Eigene Ergebnisse)

Kategorie (Speditionen)

Transportzeit im Durchschnitt pro Spedition

Transportzeit im Durchschnitt pro Auftrag

Klein -1,55 % 0,87 %Mittel -39,07 % -25,42 %Groß -2,60 % 0,70 %

Insbesondere die zu beobachtende Verringerung der Transportzeit (Tab. 8) kann einen großen Beitrag zur Steigerung der Effizienz des Warentransportes leisten. Es mag ver-wunderlich erscheinen, warum sich die Werte der Transportzeiten nicht in demselben Maße ändern, wie dies bei der Transportlänge der Fall ist. Dieser Umstand lässt sich jedoch durch die Zusammensetzung der Transportzeit erklären, da hier nicht nur die reine Fahrtzeit (variabel), sondern auch die Standzeit zum Auf- und Abladen mit einge-rechnet wird (fix). Die Standzeit bleibt in dem Szenario unverändert, wohingegen die Fahrtzeit deutlich verringert wurde. Wie sich zeigt, könnte pro zu erfüllenden Auftrag ein Viertel der Transportzeit eingespart werden. In der Betrachtung einzelner Speditio-nen wird die gewonnene Zeitersparnis noch offensichtlicher. So konnte eine Spedition durchschnittlich knapp 40 % der Transportzeit einsparen. Demgegenüber zeigen die

Page 216: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh204

Werteänderungen bezüglich der Transportlänge wieder eine ähnlich große Spannweite, wie die Transportkosten.

Nun ist es dementsprechend interessant zu untersuchen, wie stark und v. a. in welchem Teil des Netzwerkes sich die Streckenbelastungen verändert haben. Aus diesem Grund wurden die Streckenbelastungen aus dem Analysefall und dem Szenario in der Abbil-dung 9 gegenübergestellt.

Abb. 9: Streckenbelastungen: Vergleich des Analysefalls mit dem Szenario (Quelle: Eigene Ergebnisse)

Es zeigt sich eine deutlich erkennbare Reduzierung der Streckenbelastungen. Sowohl auf den Hauptverkehrsachsen (die beiden Autobahnen) wie auch auf dem übrigen Straßen-netz lassen sich Streckenabschnitte definieren, deren Belastungswerte eindeutig zurück-gehen. Daher kann in diesem Szenario von dem positiven Nebeneffekt der Verkehrsver-minderung gesprochen werden, was wiederum den Warentransport auf der einen Seite effizienter werden lässt.

So kann man letztendlich folgende Ergebnisse der Output-Analyse festhalten: Die Ko-operation zwischen Speditionsunternehmen hat einen überaus positiven Einfluss auf alle untersuchten Parameter. Werden demnach bestimmte Aufträge weiter geleitet und von lokalen bzw. ortsnahen Unternehmen ausgeführt, so lassen sich die Transportkosten um ca. 70 %, die zurückgelegte Transportlänge sogar um ca. 80 % und die benötigte Transportzeit um immerhin noch knapp 40 % reduzieren. Zusätzlich ergibt sich eine be-trächtliche Verminderung des Verkehrsaufkommens auf einzelnen Netzstrecken. Somit lässt sich die zu Beginn formulierte Hypothese in jeder Hinsicht bestätigen, da durch die Zusammenarbeit eine deutliche Steigerung der Effizienz des slowenischen Transportwe-sens eingetreten ist.

Page 217: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 205

Zusätzlich zu dem Argument der Reduzierung der Transportparameter scheinen Konzen-trationsprozesse, die aus Fusionen oder Kooperationen hervorgegangen sind, zusätzlich für die höhere Auslastung von Lkw zu sprechen (Simon 1992, 65). Diese Folgerung ist nur logisch, konnte aber in der Simulation nicht untersucht werden.

5 Fazit

Ein Ziel dieses Beitrages war es, mögliche Optimierungspotenziale des slowenischen Warentransportes aufzuzeigen. Hierzu diente das Szenario der Kooperation der Spediti-onen als Beispiel. Dieses wurde ausgesucht, da hiermit die besten Ergebnisse erzielt und die positiven Veränderungen auch nachvollziehbar und transparent aufgezeigt werden konnten. Neben dem beschriebenen Szenario existieren im Rahmen der Untersuchung noch weitere, die sich jeweils mit ausgewählten Teilaspekten des slowenischen Waren-transportes beschäftigten. Auch die staatliche Einflussnahme auf das Transportwesen wurde simuliert, wobei jedoch die Ergebnisse nicht aussagekräftig genug erscheinen.

Neben dem Aufzeigen möglicher Potenziale lag das Hauptaugenmerk auf der Frage, ob der Warentransport eines Landes mit Hilfe einer Multi-Agenten-Simulation sinnvoll ab-gebildet werden kann. Diese Frage ist letztendlich zu bejahen, da sich gezeigt hat, dass gerade das Werkzeug einer MAS mit den Voraussetzungen, die durch das Transportwe-sen an sich gegeben waren, besonders gut auskommt. Die individuelle Entscheidung der Simulationsteilnehmer sowie ihre Reaktionen auf eine sich verändernde Umwelt lassen den Schluss zu, dass sich eine MAS besonders gut für transportgeographische Fragestel-lungen eignet.

Allerdings bleibt auch festzuhalten, dass insbesondere die problematische Datenlage die Möglichkeiten begrenzen, die Waren- und Transportströme eines Landes umfassend abzubilden und zu simulieren.

6 LiteraturBiethahn, J.; Lackner, A.; Range, M. (2004): Optimierung und Simulation. München,

Wien.

Cerne, A. (2008): Die Region Ljubljana als wirtschaftliches Zentrum Sloweniens. In: Al-brecht, V.; Drozg, V. (Hrsg.): Slowenien. Transformation und kleinräumige Vielfalt. Natur, Raum, Gesellschaft, Band 5, Frankfurt am Main, S. 207-224.

Davidsson, P.; Holmgren, J.; Persson, J. A.; Ramstedt, L. (2008): Multi Agent based Simulation of Transport Chains. Paper presented to the 7th Int. Conference on Au-tonomous Agents and Multiagent Systems (AAMAS 2008). Estoril, 12.-16. May 2008.

Europäische Union (Hrsg.) (1996): Richtlinie 96/53/EG des Rates vom 25. Juli 1996. Zur Festlegung der höchstzulässigen Abmessungen für bestimmte Straßenfahrzeuge

Page 218: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Christian Neff, Jürgen Rauh206

im innerstaatlichen und grenzüberschreitenden Verkehr in der Gemeinschaft sowie zur Festlegung der höchstzulässigen Gewichte im grenzüberschreitenden Verkehr. Amtsblatt der europäischen Gemeinschaften Nr. L 235/59. URL: http://www.euro-combi.de/dwl/EU-Richtlinie%2096-53.pdf (Abrufdatum: 14.02.2010).

Haefner, K.; Marte, G. (1994): Der schlanke Verkehr. Handbuch für einen umwelt-freundlichen und effizienten Transport von Personen und Gütern. Berlin.

Ihde, G. B. (1991): Transport, Verkehr, Logistik. Gesamtwirtschaftliche Aspekte und ein-zelwirtschaftliche Handhabung. München.

Jünemann, R.; Pfohl, H. C. (1994): Logistikmanagement. Funktionen und Instrumente. Berlin, Heidelberg, New York, London, Paris, Tokyo, Hong Kong, Barcelona, Buda-pest.

Klemćić, V. (1996): Slowenien. Entwicklung der Raumstrukturen. In: Schaffer, F. (Hrsg.): Slowenien, Kroatien, Bosnien-Herzegowina. Neue Staaten am Rande Mitteleuro-pas. Beiträge zur angewandten Sozialgeographie, Nr. 37, Augsburg, S. 44-65.

Klügl, F. (2001): Multiagentensimulation. Konzepte, Werkzeuge, Anwendungen. Mün-chen.

Koch, A.; Mandl, P. (2003): Multiagentensysteme in der Geographie. Klagenfurter Geo-graphische Schriften, Band 23. Klagenfurt.

Krugmann, Paul R.; Obstfeld, Maurice (2004): Internationale Wirtschaft. Theorie und Politik der Außenwirtschaft. Pearson-Verlag, München.

Lehrstuhl für Informatik der Universität Würzburg: www.simsesam.de (Abrufdatum: 02.01.2010)

Martin, H. (2009): Transport- und Lagerlogistik. Planung, Struktur, Steuerung und Kos-ten von Systemen der Intralogistik. Wiesbaden.

Neiberger, C.; Bertram, H. (Hrsg.) (2005): Waren um die Welt bewegen. Strategien und Standorte im Management globaler Warenketten. Studien zur Mobilitäts- und Ver-kehrsforschung, Band 11, Mannheim.

Oelfke, W. (1990): Speditionsbetriebslehre in Frage und Antwort. Wiesbaden.

Prunk, J. (1996): Slowenien. Ein Abriss seiner Geschichte. Ljubljana.

Rauh, J.; Schenk, T.; Fehler, M.; Klügl, F.; Puppe, F. (2007): Der simulierte Konsument. In: Klein, R.; Rauh, J. (Hrsg.): Analysemethodik und Modellierung in der geographi-schen Handelsforschung. Geographische Handelsforschung, Band 13, Würzburg. S. 127-152.

Rauh, J.; Hesse, R. (2002): Agentenbasiertes geografisches Informations- und Simu-lationssystem als Werkzeug zur Shopping-Center-Planung. In: Geo-Informations-Systeme Nr. 12, S. 10-15.

Simon, R.-P. (1992): Euro-Logistik-Netzwerke. Entwicklung eines wettbewerbsstrate-gischen Integrationskonzeptes für die Sammelgut-Logistik im europäischen Markt. Bergisch Gladbach, Köln.

Soboll, A. (2007): Multiagentensysteme zur Simulation von Erlebniseinkauf und Gastro-nomiebesuch. Implementierung, Anwendung und Reflexion einer innovativen Me-

Page 219: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der slowenischen Warentransportströme 207

thode zur Untersuchung konsumorientierter Freizeitaktivitäten. In: Geographische Zeitschrift, Band 95, Heft Nr. 4, Stuttgart, S. 231-253.

Statistical Office of the Republic of Slovenia (2009): Population. Slovenia, 30. June 2009, Rapid Reports, Nr. 42/2009, Ljubljana.

Steinhausen, D. (1994): Simulationstechniken. Wien, München.

Steinparzer, F.; Blumensaat, K.; Paehr, G.; Held, W.; Teetz, C. (2007): Fahrzeugdiesel-motoren. In: Mollenhauer, K.; Tschöke, H. (Hrsg.): Handbuch Dieselmotoren. Berlin, Heidelberg, New York, S. 561-618.

Universität Maribor, Statistical Office of the Republic of Slovenia (2007): Researches on Slovenian Logistics 2008. Unveröffentlichtes Dokument, Maribor.

Vodopivec, P. (1998): Laibach/Ljubljana. Die Hauptstadt der Republik Slowenien. In: Heppner, H. (Hrsg.): Hauptstädte zwischen Save, Bosporus und Dnjepr. Geschichte, Funktion, nationale Symbolkraft. Wien, Köln, Weimar, S. 9-31.

Wannenwetsch, H. (2002): Integrierte Materialwirtschaft und Logistik. Eine Einführung. Berlin, Heidelberg, New York, Barcelona, Hong Kong, London, Mailand, Paris, To-kyo.

Page 220: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 221: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 209

Mit Agenten Straßenmaut modellieren

Florian Harder, Jürgen Rauh

1 Einleitung

Unsere Gesellschaft wird immer mobiler, denn Mobilität, ob privat oder beruflich moti-viert, bedeutet Freiheit und Lebensqualität. Doch Mobilität besitzt nicht nur einen hohen persönlichen Stellenwert, sondern trägt darüber hinaus auch eine zentrale ökonomische Bedeutung. Sie leistet einen erheblichen Beitrag zur nationalen Wertschöpfungskette und ist damit eine zwingende Voraussetzung für wirtschaftliche Wachstums- und Ent-faltungsmöglichkeiten.

Nicht nur Verkehrsaufkommen und Verkehrsleistung steigen, auch die lästigen Auswir-kungen der Mobilitätsausübung werden immer auffälliger: Stauzeiten, Luftverschmut-zungen und Lärmbelastungen sind nur ein paar dieser sogenannten externen Effekte. Eine Vielzahl der verkehrsbedingten Beeinträchtigungen ist heute noch gar nicht voll-ständig einzuschätzen, denn niemand weiß genau, wie sich ein anthropogen bewirkter Klimawandel auf die Umwelt und somit auch auf die lokale wie regionale Lebensqualität oder die Ausübung ökonomischer Aktivitäten von Landwirtschaft bis Tourismus auswir-ken wird.

Eine ganze Reihe von externen Effekten wird durch den Straßenverkehr verursacht. Eine Möglichkeit zur Gliederung besteht in der sachlichen Differenzierung verschiedener Ef-fektarten. Orientierend am Lebenszyklus eines Fahrzeugs sowie der Erstellung und dem Betrieb der notwendigen Infrastruktur lassen sich die Effektarten in betriebsunbedingte, betriebsbedingte sowie infrastrukturbedingte externe Effekte unterscheiden.

Betriebsunbedingte externe Effekte werden beim Produktions- und später beim Entsor-gungsprozess der Fahrzeuge verursacht. Während des Betriebs entstehen Lärm, Luftver-schmutzung und Gebäudeschäden, die sich sowohl auf die Verkehrsteilnehmer als auch auf am Verkehrsgeschehen unbeteiligte Dritte auswirken (betriebsbedingte externe Ef-fekte). Man spricht daher auch von User-On-Non-User-Effekten. User-On-User-Effekte fallen dagegen nur innerhalb einer bestimmten Verursachergruppe an. Zu nennen sind in diesem Zusammenhang Verkehrsstaus und Unfälle. Die Verkehrsinfrastruktur hinge-gen beansprucht insbesondere Flächen, auf der der Verkehr stattfinden kann, jedoch für andere Nutzungen verloren geht (infrastrukturbedingte externe Effekte).

Nach Anwendung dieser Ansätze kommt eine Studie für das Jahr 2005 zu einem durch den Verkehr in Deutschland verursachten Gesamtkostenschaden von 80,4 Mrd. Euro, dies entspricht in etwa dem Bruttoinlandsprodukt Ungarns im selben Jahr. Der alleinige

Page 222: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh210

Anteil des Straßenverkehrs beträgt 96 Prozent, worunter der Verkehrsträger Pkw mit 66 Prozent dominiert (Schreyer et al. 2007, 5).

Um die Kosten für externe Effekte des Verkehrs zu reduzieren, stehen ökonomische Maßnahmen zur Internalisierung der externen Effekte zur Verfügung. Unter der Inter-nalisierung externer Effekte versteht man in der Ökonomie die Einbeziehung der sozi-alen Zusatzkosten in das ökonomische Handeln des Verursachers. Ziel ist es, die durch Marktversagen entstandenen Ineffizienzen durch korrigierende Eingriffe zu minimieren und so ein Wohlfahrtoptimum zu erreichen.

Ein Instrument der Internalisierung, das Road Pricing, wird bereits seit langer Zeit in der Praxis genutzt. In Kanada und den Vereinigten Staaten haben privatwirtschaftlich betriebene Turnpikes seit jeher eine große Bedeutung für die Infrastrukturbereitstellung. In Italien und Frankreich wird das Befahren der Autobahnen bereits seit langem bemau-tet. Viele andere europäische Staaten sind diesem Beispiel gefolgt und verlangen eine Benutzungsgebühr auf ihren Autobahnen und Schnellstraßen. Die Nutzung in städti-schen Räumen, bei denen das Befahren von ganzen Stadtteilen gebührenpflichtig ist, ist hingegen recht selten umgesetzt worden und erfreut sich erst seit der gelungenen Einführung der Londoner Congestion Charge einer lebhaften Diskussion auch außerhalb der Fachwelt.

Als interdisziplinär ausgerichtete Wissenschaft stellt die angewandte Geographie einen breiten Kontext zur Betrachtung verkehrsbezogener Fragestellung. Mit ihren als stra-tegische Zielvorstellungen formulierten Leitbildern ist sie in der Lage, Entwicklungen anzuregen, zu betrachten und zu steuern. Das Konzept der Nachhaltigkeit bietet dazu eine handlungsleitende Interpretation von Umsetzungsergebnissen verschiedener Maß-nahmen im Verkehrsbereich.

Eine nachhaltige Verkehrsgestaltung, die sich an den Interessen der einzelnen Nutzer-gruppen wie auch der Allgemeinheit orientiert und nicht vor z. T. innovativen Ideen zurückschreckt, kann Strategien als Antwort auf die besondere Situation vor Ort entwi-ckeln. Eines dieser Konzepte ist die Einführung von Straßenbenutzungsgebühren. Deren mögliche Einführung und Umsetzung kann sich an verschiedene ökonomische, ökologi-sche, soziale oder verkehrsplanerische Kriterien orientieren (z. B. Verkehrsaufkommen, Umweltbelastung) und sich kleinräumig in Mautzonen unterschiedlich gestalten. Der Beitrag möchte für am fiktiven Beispiel des Untersuchungsraumes Würzburg zeigen, dass mit Hilfe von Multiagentensystemen nicht nur das individuelle Verkehrsverhalten modelliert werden kann, sondern sich darüber hinaus verschiedene Varianten von Stra-ßenbenutzungsgebühren simulieren sind und deren potenzielle Effekte (daran) verglei-chen lassen.

Page 223: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 211

2 Multiagentensystem

Verkehrsmodelle dienen der Erklärung und Vorhersage der Ortsveränderungen von Per-sonen, Gütern und Informationen in einer räumlichen Umwelt. Sie werden in der Ver-kehrsplanung und Verkehrsforschung zur Beschreibung von Beziehungen zwischen der Nutzungsintensität, den räumlichen Lagen von Orten, den Verkehrsmittelcharakteristi-ka, dem Verhalten von Personen, Unternehmen, Infrastruktureinrichtungen sowie der Umwelt eingesetzt. Durch informationstechnische Innovationen ist es dabei möglich, Verkehr immer detaillierter und vernetzter zu modellieren und somit die Modellquali-tät zu steigern. Dies birgt die Chance, dass verkehrsplanerische und verkehrspolitische Maßnahmen einen größeren Zielerreichungsgrad erlangen können.

In den letzten Jahren wurden verschiedene Lösungsideen für die limitierenden Eigen-schaften der traditionellen Verkehrsmodelle entwickelt. Sie lassen sich unter dem ge-meinsamen Oberbegriff der Multiagentensysteme (MAS) zusammenfassen. Ein Vertre-ter agentenbasierter Verkehrsmodelle ist das deutsch-schweizerische Forschungsprojekt MATSim (Multi-Agent Transport Simulation), welches von Wissenschaftlern an der ETH Zürich (Kay W. Axhausen) zusammen mit Kollegen der TU Berlin (Kai Nagel) entwickelt wurde (Balmer et al. 2008; Balmer 2007; Nagel, Vogel 2005). Kernelement dieser Mo-dellierungen sind die gleichartig oder unterschiedlich handelnden Einheiten, die soge-nannten Agenten.

Die Erklärungen, was eigentlich ein Agent ist, sind alles andere als eindeutig. Je nach vorliegender Forschungsfrage und persönlicher Intention gehen die Begriffsauslegungen weit auseinander. Sehr nahe an eine allgemein akzeptierte Definition kommen Franklin und Graessner. Ihrer Auffassung nach ist ein Agent „a system situated within and a part of an environment and acts on it, over time … and so as to effect what it senses in the future.“ (Franklin, Graessner 1997, 22)

Agenten sind folglich physische oder virtuelle Einheiten, die sich in einer natürlichen oder künstlichen Umgebung befinden. Dabei nehmen sie ihre Umwelt (eingeschränkt) wahr und üben auf sie einen Veränderungsdruck aus. Dazu sind sie in der Lage, ihr individuelles Handeln rechtzeitig zu modifizieren bzw. sich reaktiv zu verhalten, d. h. ihre Aktionen sind nicht vordefiniert, sondern passen sich der aktuellen Situation an. Diese rationale Handlungsautonomität richtet sich einzig nach den individuellen Zielen, welche der Optimierung der Bedarfs- oder Überlebensfunktionen dienen. Eine weitere Kerneigenschaft der Agenten ist ihre soziale Komponente. Sie interagieren mit anderen Agenten und können so untereinander kommunizieren. Je nach Ausprägung dieser Ei-genschaften werden besondere Anforderungen an das Agentendesign gestellt.

Ein weiterer Faktor, der ein wichtiges Element eines Multiagentensystems darstellt, ist die Umwelt, in der die Agenten leben. Damit ist der Raum gemeint, in dem die Wahr-nehmungen, Aktionen und Bewegungen der Agenten stattfinden. Darüber hinaus be-

Page 224: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh212

stehen Multiagentensysteme aus einer Anzahl von Objekten, die in der Umwelt liegen, sich jedoch passiv verhalten. Die Agenten können sie wahrnehmen oder verändern. Die Objekte, aber auch die Agenten selbst sind mit einer Menge von Relationen miteinan-der verbunden. Außerdem bedarf es einer Reihe von Operationen, die es den Agenten ermöglicht, ihr Verhalten auszuführen.

Ein Multiagentensystem ist also ein computergestütztes System, in dem Agenten mitei-nander in Kooperation oder in Wettbewerb stehen, um ihre individuellen oder kollekti-ven Aufgaben zu lösen. Besonders im englischsprachigen Raum wird der methodische Ansatz der Multiagentensysteme verstärkt aufgegriffen, um Modelle zu entwickeln, die Mensch-Umwelt- oder Gesellschaft-Umwelt-Verhältnisse beschreiben und verstehen helfen sollen. Der große Vorteil der Multiagentensysteme, der von vielen Geographen gesehen wird, liegt in der Möglichkeit, Interaktionszusammenhänge in ihrer dynami-schen Dimension untersuchen zu können (Koch, Mandl 2003, 1).

Zur Durchführung der Verkehrssimulation wurde ein MAS-Modell entwickelt, welches auf Basis der Simulationsshell SeSAm erstellt wurde. Diese Modellierungsplattform hat sich für die Arbeitsgruppe der Sozialgeographie an der Universität Würzburg schon für verschiedene Fragestellungen z. B. zum Konsumentenverhalten (Rauh et al. 2008, Rauh et al. 2007) bewährt und wurde auch deshalb gewählt, weil die „Shell für simu-lierte Agentensysteme“ (SeSAm) eine generische Umwelt für die Modellierung sowie Durchführung von agentenbasierten Simulationen liefert. Sie wurde am Lehrstuhl für Künstliche Intelligenz, Institut für Informatik der Universität Würzburg mit dem Ziel ent-wickelt, eine visuelle Modellierungs-, Experimentier- und Auswertungsumgebung für Multiagentensysteme zu ermöglichen.1 Dazu bedient sich SeSAm einer objektorientier-ten Programmiersprache.

Das vorliegende Modell umfasst 250 251 Verkehrsteilnehmer, von denen sich 203 128 aktiv auf dem Netz bewegen, welche die erwachsenen Personen in Stadt- und Landkreis Würzburg repräsentieren. Diese Agenten verhalten sich realitätsnah, d.h. sie besitzen einen Aktivitätsplan für ihren Tag, haben Präferenzen, individuell differenzierte Ver-kehrsmöglichkeiten und unterliegen Restriktionen, welche von der empirisch gebildeten Bevölkerung der jeweiligen Verkehrsbezirke abgeleitet werden.

Ausgangspunkt für die Erstellung dieser virtuellen Bevölkerung stellt eine zwischen Fe-bruar und Mai 2008 durchgeführte Befragung im Untersuchungsgebiet dar. Insgesamt nahmen 895 Personen teil, die alle älter als 18 Jahre sind und sich somit als potenzielle Autofahrer charakterisieren lassen. Insgesamt wurden die Teilnehmer gebeten, 118 Fra-gen zu beantworten. Neben Antworten auf die 19 soziostrukturellen Fragen zur Person sollten die Befragten 17 Angaben zum Mobilitätsstil sowie 90 Einschätzungen bezüglich

1 Universität Würzburg, Lehrstuhl für Künstliche Intelligenz und Angewandte Informatik 2009; Klügl 2001.

Page 225: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 213

ihres Verkehrsverhaltens ohne bzw. mit Road Pricing abgeben. Die Gesamterhebung macht bezüglich der Geschlechterverteilung ein sehr ausgeglichenes Bild (49,4 % sind männlich und 50,6 % sind weiblich). Das durchschnittliche Alter der Befragten liegt mit 40,1 Jahren nur knapp unter dem statistischen Durchschnittsalter. Die Haushaltsgröße beträgt im Schnitt drei Personen.

Das verwendete Verkehrsnetz wurde mit dem Verkehrsumlegungsprogramm VISUM aufbereitet und in ein GIS-fähiges Format konvertiert. In das SeSAm-Modell wurde es mittels eines GIS- sowie eines Graph-Plugins integriert. Dabei wird das GIS-fähige Netz in SeSAm eingelesen und in einen Graphen exportiert. Insgesamt enthält das Netz 2 105 Knoten und 6 010 Strecken mit insgesamt 56 verschiedenen Streckentypen. 482 Knoten bilden die Start- und Zielpunkte der Verkehrsnachfrage der Agenten und 266 Knoten üben die Funktion einer ÖV-Haltestelle aus.

3 Modellarchitektur

Die klassische Herangehensweise bei der Verkehrssimulation ist bei diesen traditionellen Modellen der Vier-Stufen-Algorithmus (Wermuth 2005, 259 f.), der die Entwicklung einer Simulation als Sequenz von vier Sub-Modellen repräsentiert: von der Generierung einer verorteten Population mit Mobilitätsbedürfnissen (Verkehrserzeugungsmodell), über die Erzeugung von Fahrten durch die räumliche Verortung der Bedürfnisse (Ver-kehrsverteilungsmodell), zur Berechnung der Moduswahl (Verkehrsmittelwahlmodell) sowie in einem letzten Schritt der Festlegung der konkreten Routenwahl durch die so genannte Umlegung der Fahrten auf das Straßennetz (Verkehrsumlagemodell).

Abb. 1: Vier-Stufen-Algorithmus (Quelle: Eigene Darstellung)

Page 226: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh214

Die ersten beiden Stufen werden anhand der gängigen Methoden (u. a. gruppenspezi-fische Aktivitätsketten, Gravitationsmodelle) ermittelt. Sie bleiben für alle berechneten Szenarien gleich, um eine Basis für die kurzfristigen Beeinflussungstendenzen der Maut-modelle zu erhalten. Daher werden hier nur die beiden letzten, die Verkehrsmittelwahl und die Routenwahl, genauer erklärt.

Gorr geht bei seinen Berechnungen zur Verkehrsmittelwahl von individuellen Präferen-zordnungen der Entscheidungsträger aus (Gorr 1997, 43). Dieses umzusetzen stellt sich als sehr schwierig heraus. Allerdings kann angenommen werden, dass Verkehrsteilneh-mer bei Wegen im Stadtverkehr den Eigenschaften Fahrkosten und Fahrzeit im Allge-meinen insgesamt ähnlich hohe bzw. niedrige Attraktivitätswerte zuschreiben, so dass keine oder nur gering unterschiedliche individuelle Gewichtungen der Eigenschaften vorgenommen werden.

Die Summe aller Eigenschaften eines Verkehrsmittels ergibt dabei die spezifische At-traktivität des Transportmittels und ist folglich zusammen mit der individuell gebildeten Indifferenzgleichung für die (Güter-)Wahl ausschlaggebend. Bei der Aggregation der drei Verkehrsmittelcharakteristika Reisezeit, Reisekosten und Qualität ist allerdings zu berücksichtigen, dass die Merkmale für die Nachfrager unterschiedliche Bedeutung ha-ben und daher auch unterschiedlich gewichtet werden können.

Sowohl die Reisezeit als auch die Reisekosten sind Eigenschaften, die sich bei Erhö-hung negativ auf die Auswahl des Verkehrsteilnehmers auswirken. Um diese Wirkung abbilden zu können, werden die beiden Einflussfaktoren durch einen Vorzeichenwech-sel in einen „Zeitvorteil“ und einen „Kostenvorteil“ umgekehrt. Unterstellt man ferner, dass die Akteure bei der Alternativenbewertung einen Vergleich mit einem Referenzgut durchführen, so wird jenes Verkehrsmittel gewählt, dessen Zeit- bzw. Kostenvorteil am größten ist. Anhand der verschiedenen Attraktivitätswerte, die ein Akteur den verschie-denen Eigenschaftskombinationen zuteilt, lässt sich eine individuelle Präferenzordnung ableiten.

Weisen mehrere Alternativen mit unterschiedlichen Eigenschaftskombinationen eine gleiche spezifische Attraktivität auf, so ist der Nachfrager indifferent bezüglich seiner Entscheidung. Verbindet man sämtliche dieser Punkte zu einer Fläche, erhält man die Indifferenzfläche für ein bestimmtes Nutzenniveau. Analog dazu lassen sich auch alle darüber und darunter liegenden Flächen bestimmen. Mit steigender Bewertung der spe-zifischen Attraktivität des Verkehrsmittels erhöht sich auch der Nutzen, den ein Akteur durch die Wahl dieses Verkehrsmittels erlangt.

In Abbildung 2 sind drei Verkehrsmittel in ein dreidimensionales Koordinatensystem ein-getragen, dessen Achsen die Gütereigenschaften Verkehrsmittelqualität, Zeitvorteil und Kostenvorteil zeigen. Wenn der Nachfrager rational handelt, wird er sich für den Pkw als optimales Verkehrsmittel entscheiden, da dessen Vektorendpunkt die am weitesten

Page 227: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 215

oben liegende Indifferenzfläche berührt, dem Akteur den größten Nutzen bietet und somit die beste Wahlalternative darstellt.

Die optimale Entscheidung wird hierbei lediglich von der individuellen Präferenzstruktur der Akteure bestimmt. Es ist durchaus denkbar, dass andere Akteure, die eine ande-re Präferenzstruktur besitzen, ein anderes Verkehrsmittel als optimale Lösung ansehen werden.

Abb. 2: Optimale Verkehrsmittelwahl nach Gorr (Quelle: Gorr 1997, 48)

Die Reisezeit ti stellt eine Eigenschaft dar, welche die Agenten versuchen zu minimie-ren. Je schneller eine Verkehrsmittelalternative i ist, desto besser wird diese bewertet. Um diese reziprok proportionale Beziehung abzubilden, wird der bereits angesprochene Vorzeichenwechsel durchgeführt. Es wird deshalb der Zeitvorteil Ti zu einem fixen Refe-renzwert betrachtet.

Auch die Reisekosten ci wirken sich negativ auf die Attraktivitätsbewertung der Ver-kehrsmittelalternativen aus. Daher wird auch hier der Kostenvorteil Ci bestimmt. Dazu bedarf es eines festgelegten Wertes cFIX, der als Referenz fungiert, da aufgrund der ver-

Page 228: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh216

schiedenen Maut- und ÖV-Fahrpreismodelle ein Maximalbetrag nicht vorab festgelegt werden kann.

Die Bewertung der Verkehrsmittelqualität spielt hingegen eine differenzierte Rolle. Ar-gumentiert man, dass ein Agent jenes Verkehrsmittel nutzt, das ihm die größte Reise-qualität ermöglicht, und ihm dieses auch zur Verfügung steht, dann lässt sich die Frage nach der Bewertung dieser Eigenschaft mit einer vereinfachenden Brückenannahme be-antworten: Je routinierter ein Agent ein Verkehrsmittel wählt, desto höher wird er die Qualität dieses Verkehrsmittels bewerten. Es wird daher hier die Verkehrsqualität mit der Nutzungsroutine ersetzt.

Geht man nun davon aus, dass die Verkehrsteilnehmer ihre Präferenzwünsche auf höchst mögliche Art und Weise befriedigen wollen, lässt sich folgende allgemein gültige Aussage treffen: Es wird das Verkehrsmittel gewählt, welches die größten relativen Zeit- (Ti) und Kostenvorteile (Ci) sowie routinierteste Nutzung (Rj) aufweist.

Nach dieser rationalen Entscheidung wird das Verkehrsmittel gewählt, dessen nutzen-maximierender Vektor die höchste Indifferenzfläche erreicht, d. h. dessen Vektorend-punkt die größte Entfernung vom Ursprungspunkt aufweist. Diese Entfernung lässt sich durch die folgende Formel bestimmen:

Durch die Einführung der Faktoren α, β und γ wird der Tatsache Rechnung getragen, dass den einzelnen Eigenschaften im Allgemeinen verschiedene Bedeutung zukommt.

Auf diese Art und Weise lässt sich eine Aussage über die Verkehrsmittelwahl der Agen-ten im unbelasteten Netzzustand treffen. Da die Fahrten allerdings unter Netzwider-ständen und somit zu anderen Zeit- und Kostenvorteilen stattfinden, wird mit diesem Ansatz lediglich das präferierte Verkehrsmittel der individuellen Agenten zu Beginn der Simulation festgelegt.

Ist die Wegeausführungszeit eines Agenten erreicht, bestimmt er seine jeweiligen Nut-zenwerte, die er bei der Ausführung seiner Wege durch die verschiedenen Verkehrsmit-tel Pkw, ÖV, Radfahren und Zufußgehen erlangen. Beim Verkehrsmodus Pkw werden stets die Nutzwerte von zwei Wegen berechnet: der zeitkürzesten (MIVt) sowie der kostengünstigsten Route (MIVc).

Für diese Berechnungen wird der Dijkstra-Algorithmus verwendet. Die Netzvariablen, die den optimalen Weg definieren, sind die zugelassenen Verkehrssysteme, die Stre-ckenlänge sowie die zulässigen Geschwindigkeiten. Als Ergebnis dieser Rechenschritte liegen fünf Zeitwerte (ti) für die Distanzüberwindung je Strecke sowie die Abfolge der zu passierenden Links vor.

Page 229: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 217

Damit diese Ergebnisse entsprechend der Theorie von Gorr als Berechnungsgrundlage für die Nutzenwerte angewendet werden können, müssen sie in Zeit- (Ti) bzw. Kosten-vorteile (Ci) umgerechnet werden.

Doch nicht jeder Agent berechnet jeden der fünf Nutzwerte. Einschränkungen durch eine individuelle Verkehrsmittelverfügbarkeit oder als Konsequenz vorangegangener Entscheidungen führen dazu, dass bestimmte Nutzwerte nicht in den Vergleich einflie-ßen dürfen bzw. nicht berechnet werden müssen.

Eine weitere Einschränkung ist die Distanz: liegt sie unter 500 m lohnt sich die Benut-zung des Pkw nicht, und dieser wird ausgeschlossen. Liegt sie über 2 500 m bzw. über 4 000 m, so ist sie zu weit, um sie als Fußgänger bzw. Radfahrer zu bewältigen.

Die Simulationsaktionen der Agenten, ihre Aktivitäten, lassen sich in sieben verschie-dene Phasen einteilen: Verarbeitung von Variablen (Phase 1), Berechnung der Nutzen-werte (Phase 2), Aktivitätsvorbereitung (Phase 3), Berechnung der TMC-Nutzenwerte (Phase 4), Bewegungsphase (Phase 5), Aktivitätsausführung (Phase 6), Ende der Ta-gesaktivitäten (Phase 7). Die Namensgebung für die einzelnen Phasen richtet sich nach der Hauptaktivität, welche jeweils durchzuführen ist. Bis Phase 3 dienen die einzelnen Handlungen dazu, Variablen zu berechnen. Erst ab Phase 5 agieren die Agenten in der eigentlichen Simulationsumgebung, d. h. sie bewegen sich auf dem Straßennetz. Die Phase 5 ist zudem als „Bewegungsphase“ nach den verschiedenen Verkehrsmitteln Pkw, ÖV, Fahrrad und Fußgänger unterteilt. In Phase 6 haben die Agenten diejenigen Orte erreicht, an denen sie ihre anstehenden Aktivitäten durchführen. Sind sie am Ort ihrer letzten Aktivität angekommen, beenden sie ihren aktiven Tag. In allen Fällen en-det dieser an seinem Ausgangspunkt, d. h. jeder Agent beendet seinen Tag zu Hause, ein auswärtiges Übernachten ist nicht möglich. Phase 4 ist eine Extraphase, die nur von solchen Agenten durchgeführt wird, die über eine Empfangsmöglichkeit von Traffic Message Channel-Nachrichten (TMC) verfügen. Abbildung 3 gibt einen Überblick über die Reasoning-Engine der Agenten wieder.

Die einzelnen Phasen untergliedern sich wiederum in mehrere Einzelphasen. Hierzu soll ein Ausschnitt aus Phase 5 (Bewegungsphase) näher vorgestellt werden.

Da die Agenten verschiedene Auswahlmöglichkeiten zur Durchführung ihrer Distanz-überwindung besitzen, muss die Bewegungsphase in Einzelphasen aufgeteilt werden, welche jeweils einem der vier Verkehrsmittel zugeordnet sind. Ausgangspunkt für diese vier Einzelphasen ist die Phase 5.0. In ihr bereiten die Agenten sich auf ihre Bewegun-gen vor, indem einige Variablen den Systembedürfnissen angepasst werden. Ist dies erfolgt, beginnen die Agenten entsprechend ihrer Moduswahl mit der Ausführung ihrer Wege. Phase 5.1 beschreibt die Fortbewegung der Agenten mit dem Pkw (Abb. 4). Dazu müssen die Agenten klären, ob und mit welcher Geschwindigkeit (Vakt) sie den ersten Streckenabschnitt ihrer Liste befahren können. Diese Angaben errechnen sich

Page 230: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh218

anhand des freien Platzes auf den Streckenabschnitten, der Länge ihres Pkw sowie der streckenbezogenen zulässigen Höchstgeschwindigkeit vmax.

2 Ist ein Befahren nicht mög-lich, warten die Agenten an ihrem aktuellen Standort ab (ob Knoten oder Strecke), bis ein Befahren möglich ist. Ist ein Befahren möglich (Phase 5.2), melden sich die Agenten beim Streckenabschnitt in einer Zählliste an und durchfahren ihn mit der zuvor ermit-telten Geschwindigkeit. Dazu „sitzen“ sie die benötigte Zeit auf der Strecke ab. Ist die

2 Die aktuelle Pkw-Geschwindigkeit Vakt wird berechnet, indem die Agenten ihre Pkw-Länge vom ver-fügbaren Platz auf der Strecke subtrahieren. Dieser Wert steht ihnen als Sicherheitsabstand zum voraus-fahrenden Pkw zur Verfügung. Da jeder Verkehrsteilnehmer einen Halben-Tacho-Abstand einhalten sollte, wird in der Simulation ein Abstand von 2 Sekunden angenommen. In die Geschwindigkeitsformel (v = s/t) eingetragen ergibt sich die theoretische Geschwindigkeit (in m/sec), mit der ein Pkw die Strecke zur aktuellen Zeit passieren könnte. Allerdings wird sie durch die zulässige Geschwindigkeit vmax nach oben hin gedeckelt.

Abb. 3: Überblick über Reasoning-Engine von Agenten (Quelle: Eigene Darstellung)

Abb. 4: Phase 5.1 der Reasoning-Engine von Agenten (Quelle: Eigene Darstellung)

Page 231: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 219

Fahrzeit abgelaufen und sind die Agenten gemäß des FIFO-Prinzips3 abfahrberechtigt, fragen diese beim nachfolgenden Streckenabschnitt nach Platz und Geschwindigkeit, melden sich in der FIFO-Zählliste des alten Abschnitts ab, sowie beim neuen an, und befahren diesen. Dieses Vorgehen läuft solange ab, bis die Agenten ihren Zielknoten der aktuellen Aktivität erreicht haben.

Die FIFO-Regel kann durch ein Blockieren von nicht abfahrberechtigter Agenten zu einem Rückstau auf nachgelagerte Streckenabschnitte führen. Die gestauten Agenten warten dabei die Zeit bis zum Verlassen des Links in Phase 5.1.3 ab.

Agenten, die sich mit dem Pkw fortbewegen und über eine TMC-Empfangsmöglichkeit verfügen, haben in Phase 5.1.4 die Gelegenheit ihre Pkw-Routenwahl während der Wegausführung zu erneuern. Sie können so auf sich verändernde Verkehrslagen wie stockenden Verkehr oder ansteigende Mautgebühren reagieren. Bei diesem on-the-fly-Rerouting vergleichen sie die jeweils schnellste (Ufj) mit der billigsten (Ucj) Pkw-Route.

Weitere Agenten stellen die Busse und Straßenbahnen dar. Auch hierfür wurden eigene Reasoning-Engines entwickelt, auf die hier nicht näher eingegangen werden kann.

4 Performance

Die Aussagefähigkeit der SeSAm-Simulation hängt davon ab, wie genau die MAS-Er-gebnisse mit der Empirie übereinstimmen. Um die Feinabstimmung zu erreichen, muss das Modell daher kalibriert werden. Ziel dieser Kalibrierung ist ein Abgleich der Stre-ckenbelastungen mit den Ergebnissen des Verkehrsumlegungsmodells VISUM sowie mit empirisch ermittelten Zählergebnissen.

Als Elemente der Kalibrierung stehen dabei zur Verfügung:

die Variablen Tfix und Cfix, welche der Berechnung des Zeit- (C – i) bzw. des Kosten-vorteils (Ti) dienen;

die Kalibrierungswerte – α, β und γ in den Nutzenbewertungen

das Straßennetz. –

Zur Kalibirierung des MAS-Modells kann auf ein VISUM-Modell zurückgegriffen wer-den, welches ausschließlich den erzeugten Verkehr der Würzburger Stadtbevölkerung betrachtet. Daher müssen auch die virtuelle Bevölkerung und die dem Gravitationsmo-dell zugrunde liegenden Einstellungen diesem Untersuchungsraumausschnitt angepasst werden.

3 FIFO steht für „First-In-First-Out“ und bedeutet, dass nur derjenige Agent abfahrberechtigt ist, der in der Anmeldeliste an erster Stelle steht. Alle anderen Agenten müssen warten, bis vorausfahrende Agenten den Streckenabschnitt verlassen haben, und sie ihrerseits abfahrberechtigt sind. Ein Überholen ist somit auf dem gesamten Netz nicht möglich.

Page 232: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh220

Der nach Pearson berechnete Korrelationskoeffizient r zwischen den absoluten Pkw-Querschnittbelastungen des SeSAm-Ergebnisses und dem Resultat der Verkehrsumle-gung mit VISUM erreicht mit einem Wert von 0,786 ein höchst signifikantes Niveau (p<0,001). Die Art dieses Zusammenhangs zwischen den Belastungswerten lässt sich mittels Regressionsanalyse herausfinden. Es ergibt sich dabei die Regressionsgleichung

y = 1,0233x + 239,42.

D. h. bei einer Belastung in SeSAm von x wird eine VISUM-Belastung y als abhängige Variable von x ausgedrückt. Zwar liegt der Ordinatenabschnitt mit 239,42 relativ hoch, doch ist der Regressionskoeffizient mit 1,0233 nahezu 1. Er gibt eine Aussage über den Steigungswinkel der Regressionsgerade. Auch die Varianz s² als Quadrat der Standard-abweichung liegt mit 0,617 in einem aussagefähigen Wertebereich.

Gründe für die Abweichungen sind u. a. die Blockierung der Wohnstraßen für den Durchgangsverkehr sowie das Kostenrouting in SeSAm. Denn die Modellumlegung in VISUM geht ausschließlich von den zeitkürzesten Verbindungen aus. Außerdem schließt sie das Ausweichen auf andere Verkehrsmodi aus. In SeSAm ist ein solches Umsteigen während der gesamten Simulation möglich.

Die computertechnischen Anforderungen der Simulation spielen eine große Rolle in der Umsetzungsfähigkeit des Modells. Die objektbasierte Programmierung von SeSAm wirkt sich aufgrund ihrer Strukturierung negativ auf die Leistungsfähigkeit des Rechner-prozessors aus. Die Anforderungen der sehr rechnerintensiven Simulationsberechnung an die Rechnerausstattung und Rechenzeiten fallen daher z. T. erheblich höher aus als vergleichbare MAS erwarten lassen.

Auf einem Rechner mit einem Arbeitsspeicher von 4 GB RAM und einer Prozessorleistung von 2.2 GHz (AMD 875 Opteron Prozessor) benötigt die Simulation eines Agenten nur sehr kurze Zeit (ca. 10 Minuten). Aufgrund der abzubildenden Effekte der Interaktionen zwischen den Agenten, ist ein „nacheinander Abarbeiten“ allerdings nicht möglich. Die somit erforderliche Parallelsimulation der 203 128 auf dem Netz aktiven Agenten bedarf jedoch eines weitaus größeren Arbeitsspeichers bzw. hat erhebliche Auswirkungen auf die Rechnerzeit. Daher ist es notwendig die Gesamtsimulation vertikal aufzuspalten. In diesen Vorbereitungsphasen werden die jeweils optimalen Routenverläufe und deren Zeit- und Kostenbedarf für die Tagesabläufe sämtlicher Agenten berechnet, und das für alle fünf Modi. Da in dieser Phase keine Interaktionen zwischen Agenten stattfinden, ist es zudem möglich, die Berechnung in drei Einzelteile aufzuspalten.

Die insgesamt benötigten 91 450 Simulationsschritte gliedern sich demnach in eine se-parate Simulation für die Nutzwertberechnungen der Agenten, welche in drei Paral-lelmodellen durchgeführt wird (U-Modell), und in die Aktivitätsausführungssimulation, welche die Wegedurchführungen innerhalb der 24 Stunden des Agententages berech-

Page 233: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 221

net (24 h-Modell). Die Nutzwertsimulation umfasst die ersten 5 050 Simulationsschritte und benötigt auf dem Vergleichsrechner ca. 930 Minuten (15,5 Stunden). Die restlichen 86 400 Simulationsschritte beanspruchen noch einmal ca. 295 Stunden, so dass die gesamte Simulation auf einem derzeit handelsüblichen Rechner etwa 12,5 Tage in An-spruch nimmt.

5 Szenarien

Um herauszufinden inwieweit Road Pricing-Maßnahmen zur Senkung externer Effekte im Stadtverkehr beitragen können und welche Auswirkungen sie auf verschiedene Be-völkerungsgruppen haben, werden mehrere Szenarien mittels des MAS-Modells unter-sucht. Insgesamt wurden zehn Szenarien berechnet:

Der Analysefall (A) dient als Vergleichsfall für die weiteren Szenariountersuchungen. •Er stellt die verkehrliche Situation unter der Annahme dar, dass keinerlei Verände-rungen getroffen werden.

Szenario K beinhaltet keine Maut. Allerdings wird der Kraftstoffpreis um 50 Prozent •erhöht.

In Szenario KA wird eine konstante Gebühr für die Nutzung bestimmter Straßen •eingeführt. Dazu sind um das Mautgebiet herum kettenförmig Mautstationen ins-talliert. Dabei handelt es sich um jene Streckenabschnitte, die den Kordon A bilden. Dieser entspricht größtenteils dem Ringpark in Würzburg. Unabhängig von der Ta-geszeit der Benutzung liegt diese bei 150 Cent. Da argumentiert werden kann, dass dies für Bewohner des Kordons eine untragbare Härte sei, werden sie von der Maut ausgenommen, wenn sie auf dem Weg von bzw. nach Zuhause sind.

Szenario „variable Maut in Kordon B“ (KB) umfasst eine Erweiterung des Maut-•gebietes auf Kordon B, dem mittleren Stadtring. Passiert ein Akteur stadteinwärts eine Mautbrücke, muss er eine variable Gebühr bezahlen. Die Höhe dieser Gebühr richtet sich dabei nach der Uhrzeit des Passierens. Zu verkehrsschwachen Zeiten sinkt die Mautgebühr bis auf 0 Cent ab und steigt in den Hauptverkehrszeiten bis auf 250 Cent an. Außerdem wird ein absolutes Mautmaximum eingeführt, wel-ches bei 600 Cent liegt. Kein Verkehrsteilnehmer muss somit mehr als 600 Cent an Mautgebühren pro Tag entrichten. Bewohner des Kordons zahlen zudem lediglich 75 Prozent der anfallenden Mautgebühren

Das Szenario KAB besteht aus der Kombination der beiden Kordone A und B. Ihre •Preisgestaltung orientiert sich am Ein-Kordon-Szenario KB. Die Mauthöhen sind va-riabel gestaltet. Das Mautmaximum liegt bei 900 Cent pro Person und Tag. Ferner bezahlen die Bewohner der Kordone A und B für das Einfahren in den Kordon B nur 50 Prozent. Die Bewohner des Kordons A kostet das Einfahren in den inneren Kordon ebenfalls nur die Hälfte.

Page 234: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh222

In Szenario V wird nicht das Befahren eines bestimmten Teilnetzes per se bemautet, •sondern es werden lediglich solche Nutzungen mit einer Gebühr belegt, die auch tatsächlich zu einer Kapazitätseinschränkung des jeweiligen Netzabschnittes füh-ren, also solche, die einen externen Effekt erzeugen. Sinkt die mittlere Geschwin-digkeit Vm soweit ab, dass eine schlechtere Qualitätsstufe erreicht wird, wird eine Mautgebühr für das Befahren dieser Strecke erhoben. Gestaffelt nach Straßentyp und Intensität der Kapazitätsbeschränkung fallen Kosten bis 1 Cent je 100 Meter Straßenlänge an. Die Gebührenerhebung wird auf allen Straßen des Kordons C an-gewendet. Dies sind sämtliche Straßen im Stadtgebiet Würzburgs sowie der Nach-bargemeinden Höchberg, Rottendorf und Randersacker.

Das mautfestlegende Kriterium des Szenarios CO• 2 ist die Emission von CO2. Steigt der mittlere CO2-Emissionswert Em eines Netzabschnittes des Kordons C über den Schwellenwert von 0,12 g pro Meter und Agenten, wird auf dem Streckenabschnitt eine Gebühr erhoben. Zur Berechnung der durchschnittlichen CO2-Belastung Em werden alle Agenten herangezogen, die sich in den jeweils letzten beiden Viertel-stunden auf dem betreffenden Straßenabschnitt befunden haben. Dieser Vorgang wird alle 15 Minuten aktualisiert. Die Kostenhöhe für das Befahren von 100 Metern richtet sich nach dem Niveau der CO2-Emission.

Auch in diesem Szenario wird die Gebührenhöhe der Strecken durch die mittleren Emissionswerte Em bestimmt. Die Berechnung erfolgt analog zu Szenario V, aller-dings wird nun nicht das bloße Befahren der belasteten Netzteile bepreist, sondern die tatsächlich emittierte Menge CO2 jedes einzelnen Akteurs. Die Höhe der Emis-sionsgebühr richtet sich nach dem Emissionswert Em. Der insgesamt zu zahlende Betrag errechnet sich nach der individuellen CO2-Emission. Pkw mit niedrigen Emis-sionen zahlen folglich weniger als Pkw mit hohen Emissionswerten.

Diese Idee der „Abwrackprämie“ aufgreifend wird in Szenario U angenommen, dass •jeder Pkw-Besitzer, der berechtigt wäre, von der Umweltprämie Gebrauch macht. Es wird also jeder Pkw der älter als neun Jahre ist, durch einen neuen ausgetauscht. In der MAS betrifft dies insgesamt 25 587 Fahrzeuge. Das Bemautungsschema aus Szenario CO2 wird übernommen.

Das Novum bei Szenario D liegt darin, dass nicht das Überfahren einer Mautsta-•tion oder das dynamische Auftreten eines Ereignisses (Stau oder CO2-Belastung) bepreist wird, sondern dass jeder gefahrene Meter direkt mit einer Kostenvariablen von 0,05 Cent belegt wird. Einzige Ausnahmen von diesem System stellen die Au-tobahnen dar.

Um die Simulationsergebnisse eventuell noch weiter zu verbessern, wird Szenario D •noch dahingehend verändert, dass nun in Szenario ÖV die Nutzung des ÖPNV für jeden Agenten kostenfrei ist.

Page 235: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 223

Es soll an dieser Stelle darauf hingewiesen werden, dass die Ergebnisse stets nur als Ergebnisse der Simulation mit all ihren Einschränkungen zu sehen sind. Um eine reali-tätsnähere Aussage treffen zu können, müssten in die Betrachtung u. a. auch der Wirt-schaftsverkehr sowie der überregionale Verkehr eingeschlossen werden.

6 Modellergebnisse

6.1 Ökologische Wirkungsebene

Die Verschmutzung der Luft durch Nutzung eines Pkw wird anhand der emittierten Schadstoffmenge bestimmt. Die tatsächlichen Emissionen hängen dabei von der Fahr-leistung ab. Da ein proportionaler Zusammenhang zwischen Fahrleistung und Emissi-onsmenge jedoch nicht bei jeder Schadstoffklasse gegeben ist, wird die abschließende Vergleichsbetrachtung nur anhand der CO2-Emission durchgeführt.

Tabelle 1 listet die Emissionswerte der Szenarien auf. Neben den Gesamtmengen an Kohlenstoffdioxid (CO2), Kohlenstoffmonoxid (CO), Stickoxide (NOx), Schwefeldioxid (SO2), Distickstoffoxid (N2O) und Ammoniak (NH3) wird die CO2-Belastung je gefahre-nen Kilometer angegeben.4

Es fällt dabei auf, dass die CO2-Belastungen je gefahrenen Kilometer recht konstant um die 162,91 g liegen. Einzig das Ergebnis von Szenario U stellt eine Ausnahme dar. Dies ist allerdings nicht auf eine ungleichmäßige Nutzung der verschiedenen Pkw-Klassen, sondern auf das Ersetzen der älteren Fahrzeuge durch einen SMART zurückzuführen.

Demzufolge sind die Unterschiede in den Gesamt-CO2-Emissionen in Abhängigkeit von der Gesamtwegelänge zu sehen. Jedes der neun Szenarien weist eine deutliche Reduktion der Emissionswerte auf. Durchschnittlich 32,2 t CO2 werden durch die Szenarienmaßnahmen eingespart. Unterhalb dieses Wertes liegen allerdings nur die beiden Szenarien V und U.

Die Emissionsverhältnisse der anderen Schadstoffe verhalten sich nahezu proportional zu den CO2-Werten und bedürfen daher keiner weiteren Erläuterung.

4 Die Höhe der Emissionswerte von CO, NOx, SO2, N2O und NH3 sind nach den Angaben von Wied-mann et. al. von der CO2-Belastung abgeleitet; Wiedmann, Kersten, Ballschmiter 2000, 14 ff.

Page 236: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh224

Tab. 1: Emissionswerte

Szenario CO2(t)

CO2(g/km)

CO(t)

NOx(t)

SO2(kg)

N2O(kg)

NH3(kg)

Analysefall 213,7 162,92 14,5 3,5 76,2 77,4 63,2Szenario K 187,8 162,88 12,7 3,0 67,0 68,0 55,6Szenario KA 186,0 162,89 12,6 3,0 66,3 67,4 55,0Szenario KB 183,3 162,90 12,4 3,0 65,4 66,4 54,2Szenario KAB 184,7 162,94 12,5 3,0 65,8 66,9 54,6Szenario V 171,4 162,91 11,6 2,8 61,1 62,1 50,7Szenario CO2 184,3 162,93 12,5 3,0 65,7 66,7 54,5Szenario U 168,3 145,23 11,4 2,7 60,0 60,9 49,8Szenario D 186,4 162,88 12,6 3,0 66,5 67,5 55,2Szenario ÖV 181,5 162,92 12,3 2,9 64,7 65,7 53,7

Der ADAC geht davon aus, dass eine Maut eine „kontraproduktive“ Maßnahme sei, da sie Staus auf den Haupteinfall- und Ringstraßen kaum verringere und z. T. auf andere Strecken verlagere bzw. sogar neu schaffe (ADAC 2008, 1). Diese Kritik lässt sich mit den gewonnenen Daten aus der Simulation nur sehr eingeschränkt aufrecht erhalten. Zwar gibt es in allen Szenarien Links, die langsamer als im Analysefall befahren werden können, doch handelt es sich dabei ausschließlich um sehr geringe Verlangsamungen. Sie liegen hauptsächlich außerhalb des Würzburger Stadtgebietes.

Wie sieht es nun mit der Berechnung der Gesamtkosten, bestehend durch externe Effek-te im Straßenverkehr aus? Schreyer et al. bestimmen sie im Personenverkehr für Pkw auf 61,6 Euro je 1 000 km (Schreyer et al. 2007, 7). Errechnet man mit Hilfe dieses Wertes die generierten Kosten in den Szenarien, ergeben sich die in Tabelle 2 gezeigten Werte.

Tab. 2: Externe Gesamtkosten

Szenario Summe (Mio. Euro)

Veränderung zu A (%)

Analysefall 80,14Szenario K 70,44 -12,1Szenario KA 75,82 -5,4Szenario KB 68,75 -14,2Szenario KAB 69,26 -13,6Szenario V 64,29 -19,8Szenario CO2 69,11 -13,8Szenario U 70,81 -11,7Szenario D 69,92 -12,8Szenario ÖV 68,07 -15,1

Page 237: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 225

Nahezu alle Szenarien führen zu einer Verringerung der externen Gesamtkosten zwi-schen neun und 14 Mio. Euro. Die einzige gravierende Ausnahme stellt Szenario KA dar. Zurückzuführen ist dies auf die Tatsache, dass bei der Bepreisung der zentralen Innenstadt innerhalb des Kordon A nur sehr wenige Pkw-Fahrten durch die alternativen Verkehrsmittel ersetzt werden.

Als Antwort auf die Frage nach dem Externalitäts-Verringerungspotential von Road Pricing-Maßnahmen kann daher ein klares „Ja“ ausgesprochen werden. Eine Lenkungs-steuer, auch Pigou-Steuer genannt, kann das Verhalten der verkehrsteilnehmenden Ak-teure so verändern, dass die Kosten der Allgemeinheit reduziert und die allgemeine Wohlfahrt maximiert wird.

6.2 Ökonomische Wirkungsebene

Durch die Einführung einer Maut erhält der Infrastrukturbetreiber, ob staatlich oder pri-vat, die Möglichkeit Einnahmen zu generieren. Diese sollen die Ausgaben (im Falle ei-nes privaten Anbieters auch einen Gewinn) abdecken können. Die Zahlen, die hier zur Analyse verwendet werden, stellen nur die Einnahmen eines Werktages dar, und sollen daher nicht benutzt werden, um Vergleiche zu bereits umgesetzten Mautsystemen an-zustellen. Ein Vergleich zwischen den Szenarien ist allerdings statthaft (Tab. 3).

Tab. 3: Einnahmen

Szenario Summe (Euro)

davon Steuern (Euro)

Veränderung zu A (%)

Analysefall 336.636 165.171Szenario K 414.623 176.282 +23,2Szenario KA 357.249 150.161 +6,1Szenario KB 365.914 148.165 +8,7Szenario KAB 366.648 148.187 +8,9Szenario V 350.919 139.580 +4,2Szenario CO2 376.997 149.348 +12,0Szenario U 370.660 152.991 +11,0Szenario D 369.430 150.976 +9,7Szenario ÖV 261.620 146.111 -22,3

Sieben der neun Szenarien erwirtschaften Mehreinnahmen zwischen ca. 14.000 und ca. 40.000 Euro (4,2 bis 12,0 Prozent). Durch die Aufteilung in Steuern, Kraftstofferlöse, ÖV-Einnahmen und Maut fließt das Geld jedoch in verschiedene Taschen, sodass nicht der gesamte Betrag für den Infrastrukturbetreiber zur Verfügung stehen kann.

Zwei Szenarien bilden eine Ausnahme: Szenario K steigert die Einnahmen um ca. 77.000 Euro. Diese gehen nahezu vollständig auf die Preissteigerung bei Benzin und Diesel zu-

Page 238: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh226

rück. Eine Maut wurde hier nicht erhoben. In Szenario ÖV wurde der Fahrpreis für den ÖV auf eine kostenfreie Basis gestellt, sodass diese Einnahmen vollständig wegfallen. Folglich werden trotz Maut ca. 74.000 Euro (22,3 Prozent) weniger eingenommen als im Analysefall.

Es ist im Rahmen dieser Arbeit jedoch nur schwer abzuschätzen, welche Kosten für die Bereitstellung und den Betrieb der Mautanlagen jeweils benötigt würden. Eine Kosten-gegenüberstellung kann daher nicht erfolgen. Es ist allerdings möglich, eine Aussage dahingehend zu treffen, dass wohl kaum ein Szenario die Kosten vollständig einbringen würde. Vielmehr müsste die öffentliche Hand einen Zuschuss zu den sich nichtselbsttra-genden Projekten geben.

Die Einnahmeverluste bei Szenario ÖV fallen so gravierend aus, dass eigentlich keine Aus-sicht auf eine wirtschaftliche Umsetzungsfähigkeit besteht. Einzig wenn man eine Umlage (als Gebühr, Entgelt oder Steuer) von der Bevölkerung einziehen würde, wäre dies denkbar. Doch den Verkehrsteilnehmern erst Kosten zu erlassen (ÖV-Entgelte), um sie dann mit einer neuen Gebühr zu belasten, erscheint politisch und gesellschaftlich als nicht akzeptabel.

6.3 Soziale Wirkungsebene

Ein Mautszenario hat nur dann Aussicht auf Erfolg, wenn die gesellschaftliche Fairness gewahrt bleibt. Keine Gruppe von Agenten, ob nach Alter, Geschlecht oder Mobilitätsvor-lieben unterteilt, darf bei der Befriedigung ihrer persönlichen Grundmobilitätsbedürfnisse unverhältnismäßig schlechter gestellt werden. Weder die individuellen Reisezeiten noch die Kosten dürfen bei einer Gruppe gegenüber der Gesamtheit gravierend variieren.

In Tabelle 4 sind die durchschnittlichen Ergebnisse von Fahrzeit, Pkw-Länge und Mobi-litätskosten in Prozent im Verhältnis zum Analysefall abgebildet. Sie zeigt, dass Männer und Frauen bei der zeitlichen Verlängerung ihrer Wege relativ gleich stark betroffen zu sein scheinen. Zwar liegen die Werte der Männer stets leicht über denen der Frauen, doch sind diese Unterschiede zumeist zu vernachlässigen. Die Ausnahmen bilden die Szenarien KA und U. Bei ihnen werden Männer deutlich stärker von den Fahrzeitzunah-men getroffen als Frauen.

Die Veränderungen der Pkw-Wegelängen zeigen nur sehr leichte Unterschiede zwischen den Geschlechtern. Zusammen mit den Ergebnissen für die Fahrdauer lässt sich daraus ableiten, dass Männer etwas stärker auf den ÖV umsteigen. Dies mag aber auch daran liegen, dass sie im Analysefall häufiger den Pkw nutzen. Männer und Frauen reduzieren aber tendenziell beide eher längere als kürzere Wege.

Die Kostenmehrbelastung zeigt nahezu bei allen Szenarien einen höheren Wert bei den Männern. Sie müssen eine um ca. 20 bis 40 Prozent höhere Steigerung ihrer Mobilitäts-kosten tragen als Frauen. Ausnahme von dieser Beobachtung sind die Szenarien K und ÖV sowie mit Abstrichen KA und KB.

Page 239: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 227

Tab: 4: Soziale Fairness

Szenario Männer (%)

Frauen (%)

18- bis 44-jährige

(%)

45- bis 64-jährige

(%)

65- bis 74-jährige

(%)

75-jährige & ältere

(%)

Szenario KF: +0,51

P: -2,7 K: +1,3

F: +0,36 P: -1,6 K: +1,0

F: +0,77 P: -1,5 K: +1,4

F: +0,65 P: -1,2 K: +1,2

F: +0,11 P: 0 K: +1,1

F: +0,44 P: -2,9 K: +0,4

Szenario KAF: +1,37

P: -2,7 K: +85,3

F: +0,65 P: -1,6 K: +75,1

F: +0,42 P: -3,0 K: +101,9

F: +0,69 P: -2,4 K: +77,8

F: +0,25 P: -1,6 K: +47,2

F: +0,50 P: -2,9 K: +28,0

Szenario KBF: +1,57

P: -4,1 K: +86,1

F: +1,20 P: -3,2 K: +75,8

F: +1,50 P: -4,5 K: +102,8

F: +1,55 P: -3,5 K: +78,6

F: +1,35 P: -3,3 K: +47,8

F: +0,44 P: -5,9 K: +28,7

Szenario KABF: +1,49

P: -4,1 K: +93,2

F: +1,12 P: -3,2 K: +77,0

F: +1,46 P: -4,5 K: +111,3

F: +1,47 P: -2,4 K: +84,7

F: +1,35 P: -1,6 K: +50,2

F: +0,44 P: -5,9 K: +30,5

Szenario VF: +4,66

P: -10,8 K: +79,2

F: +3,37 P: -11,1 K: +59,2

F: +4,11 P: -9,0 K: +79,5

F: +4,73 P: -14,1 K: +78,3

F: +3,66 P: -8,2 K: +48,0

F: +2,24 P: -5,9 K: +28,9

Szenario CO2

F: +5,56 P: -12,2 K: +94,4

F: +4,09 P: -9,5 K: +74,7

F: +4,96 P: -11,9 K: +101,4

F: +6,08 P: -10,6 K: +92,9

F: +4,61 P: -9,8 K: +54,6

F: +1,59 P: -11,8 K: +32,9

Szenario UF: +4,11

P: -9,5 K: +78,4

F: +2,68 P: -6,3 K: +58,4

F: +3,30 P: -7,5 K: +78,6

F: +4,57 P: -7,1 K: +77,4

F: +3,19 P: -6,6 K: +47,2

F: +1,18 P: -8,8 K: +28,1

Szenario DF: +5,60

P: -4,1 K: +79,9

F: +4,02 P: -3,2 K: +65,8

F: +4,99 P: -3,0 K: +80,1

F: +5,96 P: -3,5 K: +85,1

F: +4,65 P: -4,9 K: +51,8

F: +1,50 P: -5,9 K: +36,0

Szenario ÖVF: +6,70

P: -12,2 K: -6,5

F: +5,00 P: -11,1 K: -4,9

F: +6,07 P: -11,9 K: -5,0

F: +5,75 P: -11,8 K: -8,3

F: +5,75 P: -13,1 K: -5,5

F: +1,65 P: -11,8 K: -1,8

(F = Fahrzeit-, P = Pkw-Wegelänge und K = Kostensteigerung)

Bei einer nach Altersgruppen untergliederten Betrachtung fällt besonders die Sonder-stellung der älteren Personen (75-jährige und älter) auf. Ihre Fahrzeit verändert sich zum Analysefall zumeist nur geringfügig. Die Szenarien haben zwar untereinander verschie-dene Wirkungsstärken, doch innerhalb der Szenarien müssen die Agenten der anderen Altersgruppen in etwa die gleichen Reisezeitverlängerungen tragen.

Mit Ausnahme von Szenario V verringern die Altersgruppen bei den Mautmodellen ihre Pkw-Wegelängen in einem recht identischen Rahmen. Bei einer geschwindigkeitsbasier-ten Gebührenerhebung schränken die 45- bis 64-jährigen ihre Wegelänge um ca. 80 Prozent stärker ein als die anderen Altersgruppen.

Wie bei der Betrachtung der Fahrzeiten wiederholt sich bei den Kosten das Bild, dass die älteren Agenten unterdurchschnittlich stark belastet werden. Dies liegt erneut an ihrem

Page 240: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh228

altersspezifischen Modal Split. Da sie im Verhältnis weniger Pkw-Fahrten unternehmen, schlagen sich die Mautkosten weniger auf die Gesamtmobilitätskosten nieder. Der Blick auf die anderen Altersgruppen zeigt, dass in einigen Szenarien vor allem die jüngeren Agenten erheblich mehr zusätzliches Geld für ihre Tagesmobilität aufwenden müssen, als andersaltrige.

Zwischen den ermittelten Mobiltiätsstilgruppen zeigt sich ein ähnliches Bild (Tab. 5).

Tab. 5: Fairness zwischen den Mobilitätsstilgruppen

Szenarioleidenschaftl.

Autofahrer (%)

ÖV-freundl. Autofahrer

(%)

abwägende Opportunisten

(%)

umweltfreundl. Entscheidende

(%)

Szenario KF: +0,35

P: -1,4 K: +0,7

F: +0,15 P: 0 K: +0,5

F: +0,15 P: -2,9 K: +0,6

F: +0,14 P: -1,5 K: +0,5

Szenario KAF: +0,63

P: -4,2 K: +41,0

F: +0,38 P: -1,5 K: +40,2

F: +0,57 P: -2,9 K: +39,6

F: +0,36 P: -1,5 K: +33,0

Szenario KBF: +3,30

P: -5,6 K: +41,4

F: +0,68 P: -2,9 K: +40,6

F: +0,80 P: -2,9 K: +40,2

F: +1,03 P: -3,1 K: +33,4

Szenario KABF: +3,42

P: -5,6 K: +43,8

F: +0,53 P: -1,5 K: +43,8

F: +0,61 P: -2,9 K: +44,5

F: +1,07 P: -3,1 K: +35,6

Szenario VF: +5,27

P: -11,1 K: +38,3

F: +4,13 P: -8,8 K: +35,1

F: +3,79 P: -11,8 K: +34,3

F: +2,84 P: -13,8 K: +28,3

Szenario CO2

F: +11,80 P: -19,4 K: +47,8

F: +2,08 P: -5,9 K: +42,5

F: +2,54 P: -7,4 K: +41,3

F: +4,16 P: -12,3 K: +35,0

Szenario UF: +8,73

P: -15,3 K: +37,9

F: +1,44 P: -4,4 K: +34,7

F: +1,63 P: -5,9 K: +33,9

F: +2,74 P: -7,7 K: +27,9

Szenario DF: +11,68

P: -12,5 K: +34,4

F: +2,12 P: -1,5 K: +36,4

F: +2,46 P: -1,5 K: +36,5

F: +4,27 P: -4,6 K: +34,3

Szenario ÖVF: +12,43

P: -20,8 K: -3,0

F: +2,50 P: -5,9 K: -2,9

F: +2,73 P: -5,9 K: -2,7

F: +6,86 P: -15,4 K: -2,8

(F = Fahrzeit-, P = Pkw-Wegelänge und K = Kostensteigerung)

Bei den meisten Szenarien weist die Verlängerung der Fahrzeiten keine gravierenden Abweichungen auf. In Szenario V ist die Gruppe der leidenschaftlichen Autofahrer nur ca. 1,8-mal so stark betroffen wie die Gruppe der umweltfreundlich Entscheidenden, welche die geringsten Auswirkungen einer Maut in Bezug auf ihre Reisezeit erfahren.

Page 241: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 229

Die Szenarien CO2, ÖV und D (z. T. auch U) zeigen allerdings keine so ausgeglichene Belastungsverteilung. Der Unterschied zwischen der Mehrzeit der leidenschaftlichen Au-tofahrer und der ÖV-freundlichen Autofahrer liegt bei einem Faktor von ca. 5,5. Dies ist eine deutliche Schlechterstellung der ersten Mobilitätsstilgruppen gegenüber dem Rest der Agenten.

Auch bei der Betrachtung der Pkw-Wegelängenveränderungen scheinen einige Sze-narien besser geeignet zu sein, soziale Unterschiede auszugleichen, als andere. In den Szenarien CO2 und ÖV werden besonders die leidenschaftlichen Autofahrer sowie die umweltfreundlich Entscheidenden (!) dazu veranlasst, insbesondere ihre längeren Pkw-Wege durch das Umsteigen auf andere Verkehrsmittel einzustellen. In den Szenarien U und D sind es lediglich die leidenschaftlichen Autofahrer, die die mit dem Pkw zurückge-legte Durchschnittsdistanz erheblich verringern.

Der Blick auf die Kostenentwicklung zeigt zwar die bereits beschriebenen Unterschiede in den Mehrbelastungen zwischen den Szenarien, innerhalb dieser werden die Angehö-rigen der verschiedenen Mobilitätsstilgruppen aber nahezu verhältnismäßig ähnlich zur Kasse gebeten. Wenn man überhaupt ein Szenario ausmachen kann, für das dies nur eingeschränkt gilt, dann ist es Szenario CO2. Hier werden die Gruppenangehörigen etwa eineinhalb mal so stark belastet, wie es die am wenigsten beeinflusste Gruppe ist.

Was bedeuten diese zielgruppenbasierten Erkenntnisse nun in Bezug auf die getroffenen Aussagen der Agentengruppen? Die Gruppe der leidenschaftlichen Autofahrer sagte, dass sie bei Einführung einer Maut kaum weniger Auto fahren würde. Nach Auswertung der Simulationsergebnisse kann allerdings festgestellt werden, dass dies nicht ganz so stimmt. Denn die längeren Fahrzeiten bei zusätzlich abnehmenden Pkw-Wegelängen ist ein Indiz für eine stärkere ÖV-Nutzung. Die Gruppe der ÖV-freundlichen Autofahrer erwog zunehmend die Nutzung anderer Verkehrsmittel, doch die Werte zeigen, dass sie nur geringe Umsteigerzahlen vorweist. Der Grund dafür könnte darin liegen, dass sie bereits im Analysefall kosten-optimierte Entscheidungen getroffen hat. Die abwä-genden Opportunisten glauben nicht, dass sie durch die Gebührenerhebung Nachteile für ihr Mobilitätsverhalten erwarten müssten, und würden daher auch kaum ihr Au-tofahren einschränken oder auf andere Verkehrsmittel umsteigen. Diese Aussage lässt sich mit den gewonnenen Daten belegen. Sie sind zusammen mit den ÖV-freundlichen Autofahrern die Gruppe mit den wenigsten Veränderungen in Bezug auf Fahrzeit und Pkw-Wegelänge. Die Gruppe der umweltfreundlich Entscheidenden meinte, sie wür-de bei Road Pricing-Einführung durchaus verstärkt auf öffentliche Verkehrsmittel und andere alternative Fortbewegungsmöglichkeiten umsteigen. Doch glaubt sie ebenfalls, nur geringe Möglichkeiten zu haben, ihre Autofahrten einzuschränken. Die Ergebnisse zeigen, dass sie mit ihrer Selbsteinschätzung je nach Szenario richtig liegt. Dies ist darin begründet, dass sie im Analysefall die Anzahl der Pkw-Fahrten bereits auf ein sehr nied-riges Niveau reduziert hat.

Page 242: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh230

6.4 Verkehrsplanerische Wirkungsebene

Aus Sicht der Verkehrsplanung gilt ein Szenario als wirkungsvoll, wenn die bestehende Infrastruktur besser ausgenutzt wird, d. h. wenn die vorhandenden Busse und Stra-ßenbahnen sinnvoll ausgelastet sind, die durchschnittlich fahrbaren Geschwindigkeiten möglichst nahe an der Maximalgeschwindigkeit liegen und die Streckenbelastungen ins-gesamt rückläufig sind.

Eine komplette Betrachtung des Netzes bezüglich der Streckenbelastungen würde sich als sehr unübersichtlich gestalten. Daher werden hier exemplarisch drei Links herausge-griffen, anhand deren Werte die Auswirkungen der Mautmodelle beschrieben werden können. Im Einzelnen sind dies der Stadtring Süd (Waltherstraße), die Konrad-Adenau-er-Brücke sowie der Röntgenring (Tab. 6).

Tab. 6: Belastungswerte (Auswahl)

Szenario Stadtring Süd Konrad-Adenauer-Brücke Röntgenring

Analysefall 29.241 27.399 12.065Szenario K -1,4 % -1,6 % -2,8 %Szenario KA -3,2 % -2,3 % -5,7 %Szenario KB -4,1 % -3,5 % -10,7 %Szenario KAB -2,7 % -2,4 % -10,6 %Szenario V -11,9 % -9,5 % -15,3 %Szenario CO2 -11,6 % -9,4 % -14,4 %Szenario U -8,4 % -6,8 % -10,5 %Szenario D -11,3 % -8,9 % -12,9 %Szenario ÖV -13,7 % -11,8 % -16,2 %

Die Belastungswerte auf den drei Streckenabschnitten weisen deutliche Unterschiede auf. Besonders die Szenarien V, CO2, D und ÖV führen zu sehr massiven Verkehrsver-meidungen. Szenario K hingegen zeigt auf keinem der Links einen signifikanten Entlas-tungseffekt gegenüber dem Analysefall.

Die Verbesserung der Fahrplangenauigkeit der Busse kann als Maßzahl für das plane-rische Ziel, die Qualität des Verkehrsflusses zu steigern, genutzt werden. Sie wird je-doch schon oben behandelt, so dass auf ihre Auswertungsergebnisse verwiesen werden kann.

Fahren mehr Pkw über eine Straßen als deren Kapazität zulässt, behindern sie sich ge-genseitig. Sie müssen ihre Reisegeschwindigkeit reduzieren und erzeugen u. a. einen Stau. Um eine Aussage über die Szenariengüte in Bezug auf die Stauvermeidung zu geben, stehen die durchschnittlichen Passierzeiten der Agenten für die 5 920 Strecken-abschnitte des Netzes in 15-Minuten-Intervallen zur Verfügung.

Page 243: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 231

Da die Beeinflussungen der Verkehrsteilnehmer untereinander mit sinkender Verkehrs-dichte minimiert werden, steigt auch die Fahrgeschwindigkeit an. Die maximale Ge-schwindigkeit (Vmax), die gefahren werden könnte, wenn sich nur ein Agent auf dem Netz bewegt, liegt bei durchschnittlich 36,468 km/h. Dies mag gering erscheinen, aller-dings gehen in diese Berechnung auch Links ein, die für den Pkw-Verkehr gesperrt sind (z. B. Fußgängerzonen und Gegenrichtungen von Einbahnstraßen).

Betrachtet man die Durchschnittsgeschwindigkeiten zur Hauptverkehrszeit um 13:45 Uhr (Tab. 7), so fällt auf, dass alle Werte bei ca. 29,905 km/h liegen. Die Verbesserungen durch die Einführungen der Road Pricing-Systeme fallen wie erwartet gering aus. Den besten Wert liefert Szenario ÖV, welches das Fahrtempo im Vergleich zu A um ca. 0,56 Prozent verringert. Bedenkt man jedoch die Masse der Verkehrsbewegungen, so fallen diese Verringerungen gesamtwirtschaftlich betrachtet beachtlich ins Gewicht. Bezogen auf die Gesamtfahrleistung werden z. B. in Szenario D um ca. 105,6 Stunden eingespart.

Tab. 7: Durchschnittsgeschwindigkeiten um 13:45 Uhr

SzenarioDurchschnitts-

geschwindigkeit (km/h)

Anteil von Vmax (%)

Veränderung zu A (%)

Analysefall 29,811 81,74Szenario K 29,854 81,86 -0,14Szenario KA 29,847 81,84 -0,12Szenario KB 29,872 81,91 -0,21Szenario KAB 29,880 81,93 -0,23Szenario V 29,955 82,14 -0,48Szenario CO2 29,966 82,17 -0,52Szenario U 29,916 82,03 -0,35Szenario D 29,962 82,16 -0,51Szenario ÖV 29,977 82,20 -0,56

Als weitere Vergleichsmaßzahl kann die durchschnittliche Verspätung der Busse an Hal-testellen genutzt werden, d. h. die Zeit, die ein Bus später eintrifft, als es sein Fahrplan vorsieht. Mit ihr ist es möglich, Verbesserungen in der Passierdauer in Hauptverkehrs-wegen (Linienbusstrecken) zu messen (Tab. 8).

Page 244: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh232

Tab. 8: Busverspätungen

Szenario Verspätung (sek.)

Veränderung zu A (%)

Analysefall 29,6Szenario K 24,0 -18,9Szenario KA 21,4 -27,7Szenario KB 21,9 -26,0Szenario KAB 22,4 -24,3Szenario V 21,3 -28,0Szenario CO2 21,3 -28,0Szenario U 21,0 -29,1Szenario D 21,4 -27,7Szenario ÖV 19,0 -35,8

Jedes der neun Mautmodelle führt durch die Entlastung des Straßenverkehrs zu einer verringerten Busverspätung. Einige Szenarien wie ÖV reduzieren die Verspätung sogar um bis zu 10,6 Sekunden. Dies mag auf den ersten Blick als eine nur geringe Verbesse-rung gesehen werden. Erinnert man sich jedoch, dass 2 630 Busse in einem Tagesdurch-lauf auf dem Netz unterwegs sind, so addiert sich die durchschnittlich gewonnene Zeit auf ca. sechs Stunden. Es kommt also durchaus zu einer markanten Verringerung der Fahrdauer und somit zu einer Reduzierung der Stauzeiten.

Die Auslastungen der Busse und Straßenbahnen zeigen auch, wie sehr der ÖPNV die Zuwachszahlen aufnehmen kann, und vor allem auch, ob es sich um eher längere Fahr-strecken handelt oder die Agenten nur für wenige Stationen mitfahren. Tabelle 9 macht die Entwicklung der ÖV-Zahlen deutlich. Ausgehend von einer Basisfahrgastzahl von 7,3 im Analysefall steigert sich dieser Wert in den Szenarien V, CO2 und ÖV auf über 10 Fahrgäste je angefahrene Haltestelle. Dies entspricht Wachstumsraten von mehr als 35 Prozent. Die kordonbasierten Szenarien sowie Szenario D erfahren einen mäßigen Zuwachs, während die Auswirkungen im Szenario K nur sehr gering ausfallen.

Es zeigt sich also, dass jedes der neun Szenarien Nachhaltigkeitselemente besitzt, die es als Stärken aufzeigen kann. Bei anderen Wirkungsebenen könnten jedoch auch Schwä-chen vorliegen, so dass es notwendig wird, die Szenarien auf Basis ihrer Stärken und Schwächen miteinander zu vergleichen.

Page 245: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 233

Tab. 9: Fahrgäste in Bussen und Straßenbahnen

Szenario durchschnittliche Fahrgäste Veränderung zu A

Analysefall 7,3Szenario K 7,9 +0,6 (+8,2 %)Szenario KA 8,4 +1,1 (+15,1 %)Szenario KB 8,4 +1,1 (+15,1 %)Szenario KAB 8,5 +1,2 (+16,4 %)Szenario V 10,1 +2,8 (+38,4 %)Szenario CO2 10,3 +3,0 (+41,1 %)Szenario U 9,5 +2,2 (+30,1 %)Szenario D 8,6 +1,3 (+17,8 %)Szenario ÖV 10,8 +3,5 (+47,9 %)

Welches der vorgestellten neun Mautszenarien ist nun das Best-Choice-Modell, d. h. das am besten Abschneidende? In Tabelle 10 sind die neun zur Bewertung relevanten Aspekte, unterteilt nach „signifikant besser“ (++), „besser“ (+), „gleichbleibend“ (O), „schlechter“ (-) und „signifikant schlechter“ (- -), abgebildet.

Alle Szenarien schneiden bei der Betrachtung der Schadstoffemissionen positiv ab. Auf-grund ihrer besonders hohen Reduktionswerte fallen die Szenarien V und U darüber hinaus auf. Auch die durchschnittlichen Geschwindigkeiten konnten bei allen Modellen gesteigert werden. Jedoch zeigt sich hier eine klare Zweiteilung. Die kordonbasierten Szenarien (KA, KB und KAB) sowie Szenario K liefern nicht ganz so zufriedenstellende Ergebnisse wie die restlichen Szenarien und sind daher als etwas schlechter einzustufen.

Tab. 10: Gesamtbewertung der Szenarien

Szenario K KA KB KAB V CO2 U D ÖV

Schadstoffemissionen + + + + ++ + ++ + +Durchschnittsgeschwindigkeiten + + + + ++ ++ ++ ++ ++Busverspätungen + ++ + + ++ ++ ++ ++ ++Externe Gesamtkosten + O ++ ++ ++ ++ + + ++Einnahmen ++ + + + O + + + - -Soziale Fairness + O O O - O - O +Mobilitätsstilgruppenfairness + + + + ++ - - - - - - -Streckenbelastungen O + + + ++ ++ + ++ ++Fahrgastzahlen + + + + ++ ++ ++ + ++

Ein ähnliches Bild ergibt sich bei den Busverspätungen. Allerdings sind hier die Aus-wirkungen von KA ebenfalls mit signifikant besser einzustufen. Dieses Szenario zeigt

Page 246: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh234

aber bei der Gesamtkostenrechnung der externen Effekte die mit Abstand schlechtesten Werte auf. Sie liegen nahezu im Bereich des Analysefalles.

Die Bewertung der Einnahmesituationen wird dominiert vom negativen Abschneiden des Szenario ÖV. Aufgrund des kostenfreien ÖV-Angebotes sinken die generierten Ein-nahmen unter das Niveau des Analysefalles. Auch die rechnerischen Ergebnisse des Sze-nario V liegen nur leicht besser als der Ausgangswert.

Die soziale Fairness ist nur bei wenigen Szenarien gegeben. Die Szenarien K und ÖV wahren die individuelle Chancengleichheit am besten. Verhältnismäßig schlecht schnei-den Szenario V und Szenario U ab. Beim Vergleich der Mobilitätsstilgruppenfairness fallen die Szenarien CO2, D, ÖV und U etwas weniger negativ auf. Bei ihnen ist diese Chancengleichheit zwischen den Mobilitätsstilgruppen kaum gegeben.

Liegen ihre Effekte auch bereits in anderen Aspekten vor (z. B. Reisezeit und CO2-Belas-tung) ist es m. E. aber dennoch sinnvoll, die Streckenbelastungen noch einmal separat anzugeben. Denn auch die gefühlten Auswirkungen einer Maut, also das bloße Sicht-barsein einer Veränderung, ist als ein sehr wichtiger Baustein in der Akzeptanzbildung der Bevölkerung und somit in der Umsetzungsfähigkeit des Mautmodells zu sehen. Die spezifischen Entlastungen der Strecken zeichnen – wie erwartet – ein ähnliches Farb-schema wie das der Schadstoffemissionen. Gleiches gilt für den Aspekt der Fahrgastzah-len an Haltestellen als Indikator für die Bus- bzw. Straßenbahnauslastung.

Insgesamt liegen die neun Szenarien in ihren Gesamtwirkungen sehr nahe beieinander. Wie beschrieben besitzen sie verschiedene Stärken und Schwächen. Herausgehoben werden können eigentlich nur die Szenarien V und CO2. Sie weisen das beste Stärken-Schwächen-Verhältnis auf. M. E. zeigt sich also, dass eine dynamische, emissionsorien-tierte Gestaltung der Maut zwar die besten Ergebnisse erzielen kann, diese jedoch von denen einer geschwindigkeitsbasierten Maut nur um Nuancen variiert.

7 Performance- und Erweiterungsmöglichkeiten

Die Frage nach der Rechenlaufzeit bzw. den Leistungsansprüchen der MAS wurde be-reits nachgegangen. Auch die Frage, ob es sich bei den gewonnenen Ergebnissen um ein ausreichend valides handelt, wurde dort behandelt. Deswegen soll an dieser Stelle noch einmal ein Augenmerk auf die Vorteile dieser Art des Modellierens sowie denkbare Erweiterungen gelegt werden.

Traditionelle Verkehrsmodelle stoßen oftmals an die Grenzen ihrer Leistungsfähigkeit, wenn es darum geht, heterogene Verhaltensweisen in Abhängigkeit von sozio-ökono-mischen und demographischen Faktoren wie Einkommen und Lebensstil zu tätigen. Das Problem, das sich ihnen stellt, ist, dass sie kaum zwischen verschiedenen Handlungsträ-gern unterscheiden können. An diesem Punkt kann eine MAS ihre Stärken ausspielen.

Page 247: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 235

Durch die individuelle Betrachtung von einzelnen Aktionsträgern hat sie eine Unmenge an größeren Abbildungsalternativen als die traditionellen Verkehrsmodelle. Allerdings bedarf sie dafür auch einer größeren Rechnerressource bzw. einer wesentlich längeren Berechnungszeit.

Insgesamt fällt die Bewertung der Frage, ob es sich bei einer Multi-Agenten-Simulation um einen geeigneten Ansatz zur Modellierung des Stadtverkehrs und den Auswirkungen einer Straßenbenutzungsgebühr handelt, sehr positiv aus. Allerdings sind den Umset-zungsideen und Modellverfeinerungen computertechnische Grenzen gesetzt. Es ist aber davon auszugehen, dass sich bei Fortschreibung der aktuellen IuK-Technikentwicklung diese Grenzen früher oder später immer weiter verschieben lassen, so dass viele weitere Aspekte in die Simulation einfließen können.

Ein Punkt, der besonders interessant erscheint, ist die Gestaltung der Routingvorgänge. Im vorliegenden Modell müssen die Agenten ihre Wegeberechnungen auf ein und dem-selben Netz durchführen. D. h. die Berechnung eines ÖV-Weges erfolgt auf derselben Grundlage wie die Berechnung der anderen Modi. Nun würde die Möglichkeit beste-hen, fünf Parallelnetze zu schalten. Dabei hätte jedes Verkehrsmittel (MIVt, MIVc, ÖV, Fahrrad und Fußgänger) ein eigenes Netz. Abbildung 5 macht dieses System deutlich.

Abb. 5: Alternative Netzgestaltungen (Quelle: Eigene Darstellung)

Die linke Seite der Abbildung zeigt das Netz, wie es in dieser Arbeit vorliegt. Jede Strecke ist nur einmal vorhanden und über Knoten mit anderen Strecken verbunden. Die grau-unterlegten Streckenabschnitte stellen die genutzten Links dar. Jeder von ihnen enthält Informationen über seine Länge und die zulässigen Verkehrssysteme.

Auf der rechten Seite der Abbildung liegt für jedes Verkehrsmittel ein eigenes Netz vor. Gut zu erkennen ist, dass Strecken, die z. B. von Pkw nicht befahren werden dürfen, auch nicht vorhanden sind. Die Links müssen also keine Informationen über die zuge-lassenen Verkehrssysteme enthalten, und die Agenten müssen nicht bei jeder Strecke

Page 248: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh236

anfragen, ob und wie sie die Strecke nutzen können. Die Verbindungen zwischen den Verkehrssystemen werden durch die gepunkteten Linien ermöglicht. Sie erfordern kei-nerlei Zeitaufwand und sind überall dort vorhanden, wo ein Umsteigen erlaubt ist. Auch ein Umsteigen während eines Weges, wie z. B. beim Park&Ride, wäre auf diese Art darstellbar.

Der Vorteil einer solchen Netzgestaltung liegt in einer schnelleren Routinggeschwin-digkeit. Je nach Agent und Streckenelement fällt die Anfrage nach dem zulässigen Ver-kehrsmittel weg. Dadurch kann der Rechenbedarf extrem gesenkt werden und die Si-mulation in wesentlich schnellerer Zeit ablaufen. Allerdings verlangt dieses Vorgehen ein Netz, welches etwa ein Fünffaches der ursprünglichen Größe aufweist. Deshalb musste in dieser MAS auf eine Netzgestaltung verzichtet werden, da die Möglichkeiten des Arbeitsspeichers alleine durch das Netz nahezu ausgelastet waren. Für die Berechnun-gen, die sonst zwar schneller ablaufen würden, wären kaum noch Ressourcen übrig geblieben. Die Simulation hätte folglich eine längere Zeit benötigt (sofern das Programm aufgrund des Arbeitsspeichermangels nicht abgestürzt wäre).

Dieses Problem ist ebenfalls ein Grund dafür, dass Straßenbahnen gebeamt werden müssten, wenn sie zusätzlich zu den Verkehrsmitteln MIV, ÖV (Busse), Fahrrad und Fußgänger auf dem Netz unterwegs wären. Neben weiteren Streckenkategorien und den daraus folgenden Extraabfragen der Agenten müssten Regelungen für den Ver-kehrsfluss auf gemeinsam genutzten Links implementiert werden. Straßenbahnen besit-zen an Straßenkreuzungen oftmals eine Vorrangstellung und werden von intelligenten Lichtsignalanlagen bevorzugt abgefertigt. Um diesen Mehrrechenaufwand und zusätz-liche Modellkomplexität zu vermeiden, sowie Arbeitsspeicher und somit Rechenzeit zu sparen, wurde der Straßenbahnverkehr vom Netz losgelöst behandelt.

Bei anderen Verkehrs-MAS sind die Agenten als lernfähige Elemente modelliert (z. B. bei MATSim). Dies wäre auch für die hier vorliegende Anwendung wünschenswert gewesen. Doch auch bei diesem Vorhaben setzte die Arbeitsspeicherlimitierung ihre Grenzen.

Um die Agenten als lernende Akteure zu erzeugen, müssen diese sich ihre Entschei-dungen merken, sie einmalig oder auch mehrfach wiederholen und die verschiedenen Ergebnisse miteinander vergleichen können. Dies bedarf einer großen Menge an Ar-beitsspeicher oder, sofern man die Agentenberechnungen entzerrt und die Zwischener-gebnisse noch on-the-fly löscht, einer sehr viel längeren Simulationszeit.

Doch solche „lernenden Agenten“ würden eine ganze Reihe an neuen Fragestellungen in den Fokus rücken: Durch das Merken und Vergleichen von Alternativen könnten sich die Agenten verschiedene Tagesabläufe überlegen und somit die Reihenfolge ihrer Aktivitäten der aktuellen Situation anpassen (z. B. mit einem späteren Arbeitsbeginn, den Weg in die verkehrsarme Zeit legen). Außerdem könnte man so auch die Ziele der Agenten verändern. Ein Agent müsste dann nicht mehr einen bestimmten Knoten

Page 249: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 237

erreichen, um eine gewisse Aktivität durchzuführen, sondern könnte „unterwegs“ Akti-vitäten durchführen oder neue Zielknoten anfahren.

Dies wäre aus geographischer Sicht eine sehr interessante Möglichkeit. Sie würde neue Fragestellungen in den Mittelpunkt stellen. Z. B. ließen sich die Einflüsse einer Maut auf die Kundenzahlen im Einzelhandel untersuchen und die Theorie eines Nachfrageverlus-tes im Mautgebiet beweisen bzw. als nicht haltbar aufzeigen.

Insgesamt wäre es wünschenswert gewesen, alle vier Elemente des 4-Stufen-Modells in die MAS einzubeziehen. Wie zurzeit nur der dritte und der vierte Schritt (Verkehrs-mittelwahl und Verkehrsumlegung) wären dann auch die ersten beiden (Verkehrserzeu-gung und Verkehrsverteilung) ins Modell integriert. Natürlich war dies mit den derzeit verfügbaren Computerressourcen nicht möglich. Doch sobald das einmal der Fall sein wird, können viele weitere Fragestellungen aufgrund der verbesserten Vergleichbarkeit und des ganzheitlichen Ansatzes innerhalb verschiedener Szenarien beantwortet und störende Modelleinschränkungen und -annahmen ausgeblendet werden.

Neben dieser systembedingten „Wunschliste“ würde auch zusätzlich eine bessere Aus-gangsdatenlage die Ergebnisse realitätsnäher und z. T. aussagefähiger gestalten. Das Beispiel der Schadstoffemissionen macht dies deutlicher: In der MAS musste stets davon ausgegangen werden, dass die Emissionsmenge im Verhältnis zur zurückgelegten Stre-cke steht. Das ist natürlich in der Realität nicht der Fall. Höhere Fahrgeschwindigkeiten und vermehrte Abbrems- und Anfahrvorgänge steigern das Abgasniveau. Zu dieser Pro-blematik kam nun noch das Problem der Datenlage. Es standen kaum nutzbare Werte für eine fahrzeugspezifische Differenzierung der Emissionsmengen zur Verfügung.

So konnte auch hier, ähnlich wie in vielen anderen Arbeiten (z. B. Klein 2003, 24 f.), kaum der wahre Wert der Schadstoffmengen ermittelt werden. Dafür musste auf eine grobe Überschlagrechnung zurückgegriffen werden. Das ist gerade wegen der Mög-lichkeiten, die eine MAS schon bei geringem Arbeitsspeicherangebot in diesem Bereich bietet, bedauernswert.

Auch die Datenlage im Bereich der Zeitkosten (VoT) ist nicht so gut strukturiert, wie es für eine detaillierte Simulation benötigt würde. Wie bereits erwähnt, berechnet jeder Verkehrsteilnehmer den Wert seiner Fahrzeit anhand der Kosten, die ihm während der Ausführung entstehen. Ein Herzchirurg auf dem Weg zur nächsten Operation „verliert“ folglich mehr Geld bei einer 15-minütigen Fahrdauer, als es ein 16-jähriger Schüler auf dem Weg ins Kino tut. Doch auch hier liegen derzeit noch keine umsetzbaren Werte vor.

Ein aus Sicht der geographischen Simulationsmodelle nicht zu vergessendes Element muss ebenfalls wegen der Datensituation ausgeblendet werden: Aufgrund der vorlie-genden Wetterlagen und lokalen Bebauungsstrukturen werden Emissionen in der räum-

Page 250: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh238

lichen Umgebung der Emissionsquellen unterschiedlich abgeleitet oder gespeichert. Dies ist insbesondere wegen der Lage des Würzburger Stadtgebietes im Kessel des Mainta-les und der resultierenden Inversionswetterlage ein interessanter Aspekt. Doch neben den fehlenden Werten über Luftströmungen und Bebauungshöhen waren es erneut die computertechnischen Beschränkungen, die dieses Vorhaben verhinderten.

Den wichtigsten Punkt auf der Erweiterungsagenda stellt jedoch die zusätzliche Betrach-tung der hier noch ausgeblendeten Verkehre dar. Neben dem Wirtschafts- und Durch-gangsverkehr wäre es vorteilhaft, auch Aussagen über die Mobilitätsausübungen von Schülern treffen zu können. Es ist schwer, die Mehrbelastung des Modells durch diese Agentengruppen abzuschätzen. Doch ist davon auszugehen, dass etwa das Doppelte an Arbeitsspeicher benötigt werden würde.

8 Fazit

Es hat sich also gezeigt, dass geographisches Wissen und Know-How bestens geeignet sind, Fragestellungen wie die hier formulierten zu bearbeiten. Es ist gelungen, mit der Erstellung der Multi-Agenten-Simulation die Wirkungsanalyse von Straßenbenutzungs-gebühren für Verkehrsplan und Verkehrspolitik nutzbar zu machen.

Durch die Wahl dieser Methodik können nicht nur ähnliche Ergebniswerte wie mit den traditionellen Computersystemen (z. B. PTV VISUM) erzielt werden, es öffnet auch Möglichkeiten, verkehrs- und sozialgeographische Aspekte in die Modellierung und Er-gebnisauswertung einfließen zu lassen. Neben den Interaktionszusammenhängen zwi-schen unterschiedlichen Agenten(klassen) sowie der dynamischen Dimension stellt diese Art von Simulation ein großes Potential für die verschiedensten Fragestellungen dar (auch außerhalb der Verkehrswissenschaften).

Die aktuellen gesellschaftlichen Veränderungen, insbesondere der Wandel von einer for-distischen zu einer postfordistischen Gesellschaft, verbunden mit der Pluralisierung von Lebensformen, fordern solch differenzierende Modellierungsgrundlagen. Denn kaum ein Verkehrsteilnehmer verhält sich bei seiner täglichen Mobilitätsausübung, wie es die traditionellen Modelle annehmen. Auch die oftmals angenommene vollständige Infor-mationsbeschaffung des homo oeconomicus stellt einen gravierenden Bruch zwischen Realität und Modell dar. Die Verwendung einer „bounded rationality“ (in Verbindung mit einer Lern- bzw. Routinefunktion) würde die wahren Entscheidungsabläufe über Ziel-, Verkehrsmittel- und Routenwahl besser abbilden können. Leider sind derzeit die technischen Leistungsfähigkeiten noch nicht auf einem solchen Stand, dass all diese Wünsche bis ins Detail umgesetzt werden können.

Niemand zahlt gerne für etwas, was früher einmal kostenfrei konsumiert werden konn-te. Daher kann es nicht helfen, ausschließlich Alternativen für eine bessere Nutzung der

Page 251: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Mit Agenten Straßenmaut modellieren 239

vorhandenen Ressourcen (Infrastruktur, Umwelt etc.) anhand von verschiedenen Road Pricing-Modellen aufzuzeigen. Besonders in der „deutschen Autonation“ müssen Ge-sellschaft und Politik zu einem kulturellen Umdenken geleitet werden. Erst wenn Ängste und Vorurteile abgebaut worden sind, macht es Sinn, sich fachlich über die Inhalte und Konzepte der Mautgestaltung zu unterhalten. Ist dies jedoch einmal soweit erfolgt, kön-nen die Ergebnisse aus den MAS-Simulationen den richtigen Weg weisen.

9 LiteraturADAC (2008): City-Maut. München.

Balmer, M. (2007): Travel Demand Modeling for Multi-Agent Transport Simulations: Algorithms and Systems. Dissertation, ETH Zürich.

Balmer, M.; Meister, K.; Rieser, M.; Nagel, K.; Axhausen, K. (2008): Agend-based simu-lation of travel demand: Structure and computational performance of MATSim-T. Präsentiert bei 2nd TRB Conference on Innovations in Travel Modeling, Portland, Juni 2008.

Franklin, S.; Graessner, A. (1997): Is it an agent, or just a program? A taxonomy for au-tonomous agent. In: Jennings, N.; Wooldridge (Hrsg.): Intelligent Agents III, Berlin, S. 21-35.

Gorr, H. (1997): Die Logik der individuellen Verkehrsmittelwahl. Theorie und Realität des Entscheidungsverhaltens im Personenverkehr. Gießen.

Klein, R. (2003): Verkehr und Umwelt – Schadstoffemissionen individueller und öffent-licher Verkehrsmittel. In: SCHLIEHAKE, K.; Kleinfeld, V. (Hrsg.): Vernünftige Perso-nenmobilität in der Region (WGM No. 64), Würzburg, S. 17-30.

Klügl, F. (2001): Multiagentensimulation – Konzepte, Werkzeuge, Anwendung. Mün-chen u. a. O.

Koch, A.; Mandl, P. (2003): Einleitung zum Thema „Multi-Agenten-Systeme in der Geo-graphie“. In: Koch, A.; Mandl, P. (Hrsg.): Multi-Agenten-Systeme in der Geogra-phie, Klagenfurter Geographische Schriften, Heft 23, Klagenfurt, S. 1-4.

Nagel, K.; Vogel, A. (2005): Mulit-agent based simulation of individual traffic in Berlin. Paper 179. Präsentiert auf der 9th Conference on Computers in Urban planning and urban management (CUPUM), London.

Rauh, J.; Schenk, T.; Schrödl, D. (2008): Agentenbasierte Simulation von Konsumenten-handeln. In: Mandl, P.; Koch, A. (Hrsg.): Modellierung und Simulation komplexer geographischer Systeme, Salzburg, S. 77-104.

Rauh, J.; Schenk, T.; Ulrich, P. (2007): Einzelhandel und Verkehr – Ergebnisse einer Mul-tiagentensimulation von Konsumentenentscheidungen. In: Zeitschrift für Verkehrs-wissenschaft, 2007, Heft 3, S. 176-191.

Schreyer, C.; Maibach, M.; Sutter, D.; Dol, C.; Bickel, P. (2007): Externe Kosten des Ver-kehrs in Deutschland – Aufdatierung 2005. Zürich.

Page 252: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Florian Harder, Jürgen Rauh240

Universität Würzburg, Lehrstuhl für Künstliche Intelligenz und Angewandte Informatik (2009) (online): Multi-Agent Simulation Environment. Zugänglich unter: http://www.simsesam.de (zugegriffen am 21.5.2009).

Wermuth, M. (2005): Modellvorstellungen zur Prognose. In: Steierwald, G.; Künne, H. D.; Vogt, W. (Hrsg.): Stadtverkehrsplanung – Grundlagen, Methoden, Ziele. Berlin, Heidelberg, New York, S. 243-295.

Wiedmann, T.; Kersten, J.; Ballschmiter, K. (2000): Art und Menge von stofflichen Emis-sionen aus dem Verkehrsbereich. Literaturstudie. (Arbeitsbericht Nr. 146 der Akade-mie für Technologiefolgeabschätzung in Baden-Württemberg, Stuttgart.

Page 253: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 241

Vom qualitativen Material zur Simulation

Tilman A. Schenk

1 Anschlussfähigkeit von Agentensimulationen an sozialwissenschaftliche Methodik

Agentenbasierte Simulationen werden immer öfter zur Analyse sozialer Prozesse her-angezogen. Was sie so attraktiv macht, ist ihre Fähigkeit, die Simulationsobjekte (die Agenten) mit Handlungsregeln auszustatten und sowohl untereinander als auch mit ihrer Umwelt in Austauschbeziehungen treten zu lassen, die denen von Menschen in der realen Welt stark ähneln. Dadurch ist es möglich, Agentenmodelle viel stärker als formaltheoretische Modelle an der ganzen Breite existierender sozialwissenschaftlicher Theorien zu orientieren. Diese basieren grundsätzlich auf der Annahme der Existenz von Regularitäten in sozialem Verhalten; je nach epistemologischer Orientierung werden diese entweder in Variablenausprägungen oder in sozialen Praktiken gesucht. Simulati-onen bieten hier den Vorteil, dass sie keine der beiden Erkenntniswege aus technischen Gründen von vornherein ausschließen müssen.

Agentenmodelle können sich also sowohl auf quantitative wie auf qualitative Daten stützen. Für einen Teil der Eigenschaften, die den Agenten zugeschrieben werden (Klügl 2001), bieten sich eher quantitative Erhebungs- und Analysemethoden an (Abb. 1):

Für eine Einbettung in eine Umwelt (Situiertheit) wird in der Regel lediglich ein •Koordinatenpaar benötigt; zusätzlich können etwa Sichtweite oder -winkel definiert werden. Eine solche Einbettung kann aber auch relational über die Feststellung des Vorhandenseins von Austauschbeziehungen und ggf. ihrer Intensität erfolgen. Auch diese sind leicht operationalisierbar und somit quantitativer Analyse (Netzwerkana-lyse) zugänglich.

Auch die Fähigkeit, auf Veränderungen dieser Umwelt zu reagieren (Reaktivität), •lässt sich leicht quantitativ formulieren: „Wenn mehr als 50 % der unmittelbaren Nachbarn einer anderen Ethnizität als der eigenen angehören, ziehe zu einem Stand-ort, der diese Bedingung nicht erfüllt“ aus dem Schelling’schen Segregationsmodell (Schelling 1971; O’Sullivan 2008) ist ein prominentes Beispiel dafür. Solche Regeln lassen sich natürlich auch sehr viel komplexer und realitätsnäher gestalten, wie der Beitrag von Andreas Koch in diesem Band belegt.

Schließlich liegt auch die Unterfütterung der Zielstrebigkeit durch eine entsprechen-•de Zielfunktion (Maximierung eines Gewinns, Minimierung einer Fahrzeit) recht nahe.

Page 254: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk242

Abb. 1: Grundlegende Eigenschaften der Agenten (Quelle: Eigene Darstellung)

Als Grundlage für die übrigen Eigenschaften von Agenten sind jedoch stärker qualitative Aussagen gefragt: Wann ein Individuum ohne direkte Einwirkung von außen selbst die Initiative ergreift (Autonomie), wie Kommunikationsprozesse vonstattengehen (Sozia-lität) und die Ausgestaltung anderer anthropomorpher Eigenschaften, zum Beispiel die Fähigkeit, sich an Umweltzustände und eigene Handlungen in der Vergangenheit zu erinnern, sind schwer bis gar nicht zu operationalisieren und müsste sich für eine empi-rische Untermauerung auf Ergebnisse qualitativer Analysen stützen. Hier ist jedoch ein Forschungsdefizit festzustellen: Vielfach werden in diesem Bereich empirische Begrün-dungen durch eine Reihe plausibler Annahmen ersetzt.

Zwei Beispiele seien hierfür angeführt: Zur Simulation von Konsumentenentscheidungen bei der Wahl des Einkaufsortes für Lebensmittel nutzte Schenk (2008) eine Reihe von quantitativen Daten aus Bevölkerungs- und Wirtschaftsstatistiken sowie standardisierte Erhebungen für die Haushalte und Lebensmittelgeschäfte. Als Entscheidungslogik wur-de dann angenommen, dass die simulierten Haushalte einen von ihrer Einkaufsortent-scheidung erwarteten Nutzen maximieren, wobei der Distanz des Einkaufsortes vom Wohn- oder Arbeitsort der Haushaltsmitglieder eine nutzenmindernde Rolle zugewiesen wurde. Gaube et al. (2008) generieren solche Annahmen immerhin aus qualitativen For-schungsprozessen, indem sie die Akteure einer simulierten Landnutzungsentwicklung im Rahmen von Workshops in den Aufbau des Simulationsmodells einbinden. Daraus entstehen für das Modell empirisch begründete Handlungsregeln wie z. B.: „Der Erhalt des eigenen landwirtschaftlichen Betriebs ist wichtiger als eine Maximierung des Ein-

Page 255: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 243

kommens, wobei jedoch ein bestimmtes Mindesteinkommen und ein bestimmtes Maß an Freizeit pro Tag zur Verfügung stehen muss“ (S. 20). Die konkrete untere Einkom-mensgrenze wurde dann jedoch wiederum quantitativ definiert (15.000 € pro Jahr und Haushaltsmitglied) und einer nicht näher benannten Studie der GfK entnommen.

Über die Gründe hierfür kann nur gemutmaßt werden: Zunächst ist auffällig, dass bei der Entwicklung oder besser dem Einzug quantitativer und qualitativer Methoden in die Sozialwissenschaften und auch der Humangeographie die zu analysierenden Daten und Materialien erst erzeugt werden mussten, wofür ebenfalls neue Methoden entwickelt wurden. Dies ist für die Simulation als Analyseinstrument nicht vergleichbar der Fall: Hier wird eine neue Technik angewandt, die keiner spezifischen Datenerhebung bedarf, sondern die Ergebnisse vorhandener Erhebungsmethoden nutzbar machen kann. Ob nun eher quantitativ oder qualitativ gewonnene Erkenntnisse in ein Simulationsmodell einfließen, wird also nicht technisch bestimmt, sondern hängt dann stark von anderen Faktoren ab: Im günstigsten Fall können die qualitativen Teile der Agenteneigenschaf-ten mit Annahmen belegt werden, die bereits aus einer Breite sozialwissenschaftlichen Theoriewissens entspringen, also bereits qualitativ begründet sind. Aus einer stärker institutionellen Sicht ließe sich feststellen, dass Simulationstechniken im Allgemeinen unter quantitativ arbeitenden Wissenschaftlern auf größeres Interesse stoßen, was die Entstehung einer „Simulations-Community“ dort wesentlich begünstigt hat und inner-halb dieser zu einem methodischen Kompetenzungleichgewicht geführt hat. Schließlich könnten aber auch Gründe der Forschungspraxis eine Rolle spielen: Für viele Anwen-dungsbereiche, etwa in der Stadtforschung, sind quantitative Daten schnell und einfach verfügbar und lassen sich leichter für die Verwendung als Datenbasis oder für die Vali-dierung des Modells aufbereiten.

Der Integration qualitativer Daten in Simulationsmodelle stehen aber noch einige weite-re grundlegende Schwierigkeiten gegenüber, die im folgenden Kapitel näher beleuchtet werden. Anschließend wird ein Forschungsprogramm entworfen, um dieser Diskrepanz zu begegnen. Am Beispiel der Aufarbeitung von Texten aus Experteninterviews und Beobachtungsprotokollen wird gezeigt, wie qualitative Daten für ein agentenbasiertes Simulationsmodell zugänglich gemacht werden können. Der Beitrag schließt mit der Vorstellung einer systematisch aus Interviewnarrativen erstellten agentenbasierten Si-mulation eines Akteursnetzwerks in einem kommunikativen Planungsprozess.

Page 256: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk244

2 Grundlegende Schwierigkeiten der Integration qualitativer Daten in Simulationsmodelle

2.1 Das Problem der Generalisierung

Zunächst können Regelhaftigkeiten sozialen Handelns aus Experteninterviews durchaus abgeleitet werden, wie folgendes Beispiel aus einem Bürgermeisterinterview zeigt:

„Ich studiere jeden Früh, wenn ich auf Arbeit komme, zuerst die Zeitung. Und sehe

und informier mich über die Aktivitäten der Nachbarn, der Nachbargemeinden,

selbst über die Kreisgrenzen hinaus, um zu sehen, was dort läuft. […] Das ist dann

Anlass genug, einfach dort mal anzurufen.“ (B3/14; Hervorhebungen: TS)

Zusammenfassend lässt sich festhalten, dass dieser Bürgermeister Informationen aus anderen Gemeinden zunächst und regelmäßig über die Presse bezieht. Will er etwas genauer wissen, kontaktiert er seinen Bürgermeisterkollegen dort direkt. Daraus ließe sich etwa folgern, dass ein Netzwerk unter den Bürgermeistern besteht, das jedoch nicht in erster Linie zum direkten Informationsaustausch genutzt wird. Die Bindungen sind vielmehr ‚still’ und werden erst bei einem konkreten Anlass ‚aktiviert’.

Aus erkenntnistheoretischer Sicht sind jedoch solche Aussagen aus qualitativen Inter-views über das Kommunikationshandeln nicht generalisierbar, weder für dieselbe Person in anderen Situationen (bei einem zufälligen Zusammentreffen werden eventuell doch Informationen direkt ausgetauscht) oder für andere Personen in ähnlichen Situationen (Informationsbeschaffung anderer Bürgermeister). Eine aus diesem Zitat abgeleitete Handlungsregel für eine Simulation müsste also auf die genannte Person beschränkt und an die bestimmte Situation gebunden bleiben. Diese Bedingung kann nur dann etwas gelockert werden, wenn sich ähnliche Handlungsmuster in anderen Interviews wieder finden lassen, wie dies in diesem Fall eintrat:

„Dann hat man mal eine Frage zu einem ganz anderen Thema, da ruft man eben,

wenn man was gelesen hat in der Vorbereitung, einen Bürgermeister [an] und sagt,

Mensch, was ist denn das?“ (B1/55)

„Gerade die Bürgermeisterkollegen kenn ich zum Teil schon länger; Wir telefonie-

ren bei, halt wenn man mal ’ne Frage hat.“ (B2/13, 20; Hervorhebungen: TS)

Im Sinne einer induktiven Modellerstellung aus dem empirischen Material heraus ist also eine jede Handlungsregel an die entsprechende Situation und Person gebunden. Jede Übertragung auf andere Personen oder Situationen muss ebenfalls im Material begründet sein.

Page 257: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 245

2.2 Das „Theory-of-Everything“-Problem

Beim „Theory-of-Everything“-Problem handelt es sich um ein grundsätzliches Problem der Erkenntnisgewinnung in den Sozialwissenschaften. Dahinter verbirgt sich die Auffas-sung, dass aufgrund der Komplexität gesellschaftlicher Lebensformen, Effekte im Sinne einer einfachen Ursache-Wirkungs-Relation nicht isoliert werden können. Vereinfacht gesagt, herrschen zu keiner Zeit Bedingungen eines Laborexperiments, in dem bestimm-te Einflüsse gezielt hinzu- oder ausgeschaltet werden können, stets hängt alles mit allem irgendwie zusammen. Dieser Sachverhalt war unter Anderem Anlass der Kritik an quan-titativer Forschung auf einer kritisch-rationalistischen Grundlage und führte in der Folge zur Entwicklung phänomenologischer Forschungsansätze.

Simulationen müssen hingegen einen Ausschnitt der Gesellschaft zumindest für einen begrenzten Zeitraum als geschlossenes System behandeln. Die simulierten Agenten mö-gen zwar untereinander und mit der sie umgebenden Umwelt in Wechselwirkung treten, wie diese Beziehungen zu Agenten außerhalb der Simulation bestehen sollen, kann aber kaum sinnvoll formuliert werden. Dieses Problem scheint jedoch dann weniger kritisch zu sein, wenn man sich vergegenwärtigt, dass der Anspruch der Umfassendheit an eine Simulation ebenso wenig zielführend erscheint, wenn es um das Bearbeiten einer be-grenzten Fragestellung geht. Umfang und Grenzen einer Simulation sollten also benannt werden dürfen, sofern das Fortlassen nicht einbezogener Sachverhalte begründet wird (Edmonds 2008). Verfolgt man konsequent die Strategie einer induktiven Modellerstel-lung aus dem empirischen Material heraus, so scheint die Gefahr, dass die Simulation Aspekte einbezieht, die nicht empirisch begründet sind, eher gering. Dazu gehört aber auch, dass alle Aspekte, über die keine Informationen vorliegen, gezielt ausgeschlossen werden, anstatt die fehlenden Informationen durch Annahmen zu ersetzen.

3 Forschungsprogramm und empirisches Beispiel

Nach diesen eher konzeptionellen Überlegungen soll in diesem Abschnitt nun der Auf-bau einer Simulation aus qualitativem Material im Detail erläutert werden. Als Fallbei-spiel dafür wurde ein sozialer Prozess gewählt, der stark auf den kommunikativen und anthropomorphen Eigenschaften von Simulationsagenten angewiesen ist. Seit etwa zwei Jahrzehnten sind die theoretischen und praktischen Vorstellungen von Planungs-prozessen einem grundlegenden Wandel unterworfen (Schenk 2010): Anstelle von mo-nolithischen hierarchiegeprägten Planungsansätzen treten zunehmend solche, die stark auf der Kommunikation und Partizipation der beteiligten Akteure beruhen. In der Pla-nungspraxis spiegelt sich dies unter Anderem in der Ausgestaltung der Regionalförder-programme der Europäischen Union wieder, die einen großen Wert auf die Entwicklung von integrierten Entwicklungskonzepten legen. Ziel derselben ist, ein Netzwerk von re-gionalen Akteuren zu etablieren, die gemeinsam über die Verwendung von Fördergel-dern entscheiden.

Page 258: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk246

Als Forschungsprogramm zur Anwendung einer Agentensimulation in diesem Bereich sollen die Handlungsregeln der beteiligten Akteure detektiert werden. Hierbei ist zu beachten, dass jeder dieser Akteure mehrere Rollen einnehmen kann: Bürgermeister, Vertreter von Gemeindeverwaltungen, sozialen Einrichtungen, Unternehmer und Privat-personen werden über verschiedene Gremien und sonstige Institutionen in die Prozesse eingebunden. Als Leitfragen für die Simulation wurden festgelegt: Wie werden nun in dem Netzwerk der Akteure Ideen für Förderprojekte generiert und weiterverfolgt? Kön-nen Möglichkeiten der Verbesserung dieser Prozesse identifiziert werden?

Als Untersuchungsraum wurde das ILE-Gebiet (SMUL 2007) „Sächsisches Zweistrom-land“ in Sachsen ausgewählt (www.zweistromland.org). Die Simulation unterscheidet in der aktuellen Version zwei Agentenklassen: den Agenten ‚Regionalmanagement’, des-sen Aufgabe es ist, die Prozesse der Generierung von Förderprojekten zu koordinieren und die Agentenklasse ‚Regionaler Akteur’, der je nach eingenommener Rolle verschie-dene Aufgaben der Generierung von und Entscheidung über Projekte übernimmt. Als Simulationsumgebung kommt das Simulationsshell „Sesam“ (www.simsesam.de) zur Anwendung, das die Verwendung von qualitativen Handlungsregeln für die Agenten besonders erleichtert. Anhand der Aktivitätsgraphen der beiden Agentenklassen wird nun der Ablauf der Simulation im Detail erläutert, wobei stets der Bezug zu den entspre-chenden Belegen in den Akteurinterviews sowie in den Protokollen eigener Beobach-tung (z. B. von verschiedenen Gremiensitzungen) hergestellt wird.

Als kleinste Zeiteinheit der Simulation (einzelne Takte) wurde die Dauer eines Tages ge-wählt. Zentrales Element beider Aktivitätsgraphen ist ein so genannter Entscheidungs-knoten (in der geometrischen Form einer Raute), von wo aus unter bestimmten Be-dingungen die diversen Einzelaktivitäten der Agenten aufgerufen werden können. So versendet der Agent ‚Regionalmanagement’ (Abb. 2, oben) zu Beginn eines jeden Mo-nats eine Einladung an die Mitglieder des Regionalen Entscheidungsgremiums (REG) für die nächste Sitzung, auf der über die beantragten Förderprojekte abgestimmt werden soll. Einen Tag nach der Sitzung (Aktivität ‚Nachbereitung REG’) werden die entschiede-nen Projekte aus der Arbeitsliste entfernt, die genehmigten Fördersummen vom Budget abgezogen und Antragsteller, die sonst keine Funktion haben, aus der Simulation ent-fernt. Diese beiden Aktivitäten sind eher technischer Natur und beruhen auf der selbst beobachteten Verfahrenspraxis des Regionalmanagements. Eine weitere Aufgabe ist die Betreuung von Projektträgern. Hier werden vor allem Privatpersonen und Unternehmer, die sonst nicht in den Gremien der Genossenschaft vertreten sind, angesprochen und bei der Beantragung von Fördergeldern begleitet. Da diese Personen hierbei „gefunden“ werden müssen und erst danach für die weitere Simulation relevant sind, werden sie zu diesem Zeitpunkt erst erzeugt (Funktion ‚CreateObjectsAndRemember’) und ihr Projekt für die nächste Sitzung des REG zur Entscheidung vorgemerkt. Dieses Vorgehen ist auch durch ein Interviewzitat belegbar:

Page 259: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 247

„Die Sitzungen werden vorbereitet hauptsächlich durch das Regionalmanagement,

weil die ja in ihrer alltäglichen Arbeit draußen wirklich versuchen, Projekte zu fin-

den mit den Trägern.“ (B1/19)

Abb. 2: Aktivitätsgraphen der Agenten „Regionalmanagement“ (oben) und „Regionaler Akteur“ (unten) (Quelle: Eigene Darstellung)

Die übrigen beteiligten Personen werden von der Agentenklasse ‚Regionaler Akteur’ re-präsentiert (Abb. 2, unten). Jeder von ihnen kann bis zu drei Rollen einnehmen, die über die Relevanz einzelner Aktivitäten entscheiden: So sind z. B. neben den Antragstellern, deren Projekte behandelt werden, nur Mitglieder des REG zur Teilnahme an der Sitzung zugelassen, nur die Stimmberechtigten dürfen auch abstimmen usw. Prinzipiell kön-nen auch alle diese Akteure (die nicht vom Regionalmanagement „gefunden“ werden) Projektanträge einreichen (Aktivität ‚kreiere Projekt’) und zur Entscheidung anmelden.

Page 260: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk248

Diese werden dann auf der Sitzung von den Projektträgern vorgestellt:

„Einladung zum Regionalen Entscheidungsgremium mit der entsprechenden Ta-

gesordnung, wo sich dann die einzelnen Projektträger mal mehr, mal weniger gut

vorbereitet dann dem Entscheidungsgremium stellen.“ (B1/19)

In der Aktivität ‚REG-Sitzung (Akteur)’ sind die Vorgänge der Sitzungen des Regionalen Entscheidungsgremiums zusammengefasst. Sie wird jeweils am Tag der Sitzung (wie durch die Einladung des Regionalmanagements festgelegt) aufgerufen. An der Sitzung nehmen nur die Mitglieder (teils mit, teils ohne Stimmrecht) und die aktuellen Projekt-träger teil. Nach der Vorstellung der Projekte durch die Träger sollen Mitglieder darüber beraten und schließlich abstimmen. Über diesen Vorgang wurden in den Interviews u. a. folgende Aussagen getroffen:

„Ich habe so persönlich das Gefühl momentan, dass viele Projekte, wie will ich denn

jetzt mal sagen, durchgewunken werden. Wo man einfach sagt, Mensch, klingt erst

mal gut, wird gut vorbereitet sein, ist jetzt nicht der große Posten, passt ins Budget,

Geld ist da, was wollen wir jetzt lange rumdiskutieren, machen!“ (B1/19)

„Also ich würde viel mehr durchwinken, unproblematischer, weil wir uns ja nichts

vergeben, wenn wir zustimmen. Wenn wir viel mehr Antragsteller hätten, poten-

zielle, dass das Geld tatsächlich knapp werden könnte, könnten wir noch drüber

reden, dass man dann Prioritäten setzt, aber im Moment sieht’s ja eher so aus, als

hätten wir zu wenig Antragsteller.“ (B2/36)

Eine echte Debatte über die Projekte findet in aller Regel nicht statt; dies deckt sich auch mit Resultaten von Beobachtungen der Sitzungen. Entscheidend hierfür ist, dass das Budget nicht knapp wird. Hier wird nun die Strategie einer induktiven Modellerstellung besonders deutlich: Statt nun komplexe Entscheidungsmechanismen der REG-Mitglie-der anzunehmen, kann empirisch belegbar nur simuliert werden, dass diese solange den Projekten zustimmen, wie das Budget ausreicht. Dies wird auch dadurch unterstützt, dass die Probanden im Interview, nach den aus ihrer Sicht wichtigsten Argumenten für ihre Zustimmung gefragt, eher unsicher und ausweichend antworteten:

„Ich denke mal, wir müssen wirklich hier versuchen, Ideen zu haben, die also zu

mindestens nicht der übernächste Nachbar hat.“ (V1/51)

„Das ist eine ganz schwere Gratwanderung, dort in dem Regionalen Entschei-

dungsgremium, dort mit den Bürgermeistern, dort mit den Akteuren in der Region

einfach solche, ich bezeichne es mal, Knallerprojekte zu finden.“ (B1/30)

„… was Arbeitsplätze schafft, was Bausubstanz in irgend‘ner Form erhält, was

damit zur Verbesserung der Ortsbilder beiträgt, jede Straße, die gemacht wird.“

(B2/65)

Page 261: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 249

Immer wieder erwähnt, meist sogar als erstes Argument, wird auch das Kriterium der Vereinbarkeit mit der Förderrichtlinie, was aber eher Thema einer juristischen Prüfung und nicht Kern einer Debatte sein kann.

Da es Ziel der EU-Förderpolitik ist, durch die Errichtung solcher Gremien- und Entschei-dungsstrukturen Netzwerke zwischen den Akteuren aufzubauen, sind diese ebenfalls von Bedeutung für die Simulation. Bei ihrer Repräsentation wurde bewusst auf quanti-fizierbare Messgrößen verzichtet. Stattdessen wurde auch der Netzwerkaufbau lediglich aus Interviewpassagen abgeleitet. Zunächst kann festgestellt werden, dass Die Akteure durch die Institution der REG-Sitzungen ein Netzwerk aufbauen, wobei häufiges Aufei-nandertreffen den Bekanntheitsgrad erhöht:

„Insofern hat mir jetzt erst die Mitarbeit in diesem REG, regionalen Entscheidungs-

gremium, durchaus ein paar Hinweise gegeben, wie was gehen könnte; man hat

erst mal die Vertreter […] kennengelernt.“ (U1/6)

„Es bringt auch die Region zusammen, […] dass wir hier in der Region um Oschatz

über Maßnahmen meinethalben in Strehla mitentschieden haben.“ (B3/17)

Ohne Quantifizierung werden diese Netzwerke in der Simulation als einfache ‚Be-kanntheitslisten’ eines jeden Agenten dargestellt, wobei bei einem Zusammentreffen der jeweils getroffene Agent an den Beginn der Liste verschoben wird (Aktivität ‚treffe Akteur’). So lassen sich auch Einflüsse auf die Netzwerke, die von anderen Treffen her-rühren, einfach darstellen. Dies trifft insbesondere auf die Bürgermeister zu, die in ihrer Eigenschaft auch in anderen Gremien außerhalb der Genossenschaft zusammenkom-men, etwa in Ausschüssen des Kreistages:

„Also das ist eben das Schwierige, dass man in vielen Gremien als Bürgermeister

drin sitzt unter Bürgermeistern.“ (B1/12)

Eine Auswirkung davon ist, dass die Bürgermeister untereinander viel enger vernetzt sind, was auf diese Weise ohne weitere Annahmen in der Simulation herbeigeführt wer-den kann. Damit spielen sie auch innerhalb der Genossenschaft eine gewichtige Rolle, was wiederum durch Interviewzitate belegbar ist:

„Die dann auch einfach mal gegen […] diese Übermacht auch der politischen Gre-

mien dann einfach mal eine Macht aufbauen […] Die auch mal den Bürgermeistern,

den politischen so dann richtig schön Paroli bieten. Das ist nicht da.“ (B1/34)

„Hab ich so noch nicht erlebt, dass es jetzt so ‚ne Art Grüppchenbildung gegeben

hat, ‚ne Opposition gegen die Dinge, die die Bürgermeister wollen oder nicht wol-

len. Das hat‘s nie gegeben.“ (B3/23)

Page 262: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk250

Hier wird eine unterschiedliche Bewertung dieser Situation durch die beiden Probanden deutlich: Während B1 sich mehr Meinungsäußerungen der Nicht-Bürgermeister zu wün-schen scheint, hält B3 diese herausragende Position für durchaus legitim. Dieses Privileg wird durch die übrigen REG-Mitglieder durchaus akzeptiert:

„Die kannten sich ja auch alle die ganze Zeit schon. Und da waren untereinander

wahrscheinlich schon mehr Kontakte geknüpft. Also ich komm als Außenseiter,

Quereinsteiger dazu. Aber vielleicht muss ich auch gar nicht so viele Kontakte

knüpfen.“ (U1/8)

Herr B3, hier. Da ist für mich schon mit maßgebend, was er so hier zu sagen hat.

(V1/76)

Da die Auswirkungen auf die Arbeit jedoch noch weitgehend unklar sind und erst wei-tergehend untersucht werden müssen, wurde bislang auf eine Einarbeitung in das Mo-dell verzichtet. Die bessere Vernetzung der Bürgermeister untereinander, die lediglich durch das häufigere Zusammentreffen herbeigeführt wird, kann aber durchaus einfach analysiert werden. Hierzu kann etwa der Mittelwert der Positionen der Bürgermeister in den Bekanntheitslisten (bezeichnet als ‚Vernetzungsgrad’) innerhalb verschiedener Gruppen der beteiligten Agenten miteinander verglichen werden. In Abbildung 3 sind einige beliebige Simulationsläufe gezeigt, wobei diese Positionsmittelwerte über die ganze Simulationslaufzeit hinweg aufgezeichnet wurden. Die oberste Kurve stellt je-weils den Vernetzungsgrad der Bürgermeister untereinander dar, die anderen die Ver-netzungsgrade anderer Agentengruppen. Bei letzteren sind einmal im Monat deutliche Stufen zu erkennen, die die Sitzungstermine des REG kennzeichnen. Sofort fällt auf, dass die Kurven der Bürgermeister untereinander solche Stufen auch zwischen diesen Terminen aufweisen.

Page 263: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 251

Abb. 3: Graphen der Vernetzungsgrade verschiedener Agentengruppen in einer Auswahl von vier Simulationsläufen (Quelle: Eigene Darstellung)

V V

V V

Page 264: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Tilman A. Schenk252

4 Forschungsprogramm und empirisches Beispiel

Die vorangegangenen Ausführungen haben aufgezeigt, dass die Erstellung von Agen-tenmodellen auf Basis qualitativen empirischen Materials nicht nur möglich ist, sondern dem regelbasierten Aufbau der Modelle sogar noch entgegenkommt. Zu beachten ist jedoch, dass der induktive Charakter der Erhebungsmethoden sich auf die Praxis der Modellerstellung durchschlagen muss: Das Modell wird schrittweise aus dem empiri-schen Material erstellt, wobei Sachverhalte, die nicht aus dem Material begründbar sind, fortgelassen werden.

Für die weitere Entwicklungsarbeit sind folgende Schritte vorgesehen:

Zu einigen Aspekten kann noch zusätzliches empirisches Material in das Modell •eingearbeitet werden. Zum Beispiel liegen für die Häufigkeiten des Zusammentref-fens der einzelnen Agentengruppen außerhalb der Sitzungen noch Ergebnisse aus teilstandardisierten Befragungen vor. Auch die Beobachtungsprotokolle der REG-Sitzungen wurden bisher lediglich zur Kontrolle der Interviewzitate verwendet und können noch genauer über den Ablauf der Sitzungen Auskunft geben.

Nächste Erweiterungen der Simulation könnten sich somit auf den Ablauf der Sit-•zungen und der Diskussionen in einzelnen Gremien beziehen. Durchaus zu erwägen ist die Abbildung der Zusammenkünfte der REG-Sitzungen, auch wenn kontroverse Debatten dort eher nicht stattfinden. Jedoch konnte ja eine dominante Stellung der Bürgermeister in diesen Sitzungen nachgewiesen werden. Die Diskussionen den-noch nachzubilden und anschließend Szenarien aufzubauen, in denen diese privile-gierte Stellung nicht vorhanden oder anders ausgeprägt ist, kann für die Evaluation der Arbeit des Gremiums wertvolle Hinweise liefern.

Des Weiteren soll auch die Arbeit anderer Gremien stärker in den Fokus genom-•men werden. Dafür bietet sich insbesondere die Arbeit kleinerer Arbeitsgruppen zu bestimmten Themen, etwa der zukünftigen touristischen Vermarktung der Region oder einzelner Gemeinden an. Es wird vermutet, dass dort eher grundlegendere Diskussionen über die Entwicklungsrichtung der Region geführt werden als im REG, das doch eher als reines Entscheidungsgremium fungiert.

5 LiteraturEdmonds, B. (2008): Bootstrapping Knowledge about Social Phenomena using Simu-

lation Models. Centre for Policy Modelling, Manchester Metropolitan University Business School. Manchester. (CPM-Report 08-199):

http://cfpm.org/cpmreps.html (Stand: 15.03.2010).

Gaube, V. et al. (2008): Ein integriertes Modell für Reichraming. Partizipative Entwick-lung von Szenarien für die Gemeinde Reichraming (Eisenwurzen) mit Hilfe eines agentenbasierten Landnutzungsmodells. Social Ecology Working Paper 106, Wien.

Page 265: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Vom qualitativen Material zur Simulation 253

Klügl, F. (2001): Multiagentensimulation. Konzepte, Werkzeuge, Anwendungen. München.

O’Sullivan (2008): Geographical Information Science: Agent-Based Models. In: Progress in Human Geography 32/4, S. 541-550.

Schelling, T. C. (1971): Dynamic Models of Segregation. In: Journal of Mathematical Sociology 1, S. 157-180.

Schenk, T. A. (2008): Multiagentensysteme zur Simulation von Konsumentenentschei-dungen. Würzburger geographische Arbeiten 101.

Schenk, T. A. (2010): Der Komplexität gerecht werden. Potenziale agentenbasierter Si-mulation zur Evaluation kommunikativer Planungsprozesse. In: Raumforschung und Raumordnung 68/1, S. 25-34.

SMUL (2007): Integrierte ländliche Entwicklung. ILE- und LEADER-Gebiete im Freistaat Sach-sen 2007-2013. Staatsministerium für Umwelt und Landwirtschaft (Hg.), Dresden:

https://publikationen.sachsen.de/bdb/showDetails.do?id=176637 (Stand: 12.03.2010).

Page 266: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 267: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 255

Modellierung der Schulwahl im Stadtgebiet von Dresden anhand von Discrete Choice-Modellen

Frauke Seidel

1 Einleitung

In der Wissenschaft stellen Modelle, aufgrund ihrer vereinfachten Abbildung der Wirk-lichkeit, seit jeher ein bedeutendes Instrument zur Ableitung kausaler Zusammenhän-ge zwischen beobachtbaren Größen dar. Vor diesem Hintergrund erfolgt mit Hilfe von Discrete Choice-Modellen die Analyse von Einflussfaktoren auf individuelle Wahlent-scheidungen. Der Ansatz der Modellierung von individuellem Wahlverhalten ist heute besonders im Bereich der Verkehrsmittelwahl verbreitet. Alternativ dazu können Discrete Choice-Modelle aber auch Erkenntnisse zu Entscheidungen liefern, die sich beispielswei-se auf die Wahl von Destinationen beziehen. Diese im Englischen auch als ‚Destination

Choice Models‘ bezeichneten Ansätze, betrachten im Allgemeinen die Gründe für die Wahl touristischer Ziele (vgl. Woodside 1989; Thill 1992).

Eine Problemstellung, die sich in leicht abgewandelter Form ebenfalls auf die Wahl von Destinationen bezieht, stellt die Schulwahl im Stadtgebiet der sächsischen Landeshaupt-stadt Dresden dar. Auf Basis der aus einer Schülerbefragung zur Verfügung stehenden Daten wird die Schulwahlentscheidung Dresdner Gymnasialschüler im Folgenden mit Hilfe von zwei Discrete Choice-Modellen analysiert, die sich lediglich hinsichtlich des verwendeten Maximum-Likelihood-Schätzers unterscheiden.

Ziel ist es, Einflussfaktoren auf die Schulwahlentscheidung zu identifizieren sowie zu-künftige Marktanteile, auf Basis der aus der Modellierung vorliegenden Ergebnisse, für die betrachteten Gymnasien zu ermitteln. Dabei erfolgt die Anwendung unterschied-licher Schätzverfahren auf eine identische Modellspezifikation, um eine vergleichende Beurteilung der verwendeten Methoden vorzunehmen und eine Einschätzung zur Qua-lität der jeweiligen Resultate abzuleiten.

Im folgenden Kapitel wird zunächst die Datengrundlage der Schulwahlmodellierung vorgestellt, bevor Kapitel 3 einen Einblick in die theoretischen und formalen Rahmen-bedingungen der Modellierung mit Discrete Choice-Modellen gibt. Die Ergebnisse der Schulwahlmodellierung werden in Kapitel 4 betrachtet. Darauf aufbauend erfolgt an-schließend in Kapitel 5 die Vorhersage der Marktanteile für ein zukünftiges Schuljahr. Abschließend werden die wichtigsten Erkenntnisse kurz zusammengefasst und Grenzen der Modellierung aufgezeigt.

Page 268: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel256

2 Datengrundlage

Die Daten zur Modellierung der Schulwahl in der sächsischen Landeshauptstadt Dresden stammen aus einer im Jahr 2004 durchgeführten Studie zum Mobilitätsverhalten Dresd-ner Schüler. Für die Modellierung des Schulwahlverhaltens werden aus dieser Befragung 5 215 Beobachtungen von Schülern der Klassenstufen 5 bis 12 an 17 der damals exis-tierenden 23 Gymnasien verwendet. Im Rahmen der Befragung wurden Merkmale der einzelnen Schulen sowie der befragten Schüler ermittelt, welche in die spätere Model-lierung als Erklärungsvariablen einfließen. Bei den erhobenen schulspezifischen Merk-malen handelt es sich u. a. um Distanzen zwischen Schule und Stadtzentrum/Wohnort der Schüler, Profile der Schulen (z. B. sprachlich, mathematisch), die Anzahl der Klassen pro Jahrgang sowie die Trägerschaft (öffentlich oder privat) der jeweiligen Schule. Hin-sichtlich der befragten Schüler fließen das Geschlecht der Schüler, das durchschnittliche Haushaltseinkommen sowie die Lage des Wohnortes der Schüler bzgl. der Elbe in die Modellierung ein.

Die Alternativenmenge J, aus der die Schüler ein Gymnasium wählen, umfasst im Schuljahr 2003/04 17 Schulen, von denen sich drei in privater Trägerschaft befinden1. Eine Übersicht der Lage der betrachteten Gymnasien im Schuljahr 2003/04 enthält Abbildung 1.

Abb. 1: Räumliche Lage der betrachteten Schulen im Stadtgebiet von Dresden (Quelle: Eigene Darstellung)

1 Eine ausführliche Darstellung aller Alternativen und ihrer Eigenschaften findet sich in Tabelle 1.

Page 269: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 257

Tab. 1: Übersicht der in der Modellierung berücksichtigten Alternativen und ihren Eigenschaften (an den Schulen PEST, HE, FL und JAS wurde keine Befragung durchgeführt)

Kurz

form

Gym

nasiu

mVe

rfüg­

bark

eit

(%)

Anza

hl

Klas

sen

pro

Jahr

gang

Dist

anz z

ur

gewä

hlte

n Sc

hule

(km

)

Dist

anz z

um

Stad

tzen­

trum

(k

m)

Profi

leTr

äger

scha

ft

MW1

δ2m

ath.

spra

chl.

küns

tl.ST

BESt

.-Ben

no10

03

5,27

2,62

0,832

xx

xpr

ivat

MCMa

rie-C

urie

100

44,4

13,0

20,3

97x

--

öffen

tlich

BBBe

rthold

-Bre

cht

100

52,5

42,2

71,8

99x

x-

öffen

tlich

DKS

Dreik

önigs

schu

le10

04

3,31

2,92

1,979

x-

xöff

entlic

hW

ALD

Wald

orfsc

hule

100

25,7

63,1

72,7

26-

--

priva

tRO

RORo

main-

Rolla

nd10

03

4,39

3,02

1,428

-x

-öff

entlic

hPE

STPe

staloz

zi10

03

--

3,519

x-

-öff

entlic

hKL

OTKl

otzsc

he10

03

2,08

1,89

7,582

xx

-öff

entlic

hDK

S2Au

ßens

telle

Dreik

önigs

schu

le10

02

2,31

1,57

7,882

x-

-öff

entlic

hMA

NMa

rtin-A

nder

sen-

Nexö

100

33,5

32,4

14,1

81x

--

öffen

tlich

EVKZ

Evan

gelis

ches

Kre

uzgy

mnas

ium10

03

3,88

2,85

3,828

xx

xpr

ivat

JOHA

Jose

ph-H

aydn

40,0

34,8

73,0

52,4

01x

-x

öffen

tlich

HEHa

ns-E

rlwein

100

5-

-3,6

31x

x-

öffen

tlich

GZW

Groß

zsch

achw

itz67

,84

2,33

2,49

8,193

x-

-öff

entlic

hJA

HJu

lius-A

mbro

sius-H

ülße

100

42,2

31,8

25,2

38x

x-

öffen

tlich

WUS

TEr

ich-W

ustm

ann

39,4

3-

-6,8

57x

x-

öffen

tlich

FTFr

itz-L

öffler

67,6

32,2

82,1

51,9

91x

x-

öffen

tlich

VITZ

Vitzt

hum

100

42,0

91,6

22,7

46x

-x

öffen

tlich

PLAU

Plau

en10

06

2,09

1,65

3,762

xx

-öff

entlic

hCO

TTCo

tta10

06

2,74

1,66

4,219

x-

xöff

entlic

hJA

SJo

hann

-And

reas

-Sch

uber

t39

,44

--

4,287

x-

-öff

entlic

hM

ittelw

ert

3,30

2,37

3,72

1 Mitte

lwer

t2 St

anda

rdab

weich

ung

Page 270: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel258

3 Discrete Choice-Modelle

Die Abbildung der Rahmenbedingungen und kausalen Zusammenhänge zwischen ver-schiedenen Einflussvariablen, die die Schulwahl bedingen, erfolgt unter Anwendung diskreter Entscheidungsmodelle. Das grundlegende Konzept sowie den theoretischen Rahmen auf dem diese Modellierung basiert, liefert die Zufallsnutzentheorie.

Im Rahmen dieser Theorie wird angenommen, dass die in der Modellierung betrachte-ten Entscheidungsträger ihr Handeln am Konzept der Nutzenmaximierung ausrichten. Der Nutzen eines Individuums n bezüglich einer Alternative j ergibt sich formal zu

, (1)

wobei Vnj den deterministischen Nutzenanteil darstellt. Dieser ergibt sich als Linearkom-bination verschiedener Einflussgrößen zu

. (2)

Dabei bezeichnet xnj verschiedene, im Rahmen einer Stichprobe erfasste, Attribute der Entscheidungsträger und Alternativen und β = (β1, β2, …, βh) einen Vektor von h unbe-kannten Parametern. Der Schätzung dieser Paramter gilt das gesamte Interesse der Mo-dellierung. Die Variable εnj in Gleichung (1) bezeichnet die zufällige Nutzenkomponente. Sie erfasst alle Einflüsse auf den Gesamtnutzen Unj, die nicht bereits in Vnj enthalten sind. Folglich gilt Unj ≠ Vnj. Der grundlegenden Annahme der Zufallsnutzentheorie folgend, wählt ein Entscheidungsträger n eine Alternative i aus einer Menge J von Alternativen aus, wenn Uni ≥ Unj für alle i gilt. Die entsprechende Formel für die Auswahlwahrschein-lichkeit ergibt sich zu

. (3)

Die Darstellung des Gesamtnutzens wird dadurch vervollständigt, dass der Modellierer entsprechend der vorliegenden Entscheidungssituation eine geeignete Verteilungsfunkti-on für den Vektor von Zufallsvariablen ε = (εn1, εn2, …, εnj) annimmt (vgl. Train 2003, 17).

3.1 Das Multinomiale Logit-Modell

Bezüglich der Fehlerterme εnj wird im Multinomialen Logit (MNL)-Modell angenom-men, dass diese über alle Alternativen i und Individuen n identisch und unabhängig extremwert- (oder Gumbel-) verteilt sind. Diese Annahme führt zu einer wichtigen Ei-genschaft des MNL, der Independence of Irrelevant Alternatives (IIA)-Bedingung. Die IIA-Bedingung besagt, dass die Verhältnisse der Auswahlwahrscheinlichkeiten zwischen zwei Alternativen unabhängig vom Vorhandensein anderer Auswahlmöglichkeiten und ihrer Attribute sind. Es ist somit möglich, Alternativen zum Modell hinzuzufügen oder diese zu entfernen, ohne dass sich Struktur oder Parameter des Modells ändern. Daraus resultiert die Möglichkeit, Auswahlwahrscheinlichkeiten für Alternativen vorherzusagen,

Page 271: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 259

die der Alternativenmenge J nachträglich hinzugefügt werden. Die Formel zur Berech-nung der Auswahlwahrscheinlichkeit im MNL lautet

, (4)

wobei aus Vereinfachungsgründen µ = 1 angenommen wird (vgl. Ben-Akiva 1991, 71).

In bestimmten Entscheidungssituationen, wie auch bei der Modellierung der Schulwahl, stellt diese Eigenschaft eine deutliche Restriktion im Hinblick auf die Anwendbarkeit des MNL dar. Aufgrund der räumlich nahen Lage einzelner Schulen zueinander werden im Schulwahlmodell Abhängigkeiten in den unbeobachteten Nutzenkomponenten zwi-schen Schulstandorten vermutet (vgl. Abb. 1). Die Modellierung mit Hilfe eines MNL, erweist sich aufgrund der Verletzung der IIA-Bedingung damit als unmöglich.

3.2 Das Nested Logit-Modell

Sind die Fehlerterme εnj zweier oder mehrerer Alternativen nicht unabhängig verteilt, ist zur Modellierung auf Discrete Choice-Modelle auszuweichen, die Korrelationen der zufälligen Nutzenkomponente zwischen Alternativen handhaben können. Das Nes-ted Logit (NL)-Modell umgeht die Verletzung der in Abschnitt 2.2 beschriebenen IIA-Bedingung, indem Alternativen mit gleichen oder ähnlichen Attributen bezüglich der zufälligen Nutzenkomponente in Teilmengen der ursprünglichen Alternativenmenge J zusammengefasst werden. Die erwähnten Teilmengen werden als Nester Bk, k = 1… K bezeichnet. Somit besitzt die IIA-Bedingung innerhalb der einzelnen Nester Gültigkeit, allerdings nicht über Nester hinweg. Die Alternativen innerhalb eines der k Nester zeich-nen sich dadurch aus, dass sie untereinander in engerem Wettbewerb stehen als zu Alternativen in einem anderen Nest. Gleichzeitig werden z. B. räumliche Abhängigkeiten zwischen den einzelnen Alternativen durch diese Zuordnungsstruktur vermieden. Im NL ergibt sich die Formel für die Auswahlwahrscheinlichkeit einer Alternative i als Produkt zweier Wahrscheinlichkeiten zu

. (5)

Es handelt sich bei Pni|Bk um die bedingte Wahrscheinlichkeit dafür, dass Alternative i bei gegebenem Nest k gewählt wird. Weiterhin bezeichnet Pn|Bk die marginale Wahrschein-lichkeit für die Auswahl einer Alternative aus Nest Bk.

Im Schulwahlmodell erfolgte eine anfängliche Zuordnung der einzelnen Schulstandorte zu verschiedenen Nestern zunächst mit Hilfe einer Cluster-Analyse. Eine gültige Nest-struktur wurde anschließend im Rahmen der Modellierung ermittelt (vgl. Abb. 2).

Page 272: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel260

Abb. 2: Nestzuordnung der Schulstandorte im Schuljahr 2003/04 (Quelle: Eigene Darstellung)

3.3 Schätzung der Modellkoeffizienten

Ziel der Modellierung mit Discrete Choice-Modellen ist es, unter Anwendung eines zuvor bestimmten Wahrscheinlichkeitsmodells und einer Stichprobe von Beobachtungen, die auf eine bestimmte Art aus einer Gesamtpopulation gewonnen wurde, die unbekannten Modellparameter β zu ermitteln (vgl. Maier und Weiss 1990, 112). Wird unterstellt, dass die zugrundeliegenden Beobachtungen Ergebnis einer Zufallsstichprobe sind, dann er-folgt die Modellschätzung mit Hilfe des Maximum-Likelihood-Verfahrens (ML). Die im Hinblick auf die gesuchten Modellkoeffizienten β zu maximierende ML-Funktion lautet

. (6)

Werden dagegen Daten aus nicht zufälligen Stichproben erhoben, ist zur Ermittlung kon-sistenter Modellkoeffizienten die Anwendung alternativer Schätzverfahren notwendig.

Im Rahmen der Modellierung der Schulwahl erfolgte die Datenerhebung als endogen geschichtete Stichprobe. Dabei wird die zu untersuchende Grundgesamtheit in G Teil-mengen zerlegt. Jede Teilmenge umfasst dabei alle Individuen, die sich für eine be-stimmte Alternative entschieden haben. Durch zufälliges Ziehen festgelegter Anteile aus jeder Teilmenge, ergibt sich die Stichprobe, wobei jede Beobachtung eine unterschied-liche Wahrscheinlichkeit besitzt. Im vorliegenden Fall wird die Grundgesamtheit durch

Page 273: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 261

die Gymnasialschüler in Dresden repräsentiert. Dabei stellen die Schüler der einzelnen Schulen die verschiedenen Teilmengen dar.

Aufgrund des beschriebenen Erhebungsverfahrens werden die Modellkoeffizienten im Schulwahlmodell mit Hilfe zweier Schätzer ermittelt, die auf dem ML-Verfahren beru-hen, aber jeweils eine Gewichtung der Likelihood-Funktion vornehmen. Es handelt sich hierbei um den Weighted Exogeneous Maximum Likelihood (WESML)-Schätzer und den Weighted Conditional Maximum Likelihood (WCML)-Schätzer (vgl. Bierlaire et al. 2008). Die entsprechenden Schätzfunktionen lauten

(7)

für den WESML-Schätzer sowie

(8)

für den WCML-Schätzer. Beide Verfahren nehmen eine Gewichtung der Likelihood-Funktion vor. In Gleichung (7) erfolgt diese Gewichtung mit Hilfe der bekannten Markt-anteile der entsprechenden Stichprobe. Dabei bezeichnet Hg den Anteil von Individuen der Teilmenge g in der Stichprobe und Wg den Anteil der Individuen in der Grundge-samtheit. Somit wird dem Umstand Rechnung getragen, dass aufgrund des verwende-ten Datenerhebungsverfahrens, jede Beobachtung mit einer unterschiedlichen Wahr-scheinlichkeit in die Stichprobe gelangt ist.

Im Gegensatz zum WESML-Schätzer, der bereits häufig in praktischen Fragestellun-gen angewendet wird und konsistente Modellparameter liefert, handelt es sich beim WCML-Schätzer um ein relativ neues und bisher wenig erprobtes Verfahren. Der Vorteil des WCML-Schätzers liegt gemäß Bierlaire et al. (2008) in seiner unkomplizierten Hand-habung, da detaillierte Informationen über die Marktanteile innerhalb der gezogenen Stichprobe nicht benötigt werden.

4 Modellierung der Schulwahl

Zur Ermittlung der Modellkoeffizienten wurden die in Kapitel 3 vorgestellten Schätzver-fahren (WESML und WCML) angewendet. Um die Vergleichbarkeit der Ergebnisse zu gewährleisten, ist in beiden Fällen sowohl die gewählte Modellspezifikation, als auch die Neststruktur identisch.

Mit Hilfe des Softwarepaketes Biogeme Version 1.8 (vgl. Bierlaire 2003) erfolgt die Schätzung der Modellparameter.

Page 274: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel262

Tab. 2: Ergebnisse der NL-Modelle mit WESML- und WCML-Schätzer

Para­meter Beschreibung

WESML WCMLKoeffizient t­Statistik Koeffizient t­Statistik

β1 Distanz Schüler-Schule in km -0,541 -34,16 -0,604 -39,82β2 Distanz Schule-CBD in km -0,0689 -4,93 -0,0855 -5,89β3 Private Schule ohne Profil -2,39 -6,67 -2,61 -7,00β4 Anzahl Klassen pro Jahrgang 0,169 8,44 0,201 10,05β7 Profil Mathe Schwerpunkt 0,423 4,22 0,432 3,79β8 Profil Mathe & Sprachen 0,247 4,32 0,563 9,49β9 Profil Mathe & Musik/Kunst 0,472 8,41 0,691 11,78β10 Schule und Schüler auf gleicher Elbseite 0,513 8,41 0,373 7,10β11 Profil Mathe & Sprachen & Musik/Kunst (private Schule) -1,680 -5,81 -1,41 -4,59β12 Profil Sprachen Schwerpunkt 0,576 5,49 0,958 8,84β13 Distanz zur Schule ≤ 1 km 0,332 6,81 0,305 6,42β16 Private Schule x durchschn. HH-EK in Tsd. Euro 1,13 7,05 1,03 5,99β17 Profil Mathe/Naturw. Schwerpunkt x männlich 0,298 3,56 0,390 3,88β18 Profil Sprachen Schwerpunkt x männlich -0,833 -7,54 -0,826 7,34β21 Außenstelle des Hauptsitzes der Schule -1,02 -5,10 -2,04 -9,89β1p Distanz Schüler-Schule in km (private Schule) -0,368 -21,78 -0,416 -25,14β1m Distanz Schüler-Schule in km (Magnet School) -0,426 -23,65 -0,493 -26,15Nestkoeffizienten1

Nest1 GZW, JAN, WUST, PLAU 1,21 3,842 1,12 2,642

Nest2 STBE, MAN, EVKZ, HE 1,85 11,972 1,50 8,962

Nest3 DKS, WALD, RORO, PEST, KLOT, DKS2, JOHA 1,24 4,282 1,16 3,202

Nest4 ANNE, BB, FL, COTT, JAS 1,68 6,602 1,46 5,422

StatistikBeobachtungen 5 215 5 215Parameter 21 21LL(0) -15 233,325 -15 249,385LL(β) -9 736,250 -8 906,763ρ2 0,361 0,416ρρ2 0,359 0,4151 Alternative MC wurde keinem Nest zugeordnet2 t-Test gegen 1 für die Nestkoeffizienten

Wie die Ergebnisse in Tabelle 2 zeigen, weisen die Erklärungsvariablen beider Modelle plausible Vorzeichen auf und üben außerdem einen signifikanten Einfluss auf den Nutzen der zur Verfügung stehenden Alternativen aus. Weiterhin besitzen beide Modelle eine gültige Neststruktur sowie Nestkoeffizienten, die für alle Werte der Erklärungsvariablen mit dem Prinzip der Nutzenmaximierung konsistent sind. Die Werte der Nestkoeffizien-ten der Modelle weisen darauf hin, dass zwischen den Alternativen der einzelnen Nes-ter deutliche Abhängigkeiten bestehen (vgl. Train 2003, 85). Beide Modelle weisen mit Werten von ρ2 = 0,359/0,415 eine gute Modellanpassung auf wobei eine Vergleichbar-keit aufgrund unterschiedlicher Startwerte LL(0) in der Modellierung nicht gegeben ist.

Page 275: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 263

Für die folgenden Erläuterungen sollen nun ausschließlich die Werte des WESML-Mo-dells herangezogen werden. Es lässt sich feststellen, dass besonders die Distanzvariablen (β1, β2) ein negatives Vorzeichen aufweisen und den Nutzen einer jeden Alternative somit negativ beeinflussen. Entsprechend gilt, dass die Auswahlwahrscheinlichkeit ei-ner Schule, mit steigender Distanz zum Stadtzentrum (CBD) bzw. zum Wohnort eines Schülers, abnimmt. Hinsichtlich der Distanz zwischen Schule und Wohnort des Schülers lässt die Modellierung auf eine unterschiedliche Sensitivität der Schüler in Abhängigkeit von der Schulform schließen. Offensichtlich bewerten Schüler einer privaten Schule die Distanz weniger negativ (β1p), als Schüler einer öffentlichen Schule (β1), oder Schüler einer Schule, die eine Schwerpunktausbildung (β1m) anbietet. Daher ist anzunehmen, dass Schüler bereit sind einen längeren Weg zu einer Schule zurückzulegen, die ein Bil-dungsangebot bereithält, das sich von den öffentlichen Schulen unterscheidet.

Umgekehrt wirkt sich eine Distanz von weniger als einem Kilometer zur Schule positiv auf den Nutzen der jeweiligen Alternative aus (β13). Dies gilt auch, wenn sich der Wohn-ort des Schülers und der Standort der Schule auf der gleichen Elbseite befinden (β10). Weiterhin werden eine Schwerpunktausbildung in Mathematik (β7) und Sprachen (β12) sowie die Profile Mathematik & Sprachen (β8) sowie Mathematik & Musik/Kunst (β9) positiv bewertet. Einen negativen Einfluss auf den Nutzen eines männlichen Schülers besitzt allerdings eine Schwerpunktausbildung im Bereich Sprachen (β18). Eine Schwer-punktausbildung im Bereich Mathematik/Naturwissenschaften wirkt sich dagegen posi-tiv auf den Nutzen der männlichen Schüler aus (β17).

5 Vorhersage von Marktanteilen

Nachfolgend soll die Vorhersage der Marktanteile auf Basis der im Jahr 2004 erhobenen Daten für das Wahlverhalten der Dresdner Gymnasialschüler im Schuljahr 2010/11 er-folgen. Die Vorhersage der Marktanteile erfolgt im Anschluss an eine Modellvalidierung, auf deren Darstellung an dieser Stelle verzichtet wird. Für eine ausführliche Betrachtung sei diesbezüglich auf Seidel (2009, Kap. 3.5) verwiesen. Im Rahmen dieser Validierung kann eine bessere Approximationsgüte des WESML-Modells nachgewiesen werden, weshalb für die nachfolgenden Erläuterungen die Ergebnisse des WCML-Modells ver-nachlässigt werden.

Die Prognose zukünftiger Nachfrage erfolgt, indem die zur Modellierung verwendeten Erklärungsvariablen entsprechend zuvor ausgewählter Szenarien an zukünftige Bedin-gungen angepasst werden. Sofern die zukünftige Nachfrage nach hinzukommenden Alternativen zu untersuchen ist, können Vorhersagen auch eine erweiterte oder verän-derte Alternativenmenge J berücksichtigen. In diesem Zusammenhang erweist sich die IIA-Bedingung als wichtige Eigenschaft (vgl. Abschnitt 3.1). Diese gilt im NL-Modell für Alternativen, die sich innerhalb eines gemeinsamen Nests befinden. Praktische Bedeu-

Page 276: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel264

tung besitzt die IIA-Bedingung im Rahmen der Vorhersage von Marktanteilen, wenn Alternativen zur Alternativenmenge hinzugefügt oder aus dieser entfernt werden. In diesem Fall verändern sich, aufgrund dieser Bedingung, die Verhältnisse der Auswahl-wahrscheinlichkeiten der übrigen Alternativen zueinander nicht (vgl. Brownstone, Train 1998).

Die Vorhersage der zukünftigen Marktanteile basiert im vorliegenden Beispiel vorran-gig auf einer veränderten Alternativenmenge im Schuljahr 2010/11. Aufgrund sinkender Schülerzahlen und entsprechend der gültigen Schulnetzplanung des Jahres 2002, wurden in den Jahren 2004 bis 2006 sechs Schulstandorte geschlossen. Mit Fortschreibung des Schulnetzplanes im Jahr 2006 wurde eine Umkehr der Zugangszahlen von den Grund-schulen zu den Gymnasien für künftige Schuljahre berücksichtigt. Im Zuge dessen wurde die Eröffnung von zwei kommunalen Gymnasien an ungenutzten Standorten beschlos-sen. Daneben wurden zu Beginn des Schuljahres 2007/08 von freien Trägern zwei private Einrichtungen eröffnet. Somit umfasst die Alternativenmenge J für das Schuljahr 2010/11 19 Gymnasien, von denen sich fünf in freier Trägerschaft befinden. Eine grafische Dar-stellung der Situation im Schuljahr 2010/11 enthält Abbildung 3. Um die Änderungen zukünftiger Rahmenbedingungen in die Vorhersage einfließen zu lassen, ist außerdem eine Anpassung der zur Modellierung verwendeten Erklärungsvariablen notwendig. Dies ist hier allerdings nur begrenzt möglich. Der Großteil der verwendeten Modellvariablen beschreibt Eigenschaften der einzelnen Schulen näher und ist im Zeitablauf keinen nen-nenswerten Veränderungen unterworfen. Somit wird lediglich die Variable ‚Anzahl Klas-sen pro Jahrgang‘ an die Begebenheiten des Schuljahres 2010/11 angepasst.

Abb. 3: Räumliche Lage der Gymnasien im Schuljahr 2010/11 (Quelle: Eigene Darstellung)

Page 277: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 265

Ausgehend von einer korrekten Spezifikation der Nested Logit-Modelle in Abschnitt 4, ergeben sich die Marktanteile bei den Fünftklässlern an den Gymnasien für das Schuljahr 2010/11 gemäß Tabelle 3. Zum besseren Vergleich sind zusätzlich die Marktanteile der Gymnasien bei den 5. Klassen im Schuljahr 2003/04 dargestellt.

Tab. 3: Vorhersage der Marktanteile für das Schuljahr 2010/11

Gymnasium2010/2011 2003/2004

WESML (%)

Tendenz (%)

WCML (%)

Tendenz (%)

Marktanteil (%)

STBE 9,59 +0,41 9,55 +0,37 9,18MC 6,13 -1,15 4,00 -3,28 7,29WIES 3,18 +3,18 1,72 +1,72 -ANNE 1,24 +1,24 0,45 +0,45 -BB 5,69 -1,59 8,17 +0,89 7,29DKS 5,23 +3,44 4,55 +2,76 1,80WALD 2,97 -2,92 1,19 -4,70 5,89RORO 6,51 +1,03 9,47 -3,98 5,49PEST 3,37 -4,71 1,99 -6,09 8,08KLOT 3,98 -1,51 4,56 -0,93 5,49BUEH 3,97 +3,97 3,16 +3,16 -MAN 4,13 +0,04 3,60 -0,49 4,09EVKZ 7,17 -2,91 7,34 -2,74 10,08HE 3,65 -1,74 3,25 -2,14 5,39GZW 5,25 +5,25 4,54 +4,54 -JAH 6,01 -0,58 8,48 +1,89 6,59VITZ 6,47 +1,58 6,15 +1,26 4,89PLAU 6,16 -1,63 6,73 -1,06 7,78COTT 9,30 +3,02 11,10 +4,82 6,29

Anhand der Ergebnisse in Tabelle 3 ist erkennbar, dass für die Gymnasien DKS, COTT, RORO und VITZ eine deutliche Zunahme der Marktanteile, gemessen an den Anteilen in 2003/04, vom WESML-Modell vorhergesagt wird. Mit 9,59 % und 9,30 % weisen STBE und COTT dabei die größten Anteile bezüglich der Fünftklässler in dem entspre-chenden Schuljahr auf. Für neun Schulen wird vom WESML-Modell eine Verringerung der Marktanteile vom Schuljahr 2003/04 zu 2010/11 vorhergesagt. Die stärksten Ver-luste ergeben sich dabei für die Einrichtungen WALD und EVKZ, beides Schulen in freier Trägerschaft an denen Schulgeld zu zahlen ist. Eine grafische Darstellung der Marktan-teile ist in Abbildung 4 enthalten.

Page 278: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Frauke Seidel266

Abb. 4: Prognostizierte Marktanteile für das Schuljahr 2010/11 (Quelle: Eigene Darstellung)

Die grafische Darstellung der Marktanteile lässt insgesamt erkennen, dass das Modell für das Schuljahr 2010/11 eine relativ gleichmäßige Verteilung der Fünftklässler auf die einzelnen Schulen vorhersagt. Ausschlaggebend für die dargestellten Marktanteile, sind letztlich auch die Kapazitäten der einzelnen Schulen in dem betrachteten Schuljahr. Aufgrund stetig steigender Geburtenzahlen werden bestehende Schulstandorte in den kommenden Jahren immer besser ausgelastet, wodurch mit einer Relativierung der Un-terschiede in den Marktanteilen bei den 5. Klassen zu rechnen ist.

6 Zusammenfassung

In den vorangegangenen Abschnitten wurde das Schulwahlverhalten Dresdner Gymna-sialschüler anhand von NL-Modellen analysiert. Es wurde gezeigt, dass die Schulwahl stark von räumlichen Merkmalen (Distanz zum Wohnort/Stadtzentrum, Elbseite) sowie den Schulprofilen abhängig ist. Zur Schätzung der Modellkoeffizienten wurden dabei zwei unterschiedliche Verfahren, beruhend auf der ML-Methode, herangezogen. So-wohl WESML- als auch WCML-Schätzer zeichnen sich dadurch aus, dass sie die Beson-derheiten des verwendeten Datensatzes als endogen geschichtete Stichprobe berück-sichtigen. Ein Vergleich der ermittelten Modellkoeffizienten konnte keinen Hinweis auf die Überlegenheit eines Schätzverfahrens liefern. Die Modellparameter weisen in beiden Fällen plausible Vorzeichen auf und unterscheiden sich lediglich in ihrem Betrag. Auf-grund der aus den Schätzverfahren resultierenden unterschiedlichen Werte für den Log-Likelihood des Nullmodells LL(0), der den Startwert der Maximierung der ML-Funktion angibt, ist eine Vergleichbarkeit der verwendeten Modelle nicht gegeben.

Page 279: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Modellierung der Schulwahl im Stadtgebiet von Dresden 267

In einer hier nicht näher betrachteten Modellvalidierung konnten deutliche Unterschie-de hinsichtlich der Approximationsgüte der beiden Modelle festgestellt werden. Die Auswertung der Ergebnisse der Validierung zeigt, dass besonders das WCML-Modell deutliche Abweichungen von den tatsächlichen Schülerzahlen prognostiziert.

Zur Vorhersage der Marktanteile für das Schuljahr 2010/11 wurde aus diesem Grund das WESML-Modell verwendet. Die Ergebnisse der Prognose zeigen, mit wenigen Aus-nahmen, eine gleichmäßige Verteilung der Marktanteile bei den Fünftklässlern an den einzelnen Gymnasien. Dies kann auf die bessere Auslastung bestehender Kapazitäten der Schulen aufgrund zukünftig steigender Schülerzahlen zurückgeführt werden. Unter-schiede in den Marktanteilen der Schulen werden somit relativiert.

7 LiteraturBen-Akiva, M. E.; Bierlaire, M. (1991): Discrete Choice Analysis: Theory and application

to Travel Demand. MIT Press.

Bierlaire, M (2003): BIOGEME: A free Package for the Estimation of Discrete Choice Models. In: Proceedings of the 3rd Swiss Transportation Research Conference. As-cona, Switzerland.

Bierlaire, M.; Bolduc, D.; McFadden, D. (2008): The Estimation of Generalized Extreme Value Models from Choice-Based Samples. In: Transportation research Part B 42, Nr. 4, S. 381-394.

Brownstone, D.; Train, K. (1998): Forecasting new Product Penetration with Flexible Substitution Patterns. In: Journal of Econometrics 89, Nr. 1-2, S. 109-129.

Maier, G.; Weiss, P. (1990): Modelle diskreter Entscheidungen. Theorie und Anwendung in den Sozial- und Wirtschaftswissenschaften. Springer.

Seidel, F. (2009): Optimierung alternativen-spezifischer Konstanten in diskreten Wahl-modellen zur Berechnung von Marktanteilen, Diplomarbeit, TU Dresden.

Train, K. (2003): Discrete Choice Methods with Simulation. Cambridge University Press.

Thill, J. C. (1992): Choice Set Formation for Destination Choice Modelling. In: Progress in Human Geography 16, Nr. 3, S. 361.

Woodside, A. G.; Lysonski, S. (1989): A General Model of traveller Destination Choice. In: Journal of Travel Research 27, Nr. 4, S. 8.

Page 280: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 281: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Autorenverzeichnis 269

Autorenverzeichnis

Klaus D. Aurada, Prof. (em.) Dr.

17509 Ostseebad Lubmin E-Mail: [email protected]

Martin Behnisch, Dr.

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Wolfgang A. Brunauer IRG Immobilien Rating GmbH Taborstr. 1-3 1020 Wien Österreich E-Mail: [email protected]

Florian Harder

Universität Würzburg, Geographisches Institut Am Hubland 97074 Würzburg E-Mail: [email protected]

Robert Hecht

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Ralf Hedel, Dr.

Probst & Consorten Marketing-Beratung, Humboldt-Universität Berlin Altleutewitz 11 01157 Dresden E-Mail: [email protected]

Marco Helbich

GIScience, Geographisches Institut, Universität Heidelberg Berliner Straße 48 69120 Heidelberg E-Mail: [email protected]

Page 282: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Autorenverzeichnis270

Hendrik Herold

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Antje Katzschner, MA

BTU Cottbus, Fakultät 4 Lehrstuhl Umweltplanung Postfach 101344 03013 Cottbus E-Mail: [email protected]

Werner Kirstein, Prof. Dr.

Universität Leipzig, Institut für Geographie Ritterstraße 26 04109 Leipzig E-Mail: [email protected]

Andreas Koch, Prof. Dr.

Universität Salzburg, FB Geographie und Geologie Hellbrunnerstr. 34 5020 Salzburg Österreich E-Mail: [email protected]

Sebastian Kupski

Universität Kassel Fachbereich Architektur, Stadtplanung und Landschaftsplanung Fachgebiet Umweltmeteorologie Henschelstraße 2 34127 Kassel E-Mail: [email protected]

Wolfgang Loibl, Dr.

Österreichisches Forschungszentrum Seibersdorf, Umweltplanung 2444 Seibersdorf Österreich E-Mail: [email protected]

Page 283: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Autorenverzeichnis 271

Otti Margraf, Prof. Dr.

Leibniz-Institut für Länderkunde Schongauerstraße 9 04329 Leipzig E-Mail: [email protected]

Gotthard Meinel, Dr.

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Christian Neff

Universität Würzburg, Geographisches Institut Am Hubland 97074 Würzburg

Jan Peters-Anders

Foresight & Policy Development Department Regional and Infrastructure Policy Austrian Institute of Technology GmbH Donau-City-Straße 1 1220 Vienna Österreich E-Mail: [email protected]

Jürgen Rauh, Prof. Dr.

Universität Würzburg, Geographisches Institut Am Hubland 97074 Würzburg

Tilmann A. Schenk, Dr.

Universität Leipzig, Institut für Geographie Johannisalle 19a 04103 Leipzig E-Mail: [email protected]

Ulrich Schumacher

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Page 284: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Autorenverzeichnis272

Frauke Seidel

Universität Hamburg, Institut für Verkehrswirtschaft Fakultät Wirtschafts- und Sozialwissenschaften Von-Melle-Park 5 20146 Hamburg E-Mail: [email protected]

Ralf-Uwe Syrbe, Dr.

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Nguyen Xuan Thinh, Prof. Dr.

Technische Universität Dortmund Fakultät Raumplanung FG Raumbezogene Informationsverarbeitung und Modellbildung (RIM) August-Schmidt-Str. 10 44227 Dortmund E-Mail: [email protected]

Falk Ullrich, Prof. Dr.

Schloß Westflügel 68131 Mannheim E-Mail: [email protected]

Alfred Ultsch, Prof. Dr.

Philipps-Universität Marburg, Datenbionik, FB 12 Hans Meerweinstraße 35032 Marburg E-Mail: [email protected]

Joachim Ungar

Austria Institute of Technology, Foresight Devlopment Department Donaucitystrasse 1 1220 Wien Österreich E-Mail: [email protected]

Rico Vogel, Dr.

Leibniz-Institut für ökologische Raumentwicklung e. V. Weberplatz 1 01217 Dresden E-Mail: [email protected]

Page 285: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Autorenverzeichnis 273

Hans Züger

AIT Austrian Institute of Technology GmbH Foresight & Policy Development Department Regional and Infrastructure Policy Donau-City-Straße 1 1220 Vienna Österreich

Page 286: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

IÖR Schriften

Herausgegeben vom Leibniz-Institut für ökologische Raumentwicklung e. V.

56 Christine Meyer Experiences from Local Areas in the United Kingdom Dresden 2011 (im Erscheinen)

55 Stefan Dirlich Integration der Bestandsqualität in die Zertifizierung von Gebäuden – Entwicklung eines ökonomisch-ökologischen Bewertungssystems für nachhaltiges Bauen unter besonderer Berücksichtigung von Bestansbauten und traditionellen Bauweisen Dresden 2011 (im Erscheinen)

54 Elena Wiezorek Eigentümerstandortgemeinschaften und Urban Covernance – Eine Untersuchung kollektiven Handelns in der Stadtentwicklung am Beispiel von Wohnquartieren im demografischen Wandel

Dresden 2011 (51,00 EUR, Rhombos-Verlag Berlin)

53 Patrick KüpperRegionale Reaktionen auf den Demographischen Wandel in dünn besiedelten, peripheren RäumenDresden 2011 (46,00 EUR, Rhombos-Verlag Berlin)

52 Gotthard MeinelFlächennutzungsmonitoring IIKonzepte – Indikatoren – StatistikDresden 2010 (48,00 EUR, Rhombos-Verlag Berlin)

51 Georg SchillerKostenbewertung der Anpassung zentraler Abwasserentsorgungssysteme beiBevölkerungsrückgangDresden 2010 (45,80 EUR, Rhombos-Verlag Berlin)

50 Stefanie RößlerFreiräume in schrumpfenden Städten – Chancen und Grenzen der Freiraumplanung im StadtumbauDresden 2010 (42,50 EUR, Rhombos-Verlag Berlin)

49 Christiane WestphalDichte und Schrumpfung – Kriterien zur Bestimmung angemessener Dichten in Wohnquartieren schrumpfender Städte aus Sicht der stadttechnischen InfrastrukturDresden 2008 (19,90 EUR)

48 Robert KnippschildGrenzüberschreitende Kooperation: Gestaltung und Management von Kooperationsprozessen in der Raumentwicklung im deutsch-polnisch-tschechischen GrenzraumDresden 2008 (16,00 EUR)

Bestellung von Publikationen:

IÖR Schriften bis Band 49Leibniz-Institut für ökologische Raumentwicklung e. V., Weberplatz 1, 01217 DresdenSieglinde Sauer, E-Mail: [email protected]

IÖR Schriften ab Band 50 Rhombos-Verlag Berlin, Fachverlag für Forschung, Wissenschaft und Politik www.rhombos.de bzw. über den Buchhandel

Page 287: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-
Page 288: 57 · Thinh (2006, 64) einprägsam veranschaulicht hat, werden damit Ordnungsprinzipien formuliert, die Bestandteil des „systemtheoretischen Kalküls in der Geographie“ (Aura-

Nguyen Xuan Thinh

Martin Behnisch, Otti Margraf (Hrsg.)

Beiträge zur Theorie und quantitativen Methodik in der Geographie

Thin

h, B

ehni

sch,

Mar

graf

(H

rsg.

) · T

heor

ie u

nd q

uant

itat

ive

Met

hodi

k in

der

Geo

grap

hie

ISBN 978-3-941216-67-9

IÖR

Sch

rifte

n Ba

nd 5

7

Im Spannungsfeld der Notwendigkeit, komplexe geographische Fragestellungen an-zugehen und die Forschung wissenschaftstheoretisch auf mathematischer Grundlage zu fundieren, gewinnen in jüngster Zeit quantitative Methoden wieder zunehmend an Bedeutung. Die vorliegende Publikation dokumentiert den fortgeschrittenen Stand als auch das breite Spektrum der Entwicklung und Anwendung quantitativer Metho-den in der Geographie sowie ihre theoretische Einbindung. Zugleich zeigt sie auf, welche Chancen und Herausforderungen für die quantitative Methodik bestehen.

Die einzelnen Beiträge fokussieren dabei auf Theorie, räumliche Taxonomie, multi-kriterielle Raumbewertung, quantitative Klima- und Energieanalyse, Analyse räum-licher Strukturen und Prozesse, Multi-Agenten-Modellierung und Simulation sowie räumliche Optimierung. Die Anwendungsbereiche der Methoden sind vielfältig und reichen von der Planung über Sozial- und physische Geographie bis hin zu Wirt-schaftsgeographie und Demographie.

Geoinformationssysteme und deren Funktionalitäten werden selbstverständlich dort eingesetzt, wo sie Vorteile bringen. Aus methodischer Perspektive nähern sich die Beiträge den durch eine hohe Komplexität und Kompliziertheit gekennzeichneten Sachverhalten und Fragestellungen. Dies bedeutet einerseits möglichst viele Größen (multikriterielle Bewertungen, multitemporale Ansätze, Weiterentwicklung der multi-variaten Statistik) in die Untersuchung mit einzubeziehen. Andererseits werden quali-tative Ansätze und Untersuchungen stärker durch quantitative Ansätze untermauert, wie durch die Klassifizierung relationaler Daten oder die Einbeziehung qualitativer Informationen in die Simulation.

IÖR Schriften Band 57 · 2011

57