17
34 Hans-Joachim Bungartz Hans-Jürgen Herrmann Barbara Irmgard Wohlmuth Simulierte Welten – die Zukunft im Rechner

Simulierte Welten – die Zukunft im Rechnerelib.uni-stuttgart.de/bitstream/11682/2542/1/bungartz.pdfund für alle T-Geplagten relevant – für Aktienkursprognosen. Hans-Joachim Bungartz

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • 34

    Hans-Joachim BungartzHans-Jürgen Herrmann Barbara Irmgard Wohlmuth

    Simulierte Welten– die Zukunft im Rechner

  • 35

    Spätestens dann, wenn das auf theoreti-scher Analyse und Experimenten beru-hende traditionelle Instrumentarium ausMachbarkeits-, Zeit- oder Kostengründenallein nicht mehr greift, ist die numeri-sche Simulation gefragt. Ihr herausragen-des Charakteristikum ist dabei die Inter-disziplinarität: Wirklichkeitsnähe und Pra-xisrelevanz sind hier nur über eine engeZusammenarbeit von Experten des jewei-ligen Faches mit Mathematikern und In-formatikern zu erreichen, stellen Mathe-matik und Informatik als Basistechnologiender numerischen Simulation doch derenMethoden und Werkzeuge bereit. Folge-richtig ist das Zentrum für Simulations-technik (ZST), das sich derzeit an der Uni-versität Stuttgart in Gründung befindet,eine fakultätsübergreifende Einrichtung,und deshalb wagen wir uns auch nur alsSimulantenterzett daran, die Segnungenrechnergestützter Simulationsmethodenzu preisen.

    Schneller, höher, weiter!

    Seit mehr als einem halben Jahrhunderthaben wir ihn, den Computer. Und seit je-nen entscheidenden Tagen, als Colossusden Enigma-Code knackte, hat sich für-wahr Spektakuläres ereignet. Kein ande-res technisches Gerät hat jemals einesolch atemberaubende Entwicklungdurchlebt. Fast mit der Präzision einesNaturgesetzes konnte die Leistung desweltweit aktuell größten und schnellstenRechners alle fünf Jahre um durchschnitt-lich einen Faktor Zehn gesteigert werden.Seit den Rechnern der ersten Stunde haben wir somit einen Steigerungsfaktorvon fast 1012 angehäuft – eine Eins mitsage und schreibe zwölf Nullen. Auf ei-nen etwas anschaulicheren Bereich über-tragen, bedeutet dies dasselbe Verhältniswie zwischen der Fortbewegungsge-schwindigkeit einer fußkranken Schneckeund der des Lichts. Niemand kann sichdarüber wundern, dass eine derart explo-sionsartige Entwicklung ihre Spuren hin-terlässt und unsere technische Weltebenso wie unseren Alltag prägt.

    Wie kommen die „Kachelmänner“ dieser Welt eigentlich zu ihren detaillierten Vorher-

    sagen? Und warum liegen sie manchmal trotzdem so daneben? Was veranlasst Auto-

    mobilhersteller, das Ende der Ära des Prototypen anzukündigen? Liegt die wiederge-

    kehrte Ruhe im Mururoa-Atoll wirklich darin begründet, dass man im fernen Paris zur

    Einsicht gelangt ist? Und wer gibt der Voyager-Sonde ihren merkwürdig anmutenden

    Weg vor, der sie – obwohl schnurstracks unterwegs in Regionen, die nie ein Mensch

    zuvor gesehen hat – doch wieder an die Erde heranführt? Das Zauberwort heißt nu-

    merische Simulation. Auf leistungsfähigen Großrechnern – seien es klassische Super-

    computer oder Cluster aus vernetzten PCs – nachgestellte oder vorausberechnete

    Phänomene und Prozesse aus Natur-, Ingenieur- oder Wirtschaftswissenschaften spie-

    len in Forschung und Entwicklung eine immer wichtigere Rolle. Dies gilt für die ein-

    gangs genannten Beispiele ebenso wie für zahlreiche Anwendungen in der Astrophy-

    sik, Halbleiter- und Biotechnologie oder in der Systemdynamik sowie – ganz konkret

    und für alle T-Geplagten relevant – für Aktienkursprognosen.

    Hans-Joachim Bungartz y

    Hans-Jürgen Herrmann / Barbara Irmgard Wohlmuth y

    Simulierte Welten – die Zukunft im Rechner y

  • WechselWirkungen y

    Jahrbuch 2002 y

    36

    oder ein Nobelpreisaspirant eine Über-prüfung seiner neuesten Hypothesenüber die physikalischen Grundgesetzedurchführen. Der Computer ist längstselbst zu einem Gerät geworden, mitdem experimentiert wird. Statt Versucheim klassischen Sinne durchzuführen – also gewissermaßen an der Naturselbst –, modelliert man die Natur aufdem Computer nach und spielt dann dieSzenarien am rechnergestützten Modelldurch. Die Wettervorhersage etwa läuftnach genau diesem Schema ab. Diesenumerische Simulation hat sich inzwi-schen als eigene Forschungsrichtung etabliert und entwickelt sich ihrerseits bereits rasant. So ist eine Simulations-gruppe für einen heutigen Ingenieurlehr-stuhl fast ebenso selbstverständlich wiedie gute alte Werkstatt, und die Zahl derMathematik- oder Informatikfakultätenohne einschlägige Vertretung wird klei-ner. Daraus werden dann schon mal Be-sitzansprüche abgeleitet und entspre-chend lautstark vorgetragen. Eventuelle

    Für die Mathematik kam das Auftretendes Rechners einer Revolution gleich.Vorbei sind die Zeiten, als es Mathemati-kern allein um Exaktheit, Existenz undEindeutigkeit ging: Die numerische Ma-thematik rundet und nähert ungeniert, siemacht im vollen Bewusstsein ihrer SinneFehler – und sie ist konstruktiv, sie willdas Objekt ihrer Begierde greifbar ma-chen. Auch die reine Mathematik kannsich der Faszination des Computers nichtentziehen: Da werden wie beim Vierfar-bentheorem plötzlich „Computerbeweise“geführt, und die „Computeralgebra“ eröff-net völlig neue Dimensionen. Das Gesichtder natur- und ingenieurwissenschaftli-chen Forschung hat er ebenfalls ent-scheidend geprägt, zahlreiche Theorienkonnten nur aufgrund rechnergestützterArbeiten entwickelt werden – doch dazuspäter mehr. Das Rechnen auf und mitdem Computer war selbstverständlichauch ein Startpunkt für die Informatik –eine Abstammung, von der so mancherWeb-basierte und multimedial infizierteInformatiker heute überhaupt nichtsmehr wissen will. Inzwischen hat sich dieInformatik natürlich längst als eigenstän-dige Wissenschaft emanzipiert. Der an-gelsächsische Begriff der „computerscience“ mag das Spektrum der For-schungsgebiete der modernen Informatikzwar nur unzulänglich umschreiben, aberer benennt doch deren treibende Kraftsehr zutreffend.

    Ein Fach zwischen den Fächern

    Das wertvollste Charakteristikum desComputers ist fraglos seine Flexibilität, also insbesondere seine Programmier-barkeit. Mit demselben Gerät können – zumindest prinzipiell – die Telekom ihreGebührenabrechnung, der DeutscheWetterdienst seine Vorhersage für dienächste Woche, die LBBW Prognosen fürdie Entwicklung des DAX, der umtriebigeCraig Venter und Konsorten Entschlüsse-lungsversuche des menschlichen Erbguts

    Alleinvertretungsgelüste sind allerdingsfehl am Platze. Die numerische Simulationist eben keiner Einzeldisziplin zuzurech-nen, sondern ihrem Wesen nach interdis-ziplinär oder – vielleicht sogar besser –transdisziplinär angelegt.

    Nun ist das interdisziplinäre Handeln inunserer modernen Wissenschaftsland-schaft in aller Munde. Wenn auch die Vokabel noch nicht ganz so strapaziert istwie etwa die Begriffe Technologietransfer,Synergie oder Nachhaltigkeit, so ist dochdie Notwendigkeit der Zusammenarbeitvon Experten unterschiedlicher Diszipli-nen heute allgemein anerkannt. KeineFrage, über den Tellerrand zu blicken giltals unabdingbar – manchmal schon gera-dezu als schick. Umso erstaunlicher ist dader leider immer wieder zu beobachtendeUmstand, dass Anspruch und Wirklich-keit im interdisziplinären Denken und Tun weit auseinander klaffen können. Als nahezu unüberwindbar erscheinen oftBerührungsängste sowie über Jahre hin-

    Kein anderes technisches Gerät kann eine so rasante Steigerung der Leistungsfähigkeit wie der Computer vor-weisen.

    Kaum bewiesen, schon als „Briefmarke“ verfügbar: Die Kunde vom Computerbeweis von Appel, Haken undKoch aus dem Jahre 1977 zum so genannten Vierfarbentheorem wurde von der Post in Urbana im US-Bun-desstaat Illinois sofort in alle Welt getragen! Worum geht's? Eine Vermutung Guthries aus dem Jahre 1852 besagte, dass man jede beliebige Landkarte mit vier Farben so einfärben kann, dass benachbarte Länder stetsverschiedene Farben tragen. Bereits die Deutschlandkarte zeigt übrigens, dass weniger Farben nicht immerausreichen – Thüringen heißt der Sündenbock.

  • Das Mississippi Basin Mo-del in Jackson, MS – größ-tes Flussmodell der Weltund Beispiel für eine auf-wändige experimentelleAnlage. Angelegt in denvierziger Jahren des letz-ten Jahrhunderts durchKriegsgefangene aus Rom-mels Afrikakorps, wurdehier auf 240 Hektar Flächedas gesamte Einzugsgebietdes Mississippi zwischenRocky Mountains und Ap-palachen inklusive allerZuflüsse maßstabsgetreu nachgebaut. Überflutungen sowie die Einflüsse neuerBinnenhäfen, Dämme oder Deiche waren relativ genau vorhersagbar. Nach der ersten Stilllegung 1972 zeigte die große Flut von 1973, dass die Rechner nochkein Ersatz waren. Der unmittelbaren Wiederinbetriebnahme folgte bald daraufdann aber doch das definitive Ende. Heute haben längst Computersimulationendie Aufgaben der Anlage übernommen und arbeiten inzwischen auch billiger undzuverlässiger!

    WechselWirkungen y

    Jahrbuch 2002 y

    37

    weg gewachsene und manchmal gerade-zu hingebungsvoll gepflegte Vorbehalteoder Vorurteile anderen Fachrichtungengegenüber. Selbst bei bestem Willen allerBeteiligten gestaltet sich die Kommunika-tion nicht immer einfach. So können etwaein Biologe oder Chemiker und ein Nu-meriker wunderbar über „Lösungen“plaudern, ohne dass die ihnen vorschwe-benden Dinge auch nur das Geringstemiteinander zu tun haben. Gerade dieMathematik leidet oftmals unter ihrer fürden internen Gebrauch optimierten Fach-sprache, die sie zuweilen regelrecht iso-liert. Trotz aller Schwierigkeiten mit demMiteinander gibt es jedoch zur Öffnungkeine Alternative. Deshalb soll dieser Bei-trag auch ein Plädoyer für die Überwin-dung fakultärer Grenzen sein und am Bei-spiel der numerischen Simulation aufzei-gen, wie notwendig gerade heutzutageeine konstruktive und vorbehaltlose inter-disziplinäre Zusammenarbeit ist und wiefruchtbar die Resultate einer solch engenVerzahnung sein können.

    Wissenschaftliches Rechnen, Hochleis-tungsrechnen, Höchstleistungsrechnen,rechnergestützte Wissenschaften, Scien-tific Computing, Computational Scienceand Engineering – das sind nur einige derBezeichner, mit denen die zum eigen-ständigen Forschungsgebiet avancierteMethodik der numerischen Simulation

    Auf dem Weg zu einer effizienteren biologischenAbwasserreinigung:mikroskalige Simulationvon Strömungsvorgängenin Biofilmen.

  • WechselWirkungen y

    Jahrbuch 2002 y

    38

    heute versehen wird. Nicht jeder Begriffist glücklich gewählt, denkt doch der mitdem wissenschaftlichen Rechnen Kon-frontierte fast unweigerlich sofort überdas Wesen des unwissenschaftlichenRechnens nach. Entscheidend ist, dassdie numerische Simulation in zunehmen-dem Maße als gleichberechtigter Partnerneben die beiden klassischen Säulen desErkenntniserwerbs in den betreffendenAnwendungswissenschaften tritt, dietheoretische Untersuchung und das Ex-periment. Die jeweilige Anwendungswis-senschaft bringt dabei ihr wissenschaft-liches und technologisches Know-howsowie die Möglichkeiten und Fertigkeitenzur Validierung der Simulationsergebnisseallgemein sowie insbesondere der ge-wählten Modelle mittels experimentellerTechniken ein. Die Mathematik leistetwichtige Beiträge sowohl bei der Modell-bildung als auch bei der Entwicklung ge-nauer, robuster und schnell konvergieren-der numerischer Verfahren zur rechner-gestützten Lösung der Modellgleichun-gen.

    Die zentrale Rolle der Informatikschließlich besteht in der Bereitstellung,Nutzbarmachung und Programmierungmoderner Rechnerarchitekturen sowie inder Algorithmik und Visualisierung. DieVergangenheit hat mehr als deutlich ge-zeigt, dass keine der involvierten Diszipli-nen im Alleingang in der Lage ist, die nu-merische Simulation entscheidend voran-zubringen – geschweige denn, die so ge-nannten „Grand Challenges“ (numerischeSimulation etwa in den Bereichen Wet-tervorhersage, Klimamodellierung, Aero-dynamik, Quantenchromodynamik, Gen-technologie etc.) erfolgreich anzugehen.

    Zu komplex sind einerseits inzwischendie zu simulierenden Systeme, als dassMathematikern oder Informatikern alleineeine realitätsnahe Modellierung gelingenkönnte, zu hoch sind andererseits die An-forderungen an Rechenzeit und Speicher-platz, als dass mit den etwa in Ingenieur-lehrbücher vorgedrungenen numerischenMethoden auf klassischen Monoprozes-sorarchitekturen beziehungsweise mittelseiner Hauruck-Parallelisierung zufriedenstellende Resultate vor Ablauf eines Wis-senschaftlerlebens zu erzielen wären.

    Warum überhaupt Simulation?

    Dass die Entwicklung und der Einsatz vonSimulationsverfahren bereits heute mitFug und Recht als große Herausforde-rung für Wissenschaft und Wirtschaft be-zeichnet werden können und in Zukunftnoch stark an Bedeutung zulegen wer-den, kann schwerlich bestritten werden.Zu offenkundig ist, dass das klassische Instrumentarium – also theoretische Ana-lyse und Experiment – auf sich alleine ge-stellt immer öfter an seine Grenzen stößt.So führt die Erfordernis einer möglichstrealitätsnahen Beschreibung der zu un-tersuchenden Phänomene, Prozesse oderSysteme in aller Regel zu Modellen, diesich aufgrund ihres Komplexitätsgradeseiner analytischen Behandlung entzie-hen. Wenn überhaupt, dann sind allen-falls noch Aussagen zur Existenz und Ein-deutigkeit von Lösungen zu erwarten,nicht jedoch explizite Formeln zu derengeschlossener Darstellung. Andererseitssind auch den Experimentiermöglichkei-ten in vielen Fällen Grenzen gesetzt.Manchmal sind Experimente schlichtwegunmöglich. Vorgänge aus der Astrophysikwie beispielsweise der Lebenszyklus einerGalaxie dauern bei weitem zu lange, alsdass ein noch so geduldiger Astronomsie beobachten könnte. Auch klimatischePhänomene wie der Treibhauseffekt sindäußerst unzugänglich: Man kann ebenden weltweiten CO2-Ausstoß nicht so ohne weiteres für drei Monate verdop-peln oder halbieren, um die Auswirkungenzu messen, und Laborexperimente werfenhier natürlich die Frage der Skalierbarkeitauf.

    Andere Vorgänge wiederum laufen zuschnell ab, als dass sie mit heutiger Mess-technik erfassbar wären. Auch die räum-liche Auflösung stellt oft ein Problem dar:Wie soll man Vorgänge sehen können,die sich auf so kleinen Skalen abspielen,

    dass sie durch mikroskopische Technikennicht mehr darstellbar sind? Nicht dassSimulationen hier eine präzise Vorher-sage vermocht hätten, aber die Auswir-kungen der Einführung des Euro wareneben aus prinzipiellen Gründen nichtdurch Feldversuche im klassischen Sinnezu prognostizieren. Dass schließlich alleTheorien rund um den Urknall auf Rech-nerunterstützung angwiesen sind, ver-wundert ebenso wenig.

    In anderen Fällen sind Experimentezwar machbar, aber aufgrund gefähr-licher oder irreversibler Begleiterschei-nungen unerwünscht – man denke nuretwa an Lawinenabgänge, Tests vonKernwaffen oder an Versuche am Men-schen in der Medizin. Oftmals weist aberein ganz und gar pragmatischer und ge-rade heutzutage hervorragend vermittel-barer Grund in Richtung Simulation: dieKostenfrage. So können beispielsweisedurch simulierte Crash- und – allen Un-kenrufen zum Trotz – Elchtests bei derAutomobilentwicklung ohne negativeAuswirkungen auf die Fahrzeugsicherheitbeträchtliche Summen eingespart wer-den, ja der ganze Prototyp könnte beikonsequentem Einsatz von Simulations-methoden in der Automobilindustrie baldder Vergangenheit angehören. Nach sovielen in der Standort- und Schlusslicht-diskussion beklagten kostentreibendenFaktoren nun endlich einmal ein kosten-senkender – wenn das nichts ist! Ganzgleich, wo sich das Verhältnis von klassi-schem Experiment und Computersimula-tion auch im Einzelfall einpendeln mag –als Ergänzung experimenteller Untersu-chungen ist die Simulation auf jeden Falleine Bereicherung und bereits heutenicht mehr aus den Forschungslabors sowohl großer Konzerne als auch techno-logieorientierter kleiner und mittelständi-scher Unternehmen wegzudenken.

    An die Arbeit!

    Die Interdisziplinarität der numerischenSimulation spiegelt sich auch in ihremvielschichtigen Aufgabenspektrum wider.Wir wollen bei der Arbeit des numeri-schen Simulanten – beschämt eingedenkder Herkunft des Worts Simulation: „be-wusste und meist zweckgerichtete Vor-täuschung von Zuständen“ – sechs we-sentliche Schritte unterscheiden: Modell-bildung, numerische Behandlung, Imple-mentierung, Visualisierung, Validierungund Einbettung.

  • WechselWirkungen y

    Jahrbuch 2002 y

    39

    1. Die Modellbildung. Am Anfang jederSimulation steht die Entwicklung einesgeeigneten mathematischen Modellsder zu simulierenden Phänomene oderProzesse. Dieses soll als vereinfachtesAbbild der Realität möglichst viele rele-vante Einflussgrößen sowie deren Be-ziehungsgeflecht erfassen, konsistentformuliert und eindeutig lösbar seinund zudem seine anschließenderechnergestützte Behandlung gestat-ten. Abhängig von den jeweils ange-messenen Beschreibungsmitteln, diedie Mathematik bereitstellt, erhält manunterschiedlichste Modelle (kontinuier-lich, diskret oder hybrid, determinis-tisch oder stochastisch), zumeist je-doch ein analytisch nicht zu lösendesSystem gekoppelter (Differential-) Glei-chungen.

    2. Die numerische Behandlung. Da Rech-ner nicht mit dem reellen Kontinuum,sondern nur mit endlich vielen diskre-ten Zahlen (den so genannten Gleit-punktzahlen) arbeiten können, müssendie einzelnen Terme der vorliegendenModellgleichungen sowie – bei Proble-men mit räumlicher Auflösung – dasbetrachtete Simulationsgebiet zu-nächst diskretisiert und somit in einefür den Computereinsatz geeigneteForm gebracht werden. Für die Lösungder dabei entstehenden diskretisiertenGleichungssysteme müssen an-schließend effiziente (das heißt imSpeicherverbrauch sparsame undschnelle) numerische Verfahren, zu-meist iterativer Art, bereitgestellt undeingesetzt werden. Rundungsfehler,

    Diskretisierungsfehler, Abbruchfehler –nur einige der Schwierigkeiten, mit de-nen Numeriker zu kämpfen haben!

    3. Die Implementierung. Hier ist nebender Auswahl geeigneter Programmier-sprachen (eine Entscheidung, die überdas geläufige „FORTRAN, C oderC++?“ weit hinausgeht) und Daten-strukturen vor allem die parallele oderverteilte Bearbeitung von großer Be-deutung, da realitätsnahe Simulations-rechnungen aus Speicherplatz- undRechenzeitgründen in der Regel nurauf Rechnernetzen oder auf Super-computern durchgeführt werden kön-nen. Wer je auf einer Baustelle die Ar-beitsverteilung zwischen Biertrinkernund Steineschleppern beobachtet hat,der kann schon ahnen, dass ein dyna-mischer Ausgleich der Last bei einergrößeren Anzahl von Prozessoren allesandere als eine triviale Aufgabe ist. Zu-dem sind die heutigen Simulations-codes sehr umfangreiche Programm-pakete, zu deren Entwurf, Umsetzung,Wartung und Weiterentwicklung Tech-niken des Software-Engineering uner-lässlich sind.

    4. Die Visualisierung. Bei der numeri-schen Simulation fallen üblicherweisesehr große Datenmengen an, die sichnicht immer in einem oder wenigenParametern wie etwa dem berühmtencw-Wert (Widerstandsbeiwert) bezie-hungsweise in Kennlinien zusammen-fassen lassen. Oft sind es gerade dielokalen Details, die interessieren: Anwelcher Stelle des umströmten Pkw

    entstehen welche Verwirbelungen,und welche Auswirkungen haben sie?Wo genau ist mit den stärksten Nie-derschlägen zu rechnen? Solche räum-lich aufgelösten Simulationsergebnissewerden einer Interpretation und somitdem grundlegenden Verständnis über-haupt nur zugänglich, wenn sie veran-schaulicht und graphisch aufbereitetwerden.

    5. Die Validierung. Wenn nach langenBemühungen und oftmals nahezuebenso langen Rechenzeiten endlichein Simulationsergebnis vorliegt, demnicht auf den ersten Blick anzusehenist, dass es mit der Wirklichkeit auchnicht das Geringste zu tun haben kann,obsiegt oft das Hochgefühl über dieSkepsis. Jedoch ist gerade die ab-schließende Phase des Nachprüfensder Resultate von jedem der vorigenSchritte (also des Modells, des numeri-schen Verfahrens, des implementier-ten Programms und der generierten Visualisierungen) unerlässlich. Hiersind wieder die Expertise des Spezialis-ten aus der jeweiligen Anwendungs-disziplin sowie – etwa zur Eichung vonParametern in einfachen Fällen – expe-rimentell bestimmte Vergleichswerteerforderlich.

    6. Die Einbettung. In industriellen Anwen-dungen tritt die numerische Simulationnicht mehr als komplett separierterEntwicklungsschritt auf, sondern wirdimmer öfter in den gesamten Produkt-entwicklungsprozess integriert. Des-halb müssen Schnittstellen bereitge-stellt werden, die eine direkte Anbin-dung von Simulationssoftware an dieEntwicklungssysteme der CAD-Weltoder an die Steuerprogramme der Fer-tigungsprozesse gestatten. Nur so lässtsich beispielsweise die Simulation deraerodynamischen Eigenschaften einesPkw zur Ermittlung seines cw-Wertesbereits zu einem sehr frühen Zeitpunktin der Entwurfsphase in den Design-Prozess der Karosserie integrieren, undnur so können Ergebnisse einer Sys-temsimulation direkt in die Anlagen-steuerung einfließen.

    Vom Modell zum Werkzeug: Die sechs Arbeitsschritte bei der numerischen Simulation.

  • WechselWirkungen y

    Jahrbuch 2002 y

    40

    Während bei der Herleitung und Vali-dierung von Modellen traditionell die jeweilige Anwendungsdisziplin und beider Modellanalyse sowie bei der Numerikdie Mathematik den Ton angeben, liegendie Schwerpunkte informatischen Trei-bens üblicherweise bei Implementierung,Visualisierung und Einbettung. Wir wol-len uns im Folgenden auf die ersten dreiPhasen konzentrieren.

    Modellbildung und Validierung

    Die meisten der spannenden Problemeaus Technik und Naturwissenschaft, dieuns jeweils am brennendsten interessie-ren, sind leider sehr kompliziert. An die-sem einerseits lästigen, andererseits aberdie Investitionen in die entsprechendenWissenschaftsfelder erst rechtfertigendenUmstand hat sich bis heute nichts geän-dert. Denken wir zum Beispiel an den

    Metabolismus in einer Zelle, an Crash-tests in der Pkw-Entwicklung oder an dasZusammenbrechen eines Staudamms.Die Anzahl der physikalischen Effekteund chemischen Reaktionen bei solchenVorgängen ist so enorm, dass es völligunmöglich ist, jede Einzelheit zu erfassen– wer kann schon mit Sicherheit aus-schließen, dass die Mondphasen Ursachedes Dammbruchs waren? Hier tritt dieSachkenntnis des Experten der jeweili-gen Anwendungswissenschaft markantin den Vordergrund. Nur er oder sie kannentscheiden, welche Effekte die wesent-lichen Auswirkungen auf das gesuchteResultat haben, was wichtig und was viel-leicht vernachlässigbar ist, und somit ge-wissermaßen die Essenz der Realität her-auskristallisieren. Dieser Schritt, der derKenntnis von der Größenordnung experi-menteller Daten ebenso bedarf wie einesÜberblicks über alle möglichen Neben-reaktionen, Seiteneffekte und Implikatio-nen, stellt das Herzstück einer jeden Mo-dellierung dar. Das Erfolgsrezept ist kurzund bündig: Je mehr Sachverstand undErfahrung hier einfließen, desto besser istdas resultierende Modell auf die Frage-stellung zugeschnitten.

    Am Ende dieses Destillierungsprozes-ses steht als Kondensat eine mehr oderweniger große Menge von Formeln, bei-spielsweise in der Gestalt eines Systemsgekoppelter Differential- oder Integralglei-chungen. Der Physiker beziehungsweiseIngenieur kleidet sein Problem gewisser-maßen in die ihm zugängliche und zusa-gende Mathematik – was selbstredendnoch lange nicht heißt, dass die Reprä-sentanten letztgenannter Zunft ob der sohingeschriebenen Formeln nicht die Stirnheftigst in Falten legen. Wie das berühmteBeispiel der Dirac'schen Delta-Funktionaber zeigt, kann die vom Physiker be-nötigte mathematische Formulierung sei-nes Problems den Mathematiker gerade-zu dazu zwingen, neue sowie dem Pro-blem angemessenere Konzepte und Me-thoden zu entwickeln. David Hilberterfasste sehr wohl die inspirierende Aus-strahlung der Naturwissenschaften aufdie Mathematik und besetzte stets eineseiner Assistentenstellen mit einem Phy-siker. Damals wie heute ist es das frucht-bare Zusammenspiel der Mathematik mitder Anwendung, die zu präzisen undtrotzdem noch handhabbaren Modellenführt, welche nun einer rechnergestütz-ten Lösung zugänglich sind, ja geradezunach ihr verlangen.

    Doch bevor ein Modell nun endgültigals salonfähig gelten darf und den Nume-rikern mit ihren schweren Geschützenvertrauensvoll übergeben werden kann,gilt es allerdings, viele Prüfungen zu be-stehen. In kleinen Testrechnungen aufdem PC – numerische Prototypen sozusa-gen – werden mit Probesimulationen vor-läufige Ergebnisse erzielt, an denen man

    Riesige Sandmassen wälzen sich auf die mauretanische Hauptstadt Nouakchottzu. Moderne Simulationstechniken erlauben es, derartige Dünenbewegungen tau-sendmal schneller zu simulieren als in Wirklichkeit und geben somit Städteplanerndie Möglichkeit, dem Unheil zuvorzukommen und Methoden, Dünen nachhaltig zuzerstören, vorher durchzuspielen

  • WechselWirkungen y

    Jahrbuch 2002 y

    41

    oft schon erkennen kann, ob etwas quali-tativ Sinnvolles herauskommt und ob ingewissen Grenzfällen, die man gut ver-steht, das bekannte Ergebnis reproduziertwird. Der Staudamm sollte eben tunlichst,auch wenn er leer ist, nicht brechen, unddas Testauto muss sich beim Aufprall aufden Betonklotz verbiegen und darf nichtzersplittern. Erst wenn man sich eine ge-wisse Sicherheit errechnet hat, dass qua-litativ und quantitativ korrekte Resultatemöglich sind, wird das Modell auf dieHöchstleistungsrechner losgelassen (oderdie Rechner auf das Modell – je nachSehweise).

    Ganz am Schluss, nachdem das Mo-dell von Numerikern und Informatikernnach allen Regeln diskretisierender, algo-rithmischer, hart- und weichwariger so-wie farbgebender Kunst traktiert wordenist, hat der Anwender seinen zweiten Auftritt auf der Bühne der Simulation. Nurer kann die Tragweite der Ergebnisse vollerfassen, denn er kennt die Näherungenund Vereinfachungen seines Modells wiekein anderer. Bevor das Team stolz die Ergebnisse denjenigen Institutionen prä-sentiert, die Forschungsgelder oder aka-demischen Ruhm ausschütten, wird erbescheiden erst einmal prüfen, ob die Er-gebnisse mit den Beobachtungen undmit der Erfahrung übereinstimmen – einProzess, den man Validierung nennt. Diequantitative Übereinstimmung wird nieperfekt sein. Es geht darum zu verstehen,wie wesentlich die Abweichungen sind,in welchen Fällen die Modellierung ver-lässlich ist und, ganz besonders wichtig,die Schwankungen der experimentellenMessungen sowie die numerischen Feh-lerbalken richtig abzuschätzen und mit-einander zu vergleichen. Der wahre Fort-schritt, wenn jemand mit verbessertenModellen und Simulationen einige Zwei-fel und Unstimmigkeiten gewissermaßenim Kleingedruckten seines Vorgängersausmerzt und korrigiert, ist oft nicht leichtzu erkennen und tritt schon mal hinterdie bunte Verpackung zurück – was ihnaber keineswegs weniger wertvoll macht.

    Um ein Gefühl dafür zu bekommen,was einen Modellierer heute so bewegtund umtreibt, wollen wir uns eine aktuelleThematik herausgreifen. Wir alle kennendie Saga von Edward Lorenz, dass derFlügelschlag eines Schmetterlings amAmazonas den nächsten Hurrikan überdem Pazifik auslösen kann. Oft liegt derTeufel im Detail. Vom Ursprung bis zumEndresultat werden viele Größenordnun-

    gen in Längen- und Zeitskalen übersprun-gen. Die Leitfähigkeit eines Faserver-bundwerkstoffes beispielsweise wird be-stimmt von der mikroskopischen Textur,deren Leitfähigkeit wiederum von derElektronenstreuung im Kohlenstoffherrührt. Selbst bei optimistischer Prog-nose der Entwicklung der Leistungs-fähigkeit von Computern und Program-men in den nächsten hundert Jahren istes völlig unmöglich, alle mikro-, nano-oder pikoskopischen Details, welche sichauf der größten Skala noch lautstark be-merkbar machen, explizit mitzusimulieren.Hier stoßen wir trotz unseres Übermutesund trotz des generischen Optimismus'der Menschheit einfach an Grenzen.Doch zum Glück hat der Erfindungsgeistuns hier einen weiteren Trick beschert,der durch den Begriff „Mehrskalensimula-tion“ bekannt geworden ist. Der zu mo-dellierende Vorgang wird dabei aufgeteiltin mehrere Etappen, die sich auf ver-schiedenen räumlichen und zeitlichenSkalen abspielen. Zu jeder Etappe wirdein der Auflösung ihrer Skala angemesse-nes Modell hergeleitet – das Wesentlichedieser Betrachtungsebene wird sozusa-gen herausgepickt. Die Eingangsdatenfür die Simulation auf dieser Skala ent-stammen Simulationen auf der feinerenSkala, der Output wird nach oben weiter-gereicht. Man geht gewissermaßen dieTreppe hoch, stufenweise von Skala zuSkala. Was sich so einleuchtend anhört,ist aber alles andere als einfach und einesder aktivsten Forschungsfelder im Be-reich der mathematischen Modellierung.

    Nehmen wir das obige Beispiel des Faserverbundwerkstoffes. Erst simulierenwir in einem kubischen Nanometer undauf der Zeitskala von Pikosekunden dieBewegung von Elektronen und Mo-lekülen innerhalb der Kohlenstofffaser.Diese mikroskopische Leitfähigkeit setzenwir nun als Parameter ein in eine zweiteSimulation, nämlich die des Faserbün-dels. Hierbei kommen natürlich völlig an-dere Techniken zum Tragen, was nichtweiter erstaunt – schließlich sollen jaganz andere physikalische Phänomenebeschrieben werden. Jetzt geht es näm-lich um die Materialeigenschaften einesKubikmillimeters, und die Leitfähigkeitdieses kleinen repräsentativen Volumen-elementes (RVE) ist eben nicht dieselbewie die des reinen Kohlenstoffes. Hierspielen die Ränder der Fasern, die Faser-Faser-Wechselwirkung und die Matrix, indie das Ganze eingebettet ist, die ent-scheidende Rolle. Die effektive Leitfähig-keit des RVE setzt man schließlich in diedes Werkteils ein – unsere dritte Skala.

    Ein Luft- und Raumfahrtingenieur arbeitet heute im Wesentlichen am Computer und entwirft den Prototyp imDetail, bevor er materiell realisiert wird.

  • WechselWirkungen y

    Jahrbuch 2002 y

    42

    Zweck der Simulation kann hierbei sein,die elektromagnetische Abstrahlung derAntenne zu berechnen. Und schon sindwir bereits auf der dritten Etappe in derWelt der Elektrotechnik unterwegs, mitwieder ganz anderen Gleichungen undLösungsverfahren. In diesem Fall wurdedie Simulation des Ganzen also in dreiMustersimulationen aufgeteilt, die auf ihrer jeweiligen Skala ein Volumen undeinen Zeitraum betrachten, die einerseitshinreichend groß sind, um die uns inte-ressierenden Phänomene dieser Skala erfassen zu können, andererseits aberklein genug sind, den resultierenden Be-rechnungsaufwand in Grenzen zu halten.

    Numerik

    Die numerische Approximation komple-xer nichtlinearer Modelle stellt oftmals eine herausfordernde Aufgabe dar. Vielepraktisch relevante Probleme sind nur aufHochleistungsrechnern lösbar. Dabeihängt die Effizienz der Simulationsalgo-rithmen entscheidend von der Verwen-dung geeigneter moderner numerischerVerfahren ab. Explodierte Trägerraketen,Verkehrschaos, falsche Umlaufbahnenvon Satelliten und Marssonden, Sir Nor-man Fosters bedrohlich schwankendeMillennium Bridge in London oder dasMillionengrab der untergegangenenBohrinsel Sleipner A in der Nordsee sindnur einige Beispiele von folgenschweren,aber vermeidbaren Fehlern in den Simu-lationsprogrammen. Manche beruhen auf

    Weit über dieses Beispiel hinaus dringtder beschriebene Mehrskalenansatz inimmer neue Gebiete vor. Von der Mole-kularbiologie zum Funktionieren der Zel-le, von da zum Biomaterial und über dieSimulation der Kontrolle der Vorgänge imOrganismus schließlich bis zur Gesell-schaftsform und Populationsdynamik – die Simulation von nahezu allem stehtdamit offen (hofft man zumindest).

    Dass die findigen Hersteller von Com-puterspielen derartige Mehrskalentricksauch bereits entdeckt haben und heftigeinsetzen, sei nur noch am Rande be-merkt. Denn nun wollen wir uns der Auf-bereitung von Modellen für den rechner-gestützten Einsatz zuwenden, der Numerik.

    Kommunikationsproblemen, andere wie-derum auf Rundungsfehlern oder unzurei-chenden numerischen Algorithmen undFehlerkontrollmechanismen. Die Mög-lichkeiten heutiger Supercomputer unddas große Interesse an der Lösung hete-rogener anwendungsrelevanter Problem-stellungen haben zu verstärkten numeri-schen Forschungsaktivitäten geführt. ImVordergrund steht dabei die Entwicklungneuer numerischer Methoden und Algo-rithmen, die Untersuchung ihrer mathe-matischen und numerischen Stabilitäts-und Konvergenzeigenschaften sowie ihreImplementierung, also Umsetzung in einProgramm. Der Traum vom omnipoten-ten numerischen Löser, der universell ein-gesetzt werden kann, ist nach wie vor

    Wunschdenken und wird es angesichtsdes breiten Aufgabenspektrums wohlauch bleiben. Stattdessen sind problem-spezifische Lösungsstrategien und ab-strakte Konzepte gefragt.

    Von Ingenieuren entwickelt, von Ma-thematikern analysiert und heutzutage invielen kommerziellen Softwarepaketenzur Behandlung komplexer Modelle aufder Grundlage partieller Differentialglei-chungen eingesetzt, sind Finite ElementeMethoden. Eine schier unendliche Viel-falt von unterschiedlichen Ansätzen stehthier dem Anwender zur Verfügung. Werdie Wahl hat, hat die Qual – und die ge-troffene erweist sich leider nicht immerals geeignet. Ob die Poisson-Zahl einesMaterials υ = 0.3 oder υ = 0.499 ist,kann ganz fatale Auswirkungen auf dieerhaltene Genauigkeit haben, falls unge-eignete diskrete Ansätze verwendet wer-den. Selbst wenn diese Hürde erfolgreichgenommen und das unendlich dimensio-nale physikalische Modell auf ein endlichdimensionales und damit im Computerdarstellbares Modell reduziert ist, stehtimmer noch die Frage nach dem Lö-sungsweg im Raum. Diskretisieren, As-semblieren, Linearisieren, Lösen und Kon-trollieren sind die Schlagworte, die denWeg vom physikalischen Modell zum Si-mulationsergebnis auf dem Bildschirmbeschreiben.

    Aber was man mit einem Wort ange-ben kann, ist nicht immer einfach. Nicht-lineare gekoppelte Gleichungssystememit mehreren Millionen Unbekanntensind keine Ausnahme. Anders formuliert:Eine realistische Simulation eines kom-plexen physikalischen Vorganges erfor-dert hohen und manchmal zu hohen Re-chen- und Speicheraufwand. Nichtlinearephysikalische Prozesse etwa könnennicht direkt angegangen werden, son-dern werden auf eine Reihe von linearenund damit einfacheren Prozessen zurück-geführt – man spricht dann von einer Linearisierung. Der bekannteste dieserAnsätze ist das Newton-Verfahren. Dochauch da steckt der Teufel im Detail: Be-reits im einfachsten Fall einer einzigenskalaren nichtlinearen Gleichung könnenFixpunktsätze nicht immer zufriedenstel-lende Aussagen über Konvergenzbereichund -rate liefern.

    Aber selbst wenn das nichtlineare Pro-blem erfolgreich linearisiert ist, treibenklassische und weit verbreitete direkteLösungsverfahren wie der Gauß-Algorith-mus auch schnellste Rechner in die Ver-

    Aufbrechen des Bodens aufgrund einer punktförmigen Detona-tion: Die Farbenprachtentspricht dem, wasman experimentell se-hen würde, wenn manfotoelastisch die Span-nungen visualisieren könnte.

  • WechselWirkungen y

    Jahrbuch 2002 y

    43

    tionentheorie von Hermann AmandusSchwarz aus dem Jahr 1870 erfolgreichbeherzigt worden, dann fast hundert Jah-re wieder in Vergessenheit geraten, umschließlich für die Numerik wiederent-deckt zu werden.

    zweiflung. Bei einer naiven Umsetzungwächst hier der Aufwand kubisch mit derAnzahl der Unbekannten an – was dasbei 106 Unbekannten heißt, kann mansich unschwer vorstellen! Von Gaußselbst stammt ein alternatives iterativesVerfahren, über das er 1823 in einemBrief an Gerling schreibt: „Ich empfehleIhnen diesen Modus zur Nachahmung.Schwerlich werden Sie je wieder directeliminieren, wenigstens nicht, wenn Siemehr als 2 Unbekannte haben. Das indi-recte Verfahren lässt sich halb im Schlafeausführen, oder aber man kann währenddesselben an andere Dinge denken.“ Ausheutiger Sicht liefert das so geprieseneiterative Gauß-Seidel-Verfahren freilich invielen Fällen alles andere als Grund zumJubeln. Bestimmte Eigenschaften der Matrizen sind dafür verantwortlich, dassdie Klassiker unter den Iterationsverfahrenwie das Jacobi-, das Gauß-Seidel- oderdas SOR-Verfahren unerträglich langsamkonvergieren und somit brauchbare Er-

    gebnisse in akzeptablen Rechenzeitenverhindern.

    Von einem heute konkurrenzfähigenIterationsverfahren wird deshalb – nebenRobustheit und Zuverlässigkeit -- vor al-lem Effizienz gefordert: Sein Aufwand sollmöglichst nur linear in der Anzahl der Un-bekannten wachsen. Das heißt: Bei dop-pelter Problemgröße soll sich die Rechen-zeit auch nur verdoppeln, und nicht, wieoben beim Gauß-Algorithmus, verachtfa-chen! Dass dies kein utopisches Wunsch-denken ist, zeigen beispielsweise Mehr-gitterverfahren, Multilevel-Vorkonditionie-rer, Schurkomplement-Methoden oderTeilstrukturverfahren. Sie alle basieren aufdem alten Prinzip des „divide et impera“(teile und herrsche), auf das wir späternoch detailliert eingehen werden, und siewerden häufig unter dem Oberbegriff„Gebietszerlegungstechniken“ zusam-mengefasst. Für die Mathematik ist diesin einem Existenzbeweis aus der Funk-

    Schnelle und langsame Konvergenz und Divergenz beim Newton-Verfahren.

  • WechselWirkungen y

    Jahrbuch 2002 y

    44

    Heute können die meisten iterativenLösungsverfahren im Rahmen der ab-strakten Schwarz-Theorie analysiert wer-den. Ganz typisch für die Mathematikführt der hohe Abstraktionsgrad ihrerStrukturen zu erheblicher Arbeitserleich-terung: Eine einmal ausgearbeitete Theo-rie kann zur Analyse vieler verschiedeneriterativer Lösungsverfahren verwendetwerden. Dabei ist die Grundidee denkbareinfach: Ein großes komplexes Problemwird in Teilprobleme geringerer Komple-xität oder Größe zerlegt. Von zentraler Be-deutung ist dabei der Informationsaus-tausch zwischen den einzelnen Teilpro-blemen. Bei geometrischen Mehrgitter-verfahren wird dazu eine Hierarchie vongeschachtelten Gittern und Räumen ver-

    wendet. Zwischen diesen Räumen wirddie Information über geeignete Transfero-peratoren weitergereicht. Auf den einzel-nen Teilräumen werden die ursprüngli-chen komplexen Probleme nur approxi-

    mativ durch mehr oder weniger einfacheund billige Glättungsschritte gelöst, undnur auf dem kleinsten Raum wagt mansich direkt an das (jetzt allerdings zahme-re, da kleinere) Ausgangsproblem.

    Hermann Amandus Schwarz und seine weitreichende Idee.

    Konvergenzraten und typische 1D Eigenvektoren einer schwingenden Saite.

  • WechselWirkungen y

    Jahrbuch 2002 y

    45

    Die Idee des Zerkleinerns und Zerle-gens findet sich aber nicht nur bei derNumerik. Wer sich durch Mehrgitterver-fahren an die im vorigen Abschnitt vorge-stellten Mehrskalenmodelle erinnert fühlt,liegt goldrichtig. Und es wird nicht derletzte Auftritt dieses algorithmischen Prin-zips bleiben! Es greift eben alles ineinan-der, und nur eine enge Verzahnung kannerfolgreiche Simulationsergebnisse ge-währleisten.

    Hat man das diskrete Problem nachvielen Mühen nun endlich gelöst, so stehtman vor der entscheidenden Frage, obdie berechnete Lösung überhaupt richtigbeziehungsweise hinreichend genau ist.Man darf nicht vergessen, dass die erhal-tene Lösung immer nur eine Approxima-tion der eigentlichen Lösung des physika-lischen Problems darstellt und dass manzunächst nichts oder nur wenig über ihreGüte weiß. Die drastischen Auswirkun-gen von unterschätzten Scherkräftenoder vernachlässigten Eigenschwingun-gen machen regelmäßig negative Schlag-zeilen. Und ungenaue numerische Simu-lationsergebnisse können fatale Folgen

    haben. Eine mögliche Ursache hierfürkann die Überbewertung der Genauigkeitsein.

    A priori können zwar häufig qualitativeAussagen zur Größenordnung des Feh-lers gemacht werden, die aber in einerkonkreten Situation nur selten hilfreichsind. Und was heißt schon „asymptotischvon der Ordnung eins oder zwei“? Wiegroß ist denn nun der Fehler, und kommtes nun zum Materialversagen oder nicht?Es werden vielmehr a posteriori – ausge-hend von der berechneten Lösung – Kon-trollmechanismen benötigt. Auch hierkann der Mathematiker alleine oftmalskeine Garantie bieten. Die zentrale Frage,welche die relevanten Größen sind, kannmeist nur gemeinsam mit dem Anwen-der beantwortet werden. ZielgerichteteFehlerschätzer oder -indikatoren könnendann lokale Kontrollfunktionen überneh-men. Je nach Modell erhält man adaptiveSchrittweiten- oder Ordnungssteuerun-gen oder aber lokal besser aufgelöste Gitter: Das endliche Modell im Rechnerwird mit diesen Techniken so gut wiemöglich an den zu simulierenden Pro-

    zess angepasst. Der entscheidende Trickdabei ist, diese Anpassung auf jene Stel-len zu beschränken, an denen der zu simulierende Prozess besonders schnelloder intensiv abläuft.

    Probleme, die vorher aus Zeit-, Spei-cher- oder Stabilitätsgründen nicht bere-chenbar waren, sind nun handhabbar.Aber auch hier ist Übermut fehl am Platze,und es gilt wieder: Jeder noch so ausge-feilte Kontrollmechanismus kann versa-gen, und je mehr Erfahrung man einbrin-gen kann, desto effizienter können nume-rische Methoden eingesetzt werden.

    Adaptive Gitter und Genauigkeiten im Vergleich.

    Struktur eines Mehrgitter W-Zyklus und Konvergenzraten eines V-Zyklus mit einemGlättungsschritt (die Namensgebung leitet sich von der Besuchsreihenfolge derunterschiedlich feinen Gitter ab).

  • WechselWirkungen y

    Jahrbuch 2002 y

    46

    Implementierung

    Der ohne Zweifel bedeutsamste Aufga-benkomplex, dem sich die Informatik imZusammenhang mit Simulationsproble-men zu stellen hat, ist der Bereich der Im-plementierung, worunter hier alle Akti-vitäten auf dem Weg vom numerischenVerfahren zum rechnergestützt erzeugtenLösungsdatensatz subsummiert werdensollen. Zu Unrecht wird diese weite The-matik oft auf die Bereitstellung modernerHöchstleistungsrechner reduziert. In derTat ist die eingangs skizzierte Entwick-lung der Leistungsfähigkeit im Computer-bereich mehr als beachtlich. Heute sindselbst die Rechner am Arbeitsplatz desWissenschaftlers so leistungsstark, dassauf ihnen neben der Programmentwick-lung auch einfachere Simulationen in an-gemessener Zeit durchgeführt werdenkönnen. Aufwändigere und realitätsnähereFälle bleiben aber den „Number Crun-chern“, den Zahlenfressern vorbehalten,die den gewöhnlichen Arbeitsplatzrech-nern in den vergangenen Jahren in punctoRechengeschwindigkeit stets um unge-fähr drei Größenordnungen voraus wa-ren. Ende 1996 war am Sandia NationalLaboratory in New Mexico die langjährigeSchallmauer von 1 TFlops (das sind 1012

    Grundrechenoperationen mit etwa zehn-stelligen Dezimalzahlen als Operanden inder Sekunde) durchbrochen worden –noch Mitte der siebziger Jahre als Re-chenleistung eines Computers unvorstell-bar, und heute schon wieder Schnee vonvorgestern! Von der menschlichen Re-chenkunst reden wir hier lieber nicht – oder probieren Sie doch mal, wie viele„Flops“ à la 21.34694782 x0.778907732 Sie denn so schaffen ....

    Doch bei aller Bedeutung der Rechner-entwicklung – die Rolle als bloßer Liefe-rant von Gerät für Simulationsaufgabenwird der Informatik nicht gerecht. Es sindauch in hohem Maße die Entwurfs- undProgrammierkonzepte, die die Effizienzvon Simulationsprogrammen bestimmen.

    Neben Begriffen wie Spezifikation, modu-larer Programmaufbau, Objektorientie-rung, dynamische Datenstrukturen, hier-archische Modelle und Rekursion – ausder Informatik-Ausbildung sowie -For-schung aus gutem Grund heute nichtmehr wegzudenken, in den meisten der-zeitigen Simulationsprogrammen jedochtrotz eklatanter konzeptueller Vorteile

    durch Abwesenheit glänzend – ist hierbeispielsweise das „divide-et-impera“-Paradigma zu erwähnen. Auf dieses Ent-wurfsprinzip (je nach persönlicher Vorlie-be wahlweise auch „teile und herrsche“oder „divide and conquer“ genannt) wa-ren wir ja schon im Abschnitt über dieNumerik gestoßen. Wer aufgrund des etwas martialischen Wortes dessen Ur-

    Stets in Sachen „divide et impera“ unter-wegs, um seinen ge-fährdeten und zer-stückelten Machtbereichzu erhalten: Ludwig XI.von Frankreich bei Ver-handlungen mit JohannII. von Navarra in Bordeaux (rechts).

    Unmittelbare Gebiete der Krone Frankreichsunter Karl VII., 1461

    Einzug von Lehen der Kroneunter Ludwig XI., 1461-1483

    Einzug von Lehen der Kroneunter Karl VIII. und Ludwig XII., 1483-1515

    Vasallen der Krone um 1500:Besitzungen der Häuser Albret, Armagnac und Foix

    Besitzungen des Hauses Bourbon um 1500

    Besitzungen des Hauses Orleans um 1500

  • WechselWirkungen y

    Jahrbuch 2002 y

    47

    sprung außerhalb der Wissenschaft ver-mutet, liegt so falsch nicht. Ludwig XI.von Frankreich wird der Ausspruch zuge-schrieben (natürlich in der französischenVersion „diviser pour régner“), war erdoch den Großteil seiner 22-jährigen Re-gentschaft zwischen 1461 und 1483damit beschäftigt, von seinem ErzrivalenKarl dem Kühnen, dem letzten der mäch-tigen Herzöge Burgunds, gegen Frank-reich geschmiedete Allianzen zu zerschla-gen, um sich selbst an der Macht undsein sich erst langsam von den Folgendes Hundertjährigen Krieges erholendesLand am Leben zu erhalten. Später ge-brauchten Historiker den Begriff dann zurCharakterisierung des Umgangs der altenRömer mit den von ihnen „befriedeten“Völkern. Die Vorgehensweise hatte Romdurchaus schon nachdrücklich am eige-nen Leib erfahren: Hannibal hielt sich beiCannae an „divide“ und fügte den Römerneine ihrer schmerzlichsten Niederlagenzu.

    idee der Rekursion ist einfach: Man zerlegeein gegebenes Problem in kleinere (undsomit im Allgemeinen leichter zu bearbei-tende) Teilprobleme gleichen Typs, umdann aus den Lösungen der Teilproblemedie Gesamtlösung zu erhalten. Keinegroße Geistesleistung, mag manch einerdenken, und sicher keine Erfindung vonMathematik oder Informatik (die Usurpa-tion von Geistesgrößen und sonstigen Be-rühmtheiten durch wissenschaftlicheDisziplinen hat zwar durchaus Tradition,aber Archimedes oder Ludwig XI. als Ur-Algorithmiker, das wäre dann vielleichtdoch des Guten zuviel). In der modernen

    eine nahezu optimale Ausnutzung derLeistungsfähigkeit moderner Parallelrech-ner, erfordern aber gleichzeitig ausge-feilte Programmierkonzepte. Wie bringtman etwa die rekursive divide-et-impera-Strategie auf einen als Hyperwürfel struk-turierten Parallelrechner? Die effizienteLösung solcher und verwandter Frage-stellungen ist alles andere als trivial. Auch

    Aber zurück zur Algorithmik. Ludwig XI.hat wohl nicht daran gedacht, dass auchseine oftmals zerstrittenen Gegner oderseine ihm nachgeordneten Fürsten ihrer-seits dieselbe Strategie verfolgen könn-ten, um ihren Einflussbereich zu erhalten.Genau dies wäre bereits eine rekursiveAnwendung des divide-et-impera-Prin-zips. Archimedes dagegen ging so vor,als er bei der Approximation der Flächeunter einer Parabel durch eine Folge im-mer kleinerer Dreiecke die jeweils verblei-bende (wiederum parabolisch berandete)Restfläche immer wieder neu nach dem-selben Prinzip „ausschöpfte“. Die Grund-

    Informatik ist dieses Prinzip aber überauserfolgreich und allgegenwärtig – in Sor-tieralgorithmen ebenso wie beim Ray-Tracing in der Computergraphik sowie allgemein bei rekursiven raumpartitionie-renden Datenstrukturen wie etwa Oktal-bäumen, um nur wenige Beispiele zunennen. Letztere ermöglichen beispiels-weise die einfache und ökonomische Re-präsentation auch komplizierterer dreidi-mensionaler Objekte sowie die einfacheRealisierung von Mengenoperationen, diefür das Erkennen von Inkonsistenzen beiKonstruktion und Entwurf von technischenObjekten sowie Gebäuden wichtig sind.

    Im wissenschaftlichen Rechnen sinddivide-et-impera-Ansätze ebenfalls vonzentraler Bedeutung. Schließlich basiertletztendlich die gesamte Parallelverarbei-tung auf dem Prinzip, ein großes gegebe-nes Problem in kleinere und (zumindesttemporär) unabhängig bearbeitbare Hap-pen zu zerlegen. Damit ermöglichen sie

    Auf den Spuren von Archimedes und Cavalieri: Rekur-sive, hierarchische und adaptive numerische Quadra-tur auf dünnen Gittern, einer optimierten Anordnungvon Gitterpunkten für numerische Aufgaben.

    Noch mehr „divide et impera“: Die raumpartitionierende Oktalbaumstruktur, eingesetzt zur Detektion von Inkonsistenzenin digitalen Architekturmodellen.

  • WechselWirkungen y

    Jahrbuch 2002 y

    48

    und gerade bei numerischen Algorith-men treffen wir das divide-et-impera-Prin-zip – die im Abschnitt zur Numerik disku-tierte Technik der Gebietszerlegung istgeradezu ein Musterbeispiel. Nach ihrerVorstellung in einen tiefen Dornröschen-schlaf versunken und erst vom Parallel-rechnerprinzen wachgeküsst, ist die Ge-bietszerlegung heute der wohl verbreitet-ste Parallelisierungsansatz bei partiellenDifferentialgleichungen. Die Liste der divi-de-et-impera-Sprösslinge ließe sich nahe-zu beliebig fortsetzen, ein abschließendesBeispiel soll aber genügen. Die Simulationso genannter gekoppelter Probleme, beidenen unterschiedliche physikalische Effekte miteinander in Wechselwirkungtreten, wird immer wichtiger. Mit den zu-nehmenden Genauigkeitsanforderungendarf man eben Einflüsse, die in früherenModellen aus Rechenzeitgründen nichtberücksichtigt werden konnten oder inden berühmten konstanten Term, überden so ziemlich jede Differentialglei-chung verfügt, gesteckt wurden, nichtmehr ohne weiteres vernachlässigen. AlsBeispiel für solche Kopplungen seienFluid-Struktur-Wechselwirkungen anStaumauern oder Zeltdachkonstruktionengenannt. Was liegt näher, als zwei für diebeiden Teilaufgaben Strömungsmechanikund Strukturmechanik verfügbare Simula-tionsprogramme zu einer Simulation desGesamtsystems zusammenzuführen?

    Visualisierung

    Ausgestattet mit schier endlosen Zahlen-kolonnen, die unser Simulationspro-gramm einem sprudelnden Quell gleichproduziert, wenden wir uns der graphi-schen Aufbereitung der Resultate zu. DieVisualisierung stützt sich maßgeblich aufdie Errungenschaften der Computer-graphik und – in jüngerer Zeit auch – aufTechniken und Konzepte aus den Berei-chen Multimedia und Virtual Reality. Ge-tragen von der atemberaubenden Leis-tungssteigerung im Bereich von Compu-ter-Hardware allgemein und insbesondereGraphik-Hardware in den letzten Jahr-zehnten (Lara Croft und Konsorten seiDank) sowie von der Entwicklung immerraffinierterer Algorithmen, hat die realisti-sche Darstellung komplexer Szenenlängst auf dem PC Einzug gehalten. Da-mit rücken aus der Sicht der numeri-

    schen Simulation auf einmal ganz neueProblemstellungen in das Zentrum des In-teresses. Die Frage ist nicht mehr, obdreidimensionale Datensätze in hoherAuflösung graphisch aufbereitet, darge-stellt und zum Aufzeigen dynamischer Ef-fekte auch animiert werden können, son-dern vielmehr, wie vorzugehen ist, damitder Betrachter nicht vor lauter Bäumenden Wald nicht mehr sieht. Die Pfeildar-stellungen in der Strömungssimulation et-wa, bei denen in jedem Gitterpunkt einPfeil Größe und Richtung der lokalen Ge-schwindigkeit anzeigt, sind in zwei Raum-dimensionen äußerst aussagekräftig, imDreidimensionalen jedoch völlig un-brauchbar. An dieser Stelle hat die Visua-lisierung begonnen, sich zum eigenstän-digen Forschungsgebiet zu entwickeln.Trotz oder vielleicht gerade wegen derFaszination bunter Bilder und Bildfolgenist hier jedoch eine gewisse gesunde Distanz sicher nicht unangebracht.Schließlich lassen sich auch aus völligfalschen Ergebnissen oder unsinnigenDaten eindrucksvolle Bilder und Videofilmeerstellen!

    Einbettung

    Der in obiger Zusammenstellung Einbet-tung genannte sechste Schritt berührt die Themenkreise Kompatibilität, Schnitt-stellendefinition und Standards. Auchwenn viele leidgeprüfte Rechnerbenutzerhierin womöglich eher einen informati-schen Albtraum als ein Feld der Ehre fürdie Informatik sehen, so ist doch vor allem der Informatiker gefordert, wenn esdarum geht, Datenformate zu vereinheit-lichen, überflüssige Netzgenerierungs-

    Vernetzung von Rechnern, hier am Beispiel eines sogenannten „Dual Hypercube“ – ein Weg zum Super-computer und ein wichtiger Beitrag der Informatik.

    Weg mit Zukunft: Oktalbaummodell einer ventilgesteuerten Mikropumpe als Schnittstelle zwischen CAD und Simulation (links) und Visualisierung der Simulation derDurchströmung (rechts).

  • WechselWirkungen y

    Jahrbuch 2002 y

    49

    schritte zu vermeiden oder verschiedeneSimulationsprogramme sowie andereSoftwaremodule austauschbar zu machen beziehungsweise miteinander zu koppeln und so die numerische Simula-tion an andere Aufgabenstellungen anzu-binden.

    Trends und Perspektiven

    Nach der Bestandsaufnahme stellt sichnun natürlich die Frage, wie der Interdis-ziplinarität in der numerischen Simulationsowie dieser Methodik insgesamt zumehr Schwung verholfen werden kann.Etliche Schritte in die richtige Richtungwurden und werden mancherorts schongetan. Was Baden-Württemberg allge-mein und Stuttgart im Besonderen an-geht, so seien beispielhaft der For-schungsverbund WissenschaftlichesRechnen in Baden-Württemberg (WiR-Ba-Wü), der BundeshöchstleistungsrechnerHLRS, verschiedene einschlägige Sonder-forschungsbereiche und andere For-schungsaktivitäten oder die kürzlich anunserer Universität eingerichtete überfa-kultäre Arbeitsgemeinschaft Wissen-schaftliches Rechnen genannt. Von allengehen natürlich entscheidende Impulseaus. Südschienen-Fans sei versichert,dass sich unter weiß-blauem Himmelebenfalls einiges regt – die entsprechen-den Akronyme für Insider sind hier FORT-WIHR, KONWIHR und HLRB. Auch in derLehre sind die Dinge in Bewegung geraten.In den letzten Jahren sprossen Studien-gänge wie Computational Engineering,Computational Physics, ComputationalMechanics oder Computational Science

    and Engineering förmlich aus dem Boden;auch da ist Stuttgart vorne mit dabei.

    Auch an anderen Fronten sind allmäh-lich erste Erfolge zu verzeichnen. Wasden Ausbildungsbereich angeht, so ist etwa ein Fachwechsel (beispielsweisevon der Mathematik in eine Ingenieurdis-ziplin oder umgekehrt) zwischen Diplomund Promotion für die jeweiligen Dokto-randen an deutschen Hochschulen tradi-tionsgemäß leider oft mit zum Teil erheb-lichen Schwierigkeiten verbunden. Man-che Empfängerfakultät vermutet darin einen Frontalangriff auf das (natürlich umKlassen höhere) Niveau des eigenen Dok-tortitels und baut kunstvoll Hürden inForm von Zusatzprüfungen auf. Hier wer-den jedoch die Grenzen langsam erfreu-licherweise durchlässiger. Was die For-schung betrifft, so sind auch viele derklassischen Geldgeber in unserer Wissen-schaftslandschaft samt den entsprechen-den Begutachtungsgremien in starkemMaße etablierten Organisations- undDenkstrukturen verhaftet. Immer nochgibt es nur wenige zwischen dentraditionellen Fachbereichen angesiedelte„Töpfe“ oder Referate – ein Vorhabenwird eben aus dem Mathematik-, Infor-matik- oder Sonstwas-Topf finanziert. Dadurch nimmt die Begeisterung für eineansonsten durchaus angestrebte Zustän-digkeit angesichts des dann auch darausresultierenden Finanzierungsbedarfs ge-rade in Zeiten zunehmend knapper För-dermittel oftmals spürbar ab. Doch auchhier gibt es deutliche positive Anzeichen,wie beispielsweise erfolgreiche interdiszi-plinäre Sonderforschungsbereiche zeigen– auch an der Universität Stuttgart.

    Schließlich wurde vor drei Jahren (alsogewissermaßen bereits im letzten Jahr-tausend) an unserer Hochschule die Ein-richtung eines fakultätsübergreifendenZentrums für Simulationstechnik (ZST)beschlossen – ein wichtiger strategischerSchritt in exakt die richtige Richtung.Denn nur durch eine konsequente Bün-delung der Anstrengungen auf Gebietenwie etwa der Erstellung numerischerSoftware kann die diesbezüglich nicht befriedigende Situation in Deutschlandlängerfristig verbessert werden. Die Si-mulationshardware hat sich wohl schonendgültig verabschiedet, der Rückzugauch aus der Simulationssoftware würdeuns zu reinen Anwendern eingekaufterProdukte ohne eigene Entwicklungskom-petenz werden lassen. Deshalb ist eshöchst erfreulich, dass die UniversitätStuttgart Modellbildung und Simulationan prominenter Stelle auf ihre Fahnen ge-schrieben und das Thema ZST zur Chef-sache erklärt hat. Mit Zuversicht blickenwir somit dem offiziellen Startschuss fürdas ZST entgegen.

    „Ich schreibe lieber eine Seite als zwei,und am liebsten schreibe ich gar nichts“,sprach einst ein weiser Gelehrter. Gera-dezu erschreckend viele Seiten sind esbei uns geworden, weshalb wir es jetztgut sein lassen. In diesem Sinne: simule-mus – lasst uns simulieren!

    Auch eine simulierte Welt: Virtual und Augmented Reality auf der Basis detailgetreuer Geometriemodelle ermöglichen virtuelle Flüge durch Gebäude lange vor derenFertigstellung (hier: Modell des Informatik-Neubaus der TU München in Garching – der Aufzug kommt per Knopfdruck!).

  • 50

    Prof. Dr. Hans-Joachim Bungartz

    studierte von 1982 bis 1989 ander Technischen UniversitätMünchen Mathematik, Informa-tik und Wirtschaftswissenschaf-ten. Den Diplomen in Mathema-tik (1988) und Informatik (1989)folgte ein Promotionsstipendiumder Siemens AG in München. ImAnschluss an die Promotion ander TU München 1992 war Bun-gartz wissenschaftlicher Assis-tent am Institut für Informatikder TUM und ab 1996 zusätzlichfür die Geschäftsführung desBayerischen Forschungsver-bunds für Technisch-Wissen-schaftliches Hochleistungsrech-nen FORTWIHR verantwortlich.1994 wurde ihm der BayerischeHabilitations-Förderpreis verlie-hen, im Jahre 1998 habilitierteer sich an der TU München imFach Informatik. Von Juli 2000bis August 2001 wirkte Hans-Joachim Bungartz als Professor(C3) für Numerik und Wissen-schaftliches Rechnen am Institutfür Mathematik der UniversitätAugsburg, bevor er zum 1. Sep-tember 2001 einem Ruf auf dieC4-Professur für Simulationgroßer Systeme in der damali-gen Fakultät Informatik der Uni-versität Stuttgart folgte. SeineHauptarbeitsgebiete liegen inden Bereichen effiziente numeri-sche Diskretisierungen und Algo-rithmen, Parallelverarbeitung so-wie Anwendungen des Hochleis-tungsrechnens im Bereich dernumerischen Strömungsmecha-nik.

    Prof. Dr. Barbara IrmgardWohlmuth

    Von 1986 bis 1992 studierteBarbara Wohlmuth an der Tech-nischen Universität MünchenMathematik mit Nebenfach Phy-sik. Während des Studiums ver-brachte sie ein Jahr an der Uni-versität Joseph Fourier in Gre-noble und legte die Prüfung zurMaitrise ab. In ihrer Promotionbeschäftigte sie sich mit adapti-ven Finite Elemente Methodenund war während dieser Zeit alswissenschaftliche Angestellte imBayerischen Forschungsverbundfür Technisch-Wissenschaftli-ches Hochleistungsrechnentätig; die Promotion erfolgte1995 ebenfalls an der TUM. Von1995 bis 2001 war BarbaraWohlmuth als wissenschaftlicheAssistentin an der UniversitätAugsburg angestellt, wo sieauch 2000 ihre Habilitation ab-schloss. Ein Habilitationsstipen-dium der DFG ermöglichte eineneinjährigen Forschungsaufent-halt am Courant Institute of Ma-thematical Sciences der NewYork University. 2001 erfolgtenRufe auf Lehrstühle an der TUDarmstadt beziehungsweise derUniversität Stuttgart. Zum 1.September 2001 nahm sie denRuf auf den Lehrstuhl für numeri-sche Mathematik für Höchstleis-tungsrechner an der UniversitätStuttgart an. Ihr Hauptarbeitsge-biet liegt im Bereich der numeri-schen Simulation partieller Diffe-rentialgleichungen.

    Prof. Dr. Hans-JürgenHerrmann

    Nach dem Studium der theoreti-schen Physik in Göttingen undKöln promovierte er 1981 am Institut für Theoretische Physikder Universität zu Köln in statisti-scher Physik. Nach einem JahrPost Doc-Aufenthalt in Bostonund in Athens, GA, USA, ging er1982 ans Service de PhysiqueThéorique in Saclay, Frankreich,wo er als Mitglied der CNRS achtJahre lang forschte. Von 1990bis 1994 war Hans-Jürgen Herr-mann Leiter der Vielteilchengrup-pe am Höchstleistungsrechen-zentrum (HLRZ) in der KFA Jülich.Anschließend ging er nach Pariszurück, wo er als Direktor einesim wesentlichen experimentel-len Instituts an der Ecole Su-périeure de Physique et ChimieIndustrielle wirkte. Im Oktober1995 übernahm Prof. Herrmannden Lehrstuhl „Modellierung na-turwissenschaftlicher und tech-nischer Grundprobleme – Physikmit Hochleistungsrechnern“ amInstitut für Computer-Anwendun-gen 1 (ICA-1). Seine Hauptar-beitsgebiete liegen in den Berei-chen granulare Medien, Mehr-phasenfluss, poröse und unge-ordnete Medien, statistischePhysik, Phasenübergänge, Paral-lelrechner, Zellularautomaten, Vi-sualisierung.