49
MaxPlanckForschung MaxPlanck Forschung Das Wissenschaftsmagazin der Max-Planck-Gesellschaft B20396F 1/2002 ENTWICKLUNGSBIOLOGIE Wie Frösche in Form kommen ENTWICKLUNGSBIOLOGIE Wie Frösche in Form kommen ESSAY 2011 – Odyssee im Nanokosmos PSYCHOLOGIE Babys greifen nach Wissen Hochleistungsrechnen Hochleistungsrechnen SCHWERPUNKT Hochleistungsrechnen 2011 – Odyssee im Nanokosmos Babys greifen nach Wissen

MPF_2002_1 Max Planck Forschung

Embed Size (px)

DESCRIPTION

Magazin des Max Planck Instituts

Citation preview

Page 1: MPF_2002_1  Max Planck Forschung

MaxPlanckForschungMaxPlanckForschungDas Wissenschaftsmagazin der Max-Planck-Gesellschaft

B20396F1/2002

ENTWICKLUNGSBIOLOGIE

Wie Frösche in Form kommen

ENTWICKLUNGSBIOLOGIE

Wie Frösche in Form kommen

ESSAY

2011 – Odyssee im Nanokosmos

PSYCHOLOGIE

Babys greifen nach Wissen

HochleistungsrechnenHochleistungsrechnenSCHWERPUNKT

Hochleistungsrechnen

2011 – Odyssee im Nanokosmos

Babys greifen nach Wissen

Page 2: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 32 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

INHALT

FORSCHUNG aktuellIm Zikadenleben zählen Zahlen . . . . . 4

CONICA übertrifft Hubble . . . . . . . . . . . 5

Die Mathematik der Sinne . . . . . . . . . 7

Proteine als Filter reinsten Wassers . . 8

Guter Ruf ist Goldes Wert . . . . . . . . 10

Ultrakalte Atome im Gitter gefangen 11

Wasserflöhe mit richtigem Timing . . 12

Erste Schritte auf dem Wegzur Spin-Elektronik . . . . . . . . . . . . . 14

ESSAY

❿ 2001 – Odysseeim Nanokosmos . . . . . . . . . . . . . . 16

SCHWERpunkt HochleistungsRECHNEN

❿ Atomkerne und Elektronen aus dem Baukasten . . . . . . . . . . . 22

❿ „Ich hielt den Computerfür ein seltenes Gerät“ . . . . . . . . . 28

❿ Superrechner spielt mit Perlenkettenund flüssigen Kristallen . . . . . . . . 30

❿ Der Herr der Wirbel . . . . . . . . . . . 36

❿ Prozessoren puzzelnam Buch des Lebens . . . . . . . . . . 40

❿ Supernova platzt im Computer. . . 46

❿Wie die Flops laufen lernten . . . . 50

FASZINATION Forschung❿ Entwicklungsbiologie:

Warum aus Fröschenkeine Prinzen werden . . . . . . . . . 52

❿ Informatik:Monitor mimt Mienenspiel . . . . . 58

WISSEN aus erster Hand❿ Biochemie: Der Zellzyklus

im Fokus der Krebsforschung . . . 64

KONGRESSbericht❿ Simulieren geht über Probieren . . 68

FORSCHUNG & Gesellschaft❿ Psychologie: Wie Babys

die Welt begreifen lernen . . . . . . 72

zur PERSON

❿ Frank Pfrieger . . . . . . . . . . . . . . . 80

NEU erschienenErfindungen und ihre Folgen . . . . . . 85

Forscher geben Rechenschaft . . . . . . 85

INSTITUTE aktuell Kanadas Premierminister zu Besuch . . . . . . . . . . . . . . . . . . . . 86

Pflanzenforschung soll gedeihen . . 87

Wissenschaftsnetz für die Balkanländer . . . . . . . . . . . . 88

Antikörper gegen synaptische Proteine . . . . . . . . . . . . 89

Mit ausländischen Partnernan die Spitze . . . . . . . . . . . . . . . . . . 90

Oberflächen im Spiel der Kräfte . . . . 91

PISA-Studie veröffentlicht . . . . . . . . 92

Max-Planck-Forschungsgruppe in Erlangen . . . . . . . . . . . . . . . . . . . 92

Optische Methoden unter der Lupe . . . . . . . . . . . . . . . . . 94

STANDorteForschungseinrichtungen der Max-Planck-Gesellschaft . . . . . . 95

Impressum . . . . . . . . . . . . . . . . . . . . 95

Im FOKUS

Schwebeteilchen über dem Mittelmeer . . . . . . . . . . . . 96

SPITZENFORSCHUNG BRAUCHT SUPERRECHNER: Ob in der Astro-

nomie oder in der Zellbiologie – ohne Hochleistungscomputer wären viele Probleme, mit

denen sich die Wissenschaftler heute beschäftigen, unzugänglich oder unlösbar. So wäre weder der

„Chemiebaukasten“ denkbar, mit dem man virtuelle Molekülstrukturen erzeugen kann (SEITE 22), noch

ließe sich das Glasperlenspiel gelöster Polymere verfolgen (SEITE 30). Und vieles von dem, was im „Brenn-

raum“ eines Fusionsreaktors abläuft (SEITE 36), deckt erst der Computer auf – mit dem die Forscher auch

im Buch des Lebens blättern (SEITE 40). Die Astronomen holen sich die Sterne ins Labor und rechnen

mit kosmischen Katastrophen (SEITE 46). All dies war vor fünf Jahrzehnten selbst für den Fachmann noch

Science-Fiction: So ahnte Prof. Heinz Billing, einer der Pioniere in Sachen Rechenmaschinen, damals nichts

von dem Tempo, mit dem die Computer zu immer höheren Leistungen auflaufen (SEITE 28 und 50).

ZUM TITELBILD:Ausschnitt aus einem Simulationsmodell mit 32 Polyelektrolytketten und insgesamt 9600 Teilchen.

FOTO: MPI FÜR POLYMERFORSCHUNG

Schwerpunkt Hochleistungs rechnen

ZELLTEILUNG: Wie aus einer Zelle zwei werden und warum das für die Krebs-

forschung interessant ist, erklärt Prof. Erich A. Nigg vom MPI für Biochemie.

64FORMSACHE: Nach welchen Regeln Frösche ihre Gestalt annehmen,

erforschen Wissenschaftler am MPI für Entwicklungsbiologie.

52 MODELLWELTEN: Auf einem Kongress in Berlin diskutierten Fach-

leute, wie digitale Simulationen die Forschung und das Denken verändern.

68 HANDLUNGSWEISEN: Wie Babys mit all ihren Sinnen die Welt erfassen

lernen, ist Thema am MPI für psychologische Forschung.

72 KONTAKTMITTEL: Frank Pfrieger hat entdeckt,dass das verrufene Choles-

terin eine wichtige Rolle für die Vernet-zung der Nervenzellen im Gehirn spielt.

80

2222

BIOMAX:In Plön erforschen die Wissenschaftler die genetische Basis für ökologische Fitness beim Wasserfloh.

3636

40402828

MUSKELSPIEL: Am MPI für Infor-matik erweckt der

Computer virtuelleGesichter zum

Leben und bringtsie zum Sprechen.

50

30

4646

58

Page 3: MPF_2002_1  Max Planck Forschung

In weiten Teilen Nordameri-kas treten Zikaden auf, diesich alle 13 oder 17 Jahreüber der Erde massenhaftvermehren – danach leben sie als Larven wieder 13 oder 17 Jahre unter der Erde.Wissenschaftler des Max-Planck-Instituts für moleku-lare Physiologie in Dortmundund der Universidad de Chilehaben jetzt vermutlich dasRätsel gelöst, warum der Le-benszyklus dieser Insekten soungewöhnlich ist: Die For-scher um Prof. Mario Markushaben ein Jäger-Beute-Mo-dell entwickelt, in dem nurLebenszyklen, deren Längeeine Primzahl von Jahren ist, stabil sind. Die Forscher nutzen das Modell auch, um beliebig hohe Primzahlen zu erzeugen – damit wurde erstmals eine Brücke zwi-schen zwei sonst weit aus-einander liegenden Diszipli-nen, der Zahlentheorie undder Biologie, geschlagen.

1634 erlebten europäischeSiedler im Osten Tennesseeserstmals eine Angst einflößen-de Zikadenplage. Seitdem wie-derholt sich die Massenver-mehrung dieser Insekten regel-

mäßig alle 17 Jahre – und wur-de so auch 1991 pünktlich zum22. Mal registriert. Die Plagebeginnt jeweils damit, dass dieBöden von Plantagen oderWäldern über Nacht durchsiebtwerden: Aus kleinen, nahe bei-einander liegenden Löchern –man zählt bis zu 40 000 Löcherum einen Baum – kriechen dieLarven aus dem Boden; diedarauf folgende Verwandlungin zirpende Insekten, die Paa-rung, dann Eiablage und Toddauern nur wenige Wochen(Abb. 1 und 2): Danach schlüp-fen aus den Eiern Larven, diesich im Boden vergraben undvon Wurzelsaft ernähren, biswieder 17 Jahre verstrichensind. Zikaden mit diesem Rhythmusleben in der blau gekennzeich-neten Region auf der Karte(Abb. 3); in der roten Regionder Karte beträgt die Zyklus-länge der Zikaden 13 Jahre. Bemerkenswert an diesen Tie-ren ist ihre Pünktlichkeit (diePrognosen liegen höchstens eine Woche daneben), ihreLautstärke (bei 100 Dezibelhört man den Straßenverkehrnicht mehr), ihre Anziehungs-kraft für Touristen und Journa-listen, ihre Menge (einige Mil-lionen Tiere pro Hektar) sowiedas Rätsel ihrer massenhaftenVermehrung in Intervallen von 13 oder 17 Jahren. Das massenhafte Auftreten derZikaden kann evolutionsbiolo-gisch so erklärt werden, dasspotenzielle Räuber der Zikaden(beispielsweise Vögel oder Wes-pen) übersättigt werden, sodassimmer genügend Zikaden über-leben, um die Art zu erhalten.Die Vermehrung im Intervall

von 13 oder 17 Jahren erklärtman ebenfalls mit Jäger-Beu-te-Beziehungen: Wäre die Zyk-lenlänge beispielsweise zwölfJahre, so könnten die Zikadenvon allen synchronisiertenRäubern gefressen werden, diealle 1, 2, 3, 4, 6 und 12 Jahreerscheinen. Mutieren die Zika-den jedoch in einen Zyklus von13 Jahren, so sind nur noch dieArten, die jedes Jahr oder alle13 Jahre auftreten, Fressfeinde.Im Allgemeinen sollten dem-nach Primzahlen – also Zahlen,die nur durch sich selbst unddurch eins teilbar sind – fürVermehrungsintervalle bevor-zugt sein. Die nächstgrößerePrimzahl nach der 13 ist die 17– also genau die Zykluslängeder Zikaden im Verbreitungsge-biet im Nordosten der USA.

4 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FORSCHUNGAufnahmen von bisher unerreichter Auflösung gelangen einem Team deutscherund französischer Astronomen mit derneuen Infrarotkamera CONICA am Very Large Telescope (VLT) der EuropäischenSüdsternwarte (ESO). Erstes Zielobjekt der Kamera mit adaptiver Optik war am29. November 2001 der offene Stern-haufen NGC 3603, in dem mit CONICA

zahllose neu entstandene Sterne beobach-tet wurden. CONICA ist jetzt die weltweitleistungsfähigste Infrarotkamera. Entstan-den ist das rund eine Tonne schwere Prä-zisionsinstrument unter der Federführungdes Max-Planck-Instituts für Astronomie(MPIA) in Heidelberg in Zusammenarbeitmit Kollegen des Max-Planck-Instituts für extraterrestrische Physik (MPE) in Garching und der ESO.

CONICA arbeitet auf dem 2600 Meter hohenCerro Paranal in den chilenischen Anden amvierten 8-Meter-Teleskop des VLT. Zusammenmit der Kamera wurde ein unter französischerLeitung gebautes Instrument für adaptive Optik (NAOS) installiert, das während der Auf-nahme laufend die durch die Luftunruhe verursachte Bildunschärfe korrigiert. Damitkönnen CONICA und NAOS zusammen astrono-mische Aufnahmen liefern, die jene des Weltraumteleskops Hubble (HST) an Empfind-lichkeit und Schärfe weit übertreffen.Im Bereich des nahen Infrarot (Wellenlänge etwa ein Mikrometer) kann CONICA zusammenmit NAOS bei optimalen Bedingungen nochDetails von wenigen hundertstel Bogen-sekunden abbilden – rund dreimal schärfer als mit dem Hubble-Weltraumteleskop. Damitließe sich auf dem Mond ein fünfzig Metergroßer Fels erkennen. Überflüssig wird dasWeltraumteleskop damit allerdings nicht:Zum einen verschluckt die Atmosphäre in

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 5

FORSCHUNG aktuell

FOTO

: MPI

RAS

TRO

NO

MIE

aktuellaktuellASTRONOMIE

CONICA

übertrifft Hubble

Abb. 3: Geogra-fische Verbreitungder Zikaden. Ins-gesamt existierendrei Zikadenarten,die in 13- oder17-jährigen Zyklen auftreten.

Obwohl diese evolutionsbiolo-gische Erklärung schon rechtalt ist, gab es noch keine ma-thematische Modellierung derEvolution dieser Insekten.Mario Markus und OliverSchulz vom Max-Planck-Insti-tut für molekulare Physiologieund Eric Goles (Universidad deChile) entwickelten jetzt einEvolutionsmodell (COMPLEXITY 6,S. 33, 2001; MATHEMATICAL

INTELLIGENCER 24, S. 30-33,2002), das durch Mutation undSelektion von Räubern undBeuten Primzyklen der Beutenerzeugt. Die deutsch-chileni-sche Forschergruppe konntemathematisch zeigen, dass einPrimzyklus der Beute stabil ge-genüber zyklenveränderndenMutationen von Räubern oderBeute ist, und dass ein Nicht-Primzyklus der Beute nach ei-ner endlichen Zahl von Muta-tionen verändert wird. Danngingen die Forscher zwei Wege:Im ersten Weg betrachteten sie – neben der zeitlichen Ent-wicklung – auch die räumli-chen Aspekte der Insektenver-mehrung, indem sie die Wech-selwirkung zwischen benach-barten Populationen berück-sichtigten. Dabei erhielten sie – wie in der Natur – durchSelbstorganisation entstandeneTerritorien, in denen 13 und 17 Jahre als bevorzugte Zyklenvorkommen.Im zweiten Weg kehrten sie der Natur den Rücken undnahmen als Anfangsbedingun-gen Zyklen an, deren Länge bisan die Grenzen der Rechen-kapazität reichten, auch wennsie biologisch völlig unrealis-tisch waren. In solchen Fällenwar die Simulation bei sehr ho-hen Primzahlen stabil, was zu-gleich heißt, dass das Modellsehr große Primzahlen erzeugt.Dies ist jedoch von grundsätz-

Abb. 1: Zikaden bei der

Paarung

lichem Interesse: Bei der Jagdnach immer größeren Primzah-len werden immer neue Rekor-de erzielt (siehe zum BeispielPaulo Ribenboim, „THE NEW

BOOK OF PRIME NUMBER RECORDS“,Springer, 1996). Das Einzigarti-ge an der deutsch-chilenischenArbeit ist, dass die Primzahlenmit einem biologischen Modellerzeugt werden. Das Evoluti-onsmodell verknüpft damitzum ersten Mal Zahlentheorieund biologische Modellierung.In den biologischen Annahmendes Modells gibt es bisher nochLücken, da der Jäger der Zika-den noch nicht gefunden wur-de. Die Biologin Christine Simon von der Universität inConnecticut spekuliert etwa,dass eine ausgestorbene parasi-tische Wespe der Jäger gewe-sen sein könnte, kalifornischeWissenschaftler denken an denPilz Massospora cicadina, derZikaden befällt. Nach den Phy-sikern und Informatikern sindjetzt wieder die Biologen ander Reihe, weiterzuforschen. �

Weitere Informationen erhalten Sie von:

PROF. DR. MARIO MARKUS

Max-Planck-Institut für molekulare Physiologie, DortmundTel.: 0231/133-2470Fax: 0231/133-2699E-mail: [email protected]

@

BIOMATHEMATIK

Im Zikadenleben zählen Zahlen

FOTO

: LEO

NH

IGLE

Y, D

EPAR

TMEN

TO

FEN

TOM

OLO

GY,

UN

IVER

SITY

OF

NEB

RASK

A, L

INCO

LN.

WIR

DAN

KEN

DEN

U.S

.-AM

ERIK

ANIS

CHEN

WIS

SEN

SCH

AFTL

ERN

FÜR

DIE

ÜBE

RLAS

SUN

GD

ERFO

TOS

UN

DD

ERKA

RTE.

Abb. 2: Alle 13 oder 17 Jahre werden Zikaden zur Plage.

FOTO

: LEE

JEN

KIN

S, D

EPAR

TMEN

TO

FEN

TOM

OLO

GY,

UN

IVER

SITY

OF

MIS

SOU

RI

KART

E: J

OH

NCO

OLE

Y, D

EPAR

TMEN

TO

FEC

OL.

AND

EVO

L. BI

OL.,

UN

IVER

SITY

OF

CON

NEC

TICU

T

Die neue, eineTonne schwere

Kamera am VeryLarge Telescope(VLT). Links er-kennt man denblauen, einem

Zahnrad ähneln-den Anschluss-flansch. In derMitte befindet

sich die adaptiveOptik NAOS (hell-blau) und rechts

CONICA (rot).

17 Jahre13 Jahre

Page 4: MPF_2002_1  Max Planck Forschung

FORSCHUNG aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 7

gebliebenen Staub und Gas frei und wird sichtbar. Im Bereich des sichtbaren Lichtssind die Frühstadien der Stern-entstehung nicht beobachtbar,weil sie noch tief im Innerender Wolke ablaufen. Erst in demfür CONICA zugänglichen Infra-rotbereich durchdringt dieemittierte Strahlung den Staubund öffnet so den Blick in die„Kinderstuben“ junger Sterne.Ein Beispiel einer solchen Re-gion ist die Umgebung des jun-gen Sternhaufens NGC 3603.Die zahllosen kleinen Licht-pünktchen, die auf der am VLTgewonnenen CONICA-Aufnahmesichtbar werden, sind masse-arme Sterne, die für astronomi-sche Begriffe außerordentlichjung sind, nämlich nur wenigehundert Millionen Jahre. Aufder Hubble-Aufnahme sind diemeisten von ihnen nicht sicht-bar. Die genaue Beobachtungdieser Sterne wird zu einembesseren Verständnis der bei der Sternbildung ablaufendenProzesse führen.Ein zweites zentrales For-schungsgebiet ist die Entste-hung und Entwicklung von Ga-laxien und Quasaren. Quasaresind auch in den allergrößtenEntfernungen sichtbar, denn sie sind die leuchtkräftigstenHimmelskörper im Universum.Aller Wahrscheinlichkeit nachentsteht ihre enorme Strah-lung in der Umgebung einesSchwarzen Lochs, das sich imZentrum eines jeden Quasarsbefindet. Die jüngsten Galaxienund Quasare sind viele Milliar-den Lichtjahre entfernt. IhreFluchtgeschwindigkeit auf-grund der kosmischen Expan-sion ist hoch, daher ist ihr Lichtstark zu längeren Wellenlän-gen verschoben. Obwohl siedas meiste Licht im sichtbarenund im ultravioletten Bereichaussenden, erscheinen sie unsdaher auf der Erde im nahenInfrarotbereich am hellsten. CONICA wird somit weit in diefrühen Entwicklungsstadienunseres Universums zurück-blicken (siehe MAXPLANCKFOR-SCHUNG 4/2001, S. 22ff.). �

Mikrometernempfindlich ist.Jede Kamera istfür jeweils einenTeilbereich opti-mal konzipiert.Das Beobachtenim Infrarotenstellt besondereAnforderungen andie Instrumente,denn alle Körpergeben bei Zim-

mertemperatur in diesem Wel-lenlängenbereich Wärmestrah-lung ab. Um zu vermeiden, dassdas Instrument von der eigenenWärmestrahlung geblendetwird, muss man es „einfrieren“.CONICA verfügt dazu über einedoppelte Kühlung, womit dieTemperatur des optischen Sys-tems und der Kameras bis aufminus 210 Grad Celsius und desDetektors sogar bis auf minus240 Grad Celsius gesenkt wird.Beim Bau von CONICA erwiessich dieses Kryosystem als einesder größten Probleme für dieStabilität des gesamten Instru-ments. Während einer langenBelichtung dreht sich nämlichdas Teleskop mit der Kamera,um die scheinbare Himmels-bewegung von Ost nach Westauszugleichen. „Wir musstendafür sorgen, dass sich das ton-nenschwere Gerät durch diese Bewegung um nicht mehr alswenige tausendstel Millimeterdurchbiegt“, so Lenzen.Dass die Astronomen alle Prob-leme meistern konnten, zeigendie ersten Aufnahmen. CONICA

ist für nahezu alle Bereicheastronomischer Forschung ein-setzbar. Ein besonderer Schwer-punkt ist die Sternentstehung.In Galaxien wie dem Milch-straßensystem existieren riesigeWolken aus Staub und Gas. Un-ter bestimmten Bedingungenkönnen sich einzelne Bereicheim Innern solcher Wolken unterder eigenen Schwerkraft zu-sammenziehen und zu neuenSternen verdichten. Auf dieseWeise ist auch unsere Sonneentstanden. Erst wenn ein Sternhell zu strahlen beginnt, fegt er die Umgebung vom übrig

FORSCHUNG aktuell

6 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

einigen Bereichen des nahen Infrarot einen Teil des Lichts,zum anderen benötigt NAOS zur Korrektur der Luftunruhe einenvergleichsweise hellen Stern im Gesichtsfeld – deshalb lässtsich nicht jedes Feld am Him-mel optimal abbilden. Das Projekt startete Anfang1992 mit einem Vertrag zwi-schen den beiden Max-Planck-Instituten und der ESO. Seit-dem wurden in den Bau vonCONICA schätzungsweise 40Mannjahre an Arbeit investiert.Die Materialkosten von rund2,3 Millionen Mark übernahmdie ESO, während die Max-Planck-Institute Know-howeinbrachten. „An der Entwick-lung und dem Bau unserer Kamera haben viele Ingenieure,Doktoranden und Diplomandenunseres Instituts mit vollemEinsatz gearbeitet. Jetzt erntenwir den Lohn einer langjähri-gen Entwicklung“, erklärt Pro-jektleiter Rainer Lenzen vomHeidelberger Max-Planck-Insti-tut für Astronomie.CONICA ist nicht bloß eine Ka-mera, es ist ein sehr vielseitigeswissenschaftliches Instrument:Ähnlich wie man bei einem Fotoapparat Objektive mit unterschiedlichen Brennweitenauswechseln kann, lassen sichim Inneren von CONICA siebenEinzelkameras auswählen. Sie sitzen auf einem großenRad und werden damit in denStrahlengang gedreht. Das ermöglicht Aufnahmen mit unterschiedlicher Auflösung.Nötig ist dies vor allem deswe-gen, weil CONICA im Infrarot-bereich bei Wellenlängen zwi-schen etwa einem und fünf

Der SternhaufenNGC 3603 im

Sternbild Carina,links aufgenom-

men mit demHubble Space

Telescope (WideField Planetary

Camera 2), rechtsmit CONICA und

NAOS am VLT. DerVergleich belegt,

dass die neue Ka-mera wesentlichschärfere Bilder

liefert als dasHST. Das Bildfeld

umfasst jeweilsetwa 25 mal 25Bogensekunden,

das entspricht 2,5mal 2,5 Lichtjah-

ren am Ort desSternhaufens. DieBelichtungszeitenbetrugen 400 Se-kunden (HST) und

300 Sekunden(CONICA).

FOTO

S: N

ASA

(LIN

KS),

ESO

(REC

HTS

)

Weitere Informationen

erhalten Sie von: DR. JAKOB STAUDE

Max-Planck-In-stitut für Astro-nomie, Heidelberg Tel.: 06221/528-229Fax: 06221/528-246E-Mail: [email protected]

@

BIOLOGISCHE KYBERNETIK

Die Mathematik der Sinne lihood“-Schätz-methode, die opti-male Kombinationliefern, mit der die unterschiedlichverlässlichen Sig-nale zu verrechnensind, damit das Gesamtrauschen minimiert wird.Nur auf diese Weise könnten alle zur Verfügungstehenden Sinnesinformationen über ein Objekt so sinnvoll wie möglich ausgeschöpft werden.Die Wissenschaftler haben nun mit folgendem Ex-periment gezeigt, dass unser Gehirn bei der Wahr-nehmung tatsächlich genau so vorgeht, wie es einMathematiker tun würde: Die Versuchspersonenhatten die Aufgabe, die Größe zweier balkenförmi-ger Objekte zu vergleichen. Diese Balken konntensie sowohl sehen als auch betasten. Aus den Feh-lern, die die Versuchspersonen beim Vergleichenmachen, können die Forscher dann schließen, wieverlässlich die sensorischen Signale der verschie-denen Sinne im Gehirn verarbeitet werden.Mithilfe eines trickreichen Versuchsaufbaus, beidem die Testobjekte virtuell am Computer erzeugtwerden, war es den Forschern möglich, das visuellwahrnehmbare und das zu ertastende Objekt unab-hängig voneinander zu manipulieren. Sie erzeugtendamit eine Diskrepanz zwischen den beiden Objek-ten und untersuchten dann, ob sich die Versuchs-personen mehr an dem visuellen oder mehr an demertasteten Eindruck orientierten. Auf diese Weiseermittelten die Wissenschaftler die Gewichtung derSignale untereinander und stellten fest, dass dasVerhalten der Versuchpersonen exakt mit den Vor-hersagen des statistischen Modells übereinstimmte:War die Größe des Objekts klar und deutlich zu sehen, dominierte der visuelle Eindruck; wurde dasBild jedoch „vernebelt“, indem die Experimentato-ren das Zufallspunktemuster, das den Balken imComputer definierte, dreidimensional verrauschten,dominierte die ertastete Größe – und zwar genau in dem Maß, wie vom statistischen Modell voraus-gesagt.Weitere Forschungen am Max-Planck-Institut fürbiologische Kybernetik in Tübingen sollen nun auf-decken, wie wir diese statistisch optimale Leistungtatsächlich vollbringen und auf welche Weise diesesZusammenspiel von Sehen und Fühlen im Gehirnneuronal repräsentiert wird. �

Im oberen Teilbild ist die Versuchsapparatur abge-bildet, im unteren das Testobjekt. Die Versuchs-

personen sehen in einem Spiegel das Testob-jekt, das in einem kopfüber aufgehängtenMonitor erzeugt wird. Der zu ertastende Bal-

ken wird unterhalb des Spiegels mittels zweierKraftüberträger (PHANToMs der Firma SensAble

Technologies) simuliert. Im unteren Teilbild ist zu sehen, wie mit dieser Apparatur eine Diskrepanzzwischen dem gefühlten und gesehenen Balken er-zeugt werden kann. Der „sichtbare“ Balken bestehtaus einem Zufallspunktemuster, das mit Rauschen in der Tiefe versehen werden kann, um die Verläss-lichkeit des visuellen Signals zu manipulieren.

Der Mensch nutzt alle Sinne, um Objekte wahr-zunehmen. So können wir einen Apfel hören,wenn er zu Boden fällt, ihn liegen sehen, in dieHand nehmen und aufheben, daran riechen unddann hineinbeißen. All diese Sinneseindrücke in-tegriert unser Gehirn zur komplexen Wahrneh-mung des Apfels. Marc Ernst vom Tübinger Max-Planck-Institut für biologische Kybernetik hatjetzt zusammen mit seinem Kollegen MartinBanks von der University of California in Berke-ley herausgefunden, dass unser Gehirn bei derVerrechnung der visuellen und haptischen Sin-neseindrücke nach statistisch optimalen Maß-stäben vorgeht (NATURE, 24. Januar 2002).

Welche der Sinnesdaten gerade entscheidend sind,hängt davon ab, was wir mit dem Objekt weitervorhaben. Möchten wir nur die Größe beurteilen, so sind wir eher visuell orientiert, wollen wir hin-gegen die Rauheit seiner Oberfläche abschätzen, ist unser Tastsinn der bessere Ratgeber. Je nach Fragestellung geben wir also den Sinnesdaten, dieAugen und Hände liefern, unterschiedliches Ge-wicht – und zwar abhängig davon, wie verlässlichdiese Eindrücke sind. So wie physikalische Messgeräte immer eine kleineFehlertoleranz haben, sind auch unsere Sinnesor-gane nicht perfekt: Alle dem Gehirn gemeldetenEindrücke sind auf ihre Art mehr oder weniger „ver-rauscht“. Bei der Wahrnehmung sollte das Gehirnjedoch alle zur Verfügung stehenden Informations-quellen möglichst optimal nutzen.Dass unsere Hände auch als „Sehhilfen“ dienen kön-nen, hatten die Forscher bereits in früheren Experi-

menten nachgewiesen. Jeverrauschter und damitunsicherer die Sinnes-daten zum Beispiel beim

Tasten sind, desto weni-ger Gewicht sollten dieseim Wettbewerb mit denanderen Informations-quellen (beispielsweisedem Sehen) bekommen.

Mathematisch be-trachtet würdeein statistischesModell, die „Maximum-Like-

GRA

FIK:

RO

HRE

RN

ACH

VORL

AGE

DES

MPI

RBI

OLO

GIS

CHE

KYBE

RNET

IK

Marc O. Ernst untersucht, wiedas Gehirn unterschiedlicheSinneseindrückeverrechnet.

Weitere Informationen

erhalten sie von:DR. MARC O. ERNST

Max-Planck-Institut für biolo-gische Kybernetik, TübingenTel.: 07071/601-603Fax: 07071/601-616E-Mail:[email protected]

@

FOTO

: WO

LFG

ANG

FILS

ER

visuelle Größe

90°

gefühlte Größe

Kraftüberträgerzur Simulation

gefühlter Objekte

3-D-BrilleMonitor

Spiegel

visueller undgefühlter Balken

3 cm hoher BalkenPunktemustermit Rauschen

3 cm entsprechen100%

Page 5: MPF_2002_1  Max Planck Forschung

Äußeren der Zelle als wichtigerKurzzeit-Energiespeicher auf-rechterhalten werden kann.Ähnlich einer elektrischen Bat-terie würde dieser Speicher beiDurchfluss von Protonen kurz-geschlossen und entladen. Nun ist Wasser selbst ein relativguter Protonenleiter; die Proto-nen springen dort sehr schnellüber so genannte Wasserstoff-brücken von Molekül zu Mo-lekül. Wie also verhindertAquaporin, dass sich der Pro-tonenfluss auch durch denMembrankanal fortsetzt? Überdie Antwort auf diese Fragekonnten die Wissenschaftlerbisher auf der Grundlage derstatischen räumlichen Strukturdes Wasserkanalproteins nurspekulieren. Vor allem war es

nicht möglich, die Bewegungder Wassermoleküle durch denKanal zu beobachten. Damitblieb auch unklar, wie dieaußerordentlich hohe Durch-flussgeschwindigkeit des Was-sers zustande kommt. Den Wissenschaftlern am Max-Planck-Institut für biophysikali-sche Chemie gelang es nun, dieBewegung einzelner Wassermo-leküle durch einen Aquaporin-Kanal mittels atomar aufgelös-ter Computersimulationen imDetail und „in Echtzeit“ zu ver-folgen (SCIENCE, 14. Dezember2001). Für diese Simulationenhaben die Forscher das Proteinim Computer Atom für Atom„nachgebaut“ (Abb. 1), in eineMembran eingebettet und miteiner großen Zahl von Wasser-molekülen umgeben, sodass

sich das virtuelle Protein quasiin seiner natürlichen Umge-bung befand. Insgesamt um-fasste das Modell etwa 100.000Atome, deren Bewegungen in einer anschließenden so ge-nannten Molekulardynamik-Simulation akkurat berechnetwurde. Für die Simulation wa-ren mehrere Monate Rechenzeitauf einem aus 80 Prozessorenbestehenden Hochleistungs-parallelrechner erforderlich.Entstanden ist eine Film-sequenz, in der sich jedes Detailder Bewegung einzelner Was-sermoleküle am Bildschirm be-trachten und analysieren lässt(Abb. 2). Auch die Durchfluss-geschwindigkeit des Wasserswurde durch die Simulationkorrekt wiedergegeben – ein

wichtiger Test für die Richtig-keit der Rechnung.Die Computersimulationen of-fenbaren einen faszinierenden,fein-choreografierten „Tanz der Wassermoleküle“, der durcheinzelne, genauestens in der In-nenseite des Kanals positionierteProteinbausteine (Aminosäuren)gesteuert wird. Diese präziseSteuerung der Bewegung derWassermoleküle hat, wie sichzeigte, zwei Funktionen: Zumeinen werden dadurch dieWassermoleküle auf ihrem Weg durch den Kanal geordnetweitergereicht, was ihre Durch-flussrate drastisch erhöht. Zumanderen werden Wasserstoff-brückenbindungen zwischenden durchtretenden Wassermo-lekülen kurzfristig gelöst unddadurch der Durchfluss von

Protonen blockiert. Das Auf-brechen dieser Bindungen erfor-dert normalerweise den Einsatzeiner beträchtlichen Energie-menge (weshalb Wasser erst bei100 Grad Celsius kocht, Kohlen-dioxid dagegen schon bei minus78 Grad Celsius). Das Aquaporinkompensiert diesen Energieauf-wand, indem einzelne seinerAminosäuren mit den vorbeif-ließenden Wassermolekülen sehrgezielt Wasserstoffbrückenbin-dungen ausbilden. Auch dieseBrückenbildung ist nur möglichdurch das präzise Ausrichtenund Weiterreichen der Wasser-moleküle. Die Wasserleitungdurch Aquaporin erweist sich als spektakuläres Beispiel, welchraffinierte molekulare Nano-technik die Natur über Jahrmil-lionen entwickelt hat.In weiteren Arbeiten möchtedie Göttinger Arbeitsgruppe im Rahmen eines von der Euro-päischen Union geförderten internationalen Projekts versu-chen, Moleküle zu konstruierenund in der Simulation zu tes-ten, die den Wasserfluss durchdas Aquaporin regulieren odersogar blockieren können. Die genaue Kenntnis solcherSubstanzen könnte viel ver-sprechende Ansatzpunkte fürdie Entwicklung neuer Medi-kamente liefern. Computersimulationen vonProteinen auf atomarer Ebenewerden in jüngster Zeit mitwachsendem Erfolg durchge-führt, nicht zuletzt dank raschsteigender Rechnerleistung.Über die traditionelle Bioinfor-matik hinaus ermöglichen solche Simulationen ein tief gehendes physikalisch-chemi-sches Verständnis grundlegen-der biologischer Prozesse. �

FORSCHUNG aktuell

8 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

Weitere Informationen erhalten Sie von:

DR. HELMUT GRUBMÜLLER

Max-Planck-Institut für bio-physikalische Chemie, GöttingenArbeitsgruppe für theoretischemolekulare BiophysikTel.: 0551/201-1763 oder –1334Fax: 0551/201-1089E-Mail: [email protected]

FORSCHUNG aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 9

@

Abb. 2: Schnapp-schuss des Aqua-

porins währendder Simulation.

Links: Wassermo-leküle (rot/weiß)

diffundieren überAquaporin (blau)

durch die Zell-membran (gelb/grün). Der Aus-

schnitt rechtszeigt den „Tanz“eines einzelnenWassermolekülsauf seinem Weg

durch den Kanal.

Reines Wasser in eine Zellehinein oder aus ihr heraus zubekommen ist eines der fun-damentalen Probleme des Lebens. Wie es gelöst wurde,ist jetzt erstmals im Detailaufgeklärt: Wissenschaftleram Max-Planck-Institut fürbiophysikalische Chemie inGöttingen haben in aufwän-digen ComputersimulationenStruktur und Funktion vonProteinen enthüllt, die mikro-feine Kanäle in der Membranvon Zellen bilden – Kanäle,die aufgrund ihrer besonde-ren Konstruktion für nichtsals reinstes Wasser durchläs-sig sind.

Wasser ist ein unabdingbares„Lebensmittel“ für jede Zelle.Denn fast alle biochemischenReaktionen, also fast allegrundlegenden Lebensprozesse,die im Innern von Zellen ablau-fen, geschehen in wässrigen Lö-sungen. Entsprechend wichtigist für jede Zelle ein geregelterWasserhaushalt: Abhängig vonden Bedingungen innerhalb

und außerhalb der Zelle mussdas Lösungsmittel Wasser stetsin der jeweils erforderlichenMenge in die Zelle hinein oderaus ihr heraus befördert wer-den. Dieser Wasseraustausch erfolgt über besondere Prote-ine, die so genannten Aquapo-rine, die mikrofeine Kanäle inden ansonsten wasserdichtenMembranen der Zellen bilden.Man findet Aquaporine in denZellmembranen vieler Pflanzenund Tiere; sie verhindern, dassdie Zellen zum Beispiel bei einerÄnderung der Salzkonzentra-tion in der Umgebung platzen(osmotische Regulierung). BeimMenschen regulieren Aquapori-ne unter anderem den Wasser-haushalt in der Niere, in denroten Blutkörperchen, in derAugenlinse und im Gehirn. EinDefekt oder eine Fehlfunktiondieser Proteine lösen Krankhei-ten aus wie Diabetes insipidus,Grauen Star (Katarakt) oder einen neuronal verursachtenGehörverlust.In allen Fällen kommt es auf einen hoch effizienten, aber

zugleich selektiven Wasser-transport an, der den Austausch anderer Moleküle ausschließt.So lassen die Aquaporine zwarWassermoleküle passieren, verhindern aber, dass die ZelleNährstoffmoleküle oder Salz-Ionen verliert. Obwohl diese Filter sehr feinporig sind, errei-chen Aquaporine eine erstaun-lich hohe Wasserleitfähigkeitvon bis zu drei Milliarden Was-sermolekülen pro Sekunde undKanal. Eine 10 mal 10 Zentime-ter große Membran mit einge-betteten Aquaporinen könntesomit einen Liter Wasser in etwa sieben Sekunden filternund entsalzen.Wie aber erfüllt das Proteindiese widerstreitenden Anfor-derungen? Erste Antworten ergaben sich bereits aus der räumlichen Atomstruktur desAquaporins (AQP1), die erst vorkurzem in enger Zusammenar-beit zwischen einer japanischenArbeitsgruppe um Yoshinori Fujiyoshi, einer Baseler Gruppeum Andreas Engel und der Göt-tinger Max-Planck-Arbeits-gruppe „Theoretische Moleku-lare Biophysik” mittels elektro-nenmikroskopischer Messungenentschlüsselt wurde. Es zeigtesich, dass das Protein in derZellmembran einen zwei Nano-meter (zwei Millionstel Millime-ter) langen und an der engstenStelle nur 0,3 Nanometer brei-ten Kanal bildet – gerade großgenug, um ein einzelnes Was-sermolekül passieren zu lassen.Diese Enge können größereMoleküle gar nicht erst über-winden. Die Evolution hat außerdemauch das Problem gelöst, wiesich in einem solchen Kanal derDurchfluss kleinerer Ionenblockieren lässt. Lebenswichtigist es vor allem, den Durchflussvon Protonen (Wasserstoff-Ionen) zu unterbinden, damiteine unterschiedliche Protonen-konzentration (pH-Wert) zwi-schen dem Inneren und dem

BIOPHYSIKALISCHE CHEMIE

Proteine als Filter reinsten Wassers

GRA

FIKE

N: M

PI F

ÜR

BIO

PHYS

IKAL

ISCH

ECH

EMIE

Abb. 1: Das für die Simulationen

verwendete Com-putermodell des

Aquaporin/Memb-ran-Systems. Diebiologisch aktive

Form von Aquapo-rin ist ein Tetramer,ein aus vier Aqua-

porin-Molekülenbestehender Kom-plex (orange/cyan/magenta/blau), derin die Zellmembran(grün/gelb) einge-lagert ist. Auf der

Innen- und Außen-seite der Membran

wurde flüssigesWasser (rot/weiß)

simuliert, das durchdie vier Aquaporin-Moleküle hindurch-

tritt. Das Gesamt-system umfasste

etwa 100.000 Atome.

Page 6: MPF_2002_1  Max Planck Forschung

FORSCHUNG aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 11

Runden „Public Goods“ unddann acht Runden „indirekteReziprozität“. Die Studentenspielten anonym unter einemPseudonym und erhieltenanschließend ihren Kontostand,wie bei solchen Experimentenüblich, tatsächlich bar ausge-zahlt.Das Ergebnis dieses Tests zeigtdie Grafik auf Seite 10 unten:Die Gruppen, die zuerst achtRunden „Public Goods“ nach-einander spielten, begannen wieerwartet zu Anfang mit Koope-ration, die jedoch schnell zu-sammenbrach. Hingegen hieltenjene Gruppen, die abwechselnd„indirekte Reziprozität“ oder„Public Goods“ spielten, bis zur16. Runde das hohe Anfangsni-veau ihrer Kooperation aufrecht.Wer im „Public-Goods“-Spielnicht in die Gemeinschaftskasseeinzahlte, erhielt signifikant seltener Unterstützung in deranschließenden Runde des „indi-rekte-Reziprozität“-Spiels undkooperierte deshalb im nächsten„Public-Goods“-Spiel wieder.Auf diese Weise erhielten dieseStudenten am Ende des Spielshohe Auszahlungen. Hingegenreicht offensichtlich allein dieEinsicht, Kooperieren im „Public-Goods“-Spiel sei für alle das Beste, nicht aus, um die anfäng-liche Kooperation im Block vonacht Runden „Public-Goods“-Spiel aufrecht zu erhalten.Manfred Milinski zu den Ergeb-nissen: „Die Auswirkungen dieserErkenntnisse für die menschlicheGesellschaft werden sicherlichnicht darin bestehen, dassdemnächst Weltklimakonfe-renzen nur noch kooperativ ausgehen. Doch es ist sicherhilfreich, wenn Staaten oder so-ziale Gruppen auf möglichstvielfältige Weise interagieren.Auf der anderen Seite muss manjedoch befürchten, dass es un-erkannte ‘Tragedies of the Com-mons’ gibt, die erst dann als solche deutlich werden, wennandere Interaktionen, zum Beispiel zwischen Staaten, weg-fallen, die vorher die Koopera-tion zwischen den Parteien aufrechterhalten haben.“ �

Weitere Informationen

erhalten sie von:PROF. MANFRED

MILINSKI

Max-Planck-Institut für Limnologie, Plönwww.mpil-ploen.mpg.deTel.: 04522/763-254Fax: 04522/763-310E-Mail: [email protected]

Einen neuen Materiezustandnahe des absoluten Tempera-turnullpunkts haben Forscherdes Max-Planck-Instituts fürQuantenoptik, der Ludwig-Maximilians-UniversitätMünchen und der ETH Zürichhergestellt (NATURE, 3. Januar2002). Mitttels eines drei-dimensionalen Lichtkristallsgelang es ihnen, ein super-fluides Bose-Einstein-Kon-densat in einen so genanntenMott-Isolator-Zustand undwieder zurück zu überführen.In einem Bose-Einstein-Kon-densat sind die Atome wel-lenartig über das Lichtgitterhinweg ausgedehnt, währendsie im Mott-Isolator auf ein-zelne Gitterplätze mit einerbestimmten Atomzahl festge-legt sind und so ein Teilchen-gitter bilden.

Der Zustand wurde zuerst vondem Physiker Sir Neville Mott1974 im Rahmen von Metall-Isolator-Übergängen in Fest-körpern vorausgesagt. Unteranderem für diese Arbeiten er-hielt Mott im Jahr 1977 denNobelpreis für Physik. Der jetzthergestellte Mott-Isolator, der am absoluten Temperatur-nullpunkt (bei 10 Nanokelvin)auftritt, erlaubt in idealer Weise, fundamentale Fragender Festkörperphysik, derQuantenoptik sowie der Atom-physik zu untersuchen underöffnet neue Perspektiven fürQuantencomputer.Im Jahr 2001 wurde der Phy-sik-Nobelpreis für bahnbre-chende Arbeiten zur Erzeugungvon Bose-Einstein-Kondensa-ten vergeben (MAXPLANCKFOR-SCHUNG 4/2001, S. 62ff.). In ei-nem solchen Kondensat, naheam absoluten Nullpunkt, ver-lieren alle Atome ihre Individu-alität. Es entsteht ein wellen-artiger Zustand der Materie,der sich in mancher Hinsicht

FORSCHUNG aktuell

10 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

@

QUANTENOPTIK

Ultrakalte Atome im Gitter gefangen

Abb. 1: Materiewellen-Interferenzmuster eines Quantengases, das in einem dreidimensionalen Licht-gitter mit mehr als 100000 besetzten Gitterplätzengespeichert wurde. Die Abbildungen von links nachrechts: Interferenzmuster mit hohem Kontrast im superfluiden Regime eines Bose-Einstein-Kondensats;Interferenzmuster nach einem Quantenphasenüber-gang in einen Mott-Isolator ohne Phasenkohärenz;wiederhergestellte Phasenkohärenz nach einem Quantenphasenübergang von einem Mott-Isolatorzurück in ein Bose-Einstein-Kondensat.

ABB.

: MPI

RQ

UAN

TEN

OPT

IK

evolutionstheoretisch und expe-rimentell vor einigen Jahren be-stätigt. Manfred Milinski, DirkSemmann und Hans-JürgenKrambeck vom Max-Planck-In-stitut für Limnologie in Plön gin-gen nun von folgender Hypothe-se aus: Wenn es wichtig ist, fürdie indirekte Reziprozität einenhohen Geberstatus, also eine hohe „Reputation“ aufzubauenund dann nicht zu verlieren, sollte das auch für die „Public-Goods“-Situation gelten, wennman in beiden Situationen im-mer wieder mit denselben Sozi-alpartnern zusammentrifft.Kooperiert man im „Public-Goods“-Spiel nicht, würde manfolglich die Reputation, die manim Reziprozitäts-Spiel mühsamaufgebaut hat, möglicherweisewieder verlieren. In dem Spiel er-halten die Studenten ebenfallsein Startkapital. In jeder Rundeist jeder Spieler einmal potenzi-eller Geber (- 1,25 Euro) undeinmal potenzieller Empfänger(+2 Euro), aber nie mit derselbenPerson wechselseitig. Die Max-Planck-Forscher führ-ten jetzt ein computergestütztesExperiment mit Gruppen von jesechs Studenten der UniversitätHamburg durch, bei dem zehnGruppen 16 Runden lang ab-wechselnd je eine Runde „indi-rekte Reziprozität“ und eineRunde „Public Goods“ spielten.In jeder Runde „Public Goods“werden die sechs Spieler gleich-zeitig gefragt, ob sie in den Ge-meinschaftstopf einzahlen wol-len. Neun andere Gruppen spiel-ten hintereinander erst acht G

RAFI

K: M

PI F

ÜR

LIM

NO

LOG

IE/ F

OTO

: WO

LFG

ANG

FILS

ER

halten zum Beispiel vier Studen-ten jeweils ein Startkapital vonfünf Euro. Sie können entschei-den, ob sie davon etwas in einenGemeinschaftstopf investierenwollen, indem sie einen Betragbis zu fünf Euro ohne Diskussionin einen Umschlag stecken. DerVersuchsleiter sammelt die Um-schläge ein, verdoppelt die Ge-samtsumme der Beiträge undverteilt das Geld wieder gleich-mäßig auf alle vier. Die vier Stu-denten würden dann den höchs-ten Ertrag erwirtschaften, wennjeder seine fünf Euro vollständigeinzahlt und dann (verdoppelt)zehn Euro ausbezahlt bekommt.Doch „ökonomischer“ wäre es,nichts abzugeben und darauf zubauen, dass die anderen einzah-len und man davon profitierenkann: Der Gesamteinsatz wirdverdoppelt und dann auf die vierTeilnehmer verteilt. Von jedemEuro, den man selbst einzahlt,erhält man auf diese Weise nureinen halben Euro zurück. Wasjeder von den anderen bekommt,ist unabhängig von der eigenenEinzahlung. Dieses Missverhältniszwischen Einsatz und Gewinn ist ein echtes „Tragedy-of-the-Commons“-Problem: EgoistischesEigeninteresse steht im Wider-spruch zum Gruppeninteresse.Normalerweise beginnen solcheExperimente sehr kooperativ.Doch binnen weniger Rundenbricht die Kooperation zusam-men und niemand investiertmehr in das Gemeinschaftsgut.Jeder, der wieder zu kooperierenversucht, würde Geld verlieren,denn er bekäme nur die Hälftejedes selbst investierten Euroszurück. Im Gegensatz zur „Tragedy ofthe Commons“ haben die Men-schen ein anderes Kooperations-problem offenbar gelöst: die in-direkte Reziprozität oder „Wergibt, dem wird gegeben“: Manist kooperativ gegenüber solchenMitmenschen, von denen manweiß, dass sie anderen geholfenhaben. Diese Lösung wurde auch

EVOLUTIONSBIOLOGIE

Guter Ruf ist Goldes wert

Spielen im Dienst der Forschung: Manfred Milinskiwährend des Experiments mit Studenten.

mit Laserlicht vergleichen lässt.Ausgehend von einem solchenatomaren Bose-Einstein-Kon-densat ist es jetzt erstmals ge-lungen, einen neuen Materie-zustand in der Atomphysik zuerreichen. Dazu speicherten die Wissen-schaftler ein Bose-Einstein-Kondensat in einem dreidimen-sionalen Kristall aus winzigenpinzettenartigen Laser-Licht-fallen. Durch eine Änderungder Lichtstärke dieses Gitterskonnten die Forscher die Ei-genschaften dieses Kondensats

Kooperation (inProzent) inner-

halb der Gruppenbeim 16-Runden-

Test. Die Punktestehen für das

„Public-Goods“-,die Kreise für das„indirekte-Rezi-

prozität“-Spiel(Näheres im Text).

Forscher um Prof. ManfredMilinski, Direktor am PlönerMax-Planck-Institut für Lim-nologie, haben experimentellgezeigt, dass ein Gemein-schaftsgut dann kooperativbewirtschaftet wird und die„Tragedy of the Commons“nicht mehr existiert, wenn dieArt und Weise, wie das Gutgenutzt wird, mit der Reputa-tion des Nutzers verknüpftwird (NATURE, 24. Januar2002). Gelingt das, wirft dieGemeinschaftsressource für alle Nutzer hohen Gewinn ab.

Viele Probleme der menschlichenGesellschaft, wie die Überfi-schung der Meere oder das glo-bale Klimaproblem, sind Koope-rationsprobleme. Wenn Perso-nen, Gruppen oder Staaten freisind, eine gemeinschaftlich be-wirtschaftete Ressource über-mäßig zu nutzen, dann tun siedas in der Regel auch. Dieses als„Tragedy of the Commons“ be-kannte Problem wird von Sozial-,Politik- und Wirtschaftswissen-schaftlern seit Jahrzehnten undneuerdings auch von Evolutions-biologen intensiv untersucht.Doch außer der Möglichkeit,Nicht-Kooperationsbereite direktzu bestrafen, hat man bishernoch keine kooperative Lösungder „Tragedy of the Commons“gefunden. Die übliche Methode, die „Trage-dy of the Commons“ experimen-tell zu untersuchen, ist das „Public-Goods“-Spiel: Dabei er-

dramatisch verändern und einen Übergang von der super-fluiden Phase des Bose-Ein-stein-Kondensats in eine so ge-nannte Mott-Isolator-Phaseherbeiführen. Ist die Lichtstär-ke des Gitters, in dem die Ato-me gefangen sind, nur gering,so befinden sich alle Atomenoch in der superfluiden Phasedes Bose-Einstein-Kondensats.In diesem Zustand ist nach denGesetzen der Quantenmecha-nik jedes einzelne von ihnenüber das gesamte Lichtgitterhinweg wellenartig ausge-dehnt. Dieses Atomgas kannsich leicht durch das Gitterhindurch bewegen. ❿

Prozent

Page 7: MPF_2002_1  Max Planck Forschung

FORSCHUNG aktuell

12 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FORSCHUNG aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 13

F OTO

: MPI

RLI

MN

OLO

GIE

men die meisten Dauereierproduziert, wenn die Mutterüber reichlich, die Nachkom-men jedoch über wenig Futterverfügten und zugleich beideGenerationen unter Kurztagbe-dingungen (das heißt 10 Stun-den Licht/14 Stunden Dunkel)lebten. Diese Situation ist imFreiland nur im Herbst gege-ben, wenn tatsächlich einemassive Dauerei-Produktionauftritt.Die Laborergebnisse erklärenauch das gelegentliche Auftre-ten eines zweiten Schubs derDauereiproduktion im Früh-sommer: Hier kann es durch dieFiltriertätigkeit der Daphnienim See zu einem „Klarwasser-stadium“ und damit ebenfallszu Futtermangel kommen.Wenn die zweite Generationunter guten Futterbedingun-gen lebte, werden unter keinenUmständen Dauereier gebildet.Für die Bereitschaft der Nach-kommen, Dauereier zu bilden,sind also nicht nur die Umwelt-bedingungen ausschlaggebend,denen sie selbst ausgesetztsind, sondern auch die Futter-und Lichtbedingungen (Tages-länge), unter denen ihre Müt-ter gelebt haben. Offensicht-lich geben weibliche Wasser-flöhe ihrem Nachwuchs dieseInformationen auf eine nochunbekannte Art und Weise mit.Die Weitergabe von Umweltin-formationen an die nächsteGeneration ist eine interessanteMöglichkeit für kurzlebige Or-ganismen, ihren Lebenszyklusan die Umweltbedingungenoptimal anzupassen: Solche„maternale Effekte“ entwickelnsich für die evolutionäre Öko-logie zu einem immer spannen-deren Thema. �

Weitere Informationen erhalten Sie von:

PROF. DR. WINFRIED LAMPERT

Max-Planck-Institut für Limnologie, PlönTel.: 04522/763-270Fax: 04522/763-310E-Mail: [email protected]

Kritischer Blick auf den Nach-

wuchs: WinfriedLampert kon-

trolliert die Entwicklung der

Wasserflöhe.

Wasserflöhe beeinflussen die Bereit-schaft ihrer durch Jungfernzeugungerzeugten Nachkommen, sich zweige-schlechtlich zu vermehren und wider-standsfähige Dauereier zu bilden. Wissenschaftler am Max-Planck-Institut für Limnologie in Plön habenherausgefunden, dass die weiblichenWasserflöhe ihren Töchtern im Zugeder Embryonalentwicklung Informa-tionen über Nahrungsbedingungenund Tageslänge, unter denen sie le-ben, weitergeben (NATURE, 20. Dezem-ber 2001). Damit ermöglichen sie es ihrem Nachwuchs, sich mit seinerFortpflanzungsstrategie optimal andie Jahreszeit anzupassen.

In den Lebensgemeinschaften von Seenspielen Wasserflöhe (Daphnien) eine be-deutende Rolle. Ihr Erfolg, sich in diesemÖkosystem zu behaupten, beruht dabeivor allem auf ihrer flexiblen Fortpflan-zungsweise: Bei der Jungfernzeugung(Parthenogenese) wird die Zahl der ge-bildeten Embryonen kontrolliert, sie kön-nen Dauereier bilden und zwischen ein-und zweigeschlechtlicher Fortpflanzungumschalten. Aufgrund ihrer Fähigkeitzur Jungfernzeugung können sie leicht

Erhöhten die Forscher aber dieStärke des Lichtgitters, sokonnten sie eine Umwandlungdes superfluiden Kondensats ineinen isolierenden Zustand be-obachten, bei dem jeder Gitter-platz mit einer exakt definier-ten Anzahl von Atomen besetztwar (Abb. 1 und 2). In diesemFall wird die Bewegung derAtome durch das Gitter auf-grund der abstoßenden Wech-selwirkung zwischen ihnenblockiert. Die Physiker MarkusGreiner, Olaf Mandel, TilmanEsslinger, Theodor W. Hänschund Immanuel Bloch zeigten inihren Experimenten, dass derPhasenübergang zwischen dersuperfluiden und der Mott-Iso-lator-Phase in beide Richtun-gen durchschritten werdenkann.Dieser Übergang wird alsQuantenphasenübergang be-zeichnet, denn er findet nuram absoluten Temperaturnull-punkt statt. Der Übergang zwi-schen den Phasen wird dannallein durch die von der Hei-senbergschen Unschärferelati-on vorausgesagten Quanten-fluktuationen ermöglicht, dennalle thermischen Fluktuatio-nen, die normalerweise einenPhasenübergang bewirken, sinddann bereits „ausgefroren“. Mit ihren Experimenten ist esden Münchner Forschern ge-lungen, ein neues Kapitel in derPhysik ultrakalter Atome auf-zuschlagen. „Mit diesem Expe-riment gehen wir einen deutli-chen Schritt über ein Bose-Ein-stein-Kondensat hinaus“, sagtImmanuel Bloch. „Im Mott-Iso-lator-Zustand lassen sich Ato-

me nicht mehr mit der äußersterfolgreichen Theorie für Bose-Einstein-Kondensate beschrei-ben, sondern müssen auf-grund ihrer Wechselwirkungmithilfe neuer Theorien be-schrieben werden. Die Experi-mente liefern wertvolle Impul-se für die Entwicklung dieserweiterführenden Theorien.“Der neue Materiezustand des Mott-Isolators wird denWissenschaftlern helfen, fun-damentale Fragen der Physikstark korrelierter Systeme, dieunter anderem die Grundlagefür unser Verständnis der Supraleitung bilden, zu klären.Außerdem eröffnet der Mott-Isolator-Zustand vielfältigeneue Perspektiven für hoch-genaue Materiewellen-Inter-ferometer und Quantencom-puter. �

Weitere Informationen erhalten sie von:

DR. IMMANUEL BLOCH UND

PROF. THEODOR W. HÄNSCH

Max-Planck-Institut für Quantenoptik, Garchingwww.mpq.mpg.de undLudwig-Maximilian-UniversitätMünchen www.lmu.deTel.: 089/2180-3704 oder –3212Fax: 089/285192E-Mail: [email protected] und [email protected]

Abb. 2: Ein Quantenphasen-übergang in einem ultrakaltenGas. Durch überlagerte Laser-strahlen wird ein optisches Git-ter erzeugt, das ein Potenzial-gebirge mit Bergen und Tälernformt. Das Gas aus Rubidium-Atomen kann reversibel zwi-schen der superfluiden und derIsolator-Phase hin- und her-geschaltet werden. a) Bei einerTemperatur von wenigen Na-nokelvin befinden sich alle Atome im selben Quantenzu-stand und bilden eine super-

fluide Phase, in der sie frei zwischen den Tälernwechseln können. b) Wenn man die Intensität derLaserstrahlen im optischen Gitter erhöht, geht dasGas in eine isolierende Phase über, bei der jedesAtom an einem eigenen Gitterplatz „gefangen“ ist.Eine solche Kontrollmöglichkeit ist wesentlich für die Verwirklichung eines Quantencomputers.

LIMNOLOGIE

Wasserflöhemit richtigemTiming

@

ABB.

: NAT

URE

FOTO

: WO

LFG

ANG

FILS

ER

Eine weibliche Daphnie stößt ein sattelförmiges Ge-bilde (Ephippium) ab, das sich über dem Brutraum aufihrem Rücken gebildet hat. Das Ephippium enthält zweiDauereier, die durch zweigeschlechtliche Reproduktionentstanden sind – eine Fortpflanzungsart, die bei Daph-nien nur selten vorkommt. Das Ephippium kann Jahr-zehnte unter ungünstigen Umweltbedingungen überle-ben, bevor aus den Dauereiern neue Daphnien schlüpfen.

als Klone (also als eine Gruppegenetisch gleicher Individuen)kultiviert werden. Diese Eigen-schaft hat sie zu einem viel un-tersuchten Modellorganismusin der aquatischen Ökologiegemacht. Im Zentrum wissen-schaftlicher Untersuchungenstehen die Strategien, mit de-nen diese sehr kurzlebigen Or-ganismen (Daphnien leben nurwenige Wochen) ihren Lebens-zyklus an sich wandelnde Um-weltbedingungen anpassen. Zu bestimmten Zeiten gehendie weiblichen Wasserflöhe zuzweigeschlechtlicher Fortpflan-zung über. Über dem Brutraumeines weiblichen Wasserflohsentsteht dann ein sattelförmi-ges Gebilde (Ephippium), daszwei Dauereier enthält. Diesekönnen, wenn für die Daphnienungünstige Umweltbedingun-gen vorherrschen, viele Jahrebeispielsweise in Seesedimen-ten überleben. So werdenDauereier vor allem im Spät-herbst gebildet, weil sich zu

diesem Zeitpunkt die Futterbe-dingungen für die Daphniendeutlich verschlechtern. DieUmstimmung der parthenoge-netischen Weibchen zu zweige-schlechtlicher Fortpflanzungerfordert verschiedene Signaleaus der Umwelt.Für die Forscher stellt sich dieFrage, welche Umweltstimulifür das exakte „Timing“ aus-schlaggebend sind. Denn einer-seits muss die Umstimmung imReproduktionszyklus erfolgen,bevor es für die Wasserfloh-population zu spät ist und sieGefahr läuft, an Futtermangeleinzugehen, andererseits wärees ausgesprochen ineffektiv,wenn die Weibchen auf kurzePerioden von Futtermangeloder Kälteeinbrüche im Som-mer bereits mit der Umschal-tung auf Dauereier-Produktionreagierten. Viktor Alekseev, Gastforscheraus St. Petersburg, und Win-fried Lampert vom Max-Planck-Institut für Limnologiein Plön haben jetzt einen Mechanismus gefunden, mitdem sich erklären lässt, wes-halb es sowohl im späten Früh-jahr als auch im Herbst schub-weise zur Produktion vonDauereiern kommen kann. Inkontrollierten Laborexperimen-ten wurden von den Nachkom-

@

Page 8: MPF_2002_1  Max Planck Forschung

Bei der Spin-Elektronik sol-len nicht nur die elektrischeLadung, sondern auch die Eigenrotation (Spin) vonElektronen und Atomkernenzur Verarbeitung und Kodie-rung von Informationen ver-wendet werden. Forscherndes Stuttgarter Max-Planck-Instituts für Festkörperfor-schung und des GarchingerWalter-Schottky-Instituts der Technischen UniversitätMünchen ist es gelungen, dieWechselwirkung von Spinszwischen freien Elektronenund Atomkernen mitttels ei-ner komplizierten Feldeffekt-Transistor-Anordnung alleinelektrisch zu messen und zusteuern (NATURE, 17. Januar2002). Diese Ergebnisseeröffnen interessante Per-spektiven für die Erforschungvon Kern- und Elektronen-Spins in Nanostrukturen sowie für neue Konzepte derInformationstechnologie.

In der Elektronik und Informa-tionstechnologie sind Halblei-ter deshalb so verbreitet, weildie für die Leitfähigkeit ur-sächlichen freien Ladungsträ-ger äußerst flexibel manipuliertoder mittels einer angelegtenSpannung hin und her trans-portiert werden können, um logische Schaltvorgänge zu ermöglichen. Längerfristigkommt in der Informations-technologie jedoch dem Spinder Elektronen oder sogar demvon einzelnen Atomkernen einewachsende Bedeutung zu. DerSpin ist eine quantenmechani-sche Eigenschaft von Elemen-tarteilchen. Man kann ihn ver-einfacht als eine Drehung umdie eigene Achse veranschau-lichen – entweder im oder gegen den Uhrzeigersinn. Experten sprechen hierbei von aufwärts oder abwärts gerichtetem Spin.

Da grundsätzlich nur zwei ele-mentare Spinrichtungen mög-lich sind, liegt es nahe, diese alsbinäre Informationsträger zuverwenden. Festplatten sind einalltägliches Beispiel dafür, wieder Spin zur Speicherung vondigitalen Informationen mithil-fe von magnetischen Feldernvon einer in die andere Rich-tung dauerhaft „umgeklappt“werden kann. Besonders vorteilhaft wäre esjedoch, wenn man die Spin-richtung von Elementarteilchen– genauso wie die Ladungsträ-ger in Halbleitern – auf elektri-schem Weg durch Anlegen vonSpannungen beliebig beein-flussen könnte. Davon ver-spricht man sich schnellere, leistungsfähigere Bauelemente,die gleichzeitig mehrere Funk-tionen in sich vereinigen, wieSpeicherung, Logik und Kom-munikation für die Datenverar-beitung. Noch in weiter Zu-kunft und zudem bislang spe-kulativ und kontrovers disku-tiert wird die Nutzung manipu-lierter Spins für das so genann-te Quantencomputing. BeimQuantencomputer würden diebeiden Spinzustände nicht län-ger nur als ‚0’ oder ‚1’ eines

FORSCHUNG aktuell

14 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FESTKÖRPERFORSCHUNG

Erste Schritte auf dem Weg zur Spin-Elektronik

Abb. 1: Schematische Darstellung des von Jurgen Smet am Max-Planck-Institut für Fest-körperforschung verwendeten Bauelements, das von Wissenschaftlern um Gerhard Abstreiteram Walter-Schottky-Institut der Technischen Universität München entwickelt und perfek-tioniert wurde. Das technisch ausgefeilte elektronische Bauteil funktioniert im Wesentlichen wie ein klassischer Feldeffekt-Transistor, in dem durch eine angelegte Steuerspannung Elektronen einen 20 Nanometer dünnen Kanal befüllen können, sodass Strom zwischen den Source- und Drain-Kontakten fließen kann. Die Elektronen sind in ihren Bewegungen auf zwei Raumrichtungen beschränkt, und die Amplitude der Gatespannung legt ihre Dichte fest.

üblichen Bits dienen. Die quan-tenmechanische Überlagerungder beiden Spinzustände ergibtein Quantenbit, in dem einekontinuierliche Variation derSpinrichtung möglich ist. Rech-ner, die auf solchen Prinzipienaufbauen, könnten bei spezi-fischen Problemstellungen einhohes Maß an Parallelverarbei-tung erreichen.Bereits heute berichten For-scher auf diesem Gebiet vonSuchalgorithmen, die für dasvollständige Durchsuchengroßer Datenbanken von prak-tischer Bedeutung wären, sowie von Algorithmen zur Bestimmung von Primzahlen,die an einem Quantenrechnererheblich schneller erledigtwerden könnten. Die kühnsten,aber heute technisch nochnicht realisierbaren Vorschlägebasieren auf beweglichen Elek-tronen in Nanostrukturen ausHalbleitermaterialien, die mitelektrischen Spannungen steu-erbar sind und die den Spinisolierter Atomkerne sondierenund kontrollieren könnten. Diese Zukunftsvisionen habenweltweit einen Wettlauf nachneuen Techniken ausgelöst, mit denen man die Richtung

von Kernspins über mobile Ladungsträger in möglichstkleinen Bauelementen kontrol-lieren und erkennen kann. Fort-schritte sind dabei aber nurmöglich, wenn man in diesenNanostrukturen mehr über diemikroskopischen Wechselwir-kungen zwischen den Spins derAtomkerne oder der Elektronenweiß und es gelingt, diese Spinsvon außen zu steuern.An solchen grundlegenden Fra-gen arbeiten Jurgen Smet undseine Kollegen am StuttgarterMax-Planck-Institut für Fest-körperforschung gemeinsammit Wissenschaftlern der Grup-pe von Gerhard Abstreiter amGarchinger Walter-Schottky-In-stitut der Technischen Univer-sität München. Ihnen ist es jetztgemeinsam gelungen, die Stär-ke der Spin-Wechselwirkung imMagnetfeld zwischen Elektro-nen und Atomkernen einesHalbleiterkristalls allein durchelektrische Widerstandsmessun-gen zu bestimmen (Abb. 1). Über eine Steuerspannung wird in einem extrem dünnenKanal eines Feldeffekt-Transis-tors eine bestimmte Zahl vonElektronen hervorgerufen. Zu-gleich wird überprüft, wie vielWiderstand diese Elektronenvorfinden. Bisher war bereitsbekannt, dass Elektronen, die inihrer Bewegung auf zweiRaumrichtungen beschränktsind, unter bestimmten Bedin-gungen nur einen verschwin-dend geringen Widerstandempfinden. In diesem Fall be-steht zwischen dem außen

vorgegebenen magnetischen

Feld und derAnzahl derElektronen eineinfacher Zu-sammenhang:der so genannteQuanten-Hall-Effekt. DieStuttgarter For-scher stellten

jetzt jedoch fest,dass der Quanten-

Hall-Effekt bei einer ganz bestimmten

Zahl von Elektronen zusam-menbricht und dass diese An-zahl der Elektronen und die dazu benötigte Steuerspan-nung entscheidend von derAusrichtung der Kernspins imHalbleiterkristall abhängt.Die dadurch entdeckte Rück-wirkung der Kernspinpolarisa-tion auf die elektrische Leit-fähigkeit des Transistors nutzendie Forscher als eine Art „Son-de“, mit der sie durch zeitab-hängige elektrische Wider-standsmessungen genaue In-formationen über die Spinzu-stände bekommen und dieStärke der Wechselwirkungenzwischen Elektronen- undKernspins analysieren können.Ändert sich die Steuerspan-nung, bei der der Quanten-Hall-Effekt verschwindet, sehrschnell, ist die Wechselwirkungstark, im anderen Fall schwach. Die von den Stuttgarter Wis-senschaftlern gefundene „Sonde“ für die Kernspinpola-risation liefert Informationenüber die Steuerspannung, mitder man die Kernspins gezieltumdrehen oder wieder in die ursprüngliche Richtungzurückdrehen kann. Das Zurückdrehen des Kern-spins verläuft etwa so: Kern-und Elektronenspins könnensich gegenseitig über die so ge-nannte Hyperfein-Wechselwir-kung beeinflussen. Diese Wech-selwirkung erlaubt eine „Flip-Flop-Streuung“, bei der gleich-zeitig sowohl die Spinrichtungeines Elektrons als auch die eines genau entgegengesetzt

gerichteten Atomkerns um-gekehrt werden (Abb. 2). Dieses „Umdrehen“ gelingt allerdings nur dann, wenn dabei die Gesamtenergie er-halten bleibt. Normalerweisebenötigt man tausendmal mehr Energie zum „Umklap-pen“ eines Elektronen-Spins als eines Kern-Spins. Diese Differenz verhindert unter normalen Umständen die Flip-Flop-Streuung, sodassder Spinaustausch zwischenElektronen und Atomkernen eines Kristallgitters ausge-schlossen ist oder zumindestextrem langsam verläuft. Doch die Max-Planck-Forscherhaben nun nachgewiesen, dass Elektronen ihren Spin ohne nennenswerte Energie-zufuhr umdrehen, wenn sie in einer bestimmten Zahl vor-handen sind. Dieses Phänomen beruht aufeinem äußerst kompliziertenkollektiven Zusammenwirkendieser Elektronen unter demEinfluss der abstoßenden Coulomb-Kräfte zwischen glei-chen Ladungen sowie auf derNeigung benachbarter Elektro-nen, dieselbe Spinrichtung anzunehmen. Die so entstehen-den niederenergetischen, kollektiven Anregungen derElektronen ermöglichen dannden Austausch ihres Spins mitdem der Atomkerne des Kris-talls.Der Spin-Austausch kann mitder bereits erläuterten Sondefür die Kernspinpolarisationbeobachtet und gesteuertwerden. So ist es möglich, dieaufgebaute Kernspinpolarisa-tion gewissermaßen zu spei-chern, weil bei einer Steuer-spannung oder einer Elektro-nenzahl, bei der keine nieder-energetischen kollektiven An-regungen existieren, die Flip-Flop-Streuung abgeschaltetwird. Mit dieser Möglichkeit,erstmals Kern-spins elektrischmanipulieren zu können, haben die Stuttgarter Wissen-schaftler einen wichtigen Meilenstein auf dem Weg zurSpin-Elektronik erreicht. �

FORSCHUNG aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 15

Abb. 2: KarikaturartigeDarstellung der

Flip-Flop-Streu-ung zwischen

Elektronen undAtomkernen.

Die Eistänzer – Elektron undAtomkern –

vertauschen beider Annäherung

ihre Drehrichtung.Voraussetzung

für diesen Prozessist die Einhal-

tung des Ener-gieerhalts.

ABB.

: MPI

RFE

STKÖ

RPER

FORS

CHU

NG

Weitere Informationen

erhalten Sie von:DR. JURGEN H. SMET

Max-Planck-Institutfür Festkörperfor-schung, StuttgartTel.: 0711/689-1575Fax: 0711/689-1572E-Mail:[email protected]

@

Page 9: MPF_2002_1  Max Planck Forschung

16 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

ESSAY

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 17

METALLforschung

Ohne raffinierte Hightech-Materialien geht in denmodernen Industriestaaten heute nichts mehr.

Maßgeschneiderte Werkstoffe und Materialsysteme sinddie Grundbausteine für alle modernen Technologien,angefangen von Information und Kommunikation, Me-dizin, Energie und Umwelt bis hin zu Verkehr undTransport. Im Alltag bedienen wir uns – meist ohne unsdessen bewusst zu sein – von morgens bis abends Spit-zenprodukten aus den Denkstuben der Festkörperfor-scher und Materialwissenschaftler.

Die Entwicklung von neuen Materialien, den daraufaufbauenden Nano-Architekturen und Hightech-Pro-dukten ist in den vergangenen Jahrzehnten geradezumit atemberaubendem Tempo verlaufen. Man denke andie Halbleitertechnologie, die uns im Halbjahres-Taktimmer schnellere, kleinere und gedächtnisstärkere Com-puter beschert. Schon wenn Sie heute eine singende Ge-

burtstagkarte geschenkt bekommen, haben Sie bereitsmehr Rechenleistung zur Hand als die Alliierten bei derLandung in der Normandie. Wir nehmen heute hochbril-lante LED-Flachbildschirme mit gestochen scharfen Bil-dern als eine Selbstverständlichkeit hin. Im fortgeschrit-tenen Alter lassen wir uns an einem verregneten Wo-chenende die morschen Hüften durch Titan-Hightech-Gelenke austauschen. Außerdem gehört es heute schonzur Alltagslangeweile, wenn wir in den NachrichtenAstronauten sehen, die bei 28 000 Kilometern pro Stun-de ein sehbehindertes Satelliten-Teleskop einfangen undihm eine Brille aufsetzen. Eher schon wieder „out“ ist es,wenn wir beim Après-Ski die Ex-Freundin mit dem Mo-biltelefon kurz mal so anrufen (und erfahren müssen,

2011 – Odysseeim Nanokosmos

COLL

AGE:

DO

SCH

/ MPI

RM

ETAL

LFO

RSCH

UG

Die Max-Planck-Gesellschaft hat unter Federführung des Stuttgarter

MAX-PLANCK-INSTITUTS FÜR METALLFORSCHUNG ein Europäisches

Weißbuch zur Grundlagenforschung in den Materialwissenschaften

veröffentlicht*. Es ist ein Kompendium zum Stand und zur Entwicklung

der Materialwissenschaften in Europa – und zugleich ein eindringliches

Plädoyer für eine Trendwende, sich in künftigen Rahmenprogrammen

mehr auf grundlagenorientierte Materialforschung zu konzentrieren, um

für die technologischen Herausforderungen von übermorgen gerüstet

zu sein. PROF. HELMUT DOSCH, Direktor am Max-Planck-Institut

für Metallforschung, Co-Autor und Co-Editor des Weißbuchs, diskutiert

die Chancen und Hürden dieses Projekts.

* European White Book on Fundamental Research in Materials Science, Manfred Rühle, Helmut Dosch, Eric J. Mittemeijer, Marcel H. van de Voorde, Max-Planck-Institut für Metallforschung, Stuttgart (ISBN 3-00-008806-7)

Page 10: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 19

vorbringt. Eine solche anwendungsorientierte Material-wissenschaft erweitert unser Verständnis und unsereTechnologien gewissermaßen evolutionär – durch inkre-mentale und vorhersagbare Entwicklungen, wie sie na-mentlich für industrielle Forschung typisch sind. Ein Pa-radebeispiel hierfür ist das bekannte Mooresche Gesetz,wonach sich die Transistorendichte in integriertenSchaltkreisen alle 18 Monate verdoppelt. Anwendungs-orientierte Materialforschung muss sich aber auch derHerausforderung stellen, das kommerzielle Potenzial vonMaterialien beispielsweise durch geringere Herstellungs-kosten, längere Lebensdauer oder verbesserte Umwelt-freundlichkeit („Recycling“) zu erweitern.

Die Erfolge dieser evolutionären Materialwissenschaf-ten sind unbestreitbar. Es ist deshalb für die wissen-schaftspolitischen Entscheidungsträger (und damit dieGeldgeber) sehr verlockend geworden, sich möglichstauf die Förderung dieser anwendungsorientierten For-schung zu konzentrieren, da sie, quasi auf Knopfdruck,die Forschungsgelder in Produkte umwandelt. Für dieFachwelt ist es aber evident, dass ein solches, nur aufdie Lösung der technologischen Probleme von morgenausgerichtetes Forschungsförderungs-Konzept aller-größte Gefahren für die Zukunftsentwicklung einer Wis-sens- und Technologie-Gesellschaft von übermorgenbirgt. Denn man sieht bereits Unheil nahen. Viele derheutigen Technologien werden in den nächsten zehn biszwanzig Jahren an grundsätzliche physikalische Gren-zen (so genannte „show stopper“) stoßen, die evolu-tionär nicht mehr überwunden werden können. Ich nen-ne als Beispiel noch einmal die IC-Technologie, die demMooreschen Gesetz folgend in etwa zwanzig Jahren aufTransistoren von atomarer Ausdehnung treffen würde.Die grundlegenden Probleme fangen aber schon vielfrüher an, und zwar bei einigen zehn Nanometern.

Um allein solche Hürden von übermorgen, die wir ge-wissermaßen schon am Horizont erkennen, überwindenzu können, müssen wir heute größte Anstrengungen inder Grundlagenforschung unternehmen – in der Hoff-nung, dass es uns rechtzeitig gelingt, neue revolutionäreKonzepte, Phänomene und Materialien zu entdeckenund zu ergründen, mit denen wir unsere Zukunftstech-nologien realisieren können. Der Ideenvorrat der Grund-lagenforscher ist dabei nicht schlecht, er reicht von Einzelelektronen-Transistoren, Quanten- und Lichtcom-putern, magnetischer Elektronik, die mit dem Elektro-nenspin arbeitet, Datenspeichermedien in Stecknadel-kopfgröße, staubkornkleinen Chips („smart dust“) bishin zu neuen superharten Materialien, die Stahl weichwie Butter aussehen lassen. Dies gibt uns eine vage Vorahnung dessen, wie Science-Fiction in fünfzig Jah-ren Realität sein könnte, wenn wir das Abenteuer„grundlagenorientierte Materialforschung“ heute be-herzt angehen.

Es liegt nun dummerweise im Wesen jeglicher Grund-lagenforschung begründet, dass sie unvorhersagbar ist.

nuklearem Abfall und Atomwaffen,Chemie mit Seveso und vergiftetenFlüssen und Biologie mit BSE, gen-manipulierten Tomaten und geklon-ten Schafen. Durch die jüngstenMedienattacken auf die vermeint-lich faulen Professoren, die sich inineffizienten Universitäten auf denSteuergeldern ausschlafen, hat sichdie Lage dramatisch zugespitzt. Die

intelligentesten Schulabgänger studierten nicht mehrPhysik oder Chemie (wie früher), sondern gingen ins„business“.

Zum Teil ist für diese verheerende Entwicklung auchdie Elfenbeinturm-Mentalität bei den Vertretern derGrundlagenforschung verantwortlich. Über viele Jahreversäumten sie es, ihre Forschungsaktivitäten der brei-ten Öffentlichkeit transparent zu machen. Zu den löb-lichen Ausnahmen zählten bislang immer nur die Hoch-energie- und Astrophysiker, die es seit jeher verstandenhaben, der Gesellschaft das „Abenteuer Forschung“ inder geeigneten Sprache nahe zu bringen. Mittlerweilehat in fast allen materialwissenschaftlichen Institutenund Zentren das längst fällige Umdenken eingesetzt: Tage der offenen Türen, populärwissenschaftliche Abend-veranstaltungen und Schnupperkurse für Schüler stehenganz oben auf der Agenda der Dekane und Institutslei-ter. Bereits die kurzfristigen Erfolge scheinen ihnenRecht zu geben. Der Abwärtstrend bei den Studienan-fängern ist heute überall gestoppt worden, die Studen-tenzahlen in Physik und Chemie steigen wieder an(natürlich nicht nur wegen dieser Öffentlichkeitsarbeit).

METALLforschung

18 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

dass sie sich gerade an der Copacabana sonnt). Noch vor50 Jahren hätte dies alles als Science-Fiction gegoltenund bei so manchem, vor allem bei uns skeptischenDeutschen, vermutlich blankes Entsetzen hervorgerufen.

Keines dieser modernen Hightech-Abenteuer wäreauch nur im Entferntesten denkbar, wenn es nicht Mate-rialstrukturen und -architekturen gäbe, die maßge-schneiderte elektrische, magnetische oder optische Ei-genschaften besitzen und – oft bei minimalem Eigenge-wicht – höchste mechanische und thermische Belastun-gen aushalten. Wie hat sich dieser unbestreitbare Tri-umphzug der Materialwissenschaften, der unseren All-tag so verändert und unseren Lebensstandard so enormgesteigert hat, vollzogen? Wie hat alles begonnen?

Der Erfolg moderner Materialwissenschaften ist imGrunde dadurch möglich, dass wir die Struktur und dieEigenschaften von kondensierter Materie auf der Nano-meter-Skala im Wesentlichen verstehen und letztlichbereits kontrollieren können. Das Zeitalter dieser mikro-skopisch ausgerichteten Materialwissenschaften hat alsovor ziemlich genau hundert Jahren begonnen: Damalswurden die Gesetze der Quantenmechanik, welche diephysikalischen (und chemischen) Phänomene im Nano-kosmos beschreiben, und die Röntgendiffraktion, dieuns den Blick in den atomaren Aufbau von kondensier-ter Materie eröffnete, entdeckt. Die Triebfeder für diesebahnbrechenden Errungenschaften waren die wissen-schaftliche Neugierde und der menschliche Instinkt, un-sere Welt zu begreifen.

ESSAY

Kein ernst zu nehmender Grundla-genforscher kann seinem Geldgeberheute sagen, ob – und schon garnicht wann – er Erfolg haben wird.Revolutionen lassen sich eben nichtplanen, man kann sie bestenfallsanstacheln. Dies hat die von Neu-gierde getriebenen, weltfremdenWissenschaftler seit jeher in einegesellschaftliche Dauerdefensive ge-bracht.

Eine wahre oder gut erfundene, auf alle Fälle sympto-matische Geschichte ist die Begegnung zwischen demdamals bereits berühmten Michael Faraday und KönigWilliam IV.: Auf die Frage, wozu seine Elektrizität denngut sei, antwortete Faraday schlitzohrig, eines Tageswerde er damit jede Menge Steuergelder kassieren. Inmoderner Form ist diese „Ausrede“ heute in so manchenphysikalischen Publikationen wiederzufinden, wenn derAutor in der Einleitung von „potential applications“ fa-selt, um auch ja nicht von der staatlichen Förderung sei-ner Grundlagenforschung abgenabelt zu werden.

Das „European White Book on Fundamental Researchin Materials Science”, das im November 2001 erschienenist, unternimmt den ersten groß angelegten Versuch, aufdie klaffende Förderungslücke bei der Grundlagenfor-schung in den bisherigen Europäischen Rahmenpro-grammen aufmerksam zu machen und zu erreichen,dass eine nachhaltige europäische Förderungsstrategiefür Grundlagenforschung in Brüssel implementiert wird.Alle namhaften europäischen materialwissenschaftli-chen Institute und Zentren haben den Status und diePerspektiven von grundlagenorientierter Materialfor-schung sorgfältig zusammengestellt und die förderpoli-tischen Maßnahmen auf europäischer Ebene ausgearbei-tet, die dringend notwendig sind, damit der Technolo-gie-Kontinent Europa in Zukunft konkurrenzfähig mitUSA, Japan und den sich derzeit rasch entwickelndenTigerstaaten bleibt oder wird. Im Weißbuch wird zum ei-nen klar hervorgehoben, dass es zunächst natürlich aufeine ausreichende und nachhaltige Förderung ankommt.Nachhaltigkeit der Förderung ist gerade bei der Grund-lagenforschung eine „conditio sine qua non“, da sielangfristig, also in der Regel länger als die Halbwertszeiteines Rahmenprogramms, angelegt ist.

Neben diesem rein finanziellen Aspekt (ohne den kla-rerweise nichts geht) weisen die Autoren des Weißbuchsauch auf viele strukturelle und kulturelle Probleme hin,denen sich heute die Grundlagenforschung gegenüber-sieht und die es national und auf europäischer Ebene zulösen gilt. Eines dieser Probleme hat mit der sozialenAkzeptanz von Grundlagenforschung zu tun: Die Popu-larität der Naturwissenschaften hat gerade bei der Jugend (also dem potenziellen Nachwuchs) in den ver-gangenen Jahrzehnten schwer gelitten. Ein typischerJugendlicher assoziiert heute Physik mit Tschernobyl,

Hürden am Horizont

Wissenschaft braucht GesellschaftMit Hilfe dieser neuartigen theoretischen und experi-

mentellen Werkzeuge gelangten die Wissenschaftler zugrundlegend neuen Einblicken in die Physik von Fest-körpern, enthüllten sie deren atomaren Feinbau und dieBewegung von Elektronen in diesen komplexen atoma-ren Vielteilchen-Strukturen. Prominente Nebenproduktedieser grundlagenorientierten Forschung sind dieHalbleiter und der Transistor, in der neueren Zeit die ke-ramischen Hochtemperatur-Supraleiter und die Eisen-Chrom-Nanostrukturen, die einen stark vom Magnetfeldabhängigen elektrischen Widerstand zeigen und heuteals Leseköpfe in allen modernen Festplattenspeichern zufinden sind.

Das im Laufe des vergangenen Jahrhunderts erworbe-ne Wissen darüber, wie Festkörper auf atomarer Skalafunktionieren, ermöglicht uns heute, gezielt, ganz nachBedarf und reproduzierbar Materialsysteme mit maßge-schneiderten Eigenschaften zu produzieren. Dies ist dieDomäne des so genannten anwendungsorientierten Ma-terialwissenschaftlers, von dem man sich erwartet, dasser nicht neugierde-, sondern problemorientiert denkt undarbeitet und in vorhersagbaren (und möglichst kleinen)Zeitspannen elegante materialwissenschaftliche Lösun-gen zu komplizierten aktuellen Materialproblemen her-

Meines Erachtens sind hier in Zukunft zuallererst na-tionale Maßnahmen gefragt, beispielsweise dringendfällige Fortbildungsangebote an Physik- und Chemie-lehrer, damit der Physik- und Chemieunterricht mit denaktuellen Entwicklungen (die ja zuweilen rasant seinkönnen) mithalten kann. Eine verständliche Bespre-chung der wissenschaftlichen Leistungen hinter den ak-tuellen Physik- und Chemie-Nobelpreisen müsste ei-gentlich eine Selbstverständlichkeit im Physik- undChemieunterricht sein.

Besonders wir Deutschen haben offensichtlich einenHang zur formalen Ausbildung. Was unseren Schul-und Hochschulabgängern fehlt, ist das, was die Angel-sachsen mit „literacy“ bezeichnen – die Fähigkeit, daserworbene Wissen zielgerichtet abzurufen und einzuset-zen. Also genau das, was einen künftigen Hightech-Pro-blemlöser gerade auszeichnet. In diesem Zusammen-hang taucht oft der Begriff der interdisziplinären Aus-bildung auf, der natürlich gerade in den Materialwissen-schaften, die von der synergetischen Zusammenarbeitzwischen Physikern, Chemikern, Biologen und Ingeni-

Page 11: MPF_2002_1  Max Planck Forschung

20 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

ESSAY

euren lebt, sehr populär ist. UnsereSchul- und Hochschulausbildung istheute nach den Einzeldisziplinenstrukturiert. Und das ist auch gut so,denn zu einer soliden Grundaus-bildung in Physik, Chemie und Bio-logie gibt es keine vernünftige Al-ternative.

Wenn man den Bedarf an inter-disziplinär ausgebildeten Schülernallzu aktionistisch zu befriedigen sucht und den Phy-sik-, Chemie- und Biologieunterricht durch ein Schul-fach „Naturwissenschaft“ ersetzt (wie es ja schon pas-siert), erweist man dem Ganzen einen Bärendienst. Wirwürden dann Schulabgänger produzieren, die von allemein bisschen was verstehen, aber nichts mehr in der Tie-fe durchdringen. Interdisziplinarität ist für mich ein sehrschwieriges Element, das man sehr überlegt in die Aus-bildung integrieren muss, sonst erreicht man gerade dasGegenteil von dem, was man eigentlich wollte.

Hier könnte aber auf europäischer Ebene sehr viel ge-tan werden, um die Jugend einerseits für das AbenteuerNaturwissenschaften zu sensibilisieren und andererseitsinterdisziplinäre Elemente in ihre Ausbildung einzubau-en. Wie wäre es denn mit etwas ganz Abgedrehtem, zumBeispiel einem dreiwöchigen „Summer Training Campon Natural Sciences“ auf Malta, Kreta oder Korfu für die besten Schüler eines Jahrgangs? Vormittags undnach dem Abendessen gibt’s Wissenschaft, nachmittags

rungenschaften der Nanotechnolo-gie werden unseren Alltag weitergrundlegend verändern. Die Mate-rialwissenschaftler von morgenbauen sich ihre Materialien nachMaß auf, Atomlage für Atomlage,oder gar Atom für Atom, und kreie-ren damit atomare Architekturenmit völlig neuen Eigenschaften, diein der Natur so nicht vorkommen.

Insbesondere von den so genannten hybriden Nano-strukturen, bei denen sich supraleitende mit magneti-schen, magnetische mit halbleitenden, halbleitende mitorganischen, organische mit metallischen Komponentenauf der Nanometerskala treffen, erwartet man sich inZukunft revolutionäre neue Entdeckungen.

Zuverlässige Prognosen, welche neuen Phänomeneund Materialstrukturen darauf warten, in den nächstenfünfzig oder gar hundert Jahren entdeckt zu werden,und welche davon sich in neue Technologien umsetzenlassen, kann und sollte man als seriöser Wissenschaftlernicht machen. Eine Revolution in der Festkörper- undMaterialforschung und in der Chemie und Biologie wirdaber vermutlich in diesem Jahrhundert stattfinden, dieselbst hartgesottene Physiker, Chemiker und Biologenins Schwärmen bringt: die analysetechnische Fähigkeit,die Bewegung von Atomen in kondensierter Materiewährend einer chemischen Reaktion oder eines biologi-schen Prozesses in Realzeit, also innerhalb einiger zehnBilliardstel Sekunden, zu verfolgen. Damit könnte mangewissermaßen der Natur direkt bei der Arbeit zuguckenund auf diese Weise einige hartnäckige Rätsel der Naturlösen. Wie transformiert sich eine ungeordnete Flüssig-keit bei Abkühlung in einen perfekt geordneten Kristall?Wie baut sich eine chemische Bindung auf? Wie wirktein Medikament?

Zur holographischen Beobachtung auf der Nanome-terskala bräuchte man zudem einen vollkohärentenRöntgenstrahl, das heißt, einen Röntgenlaser. Ein Fem-tosekunden-gepulster Röntgenlaser war selbst für dieOptimisten unter den Physikern bis vor wenigen Jahrenein frommer Wunsch. Nun scheint dies tatsächlich in-nerhalb der nächsten fünf bis zehn Jahre realisierbar zuwerden, wenn es nach Wunsch des DESY in Hamburgläuft, das die technischen Studien für ein derartiges fu-turistisches Großprojekt (TESLA-XFEL) vor kurzem vor-gestellt und einen Prototyp eines solchen „Freien Elek-tronenlasers“ bereits zum Laufen gebracht hat.

Einige dieser kühnen Visionen werden sich womög-lich nicht so schnell wie erhofft realisieren lassen. Die intelligente Auseinandersetzung mit diesen „Ur-knallproblemen“ aus dem Nanokosmos der kondensier-ten Materie wird in Europa aber eine intellektuelle Eliteheranziehen, auf die wir in einer künftigen Wissens-und Technologiegesellschaft ebenso angewiesen sindwie auf die neuen Technologien. �

Große Zukunft für kleine Strukturen

Sonne und bei bestandener Abschlussprüfung ein beno-tetes Zertifikat. Das Ganze sollte eine starke europäischeKomponente haben, lingua franca ist auch hier natür-lich Englisch, und die Teilnehmer kommen aus mög-lichst vielen europäischen Mitgliedsstaaten. Wenn manauf diese Weise auch noch die Mobilität unserer Jugendinnerhalb Europas fördern könnte, würde sich ein solcheInstitution mehr als lohnen.

Nehmen wir zum Schluss einmal an, wir bekommendie gesellschaftliche Akzeptanz und das Ausbildungs-problem in den Griff (es gibt ja trotz Pisa bereits Silber-streifen am Horizont). Was sind dann die materialspezi-fischen Herausforderungen der Zukunft? Auch hier gibtdas Weißbuch detaillierte Auskunft: Von den europäi-schen Experten wurden mehrere Schlüssel-Forschungs-felder identifiziert, die in konzertierten europäischenAktionen in Angriff genommen werden sollten. Zu denEmpfehlungen mit hoher Priorität zählen die Erfor-schung neuer Phänomene und Materialien sowie inter-disziplinäre Forschungsstrategien. Intelligente („smart“)Materialien, Bio- und Nanotechnologien werden nachExpertenmeinung in den nächsten zehn Jahren zu denam schnellsten wachsenden Gebieten in den Material-wissenschaften zählen. Die künftig zu erwartenden Er-

Page 12: MPF_2002_1  Max Planck Forschung

HochleistungsRECHNEN

22 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

Forscher der Abteilung Theorie am Berliner FRITZ-HABER-

INSTITUT simulieren chemische Prozesse an Oberflächen und

die räumliche Struktur von Biomolekülen. Ihre Berechnungen

basieren auf „ersten Prinzipien“, also nur auf Naturkonstanten.

Dazu müssen sie aufwändige Programme entwickeln – doch

das lohnt sich: Ihre Forschungsergebnisse sind sehr zuverlässig

und haben eine große Vorhersagekraft.

Atomkerne undElektronen aus dem

Baukasten

F OTO

S : W

OLF

GAN

GFI

LSER

/ ABB

ILD

UN

GEN

: FH

I DER

MAX

-PLA

NCK

-GES

ELLS

CHAF

T

Abb. 1, oben: Ein Molekül aus zwei As-Atomen („Hantel“ aus gelben Bällen)nähert sich einer GaAs-Oberfläche. DieElektronenhüllen der As-Atome sind gelbdargestellt, die blauen Kugeln deuten dieKerne einiger As-Atome an, die grünenKugeln die Kerne der Ga-Atome. Darunter:Das As-Molekül ist fertig eingebaut, dieElektronen der As-Atome sind Bindungenzu benachbarten Ga-Atomen eingegangen.

„Der wesentliche Aspekt allerunserer Arbeiten ist, dass

wir keine empirischen Parameterverwenden, sondern dass wir allesaus ,ersten Prinzipien‘ berechnen“,sagt Matthias Scheffler, Direktor derAbteilung Theorie am Fritz-Haber-Institut (FHI) der Max-Planck-Gesellschaft in Berlin und Träger des „Max-Planck-Forschungspreises2001" (S. 88). Die Forscher seinerAbteilung verwenden für ihre Com-putersimulationen allein den Grund-baukasten physikalischer Gesetzeund Theorien. Seine Bausteine sindAtomkerne und Elektronen, die einetypische Berliner Simulation zu Tau-senden bevölkern. Für die Regeln ihrer Wechselwirkungen und ihreskonzertierten Zusammenspiels sor-

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 23

Matthias Scheffler, Direktor der Abteilung Theorie am Fritz-Haber-Institut, und seine Mitarbeiter entwickeln

komplexe Computerprogramme auf Basis „erster Prinzipien“.Mit ihnen können sie wichtige Phänomene in verschie-densten Materialien vom Halbleiter bis zum Biomolekül

detailliert theoretisch beschreiben und simulieren.

ALLE

FOTO

S: W

OLF

GAN

GFI

LSER

/ ABB

.: FH

I DER

MPG

Page 13: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 25

HochleistungsRECHNENSCHWERpunkt

wir lernen, wie sich einzelne Atomebei Wachstumsprozessen auf Ober-flächen verhalten und wir erkennen,wie wichtig konzertierte Aktionensind,“ fasst Kratzer zusammen. Erund Matthias Scheffler sehen darinvor allem ein ideales Werkzeug zurModellierung des Wachstums vonNanostrukturen wie etwa „Quanten-punkten“. Quantenpunkte sind Nano-Inseln aus etwa 10 000 Atomen, indenen sich einzelne Elektronen aufQuantenbahnen bewegen. Sie könn-ten in Zukunft zum Beispiel auf Na-no-Chips für Quantenpunkt-Laser,Ein-Elektronen-Transistoren oder fürQuantencomputer-Schaltungen ar-beiten.

zur Nanotechnologie wird den Chip-entwicklern erst gelingen, wenn siewissen, wie einzelne Atome vonselbst präzise Nanostrukturen auf-bauen können („Self-assembly“).Kratzer und Scheffler kooperiereneng mit allen drei Berliner Univer-sitäten und anderen Instituten: „DerSynergieeffekt ist beachtlich“, soScheffler.

Der Berliner Baukasten enthält alsGrundelemente Atomkerne und Elek-tronen. Aus ihnen lässt Kratzer denComputer zum Beispiel virtuelles Gal-liumarsenid (GaAs) zusammenbauen.GaAs ist ein Halbleiter, der unter an-derem in Leuchtdioden, Diodenlasernoder Hochfrequenzschaltungen ein-gesetzt wird. Ein GaAs-Kristall ist re-lativ einfach aufgebaut. Doch wie dieeinzelnen Atome an seiner OberflächeStrukturen wachsen lassen, könnenExperimente bislang nicht offen le-gen. Die Ab-initio-Computersimula-tionen der Berliner Gruppe eröffnenzum ersten Mal einen Einblick in dasZusammenspiel der Atome.

DER HERR DER INSELN

„Ein Problem sind die verschiede-nen Zeitskalen“, sagt Peter Kratzer,„die entscheidenden Prozesse passie-ren sehr selten. Die Atome springenoft nur zwischen Nachbarplätzen hinund her, und es geschieht langenichts. Deshalb müssen Billionenvon Einzelschritten durchgerechnetwerden.“ Kratzers Programm mussalso diese ungeheure Menge von un-fruchtbaren Ereignissen simulieren,um die „Lotto-Sechser“ zu erwi-schen: die seltenen Momente, in de-nen mehrere Atome gerade so zu-sammentreffen, dass sie auf derOberfläche eine stabile „Insel“ bil-den. Das geht nur mit modernsterMethodik und geschickter Vereinfa-chung, sonst wäre auch ein Super-computer überfordert.

„Die Größe des simulierten Arealsauf der Oberfläche liegt bei 300 mal300 Atomen“, beschreibt Kratzer dasSpielfeld. Um das Verhalten dieses

Kollektivs aus 90 000 Atomen realis-tisch simulieren zu können, ent-wickelten die Forscher ein zweistu-figes Verfahren. Die erste Stufe be-rechnet für jedes beteiligte Atom,wie es mit seinen Nachbaratomenchemische Bindungen eingeht oderwieder löst. Damit können die FHI-Forscher bereits erfolgreich simulie-ren, wie ein Molekül aus zwei Arsen-atomen in eine neue entstehendeGaAs-Schicht eingebaut wird. Abbil-dung 1 zeigt den Prozess in zwei Bil-dern, auf dem Internet ist ein Videodazu zu sehen (siehe Seite 26 „Vi-deos auf dem Web“). Die Cray T3Eberechnet nun Atom für Atom allephysikalisch sinnvollen Situationen,in die sie auf der simulierten Ober-fläche geraten können. Die Ergebnis-se wandern in eine große Datenbank.

Die zweite Stufe fügt die Einzel-schritte zu den komplexeren Prozes-sen an der Oberfläche zusammen.Für jeden Schritt greift der Rechnerauf die Datenbank mit den Atom-Wechselwirkungen zu. Erst dieseStufe führt eine physikalische Zeitund eine Temperatur ein, die ober-halb des absoluten Nullpunkts liegt.Nun können die Forscher erfolgreichsimulieren, wie eingestrahlte Arsen-Moleküle und Gallium-Atome eineKerbe in einer GaAs-Oberflächezunächst schließen und dann dorteine Insel wachsen lassen (Abb. 2und „Videos auf dem Web“).

Abb. 4: Diagramm in der Bildmitte: Je nach Druckund Mischung des Gases in der Umgebung einerRuO2-Katalysatoroberfläche bevölkern O-Atome und CO-Moleküle diese Oberfläche auf unterschied-liche Weise. Die kleinen Bilder zeigen die moleku-laren Strukturen, die sie jeweils ausbilden können. Die O-Atome sind dunkel dargestellt, die Ru-Metall-atome grau und groß, die C-Atome klein und weiß.

Abb. 3: Illustration des Sabatier-Prinzips: Gezeigt istdie Energie, mit der Sauerstoff an eine Oberfläche aus den Übergangsmetallen Ru, Rh, Pd und Ag bindet,die schon stark mit Sauerstoff bedeckt ist. Ist dieseEnergie positiv, dann dissoziiert dabei das O2-Molekül (Inset unten rechts). Nach dem Sabatier-Prinzip wärenMetalle katalytisch besonders aktiv, die den Sauer-stoff mittelstark binden (grün schraffierter Bereich).

Abb. 2: Die Bilder zeigen schrittweise,wie As-Moleküle (hellblau) und Ga-Atome (gelb) einen Graben in einerGaAs-Oberfläche lokal füllen. Dannbauen sie eine Insel auf (Ga und As sind als gleich große Kugeln gezeigt).

24 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

gen die „Vielteilchen-Quantentheo-rie“ und die „Statistische Mecha-nik“. Die meisten modernen Simu-lationsansätze basieren dagegenauf empirischen Daten aus Expe-rimenten an einem sehr speziellen System. Ihre Aussa-gekraft beschränkt sich deshalbmeistens auf dieses System. Da-

bei dürfen physikalische Rahmenbe-dingungen, wie etwa Druck undTemperatur, nur in einem engen Be-reich variieren.

Theorien auf Basis erster Prinzipi-en („Ab-initio-Theorien“) sindzuverlässiger und universeller. Inder Praxis müssen sie jedoch eineenorme Hürde bewältigen: Dieinteressanten Untersuchungsob-jekte sind fast immer sehr kom-plexe Vielteilchensysteme. Dazuzählen zum Beispiel die chemi-

schen Prozesse an Oberflächen oderdie Kräfte, die ein großes Biomolekülin Form halten. Diese Ab-initio-Mo-dellierung treibt sogar Supercompu-ter wie die Cray T3E oder den NEC-Vektorrechner am Rechenzentrumder Max-Planck-Gesellschaft inGarching an ihre Grenzen.

Gelingt den Berliner Wissen-schaftlern ein funktionierendesModell, dann erlaubt es ein ge-naues, mikroskopisches Ver-

ständnis auf der Skala einzelnerAtome und Vorhersagen über ähnli-che Systeme. An der Verwirklichungdieses Forschertraums in den Nano-wissenschaften und in der Biophysikarbeitet Schefflers Abteilung.

Peter Kratzer entwickelt gemein-sam mit Matthias Scheffler Simula-tionen von Wachstumsprozessenan Halbleiter-Oberflächen. Siesollen realistisch nachbilden, wiesich einzelne Atome auf diesenOberflächen verhalten, wie sieGräben füllen, Inseln bauen oder

deckende Schichten bilden. Diebeiden Max-Planck-Wissenschaftlerbetreiben zwar Grundlagenfor-schung, doch diese Prozesse sindauch interessant für die Halbleiterin-dustrie. Der Miniaturisierungsschritt

Chemische Prozesse an Ober-flächen sind das Forschungsgebietdes Teams von Karsten Reuter undMatthias Scheffler, besonders die„Oxidationskatalyse“. Katalysatorensind Stoffe, die mit ihrer Gegenwartbestimmte chemische Reaktionenerst ermöglichen, ohne selbst dabeiverbraucht zu werden. Auf der Ober-fläche von Oxidationskatalysatorenläuft eine im Prinzip sehr einfacheOxidationsreaktion ab. Ein simplesBeispiel mit großer ökonomischerund ökologischer Bedeutung ist CO+1/2O2Æ CO2: Der Katalysator zer-legt ein Sauerstoffmolekül O2 in sei-ne beiden O-Atome, die dann dasgiftige Kohlenmonoxid (CO) in un-

Page 14: MPF_2002_1  Max Planck Forschung

HochleistungsRECHNEN

giftiges Kohlendioxid (CO2) umwan-deln. Das passiert zum Beispiel im„Kat“ unserer Autos. Die Oxidations-katalyse hat auch eine große indu-strielle Bedeutung, die weit über dieAbgasreinigung hinaus reicht.

Doch was auf der Skala einzelnerAtome oder Moleküle an Katalysato-ren passiert, ist bis heute weitge-hend ungeklärt. Einige etablierteModelle stellten sich kürzlich alsunrichtig oder zumindest als unzu-reichend heraus – zu komplex sinddie chemischen Abläufe. Reuter:„Der Knackpunkt beim Oxidations-katalysator ist das 1/2 O2.“ Nähertsich ein Sauerstoffmolekül der Kata-lysatoroberfläche, dann geht es zuihr eine chemische Bindung ein undtrennt sich („dissoziiert“) dabei indie beiden O-Atome. Die O-Atomewerden von der Oberfläche „adsor-biert“, also gebunden. Auch der Re-aktionspartner, zum Beispiel das CO,

VIDEOS AUF DEM WEB

Simulationsvideo zum Einbau eines As2-Moleküls in eine GaAs-Schicht (Abb. 1): www.fhi-berlin.mpg.de/th/publications/img/ie-as2-alpha.gif (150 kbyte Dateigröße).Videos zum Prozess, den Abb. 2 zeigt:ftp://ftp.aip.org/epaps/phys_rev_lett/E-PRLTAO-87-031152/isl-gaas-front.mpg von der Seite undftp://ftp.aip.org/epaps/phys_rev_lett/E-PRLTAO-87-031152/isl-gaas-top.mpg von oben (jeweilsfast 5 Mbyte Dateigröße).

26 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 27

bindet an der Oberfläche. Dort rea-giert es dann mit dem O-Atom zumEndprodukt CO2. Das Endproduktlöst sich von der Katalysator-Ober-fläche, fliegt davon und gibt sie sofür eine neue Reaktion frei.

Ein guter Katalysator muss somitdie O2-Moleküle knacken können,darf aber die O-Atome nur mittel-stark und nicht fester an seine Ober-fläche binden. Sonst werden die O-Atome inaktiv. Bereits um 1900 ent-deckte der französische Chemikerund spätere Nobelpreisträger PaulSabatier diese Regel. Es zeigte sich,dass bestimmte „Übergangsmetalle“des Periodensystems die Kriterien ei-nes guten Oxidationskatalysators er-füllen, zum Beispiel Rhodium, Palla-dium und Platin. Geht man im Peri-odensystem von diesen mittlerenÜbergangsmetallen zu ihren Nach-barn bei höheren oder niedrigerenOrdnungszahlen, dann eignen sichdiese immer schlechter zur Oxidati-onskatalyse. Abbildung 3 zeigt dasSabatier-Prinzip am Beispiel vonRuthenium (Ru), Rhodium (Rh), Pal-ladium (Pd) und Silber (Ag). Die lin-ke Achse gibt die Bindungsenergiefür Sauerstoff im Verhältnis zumfreien Gas an: Ist sie positiv, danndissoziiert das Sauerstoffmolekül.Liegt die Bindungsenergie im mittle-ren, grün schraffierten Bereich, dannwäre das Element nach dem Saba-

tier-Prinzip ein guter Oxidationska-talysator: Tatsächlich sind Rh- oderPd-Katalysatoren sehr effizient.

Nach dem Bild wäre also Ru unge-eignet, weil es den Sauerstoff viel zustark bindet. Doch das ist falsch,denn Ru ist unter realistischenDruck- und Temperaturbedingungensogar ein exzellenter Oxidationska-talysator. Das Versagen dieser Regelzeigt, dass wohl auch andere, bislang„unterschätzte“ Materialien gute Ka-talysatoren sein können. Für Aufre-gung sorgte im Jahr 2000 eine Ent-deckung, die Experimentatoren desFHI um Herbert Over gemeinsam mitWiener Physikern machten: Nichtdas Ru-Metall, sondern das OxidRuO2, das auf seiner Oberfläche ent-steht, bildet die katalytisch aktivenZentren der Oxidationsreaktion (inAbbildung 3 links angedeutet). Ab-bildung 4 zeigt, wie die Sauerstoff-atome und CO-Moleküle die Ober-fläche bei Raumtemperatur bevöl-kern. Ihr genaues Verhalten bestim-men dabei der Druck und die Mi-schung der Gase, die den Katalysatorumgeben.

SPIEL DER ATOME

IM RECHNER

Reuters und Schefflers Simulatio-nen zeigen möglichst realitätsnah,auf welche Weise die Oxidierung ei-nes Katalysators wie im Fall des Ruseine Aktivität verändert. Dabei in-teressierte die Forscher besonders,wie Druck und Temperatur die Reak-tionsfreudigkeit der an der Ober-fläche adsorbierten Atome und Mo-leküle beeinflussen. Ein Problem istdie komplexere Kristallstruktur derOxide, die den Simulationsaufwandhochtreibt (Abb. 4). „Eigentlichbräuchte ich für meine Simulationeneinen um zwei Größenordnungenmächtigeren Rechner“, sagt dennauch Reuter – obwohl die Cray unddie NEC nicht gerade Taschenrechnersind. Doch die Mühe lohnte sich fürdas Team: Erstmals konnten Forscherdas Spiel der Atome bei hoher Tem-

peratur und hohen Gasdrücken be-obachten. Reuter bilanziert: „Diezukünftige Katalyseforschung wirdsich sicher mehr auf die Oxidbildungan den Oberflächen von Metallenund auf systematische Untersuchun-gen der Druck- und Temperaturab-hängigkeiten ausrichten.“

Jörg Neugebauer leitet am Fritz-Haber-Institut eine „SelbstständigeNachwuchsgruppe“. In Kooperationmit Matthias Scheffler und Bioche-mikern aus Mexiko City erschließendie Wissenschaftler eine ganz andereWelt: die der großen Biomoleküle.Die langen Ketten der Proteine (Ei-weiße) falten sich auf komplizierteWeise zusammen. Die Faltung steu-ert ihre Eigenschaften wie zum Bei-spiel die Wasserlöslichkeit. Erst einerichtig gefaltete Kette entwickelt dieerwünschte biologische Funktion.Auf kleinster Skala betrachtet, bildetdie Faltung bestimmte „Sekundär-strukturen“ aus: Die lange Kette desgroßen Moleküls bildet in bestimm-ten Bereichen eine „b-Faltblattstruk-tur" oder verschraubt sich in anderenAbschnitten zu einer „a-Helix“.

Welche Kräfte stecken hinter die-sen Faltungen? Das ist eine wichtigeFrage in der modernen Biochemie.Können Forscher sie beantworten,dann gelingt ihnen ein großer Schrittzum Verständnis, wie Proteine wir-ken. Ein Beispiel sind die berühmtenPrionen. Die tödliche Form dieser Ei-weiße unterscheidet sich von der ge-sunden nur in einem einzigen Detail:Ein Teil des Moleküls bildet eine b-Faltblattstruktur anstatt einer kurzena-Helix. Doch was veranlasst dasPrion zu dieser tödlichen Fehlfal-tung?

„Eine charakteristische Bindung inBiomolekülen ist die Wasserstoff-brückenbindung“, erklärt Jörg Neu-gebauer. Die Wasserstoffbrückenbin-dung kann sich zwischen einemAtom Y und einem Atom X ausbil-den, wenn zwischen ihnen ein Was-serstoffatom H sitzt. X und Y kön-nen entweder auf verschiedenen Ab-schnitten derselben Molekülkette

sitzen oder auf zwei verschiedenenMolekülen. Außerdem müssen X und Y elektronegativ, also „gierig“nach Elektronen sein. Typischerwei-se zieht eines dieser Atome, sagenwir X, die „Elektronenwolke“ des Hzu sich herüber. Diese Ladungsver-schiebung generiert ein elektrischesFeld, das Y anzieht und so alle dreiAtome zusammenbindet. Die Was-serstoffbrückenbindung ist vielschwächer als der normale Molekül-Klebstoff, die „kovalenten“ Bindun-gen. Gibt es jedoch in einer a-Helixviele Wasserstoffbrückenbindungen,dann können sie sich gegenseitigkräftig verstärken. „Dieser Effektheißt Kooperativität“, erklärt Neu-gebauer.

WAS HÄLT EINE

a-HELIX IN FORM?

Die Berliner Theoretiker entdeck-ten nun, dass diese Kooperativitätentscheidend zur Stabilität einer a-Helix beiträgt. Zur Simulation wähl-ten sie Polyalanin, das ein idealesModellsystem ist. Es ist die einfachs-te Proteinkette, die eine a-Helix bil-det. Weil der Effekt durch die Was-serstoffbrückenbindung sehr kleinist, stellt er höchste Anforderungenan die Genauigkeit der Rechnungen.„Insbesondere ist es notwendig, dieelektronische Struktur genau zu be-stimmen“, so Neugebauer. Er spieltdarauf an, wie entscheidend für einrealistisches Ergebnis die genaueAbbildung der Elektronenverteilungim Molekül ist. Mithilfe der großenRechenleistung der Cray T3E gelangden Berliner Theoretikern der Coup:Abbildung 5a) zeigt eine Simulationeiner a-Helix aus Polyalanin. Dabeientdeckten die Forscher, dass die Kooperativität in dieser Helix jedeeinzelne Wasserstoffbrückenbindungum mehr als 200 Prozent verstärkt.Frühere Schätzungen lagen beihöchstens 50 Prozent.

Diese enorme Verstärkung hat ent-scheidende Konsequenzen. Neuge-bauers Team konnte berechnen, dass

sich die a-Helix ohne diese Verstär-kung entrollen und die in Abbildung5 b) gezeigte Form annehmen würde.Das deckt sich mit dem experimen-tellen Befund: Sehr kurze Po-lyalanin-Ketten werden tatsächlichin gestreckter Form gefunden. Mitdieser Entdeckung gelang den For-schern ein wichtiger Schritt vorwärtszum Verständnis der Faltung. Sie lie-fert einen Hinweis, warum Proteineinstabil werden können. Neugebauerspielt vor allem auf die Prionen an:„Die BSE bringende Veränderung ei-nes kurzen a-Helix-Bereichs in eineb-Faltblattstruktur entspricht ziem-

Abb. 5: a) Eine simulierte a-Helix aus Polyalanin. Die Wasserstoffbindungen sindgestrichelt dargestellt. Das gelbe Bandmarkiert das Rückgrat des Moleküls. Diegrauen Kugeln sind Wasserstoffatome, die blauen Stickstoff, die roten Sauerstoff und die grünen Kohlenstoff. b) zeigt diegestreckte Form des Polyalanin-Moleküls.

lich genau dem Befund am Modell-system Polyalanin.“

Die Herausforderung, komplexeSysteme auf Basis erster Prinzipienzu simulieren, ist enorm. Doch dieAbteilung Theorie des FHI kann be-eindruckende Erfolge vorweisen.Matthias Scheffler blickt aus gutemGrund optimistisch in die Zukunft:„Ich bin davon überzeugt, dass dieMethodik der Ab-initio-statistischenMechanik das Feld der ,Computatio-nal Sciences and Engineering‘ in den

Jörg Neugebauer, Karsten Reuter, Matthias Scheffler und Peter Kratzer (von links nach rechts) diskutieren neue Ergebnisse zum RuO2-System.

Page 15: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 29

HochleistungsRECHNEN

28 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

mum bei ihm. Ich lernte, was einFlip-Flop ist und andere Schaltun-gen. Außerdem erzählte er mir, dasssie mit Dualzahlen arbeiteten. Daranhatte ich vorher überhaupt nochnicht gedacht. Dass das duale Zah-lensystem für die Rechnerei weitausgünstiger ist als das Dezimalsystem,habe ich erst da gelernt.

MPF: Welche Art von Speicher benutzten die Engländer?

BILLING: Das hat mir Womersley zunächst nicht verraten,obwohl ich ihn danach fragte. Später erfuhr ich, dass dieEngländer mit einem akustischen Quecksilberspeicher ar-beiteten. Es handelte sich dabei um eine mit Quecksilbergefüllte Röhre, in der die Ziffernimpulse als Schallimpulseumliefen und am Ende jeweils verstärkt wurden.

MPF: Sie fanden aber einen völlig anderen Weg, Informationen im Computer zu speichern.

BILLING: Ja, ich hatte schon während des Krieges Kontaktmit Magnetophonbändern gehabt. Man benutzte dieseBänder zunächst nur, um Musik aufzunehmen. Ich hattenun eines Nachts die Idee, dass man darauf auch Zahlenspeichern könnte. Ich klebte die Tonbänder auf eine rotie-rende Trommel, so kommt die gespeicherte Informationnach jedem Umlauf wieder am Lesekopf an. Damit hatteich nun ein schönes Speichersystem und fing an, einen

MPF: Herr Professor Billing, Sie waren nach dem Zweiten Welt-krieg einer der Pioniere der Com-puterentwicklung. Wie kam das?

PROF. HEINZ BILLING: 1945, nachdem Ende des Krieges, waren wir inDeutschland zunächst praktisch iso-liert. Ich war bei der Aerodynami-schen Versuchsanstalt in Göttingenbeschäftigt und hatte dort unter anderem mit Verstär-kerröhren zu tun. Irgendwann las ich etwas über Eniac,den großen Computer an der Universität von Pennsylvan-ia, der mit 18.000 Röhren arbeitete. Das faszinierte michsofort. Ich suchte nach einer großen Aufgabe, und ichfand es weitaus attraktiver, Computer zu entwickeln alskleine Hilfsgeräte für die Forschung zu bauen.

MPF: Wie erfuhren Sie dann mehr über diese neuartigen Rechner?

BILLING: Im Jahr 1947 kam eine englische Kommissionnach Göttingen, um zu erfahren, wie weit man inDeutschland mit der Computerei war. Berühmte Leute wa-ren dabei, etwa John R. Womersley, der schon währenddes Krieges am Colossus, dem britischen Geheim-Compu-ter, mitgearbeitet hatte, und auch der berühmte Alan M.Turing. Am Ende des Gesprächs habe ich Womersley ge-beten, mir noch ein wenig mehr zu erzählen, und das tater auch. So erhielt ich ein dreiviertelstündiges Privatissi-

Addierer zu bauen. Bald zeigte Wer-ner Heisenberg Interesse an demGerät. Er besichtigte es und ließ sichalles erklären. Aber damals, unmit-telbar nach der Währungsreform,war zunächst kein Geld da, und soließ ich mich von der UniversitätSydney abwerben. Nach wenigenMonaten jedoch holte Heisenbergmich wieder nach Göttingen zurück.

MPF: Wann gab es die ersten wissen-schaftlichen Fragestellungen, zu deren Lösung man Computer brauchte?

BILLING: Nach meiner Rückkehr gab es ziemlich schnelldie ersten Anforderungen von Seiten der Forscher. DerAstrophysiker Ludwig Biermann wollte beispielsweise dieBahnen der kosmischen Strahlung im Erdmagnetfeld be-rechnen und brauchte dazu ganz dringend eine Maschine.Die G2, die ich gerade optimieren wollte, habe ich des-halb in die Ecke gestellt und schnell eine kleinere Maschi-ne, die G1, vorweg gebaut. Sie konn-te zwei Operationen pro Sekundeausführen und hatte einen Trommel-speicher für 26 Worte à 32 Bit.

MPF: Wie hat man bei diesenComputern die Daten eingegeben?

BILLING: Wir hatten eine Schreibma-schine umgebaut, mit ihr konntenwir über ein Lochband Daten undBefehle eingeben. Man konnte sie di-rekt als Dezimalzahlen eintippen, der Rechner hat sieselbst in Dualzahlen umgewandelt. Später benutzten wirLochbandableser, wie man sie für Fernschreiber einsetzt.

MPF: Und wie kamen die Ergebnisse wieder heraus?BILLING: Die wurden richtig als Dezimalzahlen ausge-druckt.

MPF: Hätten Sie damals gedacht, dass sich aus den ersten Rechnern derart leistungsfähige Maschinen entwickeln würden?

BILLING: Nein, das hätte ich nie geglaubt. Als ich nachAustralien ging, dachte ich: Nun ja, Universitäten brau-chen so etwas, da gibt es einen gewissen Bedarf. Ich hielt einen Computer für ein seltenes, teures Gerät, dassich nur wenige Institute leisten können, ähnlich wie große Experi-mentieranlagen. Außerdem warendie Rechner damals sehr unzuver-lässig. So etwas in die Hand von Pri-vatpersonen zu geben, das wärenicht möglich gewesen.

MPF: Warum waren die Rechnerso unzuverlässig?

Vor gut 50 Jahren begann die Entwicklung elektronischer Rechenmaschinen in

Deutschland. Einer der Pioniere auf diesem Gebiet ist der heute 87-jährige PROF.

HEINZ BILLING, Emeritiertes Wissenschaftliches Mitglied des MAX-PLANCK-INSTITUTS

FÜR PHYSIK UND ASTROPHYSIK in München. Er berichtet hier über die Anfänge der

wissenschaftlichen Computer. Seit 1993 wird jährlich der nach ihm benannte, renommierte

„Heinz-Billing-Preis“ zur Förderung des wissenschaftlichen Rechnens vergeben.

„Ich hielt den Computer für ein

seltenes Gerät“

BILLING: Wir arbeiteten ja damals mitVerstärkerröhren. Eine Röhre hatteeine mittlere Lebensdauer von rund2000 Stunden, aber leider gingenviele schon vorher kaputt. Wir ent-wickelten ein eigenes Verfahren, umdie taub werdenden Röhren recht-zeitig zu finden und zu ersetzen.

MPF: Wo kamen die Röhren her?BILLING: Anfangs mussten wir sie auf dem schwarzenMarkt besorgen, aber später, so um 1950, konnte ich be-reits die gleichen Röhren kaufen, aus denen auch Eniacgebaut worden war.

MPF: Wozu dienten die Lämpchen außen am Rechner?

BILLING: Man konnte an den Lämpchen ablesen, was derComputer gerade getan hatte. So konnte man auch leich-ter erkennen, wann etwas defekt war. Aber das warschwierig und erforderte viel Intelligenz.

MPF: Ihr drittes Modell, die G3, die 1960 fertig wurde, arbeitete miteinem anderen Speichersystem.BILLING: Ja, und zwar mit magneti-schen Kernspeichern. Für die Spei-cherung eines jeden Bits benutzteman einen winzigen Ring aus ma-gnetisierbarem Ferrit. Durch kurzeStromstöße, die durch die Drähtelaufen, auf denen die Ferritringe auf-

gefädelt sind, lassen sie sich magnetisieren. Mit solchenFerritkernen ließen sich die Zugriffszeiten auf den Spei-cher wesentlich verkürzen. Bereits 1954 bekam ich die er-sten Ferritkerne in die Hand.

MPF: Und Sie erkannten gleich, dass diese Ferritspeicher eine gute Idee sind?

BILLING: Oh ja, sofort. Ich war immer auf der Suche nachMedien, die sich als Speicher eignen. Ich habe die ganzePhysik durchgeforstet nach geeigneten Materialien.

MPF: Hat sich die Öffentlichkeit eigentlich für Ihre Rechenmaschinen interessiert?

BILLING: Ja, sehr. Sogar Bundespräsident Theodor Heuss hatim November 1951 unser Institut besucht und die G1 besich-

tigt. Das ging dann durch die gesamtedeutsche Presse. Ich erinnere mich ger-ne an diesen Besuch und besitze heutenoch Fotos von diesem Termin.

MPF: Haben Sie heute einen PC?BILLING: Ja, mein Sohn hat mir einengeschenkt. Ich benutze ihn zumSchreiben und zum Verschicken vonE-Mails. INTERVIEW: BRIGITTE RÖTHLEINFO

TOS:

WO

LFG

ANG

FILS

ER

Page 16: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 31

schen liegt die mittlere, mesoskopi-sche Skala, die für Polymersystemebesonders wichtig ist. Der Zoom be-ginnt links bei Längenskalen vonmehreren hundert Nanometern (Mil-liardstel Meter) und Zeitskalen vonSekunden und endet rechts unter-halb des Ångström-Bereichs (ZehntelNanometer) bei Femtosekunden-Pro-zessen (Tausendstel einer MilliardstelSekunde). Im mesoskopischen Be-reich sind einzelne Polymerketten er-kennbar. Eine Simulation von Poly-mersystemen enthält für jede dieserSkalen ein Modell, wie es in Abbil-dung 1 unten grafisch angedeutetist, und verknüpft sie dann zu einemGesamtbild.

Hans Jörg Limbach untersucht dasVerhalten von „Polyelektrolyten“ in„schlechten“ Lösungsmitteln. Dasklingt nach einer Nische für Forscher,die vor nichts zurückschrecken, istaber ein wichtiges Gebiet. Bislangkonnten weder Experimente noch

theoretische Modelle ge-nau klären, was denneinzelne Polymerkettenin solch einem schlech-ten Lösungsmittel treiben. In seinerDoktorarbeit versuchte Limbach,Licht in dieses Dunkel zu bringen.Abbildung 2 zeigt an einem Bild ausseinen Simulationen, wie kompliziertso eine Polymerlösung ist.

Polyelektrolyte sind im Gegensatzzu normalen Polymeren in dem Lö-sungsmittel unserer Umwelt lösbar:dem Wasser. Deshalb verwundert esnicht, dass viele lebenswichtige Bio-moleküle Polyelektrolyte sind, dar-unter die DNS und nahezu alle Pro-teine (Eiweiße). Künstlich hergestellt,machen sie zum Beispiel umwelt-freundliche Dispersionsfarben was-serlöslich, stabilisieren Lebensmitteloder sorgen dafür, dass der Körperpharmazeutische Wirkstoffe aufneh-men kann. Schon im Babyalter be-gegnen uns Polyelektrolyte als ex-

trem saugfähige„Superabsorber“ inWindeln.

Auf Wasser oderandere „polare“ Lösungsmittel rea-gieren Polyelektrolyte wie Salze. IhreKetten spalten an bestimmten Stellenelektrisch geladene Atome – die Ge-genionen – ab und laden sich dortentgegengesetzt auf. Die Gegenionenumschwirren das Molekül wie einSchwarm aufgeregter Bienen. Dieelektrischen Ladungen erzeugenstarke elektrische „Coulomb“-Felder,die sehr weit reichen und sich viel-fach überlagern. Im Bild derGrößenskalen wirken diese Kräftevon der Mikrowelt der Ionen bis hin-auf zur Makroskala.

Weil die Coulomb-Kräfte alle Ska-len durchdringen und sich auchnoch zu einem kompliziert geform-ten, fluktuierenden Gesamtfeld über-lagern, versagt der Simulationsan-satz, der bei neutralen Polymeren er-

HochleistungsRECHNEN

30 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

wie die DNS, die den genetischenCode trägt, und Kunststoffe (sieheMAXPLANCKFORSCHUNG 3/2001, S.52ff). Ihr Bauplan ist simpel: Immergleiche molekulare Grundbausteine,die Monomere, reihen sich in einerKette aneinander, deren Länge starkvariieren kann. Die Größe der Mo-leküle sorgt aber für komplexe Ei-genschaften. Allein schon die Viel-falt an Gestalten, die „Konformatio-nen“, die so eine Polymerkette an-nehmen kann, fordert die Forscherheraus. Die Kette enthält viele che-mische Bindungen, die sich wie Ge-lenke oder Scharniere bewegen kön-nen. Eine Computersimulation mussdeshalb meistens in einer „Anlauf-phase“ zuerst viele mögliche Konfor-mationen eines Moleküls erzeugen.Erst danach simuliert sie die zu er-forschende Situation.

„Mit Papier und Bleistift,“ so Kre-mer, lassen sich diese komplexenSysteme nicht mehr berechnen. Auch

experimentelle Methoden kommennicht weit genug: Sie mitteln meistüber viele Moleküle hinweg und lie-fern keine unmittelbaren Daten überdas Verhalten eines einzelnen Mo-leküls. Dessen Kenntnis ist aber fürdie Forscher eminent wichtig, dennnur so können sie diese Systemewirklich verstehen. Computersimula-tionen bieten die Chance, diesenblinden Fleck zwischen Experimentund Theorie aufzuhellen.

FASZINIERENDE LÖSUNGEN

SCHLECHTER QUALITÄT

Die Welt der makromolekularenMaterie wird vom Gesetz der Skalenregiert. Die großen Moleküle sindWechselwirkungen auf sehr unter-schiedlichen Größen- und Zeitska-len ausgesetzt. Abbildung 1 (oben)„zoomt“ sich von der makroskopi-schen Skala (links) bis hinein in diemikroskopische Skala winziger, sub-atomarer Strukturen (rechts). Dazwi-

SCHWERpunkt

Superrechner spielt mit Perlenketten und flüssigen Kristallen

Wie sich Polymere in unterschiedlichen Lösungen verhalten und welche Strukturen

sie dabei ausbilden: Diese Frage beschäftigt Wissenschaftler an der Theorie-

Abteilung des Mainzer MAX-PLANCK-INSTITUTS FÜR POLYMERFORSCHUNG,

die von PROF. KURT KREMER geleitet wird. Das wichtigste Werkzeug der Wissen-

schaftler ist ein leistungsfähiger Computer, mit dem sich das „Glasperlenspiel“

der atomaren und molekularen Bausteine gelöster Polymere simulieren lässt.

„Die große Vision ist das integrierte Strukturdesign“,

blickt Kurt Kremer in die Zukunftseines Forschungsgebiets: „Dabeiwürde das Experiment direkt mit ei-ner Simulation verknüpft werden,welche die Bildung und das Verhal-ten komplexer, nanoskopischerStrukturen verfolgt und auch steu-ernd eingreift. Das Ergebnis wäre einMaterial nach Maß.“ Kremer wagt al-lerdings keine Prognose, wann daseinmal möglich sein wird. Die Theo-rie-Abteilung des Max-Planck-Insti-tuts für Polymerforschung arbeitetjedenfalls an ihrer Verwirklichung.Junge Nachwuchswissenschaftler wieHans Jörg Limbach und Thomas Sod-demann simulieren das Verhaltenvon komplexen Systemen aus großenPolymer-Molekülen: Dafür bedienensie sich des Parallelrechners Cray T3Eam Rechenzentrum der Max-Planck-Gesellschaft in Garching. Zu den Po-lymeren zählen große Biomoleküle AL

LEAB

B.: M

PI F

ÜR

POLY

MER

FORS

CHU

NG

L 100A - 1000A

Makroskopisch

Domänen etc.

Mesoskopisch

L 10A - 50A-8 -4

Entropie dominiert

T 10 - 10 sec

Semi-Makroskopisch

T 0 (1 sec)

2

CH2

CH2 CH2CH2

CH2

CH2CH2CH2

Subatomar

elektronische Struktur

chemische Reaktionen

Anregungen

-13

CH

Mikroskopisch, atomar

L 1A - 3A

T 10 sec

Energie dominiert

Finite-Elemente-Methode Mesoskopisches Modell Atomistische Simulation Quantenchemie

Abb. 1: Die obere Reihe zeigt verschiedene Skalen vom Makroskopischen bis zum Subatomaren (L: Längen, Å: Ångström, T: Zeit). Die untere Reihe zeigt Grafikenaus den Simulationsmodellen zu den Skalen. Die Finite-Ele-mente-Methode berücksichtigtkeine molekularen Strukturen.

Page 17: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 33

HochleistungsRECHNEN

32 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

sammeln sich um dieKette und schirmendie elektrischen Fel-der und damit die re-

pulsiven Kräfte teilweise ab. Imschlechten Lösungsmittel Wasser ge-winnen auf diese Weise andere, at-traktive Kräfte die Oberhand, welchedie Kette zusammenziehen wollen.Dieses Wechselspiel verändert nichtnur die Länge der Kette, sondernauch ihre Gestalt. Limbach konntezeigen, dass Polyelektrolyte in Lö-sungen mit eher schlechter Quali-tät wie eine Perlenkette aussehen(Abb. 4). In jeder „Perle“ ballen sichviele Monomere zusammen. Die Ge-genionen sind in der Simulation alsgelbe Kügelchen dargestellt.

In sehr stark verdünnten Lösungendominieren die repulsiven Kräfte, und die Molekülketten strecken sich(Abb. 3). Nur an ihren Enden ist dieattraktive Kraft groß genug, um klei-

ne Perlen zu bilden. Wächst die Kon-zentration der Lösung und damit dieZahl der Gegenionen in der Nähe derMolekülketten, dann entstehen gutausgeprägte Perlenketten (Abb. 4).Die Perlenketten existieren so lange,bis die Konzentration der Gegenionenzu hoch wird. Dann klumpt sich dieKette zu einem kompakteren Gebildeohne Perlen zusammen (Abb. 5).

UNTER ZUGZWANG

ENTSTEHEN PERLEN

Limbach untersuchte auch die Re-aktion einer Perlenkette, deren En-den um einen winzigen Bruchteil derMoleküllänge auseinander gezogenwerden: „So kann man zum Beispieldas Verhalten von Hydrogelen besserkennen lernen: Was passiert mit ih-rer Kettenkonformation, wenn siequellen?“, fragt der Forscher. Abbil-dung 6 zeigt das Ergebnis am Bei-spiel einer „zweiperligen“ Kette. Un-

folgreich ist: Die For-scher können nichtmehr zuerst saubergetrennt einzelne Mo-delle für jede beteiligte Skala vomComputer berechnen lassen lassenund sie danach verknüpfen. ZumGlück half Limbach ein speziellesmathematisches Verfahren, die Bei-träge der einzelnen Ionen zum Ge-samtfeld zu entflechten. Diese Einzel-beiträge konnte er dann auf der CrayT3E parallel berechnen und so dieRechenzeit erheblich verkürzen.

Der Mainzer Forscher simuliertePolyelektrolyte in verschiedenen Lö-sungen systematisch von schlechterbis besserer Qualität. Sitzen bei-spielsweise auf der Polyelektrolytket-te in der Lösung gleiche Ladungen,dann stoßen sie sich ab. Unter diesen„repulsiven“ Kräften möchte sich dieKette strecken. Doch nun kommendie Gegenionen ins Spiel: Sie ver-

ter Zug wächst auf Kosten der äuße-ren Perlen in der Mitte der Kette eineneue Perle heran (dazu gibt es einVideo unter http://www.mpip-mainz.mpg.de/~pep/movies/pearls.mpg).

Nach dem Zeitaufwand für einegrößere Simulation befragt, schätztLimbach: „Das braucht schon einenMonat für die Vorbereitung, einenMonat für die eigentliche Simulationund einen Monat für die Auswer-tung der Daten.“ Der Wissenschaftlermuss also fast schon den langenAtem von Herrmann Hesses Glas-perlenspielern haben.

„Fast alle Flüssigkeiten sind beigenauem Hinsehen komplex“, kom-mentiert Kurt Kremer das For-schungsgebiet, auf dem ThomasSoddemann promovierte. Ein Bei-spiel für komplexe Flüssigkeiten sind„lamellare Systeme“, weil sich ihreMoleküle innerhalb von Domänen zulamellenartigen Schichten ordnen

können. Dazu trägt die zigarrenför-mige Gestalt der Moleküle bei. We-gen ihrer chemischen Eigenschaftenheißen sie auch Amphiphile, weil sie– salopp gesagt – „beides“ lieben.

CHEMISCHE FESSEL

BINDET UNGLEICHE PAARE

Ein gutes Beispiel dafür sind Sei-fen. Deren Moleküle haben ein was-serliebendes und ein fettliebendesEnde. In Wasser bilden sie Membra-nen aus zwei Molekülschichten. Sokönnen sie ihre fettliebenden Köpfeim Inneren der Membran vor demWasser verstecken. Diese Systemesind einfache Modelle für biologi-sche Membranen, die Zellen oderZellorganellen umschließen – unddeshalb wissenschaftlich hoch inter-essant. Ein weiteres System, auf dasSoddemanns Modell anwendbar ist,sind Flüssigkristalle. Flüssigkristall-Moleküle können ebenfalls geordne-

te Domänen in der flüssigen Phaseausbilden. Elektrische Felder könnendiese Domänen umorientieren. Sosteuern Flüssigkristall-Displays ihreLichtdurchlässigkeit.

Für die Mainzer Forscher spielt eindrittes System eine zentrale Rolle. Essind Schmelzen aus „Diblock-Copo-lymeren“. Das sind Makromoleküle,die aus zwei verschiedenen Polyme-ren bestehen. Unterhalb einer be-stimmten Temperatur verträgt sichdas ungleiche Paar schlecht undmöchte sich wie Öl und Wasser inverschiedene Phasen scheiden. Dochdie starke chemische Bindung zwi-schen ihnen zwingt sie, zusammenzu bleiben. So trennen sie sich nurleicht in „Mikrophasen“ auf, diehoch geordnete, dreidimensionaleNanostrukturen bilden können.

Lamellare Systeme zeichnet alsoaus, dass sie auch im flüssigen Zu-stand Zonen mit relativ hoher Ord-

Abb. 2, links: Ausschnitt aus dem Simulationsmodell für eineverdünnte Lösung. Es enthält 32 Polyelektrolytketten zu je-weils 200 Monomeren und 3200 abgespaltene Gegenionen(gelbe Kugeln), insgesamt also9600 Teilchen. Rechts das glei-che System bei größerer Dichte.Die enger zusammen gerückten Polymere sind hier unterschied-lich angefärbt und die Gegen-ionen ausgeblendet.

Konformation von Polyelektrolytketten in Lösungschlechter Qualität für unterschiedliche Konzentrationvon sehr gering (Abb. 3) bis relativ hoch (Abb. 5). Die Perlenkettenstruktur in Abb. 4 sind ein Kompromisszwischen der Coulombabstoßung der geladenen Kettenbausteine und der Tendenz der Ketten, im Lösungsmittel schlechter Qualität auszufallen.

Abb. 4Abb. 3

Abb. 5

Page 18: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 35

HochleistungsRECHNEN

geneinander laufen. Thomas Sodde-manns Simulationsmodell erlaubtezum ersten Mal einen genauen Blickauf das Verhalten einzelner Mo-leküle. So konnte es grundlegendetheoretische Modellvorstellungen be-stätigen. Es wird in Zukunft sicherweiter erfolgreich eingesetzt werden.

Das maßgeschneiderte Materialaus dem Molekülbaukasten wird si-cher noch lange eine Zukunftsvisionbleiben. Doch die Beispiele ausMainz zeigen, dass Forscher mitFantasie, Geduld und High-Tech-Ausrüstung schon weit in die nochunerschlossene Welt großer Molekülevorstoßen können. ROLAND WENGENMAYR

34 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

nung besitzen können. Um das zuerforschen, sperren die Experimenta-toren sie zum Beispiel zwischen zweiFlächen ein, die einige wenige Milli-meter Abstand haben. Dann ver-schieben sie diese Flächen gegenei-nander und üben so eine „Scher-kraft“ auf die Flüssigkeit aus. Diesebildet lamellelare Muster, derenStruktur von der Geschwindigkeitund Auslenkung der Scherung, der„Scherrate“ abhängt. Aus dem Zu-sammenhang zwischen Musterbil-dung und Scherrate versuchen dieForscher, etwas über das Zusammen-spiel der Moleküle zu lernen.

ZUSAMMENSPIEL VON

EINER MILLION MOLEKÜLEN

Auch hier kann eine Computersi-mulation auf Basis einzelner Mo-leküle die Wissenschaftler klügermachen. „Wir können das Scherver-halten lamellarer Systeme mit einer

SCHWERpunkt

Million Amphiphilen simulieren“, er-läutert Kremer. Experimente zeigen,dass sich in komplexen Flüssigkeitenso genannte Scherbänder ausbildenkönnen, die durch scharfe Grenz-flächen getrennt sind. Thomas Sod-demann konnte diesen Effekt in einer Simulation auf Einzelmolekül-Basis nachbilden.

Abbildung 7 zeigt eine solche Si-mulation mit fast einer Million Am-phiphilen. Anfangs ist das Systemstark ungeordnet. Es besteht aus vie-len sehr kleinen Bereichen, in denendie Orientierung der Lamellen unter-schiedlich ist. Lässt der Computer ei-ne Scherung darauf wirken, dannverändert sich das Bild. Abbildung 7(Mitte) zeigt, wie Zonen hoher Ord-nung entstehen, die sich durch Zo-nen niedriger Ordnung trennen. Beidreifacher Scherrate wird die Tren-nung schärfer (rechts). Es entwickelnsich Scherbänder, die als Ganzes ge-

AN Z E I G E

Abb. 7: Simulation eines lamellaren Systems aus einer Million Amphiphilen. Es sind gut die blau und gelbeingefärbten Flüssigkeits-lamellen zu erkennen (links). Bei einer gewissen Scherratebildet das lamellare SystemScherbänder aus (Mitte), die sich mit wachsenderScherrate schärfer von- einander trennen (rechts).

Abb. 6: Oben eine Perlenkettevor dem Ziehen, unten danach.

Page 19: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 37

HochleistungsRECHNEN

36 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

Mehr als die Hälfte seiner Ar-beitszeit steht Frank Jenko in

der Warteschlange. Allerdings nichtpersönlich, sondern mit seinem Pro-gramm: Es ist einer der größten„Jobs“, die am Rechenzentrum Gar-ching laufen. Würde es ohne Unter-brechung von Anfang bis Endedurchgerechnet, dann hätte der leis-tungsfähigste Garchinger Supercom-puter – die Cray T3E, die 470 Milliar-den Rechenschritte pro Sekunde aus-führen kann – viele Tage und Nächtelang nichts anderes zu tun. Da aberJenko nicht der einzige Nutzer derAnlage ist, erhält er immer dann,wenn er an der Reihe ist, sechs Stun-den Rechenzeit. Danach muss er sichwieder hinten anstellen.

Die gigantische Rechnerei dient ei-nem hohen Zweck: Sie soll helfen, einfunktionierendes Fusionskraftwerk zukonstruieren, das über die Verschmel-

zung von Deuterium und Tritium En-ergie liefert. Dieser Mechanismus, derauch die Sonne zum Glühen bringt,könnte – wenn er sich zähmen ließe –künftig einen wichtigen Beitrag zurEnergieversorgung der Welt leisten.Seit Jahrzehnten arbeiten Forscherrund um den Globus an diesem Ziel.In riesigen Anlagen heizen sie Was-serstoffgas auf Millionen von Gradauf. Das dabei entstehende Plasma(ein Gemisch aus Atomkernen undElektronen) versuchen sie durch Mag-netfelder einzuschließen: Dies ist dieeinzige Möglichkeit, das heiße Plasmavon den kalten Wänden eines Ge-fäßes fern zu halten.

Am erfolgreichsten liefen bisherAnlagen nach dem so genannten To-kamak-Prinzip: In einem Torus – derForm nach ein Mittelding zwischenSchwimmreifen und Gugelhupf – istdas Plasma gefangen und wird durch

Am MAX-PLANCK-INSTITUT FÜR PLASMAPHYSIK in Garching

bei München simuliert DR. FRANK JENKO Plasmaturbulenzen,

die im „Brennraum“ eines Fusionsreaktors auftreten, mit Hilfe eines

Computers. Auf diese Weise will der Forscher die „Lecks“ aufspüren,

über die das 100 Millionen Grad heiße Gas seine Energie verliert.

Der Herr der Wirbel

Plasmadichte

Plasmatemperatur

ASDEX Upgrade

FOTO

: MPE

/ESA

Das Plasmagefäß des Gar-chinger FusionsexperimentsASDEX Upgrade (links). Tur-bulente Schwankungen vonPlasmadichte und -tempe-ratur führen zu relativ hohenLeckraten. Computersimu-lationen sollen helfen, dieseskomplizierte Phänomen besser zu verstehen (oben).

Das Plasmagefäß des Gar-chinger FusionsexperimentsASDEX Upgrade (links). Tur-bulente Schwankungen vonPlasmadichte und -tempe-ratur führen zu relativ hohenLeckraten. Computersimu-lationen sollen helfen, dieseskomplizierte Phänomen besser zu verstehen (oben).

FOTO

/ ABB

.: M

PI F

ÜR

PLAS

MAP

HYS

IK

Page 20: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 39

HochleistungsRECHNEN

38 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

wie das kapriziöse Plasma sich imInneren des Magnetfeldkäfigs ver-hält. Man weiß aus der klassischenPhysik, dass die geladenen Teilchenin Spiralbahnen um die Feldlinienkreisen, und man kann berechnen,wie oft sie miteinander zusammen-stoßen. Diese Stöße sind zu einemTeil dafür verantwortlich, dass so-wohl Materie als auch Energie – un-erwünschterweise – quer zu den Feld-linien entweichen.

Doch weit wichtiger ist offenbarein anderer Mechanismus: KleineWirbel, Physiker sprechen von Tur-bulenzen, sind vermutlich schulddaran, dass die Energie, die man insPlasma hineingesteckt hat, so raschwieder nach außen verloren geht. Be-reits nach einigen Zehntelsekundenmuss mühsam nachgeheizt werden –eine teure und auch physikalisch un-befriedigende Angelegenheit. Ausdiesem Grund liegt den Plasmaphy-sikern viel daran, aufzuklären, wiediese Turbulenzen entstehen und sichentwickeln: Wenn das gelingt, könnteman versuchen, diese Wirbel und ihreunliebsamen Folgen zu unterdrückenoder wenigstens zu dämpfen.

Jeder kennt das Phänomen: Fließtein Bach träge zu Tal, zeigt seineStrömung nur wenige Unregel-mäßigkeiten. Der Physiker nennt die-se Strömung „laminar“. Legt man alsHindernis einen Stein ins Wasser,umfließt ihn das Wasser ganz glatt.Ist das Gefälle stärker und fließt derBach schneller, zeigen sich hinterdem Stein Wirbel. Sie sind aber rela-tiv stabil und halten sich meist anderselben Stelle. Doch mit zuneh-mender Strömungsgeschwindigkeitlösen sich diese Wirbel ab und trei-ben den Bach hinunter – das Ge-schehen wird unübersichtlich. ImExtremfall besteht das Wasser aus

einen Ringstrom sowie elektromag-netische Wellen aufgeheizt. Mehr als200 Millionen Grad hat man so bei-spielsweise im JET im britischen Cul-ham schon erreicht, und es ist gelun-gen, das Plasma für einige Sekundeneinzuschließen. Auch am Max-Planck-Institut für Plasmaphysik inGarching steht ein Tokamak, der AS-DEX-Upgrade. Dort arbeitet FrankJenko.

ENERGIE LÄSST SICH

NICHT HALTEN

Das Prinzip, nach dem man in sol-chen Anlagen Energie gewinnenwill, besteht darin, das heiße undausreichend dichte Plasma so langezusammenzuhalten, dass in seinemInneren genügend Wasserstoffkernekollidieren und zu Helium ver-schmelzen. Bei jeder derartigen Fusi-on entsteht ein schnelles Neutron,das nach außen wegfliegt. Bremstman es in einer Gefäßhülle aus ge-eignetem Material ab, kann man sei-ne Energie in Wärme verwandelnund technisch nutzen. Das A und Oeines Fusionskraftwerks besteht alsodarin, im Plasma eine sehr hoheTemperatur für eine möglichst langeZeit aufrecht zu erhalten.

Fakt ist bislang leider, dass sichdas Plasma bis zu tausendmal ra-scher abkühlt als ursprünglich er-wartet. „Diese anomalen Energiever-luste stellen eines der größten Pro-bleme bei der Entwicklung von Fusi-onskraftwerken dar“, sagt Jenko, „dadie erhöhten Verluste nur kompen-siert werden können, indem man dieAnlagen größer und damit teurerbaut.“ ASDEX-Upgrade, als größtedeutsche Fusionsanlage, ist bei-spielsweise neun Meter hoch undenthält 14 Kubikmeter Plasma; dergeplante Internationale Experimen-talreaktor ITER soll noch weitausgrößer werden und mehr als 800 Ku-bikmeter Plasma umschließen (MAX-PLANCKFORSCHUNG 3/2000, S. 83).Gelänge es, die Energieverluste zuvermindern, wäre dies ein unschätz-barer Vorteil.

Deshalb versuchen Experimenta-toren und Theoretiker zu verstehen,

ner mit 512 Prozessoren, die parallelarbeiten können.

So lief es auch bei Frank JenkosProgramm. „Wir mischen uns natür-lich nicht in die Physik und die Nu-merik ein“, betont Lederer, der für dieAnwendungsunterstützung verant-wortlich ist. Einer seiner Mitarbeiteroptimierte in monatelanger Kleinar-beit Jenkos Fortran-Programm für ei-ne schnelle Parallelverarbeitung.Fachleute sprechen bei diesem Vor-gang von „Performance Tuning“:Ähnlich wie Automechaniker aus ei-nem Rennwagen holen Spezialistenbei diesem Schritt alles an Schnellig-keit aus dem Algorithmus heraus,was möglich ist. So erfolgreich wardieses Tuning bei Jenkos Programm,dass gleich wieder neue Begehrlich-keiten entstanden. „Mit der Verkür-zung der Rechenzeiten kam natürlichbei den Physikern der Appetit auf

mehr, und so änderte und vergrößerteman das ursprüngliche Programmimmer weiter“, so Lederer.

Jenko kümmert sich bei seinen Be-rechnungen weniger um die Entste-hungsphase der Wirbel, sondern eranalysiert „die voll entwickelte Tur-bulenz“ und berechnet ihre statisti-schen Eigenschaften. Man hofft, da-raus Hinweise abzuleiten, wie mandie experimentellen Parameter desTokamaks so einstellen kann, dassdie entstehenden Turbulenzen mög-lichst gering bleiben. Das Ziel wärees, so Jenko, „eines Tages nicht nurPlasmaturbulenzen, sondern einenganzen Tokamak zu simulieren“.Dann ließe sich die Anlage inklusivePlasma optimieren, bevor sie über-haupt gebaut wird. Aber dazu müsstedie verfügbare Computerpower nocheinmal um mehrere Größenordnun-gen höher sein. BRIGITTE RÖTHLEIN

durcheinander strudelnden, wirbeln-den Bereichen, die sich unentwegtändern und vermischen: Die Strö-mung ist „turbulent“ geworden. DieBewegung eines bestimmten Wasser-teilchens scheint völlig unvorhersag-bar und zufällig geworden zu sein –der Bach stellt nun ein chaotischesSystem dar.

Derartiges Chaos herrscht in vielenBereichen: in kochendem Wasser, inLava, die sich aus einem Vulkan her-abwälzt, vor allem aber in den wir-belnden Luftmassen der Atmosphäre,die unser Klima bestimmen. Und sowie diese Luftwirbel die Wettervor-hersage extrem schwierig machen,erschweren die Plasmaturbulenzendie Prognose über das Verhalten ineinem Tokamak.

Jenko spürt den Plasmawirbelnnach, indem er sie auf dem Compu-ter simuliert. Damit hat er eine Herausforderung angenommen, diegigantisch anmutet: Der berühmteNobelpreisträger Richard Feynmannannte das Verständnis von Turbu-lenzen „das wichtigste ungelösteProblem der klassischen Physik“.Und der englische Physiker Sir Hora-ce Lamb, Autor eines Standardwerkszur Hydrodynamik, schrieb im Jahr1932: „Ich bin jetzt ein alter Mann,und wenn ich sterbe und in denHimmel komme, dann hoffe ich auf Erleuchtung in zwei Dingen. Das Erste ist die Quantenelektrodynamik,das Zweite die turbulente Strömungvon Fluiden. Was das Erste angeht,bin ich ziemlich optimistisch.“

EINE MILLIARDE ZELLEN

IM VIRTUELLEN PLASMA

Inzwischen hilft bei der Annähe-rung an das anspruchsvolle Ziel dierasante Zunahme der Leistungs-fähigkeit moderner Supercomputer.So kann Frank Jenko das virtuellePlasma in rund eine Milliarde winzi-ger Zellen aufteilen und für jede ein-zelne in kurzer Aufeinanderfolge dieStrömungsverhältnisse berechnen –etwa zehn Millionen mal für eineeinzige Sekunde des Plasmalebens.So entstehen Strukturen, die ausse-hen wie „winzig kleines Wetter“: mit

Hochs und Tiefs, mit Stürmen undFlauten, und das alles im Millimeter-maßstab. Entsprechend aufwändigsind die Berechnungen, denn dasPlasma und die elektromagnetischenFelder gehorchen in jeder Zelle kom-plizierten Gleichungen, und jede derZellen ist mit allen anderen Nach-barzellen verknüpft und beeinflusstdiese ihrerseits.

Besondere Programme erfordernbesondere Strategien: „Derart kom-plexe Probleme lassen sich kaummehr sequenziell abarbeiten“, sagtHermann Lederer vom GarchingerRechenzentrum, „wir unterstützendeshalb die Physiker bei der Paralle-lisierung ihrer Algorithmen“. Dahin-ter steckt die Überlegung, dass einProgramm den Computer umso effi-zienter zu nutzen vermag, je genaueres dessen Struktur angepasst ist. DieCray T3E beispielsweise ist ein Rech-

A NZEIGE

FOTO

: STE

FAN

IEG

RAU

L

Frank Jenko vor seinem Monitor, auf demturbulente Strömungen zu sehen sind.

Page 21: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 41

HochleistungsRECHNEN

40 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

Prozessoren puzzeln am Buch

des Lebens

Die vollständige Sequenzierung des Genoms selbst einfachster Organismen

wäre ohne Hochleistungscomputer unmöglich: Superrechner vergleichen kurze

Genschnipsel aus dem Sequenzierer und setzen die darin enthaltene Information

zu kompletten Genomen zusammen. Doch wenn es um die korrekte Zuordnung

der entdeckten Gene geht, schlägt die Erfahrung eines Experten die Rechen-

kraft der Parallelcomputer – wie die Arbeit von DR. STEPHAN SCHUSTER

am Tübinger MAX-PLANCK-INSTITUT FÜR ENTWICKLUNGSBIOLOGIE zeigt.

Das Buch des Lebens ist 44 Sei-ten dick. Zumindest das Ka-

pitel auf Stephan Schusters Schreib-tisch: 44 einzeilig beschriebene Sei-ten, eigentlich nur ein Stoß Papier.Trotzdem: „Ich habe eine Gänsehautbekommen, als ich es zum erstenMal in den Händen hatte“, sagtSchuster. „Auf diesen Seiten kannman in einem Organismus lesen wiein einem aufgeschlagenen Buch.“

Dabei könnte das, was auf denZetteln steht, kaum unscheinbareraussehen: Der Inhalt der Seiten erin-nert an eine Art Inventarliste einerchemischen Fabrik. Tatsächlich istdieser Eindruck gar nicht einmal sofalsch: Die Seiten enthalten eineAufzählung sämtlicher Eiweißstoffe,Enzyme und Membranproteine, mitdenen das Bakterium Wolinella suc-cinogenes in seinen verschiedenenLebensphasen aufwarten kann – ab-geleitet lediglich aus einer vollstän-digen Analyse des Genmaterials die-ses Organismus. Damit zeigen dieseSeiten, wie weit die Biologie inihrem Verständnis der belebten Na-tur inzwischen gekommen ist. Schu-ster: „Noch vor wenigen Jahrzehntenmussten Biologen von der äußerenErscheinung eines Lebewesens aufdessen Innenleben schließen, vomPhänotyp auf den Genotyp. Inzwi-schen stehen wir kurz davor, es um-gekehrt zu machen: Wir sind bald inder Lage, vom genetischen Bauplanauf die Eigenschaften eines Organis-mus zu schließen.“

Wer ist Stephan Schuster? Jahr-gang 1962, studierte der junge Wis- FO

TO: W

OLF

GAN

GFI

LSER

senschaftler zunächst Chemie an derTU München und später in Konstanz– und kultivierte von Anfang an einstarkes Interesse an der Arbeit seinerKollegen von der biologischen Fa-kultät. Nach der Diplomarbeit überein Thema aus der Heterocyclenche-mie entschied er sich, sein chemi-sches Know-how in den Dienst einerbiochemischen Arbeitsgruppe zustellen.

LABOR ALS DATENQUELLE

FÜR DIE EIGENTLICHE ARBEIT

Der Sprung in die Lebenswissen-schaften war schnell vollzogen: DiePromotion („Studien zum Flagellen-apparat von Wolinella succinoge-nes“) fertigte er bereits bei EdmundBäuerlein in Martinsried an, undnach einem Post-Doc-Aufenthalt amCaltech arbeitete er in der AbteilungMembranbiochemie am Max-Planck-Institut für Biochemie inMartinsried zusammen mit DieterOesterhelt am Genom eines Halo-bakteriums. Seit zwei Jahren leitetSchuster eine eigene Arbeitsgruppe(„Genomik und Signaltransduktion“)am Max-Planck-Institut für Ent-wicklungsbiologie in Tübingen, undwenn er Gäste durch die Laborato-rien seiner Mitarbeiter führt, merktman dem dynamischen jungen For-scher die Begeisterung für die Arbeitmit Bakterienkulturen und Sequen-zierern rasch an.

„Letztlich erzeugen wir im Laboraber nur die Daten, die wir für unse-re eigentliche Arbeit brauchen,“ sagtSchuster. Auf einem Bildschirm in

Stephan Schuster, Leiter der Arbeitsgruppe Genomik und Signaltransduktion am TübingerMax-Planck-Institut für Entwicklungsbiologie:

„In fünf bis zehn Jahren werden wir die Physio-logien der ersten Organismen erstmals nahezu

vollständig allein aus der Kenntnis ihrer Genomeableiten können. Diese Vorhersagen werden

aber noch auf lange Zeit durch biochemische Experimente verifiziert werden müssen.“

coli massiv parallel arbeiten, wäreSchusters Arbeit um einiges schwe-rer, in Zukunft sogar undenkbar.

Denn um im Genom eines Orga-nismus lesen zu können wie in demoffenen Buch, das auf SchustersSchreibtisch liegt, muss ein unge-heurer Aufwand getrieben werden.Das Zusammenpuzzeln der 2,1 Mil-lionen Basenpaare, die selbst einfa-che Organismen wie Wolinella succi-nogenes auf ihrem Chromosom tra-gen, ist – auch nach dem fulminan-ten Erfolg des Human-Genome-Pro-jects – immer noch alles andere alsein Spaziergang: Die Erbmolekülesind einfach zu groß, um sie Base fürBase, Buchstabe für Buchstabe zuentschlüsseln. Man muss sie daherzunächst in kleinere Abschnitte zer-legen, die man bequem analysierenkann. Das Problem ist, die Informa-tionen, die auf diesen Schnipseln co-diert sind, hinterher richtig zusam-menzufügen. Und das geht nicht oh-ne Computer.

Schuster bedient sich bei seinerArbeit der „Whole Genome Shot-gun“-Methode. Sein augenblickli-ches Forschungsobjekt ist wiederWolinella succinogenes – im Labor-jargon „Woli“ genannt. Woli ist eineArt guter Verwandter des Magen-geschwüre erzeugenden BakteriumsHelicobacter pylori: gleiche Familie,nur eben nicht pathogen. Um dasWolinella-Genom aufzuklären, zer-legen Schuster und seine Mitarbeiterdas Chromosom des Bakteriums ineiner Zentrifuge in zahllose Bruch-stücke, „Inserts“ genannt, und

seinem Büro erscheint ein Fenster,dessen linke Hälfte von einem un-übersichtlichen Buchstabenblock ein-genommen wird: Ein Ausschnitt ausdem genetischen Code eines Bakte-riums, das im Labor nebenan geradeanalysiert wird. Das Buch des Le-bens, erstes Kapitel. Stephan Schus-ter ist Bioinformatiker.

„Es gibt erstaunlich viele Paralle-len zwischen dem genetischen unddem digitalen Code, mit dem Infor-mationen in Lebewesen und Com-putern verschlüsselt sind“, sagt derWissenschaftler. „Ein Basenpaar imDNA-Molekül, also ein Buchstabedes genetischen Codes, nimmt imRechner ein Byte in Anspruch. Das

Genom eines einfachen Bakteriums –etwa 1600 Gene zu jeweils etwa1000 Basenpaaren – ist damit in un-seren Datenspeichern 1,6 Megabytegroß.“

Biologische Computer in der Petri-schale: Spätestens damit sind wirmitten im Thema. Denn ohne schnel-le Hochleistungsrechner, die wie E.

Stephan Schuster, Leiter der Arbeitsgruppe Genomik und Signaltransduktion am TübingerMax-Planck-Institut für Entwicklungsbiologie:

„In fünf bis zehn Jahren werden wir die Physio-logien der ersten Organismen erstmals nahezu

vollständig allein aus der Kenntnis ihrer Genomeableiten können. Diese Vorhersagen werden

aber noch auf lange Zeit durch biochemische Experimente verifiziert werden müssen.“

Page 22: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 43

HochleistungsRECHNEN

42 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

zeugt, gereinigt und „sequenziert“.Insgesamt erzeugen Schuster undsein Team so viele Inserts, dass mandas komplette Genom damit achtMal überstreichen könnte: Das ver-ringert die Chance von Lesefehlern.Wenn man nur genug dieser kurzenBruchstücke erzeugt, wird, so dasKalkül, irgendwann jede Stelle desErbmoleküls mindestens einmaldurch die Analysatoren gegangensein. Dann hat man einen Berg anlesbaren Puzzlestücken, die – richtigzusammengesetzt – das Wolinella-Genom ergeben.

EIN JOB FÜR SCHNELLE

SUPERRECHNER

Zum Zusammensetzen diesesWusts an genetischen Puzzlestückenbrauchen die Forscher den Compu-ter. „Durch die zufällige Zerschla-gung des Genoms zu Beginn entste-hen natürlich Bruchstücke, die sichin ihrem Informationsgehalt teilwei-se überschneiden. Aufgabe des Com-puters ist es dann, Inserts, die teil-weise gleiche Basenreihenfolgen tra-gen, zu erkennen und sie anhanddieser Übereinstimmungen zu grö-ßeren Sequenzen, so genannten Con-tigs zusammenzusetzen“, sagt Ste-phan Schuster.

Diese Aufgabe ist wie gemacht fürschnelle, parallel arbeitende Super-rechner, deren Prozessoren sich dasDurchmustern der digitalisiertenGen-Bruchstücke teilen. Die Rechnerverfügen über einen genügendgroßen Arbeitsspeicher, um die Ba-

senreihenfolge aller sequenziertenInserts und Contigs in ihrem Ge-dächtnis zu halten – und sie weisenvor allem genügend schnelle Daten-leitungen auf, um den extrem hohenDatenverkehr zwischen Prozessorund Speicher auch ausreichendschnell abwickeln zu können. Ver-netzte Personal-Computer wärentrotz ihrer inzwischen sehr schnellgewordenen Prozessoren insbeson-dere in diesen Disziplinen überfor-dert.

Am Wolinella-Genom arbeitet da-her zurzeit ein auf den Namen DAR-WIN getaufter Parallelrechner mitacht Prozessoren, 32 GigabyteHauptspeicher und 800 GigabyteFestplattenkapazität. Ins Leben geru-fen hat DARWIN neben StephanSchuster und seinem Chef-Informa-tiker Günter Raddatz ein ganzes For-scherkonsortium, an dem neben demGarchinger Hochleistungsrechner-spezialisten Hermann Lederer unddessen Mitarbeiter Andreas Schottauch Dieter Oesterhelt und sein Mit-arbeiter Friedhelm Pfeiffer von derAbteilung Membranbiochemie amMartinsrieder Max-Planck-Institutfür Biochemie sowie Folker Meyervon der Universität Bielefeld betei-ligt waren: Dieses Team stellte dienötigen Programmpakete zusammen,ohne die eine effiziente Analyse undZuordnung von Genomen nichtmöglich wäre – und stimmte dieProgramme in mühevoller Kleinar-beit aufeinander ab. Die Arbeit amWolinella-Genom ist die erste größe-re Bewährungsprobe für DARWIN.

Doch auch wenn ein Rechner dieharte Knochenarbeit beim großenTübinger Genom-Puzzle übernimmt:Der Mensch ist weiterhin gefragt.Zum Beispiel, wenn es darum geht,Lücken im Genom zu überbrücken.Wie in allen Organismen gibt esnämlich auch im Wolinella-Codelange Abschnitte, die nur aus Wie-derholungen ein und derselben Ba-senfolge bestehen, so genannte Re-peats. Wie kann man herausfinden,welche Inserts, deren Sequenzen miteinem Repeat enden, benachbartsind? Hier besteht die Gefahr, dass

der Computer diese Stücke falsch zusammenklebt – mit fatalen Folgen.Denn bringt man die Reihenfolge derGene im Genom durcheinander, ver-liert man wichtige Informationen,weil funktionell zusammenhängendeGene eben oft auch in räumlicher Nähe zueinander – in so genanntenOperons – auf dem Chromosom un-tergebracht sind.

Um dieses Problem zu lösen, grei-fen Schuster und sein Team zu einemTrick: Sie zerschneiden das Wolinel-la-Genom noch einmal. Diesmal jedoch nicht zufällig, sondern ge-zielt und in besonders große, etwa200 000 Basenpaare lange Abschnit-te, die man selbst mit den besten Se-quenzierern nicht mehr vollständiganalysieren kann. Diese so genann-ten BACs (Bakterielle artifizielleChromosomen) werden ebenfallsdurch E. coli vervielfältigt. Anschlie-ßend bestimmen Schusters Mitarbei-ter lediglich die Basenfolgen an denEnden dieser langen Ketten, jeweilsnur etwa 1000 Basenpaare – so viel,wie eben möglich.

KÜNSTLICHE CHROMOSOMEN

GEGEN DATENMÜLL

Der Clou: Die ermittelten Sequen-zen der Endstücke lässt Schustervom Computer ebenfalls in daswahrscheinliche Genom einpassen.Liegen die beiden Endstücke im Ge-nom-Modell des Computers, der„Consensus-Sequenz“, tatsächlich et-wa 200 000 Basenpaare auseinander,kann man davon ausgehen, dass dieGene, die der Computer dazwischenvermutet, trotz dazwischen liegenderRepeats tatsächlich an der richtigenStelle sitzen. Passt das lange BACnicht, stimmt etwas nicht – und dasGenom muss an dieser Stelle neu zu-sammengesetzt werden.

Doch trotz der auf den ersten Blickbestechenden Einfachheit dieses Ver-fahrens: Trivial ist es nicht. Denn einNanogramm einer BAC-Bibliothekenthält um den Faktor 100 wenigerMoleküle als eine typische Insert-Bibliothek; bei der kniffligen Ana-lyse dieser aberwitzig kleinen Sub-stanzmengen bewährt sich das

Chromosom3x

Abdeckung

statistische Fragmente

Konstruktion einer DNA Bibliothek

PhysiologieStoffwechsel, Pathways undFunktionen Proteine Gene und Genom

Zur Sequenzierung einesvollständigen Genoms nachder „Whole Genome Shot-gun“-Methode wird einChromosom in Zehntausen-de Bruchstücke zerlegt. Diese Bruchstücke werdenvervielfältigt und analysiert– für das Zusammensetzender dabei anfallenden In-formationen braucht manschnelle Computer.

Wolinella succinogenes ist eine Art „zahmer“ Verwandterdes Magengeschwüre verursachenden Bakteriums Helicobacter pylori. Das Helicobacter-Genom ist bereits sequenziert, die Analyse des Wolinella-Genoms wird in Tübingen gerade fertiggestellt. Ein direkter Vergleichbeider Genome kann wertvolle Hinweise auf die Ursache der Pathogenität der Helicobacter pylori geben.

Know-how des Chemikers Schuster.Dass Kollege Computer einen großenTeil der Puzzlearbeiten erledigt, heißtalso nicht, dass Menschen in Schu-sters Labor überflüssig sind – eherim Gegenteil: „Inzwischen sind mehrdenn je begabte Mitarbeiter gefragt,die helfen, die vom Computer gelie-ferten Ergebnisse einzuordnen“, sagtSchuster. „Selbst nach dem Erfolgdes Human-Genome-Projects bleibenGenomsequenzierungen auf Knopf-druck noch lange eine Utopie.“

Zwar ist das Wolinella-Genom in-zwischen bereits fast vollständig se-quenziert. Dennoch begann die ei-gentlich anspruchsvolle Arbeit erstvor kurzem, als Schuster und seineMitarbeiter sich anschickten, ihre

BACs lösen Probleme bei der richtigen Anordnung der Genomschnipsel. Lassen sie sich vom Computer so einpassen, dass im Consensus-Strang zwischen ihren Enden etwa 200 000 genetische Buchstaben liegen, war die Art und Weise, in der der Computer die dazwischen liegenden Inserts angeordnet hat, richtig.

Während man noch vor wenigen Jahren vom Phänotyp, also der äußeren Erscheinung eines Organismus, auf sein genetisches Innenleben schließen musste, macht die Bioinformatik allmählich das Umgekehrte möglich: Bei Bakterien können Genkarten zum Beispiel Ansätze für völlig neue Antibiotika liefern.

zierer erlauben, die Basenreihenfolgedes ursprünglichen, winzigen Stück-chens Wolinella-Genom zu ermitteln.

Das Verfahren mag weniger ele-gant erscheinen als die früher einge-setzte „Primer Walking“-Methode, inder man ein Genom ebenfalls inStücke schnitt, diese aber eins nachdem anderen in der richtigen Rei-henfolge untersuchte. Aber es istenorm leistungsfähig: Es lebt vonder Statistik und seinem hohenDurchsatz. Jeden Tag werden in Tü-bingen rund 1000 Genomstücke er-

Passt:Zuordnung der Inserts korrekt

Passt nicht:Zuordnung der Inserts falsch

Inserts

BAC

Consensus-Sequenz

Ohne Hochleistungscomputer wäre Schusters Arbeit nichtdenkbar. Dennoch: „Hier sind mehr denn je begabte Mitar-beiter gefragt, die die vom Computer gelieferten Sequenz-daten richtig interpretieren und einordnen können.“

schleusen diese in E. coli-Bakterienein, die das eingeschleuste Woli-nella-Genombruchstück vervielfälti-gen. Sobald die Coli-Bakterien imBrutschrank genug Kopien des ihnenuntergejubelten Genstücks produ-ziert haben, werden die vervielfältig-ten Inserts „geerntet“ und durch eineso genannte Cycle-Sequenzierung,einem der Polymerase-Kettenreakti-on stark verwandten Verfahren, wei-ter vervielfältigt. Dies geschieht mitHilfe von speziellen Bausteinen, diees einem nachgeschalteten Sequen-

FOTO

S: M

PI F

ÜR

ENTW

ICKL

UN

GSB

IOLO

GIE

(1) /

WO

LFG

ANG

FILS

ER(1

)

A BBI

LDU

NG

EN: R

OH

RER

NAC

HVO

RLAG

ENVO

NST

EPH

ANSC

HU

STER

, MPI

REN

TWIC

KLU

NG

SBIO

LOG

IE

Page 23: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 45

HochleistungsRECHNEN

dundanz des genetischen Codes mit3,6 Gigabyte sogar noch größer.

Innerhalb von Sekunden erschei-nen auf dem Bildschirm die Nameneiner Reihe von Enzymen aus ande-ren Organismen, deren dazugehörigeDNA-Basenfolge Ähnlichkeiten mitder zuvor eingespeicherten aufweist.„Der Datenbank zufolge handelt essich bei der Sequenz, die ich hiermarkiert habe, mit hoher Wahr-scheinlichkeit um das Gen für eineMethyltransferase“, sagt Schuster.„Es kann allerdings sein, dass diesesProtein in Wirklichkeit ganz andereAufgaben erfüllt. Das kann nur einFachmann erkennen. Das ist echteDetektivarbeit.“

Dennoch: Mit Hilfe des vom Com-puter zusammengerüttelten DNA-Schnipselwerks und den nahezu un-erschöpflichen Datenbanken hatSchusters Team seine „Wolinella-In-ventarliste“ zusammengestellt. Wersie mit der entsprechenden Liste despathogenen Woli-Verwandten Heli-cobacter pylori vergleicht, dem eröff-nen sich einzigartige Einblicke in dieintimsten Verwandschaftsverhältnis-se dieser beiden Organismen.

Auch dieser 1:1-Vergleich zweierLebewesen fällt allerdings wiederdenkbar profan aus: Auch hier wiedernichts als eine Liste, in der auf derlinken Seite die Helicobacter-Enzymeund auf der rechten die entsprechen-den Wolinella-Genprodukte stehen.Aber die Einträge haben es in sich.Schuster: „Helicobacter hat hier eineganze Reihe von Genen, die bishernoch keinem bekannten Enzym zuge-ordnet werden konnten – ein ganzesOperon in direkter Nachbarschaft zuGenen, deren Pathogenität bereits be-kannt ist. Dieselben Gene fehlen dernahe verwandten Wolinella. DieWahrscheinlichkeit ist groß, dass die-ser Genkomplex für die Pathogenitätvon Helicobacter pylori mitverant-wortlich ist.“ Ein Hinweis für Phar-makologen? Viel mehr! „Mit dementschlüsselten Bauplan in der Handkönnen wir ein Bakterium im Prinzipcharakterisieren, ohne es überhauptgesehen zu haben. Wir können sagen,wovon es sich ernährt und wahr-

44 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

Noch komplexer wird es, wenn esheißt, die vom Rechner zusammen-gesetzten Genomabschnitte einemGenprodukt, also einer Aufgabe, zu-zuordnen. Im Laufe der vergangenenJahrzehnte hat sich eine unglaub-liche Menge an Informationen überdie Proteine angehäuft, deren Bau-pläne die DNS letztlich enthält. Die-ser ungeheure Wissenspool ist fürSchuster und seine Kollegen gleich-zeitig Segen und Fluch.

ECHTE DETEKTIVARBEIT

AM MONITOR

Das wird klar, wenn StephanSchuster sich vor seinen Bildschirmsetzt, auf dem ein Ausschnitt aus derendlosen Buchstabenfolge der Ba-senfolge des Wolinella-Erbmolekülszu sehen ist. Schuster markiert einenetwa 2000 ACGT-Buchstaben langenBereich. „Wir machen jetzt eine Da-tenbankabfrage“, sagt er. Die Buch-stabenfolge geht über eine schnelleInternet-Leitung an eine Datenbank,die ebenfalls auf dem DARWIN-Rechner in Garching installiert ist.Hier sind die Baupläne von etwa800 000 Enzymen, Membranprotei-nen und sonstigen Eiweißstoffen, dieBiochemiker in den vergangenenJahrzehnten in mühsamer Kleinar-beit zusammengetragen haben, ge-speichert: 386 Megabyte Aminosäu-resequenzen. Die entsprechende Da-tenbank mit den dazugehörendenDNA-Basenfolgen ist durch die Re-

scheinlich sogar, wie man es bekämp-fen kann. Stellen Sie sich vor: Manentwickelt lediglich aus der Kenntnisdes genetischen Codes Angriffspunk-te völlig neuer Antibiotika!“

Und dann? Kann man mit diesenInformationen irgendwann neue Or-ganismen am Reißbrett entwerfen?„Vielleicht. Nach dem Zeitalter derGenetik folgt jetzt das Zeitalter derChemie. Der Schritt, der noch vor unsliegt, ist das detaillierte Verständnisund die Modellierung physiologi-scher Prozesse. In fünf bis zehn Jah-ren werden wir die Physiologie derersten Organismen erstmals nahezuvollständig allein aus der Kenntnisihrer Genome ableiten können. DieseVorhersagen werden aber noch auflange Zeit durch biochemische Expe-rimente verifiziert werden müssen.“

VOM BAKTERIUM ZUM

ZEBRAFISCH

Die ersten „gläsernen“ Organis-men werden sicher Bakterien sein,die trotz aller Komplexität doch im-mer noch recht einfach gestricktsind. Anders als bei Bakterien stecktdie detaillierte Aufklärung der äu-ßerst komplexen biochemischen Pro-zesse, die Wachstum und Erschei-nung höherer Lebewesen bestimmen,noch in den Kinderschuhen. Um siebesser zu verstehen, muss man Lebe-wesen untersuchen, die einfach ge-nug sind, um sie studieren zu kön-nen, und komplex genug, um ausdem daraus Gelernten Schlüsse zumBeispiel auf Erbkrankheiten desMenschen ziehen zu können.

Ein Lebewesen, das für diese ArtForschung besonders geeignet ist, istder Zebrafisch: Er ist, zusammen mitder Fruchtfliege Drosophila melano-gaster, für die Entwicklungsbiologenum Christiane Nüsslein-Volhard das,was für die Molekulargenetiker dieEscherichia coli und für die Pflan-zengenetiker die Arabidopsis ist:buchstäblich ein universelles „Ar-beitstier“, an dem man bereits eineganze Menge über die Entwicklungder Wirbeltiere vom Ei bis zum aus-gewachsenen Individuum gelernthat. Inzwischen hat man zum Bei-

spiel für alle Formen angeborenerHerzfehlbildungen beim Menschenentsprechende Zebrafisch-Mutantenerzeugen können. Die Gene, die fürdiese Defekte verantwortlich sind,sind dennoch vielfach noch nichtbekannt, die Suche nach ihnen istschwierig und zeitaufwändig.

Ihre Enttarnung wird leichter,wenn das Zebrafisch-Genom einmalvollständig sequenziert ist. Diesesehrgeizige Ziel hat sich daher ein in-ternational zusammengesetztes For-scherteam unter Federführung desbritischen Sanger-Zentrums gesetzt;auch die Max-Planck-Gesellschaftund die Deutsche Forschungsgemein-schaft beteiligen sich an diesem Pro-jekt. Bei der Zebrafisch-Sequenzie-rung dürfte die von Stephan Schusterkultivierte Methode der Unterstüt-zung durch BAC-Bibliotheken voll-ends zu Ehren kommen, denn dieProbleme, die sich bei der Sequen-zierung von Bakteriengenomen an-deuten, potenzieren sich bei den viel komplexeren Wirbeltieren – viele Repeats, redundanter Datenmüll.„Wir werden insgesamt etwa 200 000BAC-Endsequenzen analysieren“, sagtSchuster, „und damit für die gutePassform der vom Sanger-Centeranalysierten Inserts auf dem Zebra-fisch-Genom sorgen“.

Aber das ist noch nicht alles: Wenndie BACs einmal vorliegen, werdeneinige davon obendrein einzeln nachder Shotgun-Methode zerstückeltund sequenziert – zusammen kom-men damit rund 22 000 separate Se-quenzierungsprojekte auf die Zebra-fisch-Forscher zu. Insgesamt wird das

Computerprogramme helfen den Bioinformatikern, die Basenfolgen der durch das Zerschlagen eines kom-pletten Genoms erhaltenen Bruchstücke, „Inserts“ genannt,nach deren Analyse zu einer korrekten Genomsequenz, dem „Consensus“, zusammenzusetzen. „Sichere“ Basen sind hier groß, „unsichere“ klein gedruckt.

Auch bei der Zuordnung von Genen zu Genprodukten wie etwa Enzymen greifen Biochemiker heute auf Parallel-rechner zurück. Um bekannte Proteine zu finden, für die ein einmal sequenziertes Gen codieren könnte, müssen Datenbanken mit bis zu 800 000 Einträgen durchsucht werden. Die Bewertung der am besten passenden Treffer ist allerdings dem Fachmann vorbehalten.

„Informationsverarbeitung vom Nass-in den Trockenbereich zu verlegen“,das heißt, die von den Sequenziererngelieferten Rohdaten auszuwerten.Auch dies geschieht zwar mittler-weile an Computer-Terminals, aberdie müssen bedient werden vonMenschen, die der fast endlosenBuchstabenfolge im Speicher einenSinn geben können.

So kann ein Computer im Prinzipnicht einmal die auf den ersten Blicksimple Frage, wo ein Gen anfängtund endet, in jedem Fall eigenmäch-tig entscheiden. Zwar verwendet dieNatur universelle Startcodes, zumBeispiel die Basenfolge ATG, die zei-gen: Ab hier folgt ein neues Gen.Aber die Genstücke aus dem Nass-labor können im Prinzip in beidenRichtungen abgelesen werden. Heißtes dann ATG oder GTA? Ein weiteresProblem: Woher soll der Computererahnen, ob es ATGTG oder ATGTGoder ATGTG heißt? So gibt es für jedes Genschnipselchen im Prinzipsechs verschiedene Ablesemöglich-keiten. Welche die richtige ist, kannnur der Experte – wenn auch unter-stützt durch leistungsfähige Soft-ware – entscheiden.

Projekt einen enormen Datensatz er-zeugen, der das Zebrafisch-Genometwa achtmal vollständig abdeckt.

Die Rechenleistung, die zur Bewäl-tigung dieses Datenbergs benötigtwird, ist enorm. Das Garchinger Re-chenzentrum hat für das Projektdenn auch bereits einen weiterenSuperrechner in der Hinterhand: ei-nen Digital-Boliden mit 6x32 Prozes-soren und 6x96 Gigabyte Hauptspei-cher – in der ersten Ausbaustufe.

Man darf also gespannt sein aufden Augenblick, in dem sich die Tü-binger Forscher das „Lebensbuch“des Zebrafischs auf ihre Schreibti-sche legen können. Aber auch, wennes bis dahin noch etwas dauern wird:Die ersten Erfolge haben sich bereitseingestellt. Denn die von Schusterund seinen Kollegen erzeugten BACslassen sich auch als Marker für „her-kömmliche“ genetische Experimentemit dem Zebrafisch verwenden. MitHilfe eines dieser BACs konnte eineTübinger Gruppe um Teresa Nicolsenkürzlich die genaue Position einesGendefekts lokalisieren, der beim Zebrafisch zu einer Störung desGleichgewichtssinns führt. Bei Men-schen und Mäusen führt eine Muta-tion am gleichen Gen zu Taubheit.So halten also schon die „Druckfah-nen“ des Zebrafisch-Lebensbuchs einige viel versprechende Überra-schungen bereit. STEFAN ALBUS

ABBI

LDU

NG

EN: M

PI F

ÜR

ENTW

ICKL

UN

GSB

IOLO

GIE

Page 24: MPF_2002_1  Max Planck Forschung

46 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 47

HochleistungsRECHNEN

s gibt noch Rät-sel in unserer aufgeklär-

ten Welt. Zu ihnen zählt dieFrage, wie es zu Supernovae

kommt, zu jenen Sternexplosionen, dieAstronomen hin und wieder beobachten.

Der Astrophysiker Prof. Wolfgang Hillebrandtund sein Team am Max-Planck-Institut für

Astrophysik in Garching versuchen, dieses Rätselmittels numerischer Simulationen zu klären.Man kennt sie schon lange: Sterne, die plötzlich am

Nachthimmel aufblitzen, für wenige Monate hell erstrah-len und dann wieder verlöschen. Die ältesten Zeugnisse

über solche „neuen Sterne“, überliefert von chinesischenAstronomen, stammen aus dem 11. Jahrhundert n. Chr. Auch

der dänische Astronom Tycho Brahe entdeckte 1572 eine Su-pernova, die man sogar mit bloßem Auge sehen konnte, und

Johannes Kepler beobachtete einen neuen Stern im Jahr 1604.Seit man systematisch nach diesen stellaren Katastrophen

sucht, indem man automatische Suchprogramme dafür einsetztund den Nachthimmel auf Veränderungen durchforscht, spürendie Forscher jedes Jahr mehr als 100 Supernovae in allen Regio-nen des Kosmos auf. Obschon diese Objekte oft nur als schwa-che Lichtpunkte erscheinen, zählen sie doch zu den spekta-kulärsten Ereignissen im Weltall. „Die Leuchtkraft einer Super-nova erreicht kurzfristig die einer ganzen Galaxie mit 100 Mil-liarden Sternen und ist damit so hell, dass man sie mit großenTeleskopen noch in einer Entfernung von Milliarden Licht-jahren beobachten kann“, erklärt Wolfgang Hillebrandt. DasLicht, das zu uns dringt, berichtet damit nicht nur über einlängst vergangenes Ereignis, sondern lässt sich auch zur

Vermessung des Universums heranziehen. Ein fernes Lichtpünktchen im Dunkel der Nacht –man kann sein Spektrum analysieren und seine

zeitliche Veränderung beobachten. Mehr Informa-tionen liefern auch die besten Teleskope nicht

über eine Supernova. Das Hauptproblem:Licht wird nur von den äußersten Zonen

eines Sterns ausgesandt. Was im In-neren passiert, bleibt verborgen,

weil die Materie der Sternemeist undurchsich-

tig ist.

„Im Fall einerSupernova dauert es ty-pischerweise mehrere Jahre,bis das Gas so weit expandiert ist,dass es durchsichtig wird“, sagt Hille-brandt. Und häufig seien ferne Supernovaedann schon so schwach, dass man sie kaummehr beobachten könne.

Trotzdem ist es Forschern gelungen, aus diesenwenigen Informationen plausible Modelle über dieVorgänge abzuleiten, die bei der Explosion dieser gi-gantischen Feuerkugeln ablaufen. Um diese Modelle zuprüfen, simulieren sie die Wissenschaftler im Computerund vergleichen diese „rechnerischen Explosionen“ mit denam Firmament tatsächlich beobachteten.

Inzwischen wissen die Forscher, dass es zwei Haupttypenvon Supernovae gibt: Der eine – aus historischen Gründennennt man ihn Typ Ia – entsteht dadurch, dass ein WeißerZwerg thermonuklear verbrennt. Im Inferno des explodierendenSterns wird seine Materie durch die Verschmelzung von Atom-kernen aufgeheizt; dabei entstehen schwere Elemente bis hinzum Eisen. Die gewaltige Explosion einer solchen Supernovatreibt deren gesamte Materie als heiße Wolke ins All hinaus.Derartige Phänomene wurden in der Tat beobachtet. Doch vieleSupernovae müssen grundsätzlich anders funktionieren, dennihr Licht ist spektral anders zusammengesetzt und von ihnenbleibt nach der Explosion im Zentrum ein Neutronensternoder gar ein Schwarzes Loch zurück. Man ordnet sie – jenach Beschaffenheit – den Typen Ib, Ic oder II zu.

Was macht diese andere Art von Supernova aus? Seit denfünfziger Jahren des 20. Jahrhunderts denken Forscherdarüber nach, und sie entwarfen eine Vielzahl von Mo-dellen, die sich aber zunächst nicht überprüfen ließen.Das änderte sich am 23. Februar 1987: Damalsleuchtete eine Supernova in der Großen Magellan-schen Wolke auf, nur knapp 170 000 Lichtjahrevon uns entfernt. Dieses Phänomen konnteman mit Neutrinomessungen verknüp-fen, die zur selben Zeit in aufwän-digen Experimenten in Italien,USA und Japan tief unterder Erde liefen. Esgelang

Das Inferno in mathematische Formeln fassen –

dieser Aufgabe widmen sich Forscher am MAX-

PLANCK-INSTITUT FÜR ASTROPHYSIK in Garching:

Sie simulieren den Ausbruch einer Supernova.

Supernovaplatzt im Computer

E

OptischeAufnahme des

Krebsnebels durchdas Very Large Tele-

scope der EuropäischenSüdsternwarte. Energie-

reiche Teilchen vom rasch rotie-renden Neutronenstern im Zentrum

regen das Gas zu bläulicher Strahlung an.

FOTO

: ESO

Page 25: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 49

HochleistungsRECHNEN

wie in einem brodelnden Kochtopf:Heiße Materie steigt in Blasen vonunten her auf, kühlere sinkt ab, unddas Ganze wabert wild durcheinan-der. Nun rast eine Feuerfront nachaußen, deren Wirbel für eine rascheDurchmischung und weitere Erhit-zung der äußeren Schichten sorgt.

Diese Vorgänge im Computer zusimulieren, ist extrem aufwändig.Will man den Energietransport durchNeutrinos und deren Wechselwir-kung mit dem stellaren Medium hin-reichend genau modellieren, mussman die ohnehin schon komplizier-ten Gleichungen, die die Dynamikder Sternmaterie beschreiben, nochmit entsprechenden Transportglei-chungen koppeln. Deren Lösung er-fordert mit einem Anteil von mehrals 90 Prozent die meiste Rechenzeit.„So sind selbst für Simulationen, dieden Stern als symmetrische, rundeKugel betrachten, bei jedem Zeit-schritt schon 10 Milliarden Rechen-schritte nötig“, erklärt der Astrophy-siker Markus Rampp.

Andererseits spielen in Typ Ia Su-pernovae Turbulenzen auf sehr un-terschiedlichen Längenskalen eineRolle, und die Forscher müssen vonHunderten von Kilometern bis hinabzu Millimetern variieren. Doch einenStern von 1000 Kilometer Durchmes-ser durchgängig im Millimetermaß-stab zu modellieren, würde jeden Su-percomputer überfordern. Die Gar-chinger Forscher modellieren des-halb Effekte auf kleinen Skalen nuran den Stellen, wo das nötig ist.Trotzdem sind die Rechenzeiten sehrhoch: Tage und Wochen benötigtbeispielsweise allein die Simulationder „Flammenfront“, die in einerthermonuklear getriebenen Superno-va nach außen brennt. „Ganz ähnli-che Vorgänge laufen übrigens imZylinder eines Verbrennungsmotorsab, auch wenn die physikalische Ur-sache, die dahinter steckt, völlig an-ders ist“, sagt Hillebrandt. „Unsere

48 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

schnitt nur ein einziges mit einemAtom des gesamten Erdballs“, sagtHans-Thomas Janka vom GarchingerMax-Planck-Institut für Astrophysik.Und so kamen die Wissenschaftler inHochrechnungen auf die unvorstell-bar große Zahl von insgesamt 1058

Neutrinos, die während der Explosi-on der Supernova in alle Richtungendes Raums abgestrahlt wurden. Ausdieser Tatsache zogen die Astrophy-siker den Schluss, dass bei diesemTyp Supernova die Neutrinos dertreibende Faktor sind.

ASTROPHYSIKER

ALS DREHBUCHAUTOREN

Die Erkenntnisse, die man inzwi-schen über Entstehung und Entwick-lung von Supernovae hat, zählen zumFaszinierendsten, was es in der Phy-sik gibt. Denn sie umfassen die klassi-sche Physik ebenso wie die Relati-vitätstheorie, die Quantenmechanikund Elementarteilchenphysik sowie –was Temperatur, Dichte und Druckbetrifft – die Beschreibung extremerZustände: Nichts ist hier mehr mit ir-dischen Maßstäben zu vergleichen,und Fantasie und Wagemut der Phy-siker sind aufs Äußerste gefordert.

So kristallisierte sich in den ver-gangenen Jahren ein Modell heraus,das Hans-Thomas Janka das „faszi-nierende Drehbuch einer Supernova“nennt. In Simulationsrechnungenmit dem Computer wurde diesesDrehbuch durchgespielt, bestätigtund auf dem Bildschirm sichtbar ge-macht: Das Innere eines alten, mas-sereichen Sterns stürzt unter derKraft der Gravitation in sich zusam-men, und es bildet sich ein Neutro-nenstern. Dabei entstehen Tempera-turen um die 100 Milliarden Grad.Im Inneren des Neutronensterns, ineinem Radius von nur einigen Dut-zend Kilometern, heizen Neutrinosdie Sternhülle auf. Wenige Hundert-stel Sekunden nach dem Kollaps desSterns herrschen dort Verhältnisse

Berechnungeneignen sich deshalbauch gut dazu, etwa dasVerbrennungsverhalten in einemWasserstoffmotor zu simulieren undvorherzusagen.“ Neben der Rechen-zeit ist auch der Bedarf an Speicher-platz gewaltig: Bis zu zweihundertGigabyte sind dafür nötig. Da reichtdie Cray T3E im Garchinger Rechen-zentrum oft nicht mehr aus, und soweichen Hillebrandt und seine Kolle-gen teilweise auf den Hitachi-Super-computer SR8000-F1 des Leibniz-Rechenzentrums der Akademie derWissenschaften in München aus.

DIE EIGENTLICHE

EXPLOSION VERPUFFT

Doch wird sich die Lage in Gar-ching bald verbessern. „Viele Insti-tute hatten gravierende Engpässebemängelt und die Beschaffung eines deutlich leistungsfähigerenNachfolgerechners beantragt“, sagtHermann Lederer vom Rechenzent-rum Garching. „Nach gründlichenMarkterkundungen und einer Aus-schreibung fiel die Entscheidung aufein IBM-Power-4-System mit ins-

gesamt überzwanzig Knoten.“

Jeder Knoten dieses Par-allelcomputers wird über 32 Prozes-soren und 96 Gigabyte Hauptspei-cher verfügen. Im Januar 2002 gin-gen die ersten sechs Knoten in Be-trieb, bis zum Ende des Jahres folgtder Rest. Dann wird wohl wieder fürkurze Zeit einer der weltweit größtenzivilen Rechner in Garching stehen.

Damit können auch die Astrophy-siker erneut nach Kräften rechnen –und vielleicht ein Problem lösen, das

sie bisher fast verzweifeln ließ. Sogut ihre Simulationen für die Super-novae vom Typ Ia funktionieren undmit den Beobachtungen am Himmelübereinstimmen – die neutrinoge-triebenen Supernova-Typen wollenbisher im Computer einfach nochnicht explodieren: „Die Energiereicht gerade dazu aus, um dieAtomkerne in den inneren Teilen derSternhülle in freie Protonen, Neutro-nen und Heliumkerne aufzubre-chen“, sagt Wolfgang Hillebrandt,„doch für die eigentliche Explosionbleibt nichts mehr übrig.“

Und so bleibt es spannend: DieForscher glauben, dass eine realisti-schere Simulation unbedingt dreidi-mensionale Rechnungen voraussetzt,will man die Physik richtig beschrei-ben. Hier fallen jedoch pro Durch-gang rund 1018 Rechenschritte an.Selbst auf den Supercomputern derkommenden Generation würde dieRechenzeit damit einige hundertStunden betragen, und das bei einemSpeicherbedarf von bis zu zehn Gi-gabyte pro Rechnerknoten: ein echt„astronomisches“ Rechenproblem.

BRIGITTE RÖTHLEIN

PREIS FÜR GOLMER FORSCHER

Wissenschaftler des Max-Planck-Instituts für Gravita-tionsphysik (Albert-Einstein-Institut) in Golm haben einProgramm entwickelt, das während einer Rechnung lau-fend die Netzwerkqualität überprüft, die Effizienz derauf verschiedene Computer verteilten Rechnung misstund die Daten zwischen den Superrechnern optimal ver-teilt. Diese Leistung wurde jetzt mit dem „Gordon-Bell-Preis“ ausgezeichnet. Mit ihm werden innovative Techni-ken zur Effizienzsteigerung von Computerapplikationengewürdigt.

„Immer anspruchsvollere Berechnungen in der Grund-lagenforschung erfordern immer leistungsfähigere Com-puter“, sagt Bernard Schutz, Direktor am MPI. „Wissen-schaftler sind daher darauf angewiesen, vorhandeneRechnerkapazitäten möglichst effektiv zu nutzen. Dazugehört auch das Grid-Computing: die weltweite Vernet-zung von Computern zwecks Nutzung ruhender Ressour-cen. Nach dem world wide web könnte das den nächstengroßen Fortschritt in der Verwendung des Internets bringen und künftig viel mehr Menschen Zugang zugroßen Rechnerkapazitäten ermöglichen.“

dort, Neutrinos zeitgleich mit demLicht der Supernova einzufangen: Dadiese winzigen, ungeladenen Ele-mentarteilchen mit Lichtgeschwin-digkeit fliegen, ließ sich daraus ablei-ten, dass sie ebenfalls von der beob-achteten Supernova stammten.

20 Neutrinos – das erscheint we-nig, ist aber viel angesichts der Tat-sache, dass diese Teilchen nuräußerst selten mit normaler Materiezusammenstoßen und sich damitkaum nachweisen lassen. „Von einerMilliarde Neutrinos, die durch dieErde fliegen, kollidiert im Durch-

Computersimulation der Explosion eines massereichen Sterns, rund 20 Minuten nach Beginn der Explosion. Das gezeigte Gebiet hat einen Durchmesser von 4,4 Millionen Kilometern. Links ist die Dichtedes Gases, rechts die Verteilung chemischer Elemente dargestellt.

Computersimulation einer thermonuklearen Supernova (Typ Ia). Die Einheit des Längenmaßstabs auf den Achsen

ist 100 Kilometer. Gezeigt ist die thermonukleare Flammen-front ungefähr eine halbe Sekunde nach der Zündung.

Schnitt durch einen kollabierten stellaren Eisenkern etwa eine Zehntelsekunde nach Beginn der Supernova-Explosion (Typ II). Die innere Kugel zeigt den

entstehenden Neutronenstern, die äußere Schale bei einigen 100 Kilometern markiert die Position der Stoßfront zu diesem Zeitpunkt. Die komplexen

Strukturen beschreiben konvektive Instabilitäten.

A BBI

LDU

NG

EN: M

PI F

ÜR

ASTR

OPH

YSIK

Page 26: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 51

HochleistungsRECHNEN

50 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

SCHWERpunkt

Ein Rechner mit einer Spitzenleistung von 100 Kiloflop/s (100 000 Gleit-

kommaoperationen pro Sekunde) und 128 KiloByte Hauptspeicher zählte vor

vierzig Jahren zur Weltspitze. Ein solches System vom Typ IBM 7090 war

1962 am INSTITUT FÜR PLASMAPHYSIK (IPP) installiert worden. Heute

verfügt die MPG über ein zehnmillionenfach leistungsfähigeres System: Soeben

wurde ein 1 Teraflop/s-System mit 0,6 TeraByte Hauptspeicher installiert.

Auf den Rechner im Jahr 1962 hatten auch andere Max-Planck-Institute Zugriff. Einen weiteren Rech-

ner dieses Typs gab es in der Bundesrepublik Deutschlandnoch am damaligen „Deutschen Rechenzentrum“ inDarmstadt. Sieben Jahre später wurde mit einem IBM360/91-Rechner eine Leistungssteigerung um zwei Grö-ßenordnungen erzielt, zu der das neuartige Pipelining-Konzept entscheidend beitrug. Der im Jahr 1969 am IPPinstallierte Rechner wurde wieder von anderen Max-Planck-Instituten, insbesondere der Astrophysik, mit ge-nutzt. In Europa verfügte noch die Atomenergiebehördein Frankreich über einen gleichartigen Rechner.

Weitere zehn Jahre vergingen, bis 1979 mit dem erstenCray-1-Rechner Kontinentaleuropas am RechenzentrumGarching (RZG) am IPP die Vektorrechnertechnologieihren Siegeszug antrat, die Plasma-, Teilchen- und Astro-

Wie die Flops laufen lernten

FOTO

: RZG

das 1986 aus dem Rechenzentrum des Max-Planck-Insti-tuts für Meteorologie hervorgegangen war, wurde 1987ein Cray-2-System installiert, das zu den weltweit leis-tungsfähigsten zählte.

Anfang der neunziger Jahre erfolgte dann der Auf-bruch in die neue Technologie des massiv-parallelenRechnens. Neben einer gravierenden Steigerung der Re-chenleistung konnte erstmals von sehr großen Haupt-speichern profitiert werden. Der Preis hierfür war die er-forderliche, aufwändige Entwicklung geeigneter parallelerProgramme, deren Komplexität die Vektorrechnerpro-gramme deutlich überstieg. Wieder stellte sich die Max-Planck-Gesellschaft früh den neuen Herausforderungen:von 1991 an mit einem 64-Prozessor-nCUBE2-Parallel-rechner am RZG und ab 1992 mit einem 32-Prozessor-KSR1-Parallelrechner bei der GWDG in Göttingen. Abdem Jahr 1995 konnte die neue Technologie in der Max-Planck-Gesellschaft mit einem Cray T3D/128-System, ab1996 einem Cray T3E-System (816 Prozessoren nachEndausbau) eingesetzt werden. Seitdem ist eine deutlicheAusweitung der Parallelrechnernutzung in den theore-

tisch orientierten Disziplinen zu beobachten. Aufgrund der weiterhin enormen Fortschritte der Rechnertechnolo-gien bietet dieses T3E-System, einst Platz 7 der Weltrang-liste (im Juni 1998), nach Jahren intensivster Nutzungheute nur noch sehr eingeschränkte Möglichkeiten für international wettbewerbsfähige Forschung.

Anfang 2002 wurde der erste Teil eines IBM-Nachfolge-systems mit 1 TeraFlop/s Spitzenleistung am RZG instal-liert, das bis zum Jahresende auf die zehnfache Leistungdes T3E-Systems ausgebaut werden soll. Auch am DKRZwurde Anfang 2002 mit dem Aufbau eines neuen NEC-Höchstleistungsrechners für die Klimaforscher begonnen.

Fortschritte in der Rechnertechnologie haben den Wissenschaftlern damit in den vergangenen vier Jahr-zehnten eine Leistungssteigerung um sieben Größenord-nungen beschert. Vergleichbare „Sprünge“ ergaben sichauf bestimmten Gebieten durch neue, effizientere Algo-rithmen. Die damit möglichen, immer komplexeren Simu-lationsrechnungen und „virtuellen Experimente“ habensich sehr fruchtbar auf die Fortschritte in der Wissen-schaft ausgewirkt. HERMANN LEDERER

IBM 7090, installiert 1962 am IPP, Garching (links), und IBM 360/91, installiert 1969 am IPP, Garching (rechts).

FOTO

: IPP

FOTO

: IPP

F OTO

: DKR

Z

physik beflügelte und sich in der Materialforschung zuetablieren begann. Diese Cray-1 war der erste Vektorrech-ner, welcher der freien Forschung zur Verfügung stand.Ein amerikanischer Gastforscher des Max-Planck-Insti-tuts für Astrophysik, Larry Smarr, nutzte 1982 begeistertdie guten Rechenbedingungen und beklagte die schlechteRechnerausstattung für zivile US-Forscher. Er initiierte1983 die Gründung nationaler Supercomputerzentrendurch die National Science Foundation.

Die Vektorrechnertechnologie beherrschte dann für na-hezu zwei Jahrzehnte das weltweite Supercomputing. Miteinem Cray XMP/2-System im Jahr 1986 und einem CrayYMP/4-System im Jahr 1991 (mit zwei beziehungsweisevier Prozessoren und gemeinsamem Arbeitsspeicher)folgten moderat leistungsfähigere Vektorrechner am RZG.Am Deutschen Klimarechenzentrum (DKRZ) in Hamburg,

Cray-1, installiert 1979 am RZG, Garching (links), und Cray-2, installiert 1987 am DKRZ, Hamburg (rechts).

Cray T3E. installiert 1997 am RZG, Garching (links), und IBM Regatta System, installiert 2002 am RZG, Garching (rechts).

FOTO

: RZG

F OTO

: IPP

Page 27: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 53

EntwicklungsBIOLOGIE

52 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FASZINATION Forschung

Bei dem Versuch, das Rätsel der Gestaltbildung zu lösen, stoßen die Wissenschaftler auf eine noch weitgehend

unbekannte Syntax für die embryonale Kommunikation. Am MAX-PLANCK-INSTITUT FÜR ENTWICKLUNGS-

BIOLOGIE in Tübingen sind DR. HERBERT STEINBEISSER und seine Kollegen aus der Abteilung von PROF.

PETER HAUSEN jetzt einen entscheidenden Schritt vorangekommen: Sie deckten einen Signalweg auf, der

maßgeblich an der Steuerung von Organisationsprozessen während der Embryonalentwicklung beteiligt ist.

Seit William Harvey im 17. Jahr-hundert bewies, dass das Ei der

Ausgangspunkt für die Entwicklungeines jeden Lebewesens ist, und An-tonie van Leeuwenhoek herausfand,dass Spermien bei der Fortpflanzungeine Rolle spielen, mühen sich dieEmbryologen, das Geheimnis der Ge-staltbildung zu lüften. „Nicht einMensch unter tausend ist zu solchenStudien fähig; denn man benötigtviel Zeit und Geld dazu, und manmuss ständig über diese Dinge nach-denken, wenn man irgendwelche Er-gebnisse erzielen will. Vor allen Din-gen aber sind die meisten Menschennicht wissbegierig genug ...“, schriebLeeuwenhoek seinerzeit. Er selberwar wissbegierig.

Als fünftes Kind eines Korbma-chers im niederländischen Delft ge-boren, erlernte er zunächst den Berufeines Tuchhändlers und eröffnete1654 in Delft ein eigenes Tuchhan-delsgeschäft. Berühmt wurde er je-doch durch seine mikroskopischenBeobachtungen. Sein erster Berichtan die Royal Society in London istvon 1673 datiert. Von da an korre-spondierte er fortlaufend mit dieserbedeutendsten naturwissenschaft-lichen Gesellschaft seiner Zeit, de-ren Mitglied er 1680 wurde. Vieleberühmte Gelehrte, unter ihnenGottfried Wilhelm Leibniz, und auchStaatsmänner wie Zar Peter derGroße suchten Leeuwenhoek auf, umdurch seine Lupen einen Blick in dieWelt des Allerkleinsten zu werfen.

Die ersten Mikroskope enthülltenzwar die Natur von Ei- und Samen-zelle, doch konnten die einfachenForschungsmethoden jener Zeitnichts zur Klärung des eigentlichenProblems beitragen. Wie entsteht auseinem befruchteten Ei ein vollständi-ger Organismus, der sich in Größe

Warum aus Fröschenkeine Prinzen werden

FOTO

S: W

OLF

GAN

GFI

LSER

/ ABB

.: M

PI F

ÜR

ENTW

ICKL

UN

GSB

IOLO

GIE

Page 28: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 55

EntwicklungsBIOLOGIE

54 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FASZINATION Forschung

und Form doch erheblich von einemEi unterscheidet? Durch welchenMechanismus wird festgelegt, dasseine Hand genau fünf Finger undnicht mehr oder weniger besitzt?Auch die Information, wie Augenund Ohren gebaut zu sein haben,muss bereits im Ei stecken. Über lan-ge Zeit blieb die Embryonalentwick-lung Gegenstand theoretischer Spe-kulationen: So nahmen die Präfor-mationisten an, dass in jedem Orga-nismus eine Art Miniversion seinerselbst vorliegt, ein winziger Homun-culus. Die Epigenisten wiederumvertraten die Ansicht, dass es keinevorgefertigten Strukturen gibt, son-dern, dass der Embryo im Laufe sei-ner Entwicklung eine immer komple-xere und höher organisierte Gestaltannimmt. In gewissem Sinn soll-ten die Vertreter beider RichtungenRecht behalten.

VON UNSICHTBARER HAND

MODELLIERT

Eine einzelne Eizelle wandelt sichzu einem komplexen Organismusum, indem sie spezielle Gewebe aus-bildet, aus denen Glieder oder innereOrgane entstehen. Während derMorphogenese, der Gestaltbildung,findet somit eine Entwicklung vomEinfachen zum Komplexen statt.Dies entspricht der Vorstellung derEpigenisten. Die Information, nachder das geschieht, wird allerdingsvon Generation zu Generation wei-tergegeben – zwar nicht in Form ei-nes Homunculus, aber als Bauplan inden Chromosomen. Somit steckenauch Verdienste im Konzept der Prä-formationisten. Etwas in der Zygote,der befruchteten Eizelle, ist tatsäch-lich präformiert. Schon zu einemsehr frühen Zeitpunkt legen das Ge-nom der Eizelle und die Organisationdes Zytoplasmas den Rahmen fest, indem die Entwicklung eines Organis-mus stattfindet.

Schritt für Schritt enthüllten dieForscher dank stetig verbesserter Mikroskoptechniken die Geheimnisseder Embryologie – zumindest, wasdie sichtbaren Veränderungen an-belangt. Dabei zeigte sich, dass die frühen Entwicklungsprozesse in

ihren Grundzügen bei allen Wirbel-tieren nach demselben Schema ab-laufen. So können wir schon vielüber die menschliche Embryologieerfahren, wenn wir beobachten, wieaus Froschlaich Kaulquappen wer-den. Da Froscheier groß und ihreGallerthüllen transparent sind, las-sen sie sich gut untersuchen.

Unter dem Mikroskop sieht man,wie nach der Befruchtung der Eizellezunächst eine Phase rascher Zell-teilungen ohne Größenwachstum ab-läuft (Furchung). Dabei wird das Zytoplasma der großen Zygote aufimmer kleiner werdende Zellen ver-teilt. Wenn man bedenkt, dass unter-schiedliche Regionen der Zygoteauch eine unterschiedliche Zusam-mensetzung zytoplasmatischer Be-standteile aufweisen, bilden die Me-chanismen ihrer Aufteilung einewichtige Basis für spätere Ent-wicklungsprozesse. Tatsächlich sindes diese lokalen Unterschiede, diedas Schicksal der Zellen im frühenEmbryo lenken.

Kehren wir noch einmal zurück ansMikroskop: Bei der oben erwähntenFurchung entsteht eine Hohlkugel,die so genannte Blastula. Sie faltetsich zusammen – ein Vorgang, dendie Wissenschaftler als Gastrulationbezeichnen – und bildet schließlichdrei verschiedene Gewebsschichtenbzw. Keimblätter: das Ektoderm, dasMesoderm und das Entoderm. Ausdem Ektoderm gehen während derOrganogenese vor allem die Epider-mis und ihre Abkömmlinge sowie dasNervensystem hervor; aus dem Me-soderm die Muskulatur, das Skelett,das Gefäßsystem und die Ausschei-dungsorgane; und aus dem Entodermder Verdauungstrakt mit den An-hangsorganen.

Biologiestudenten in den Anfangs-semestern dürfen zur Knetmassegreifen, um eine im wahrsten Sinnedes Wortes „griffige“ Vorstellungvon den komplexen Umlagerungs-prozessen zu bekommen, die bei derKeimblattentwicklung ablaufen. Ge-websschichten werden eingestülpt,ausgestülpt, verlagert. Die Zellenverändern also immer wieder ihrePosition und erhalten – was ganz

entscheidend ist – immer wiederneue Nachbarn. Beim Hantieren mitder Knetmasse erfahren die Studen-ten, wie schwierig es ist, etwas An-sehnliches zu produzieren. Wem derAnsatz misslingt, der kann noch malvon vorne beginnen. In der Embryo-nalentwicklung ist das nicht mög-lich. Die Trennung der drei Keim-blätter muss absolut exakt erfolgen.Kommt es zu einer Mischung vonZellen verschiedener Keimblätter, hatdas dramatische Missbildungen desEmbryos zur Folge.

Die morphogenetischen Zellbewe-gungen finden unter anderem ent-lang feinster Fasern statt – wie aufeinem Schienenstrang werden Zellenverschoben. Bei der Pfadfindungspielt die extrazelluläre Matrix, indie die Zellen eingebettet sind, einebedeutende Rolle. Sie enthält Kom-ponenten, die abweichende Wander-bewegungen hemmen und Bewegun-gen, die die Zellen auf Kurs halten,fördern. Grundlage für diese zel-lulären Wechselwirkungen ist einkomplexes Kommunikationssystemzwischen den verschiedenen Zellen,das auf einer ständigen Rück-kopplung von Informationen beruht.So erhalten die wandernden ZellenPositionsinformationen aus der un-mittelbaren Umgebung – in erster Linie chemische Signale –, die sieüber Antennen an ihrer Oberfläche(Rezeptorproteine) erkennen undauswerten.

DAS FLÜSTERN

ZWISCHEN DEN ZELLEN

Wenn ein Signalmolekül bindet,wird im Zellinneren eine Kaskadevon biochemischen Reaktionen an-gestoßen, die dort mannigfaltigeVeränderungen bewirken: Der Stoff-wechsel der Zelle kann umgesteuertwerden; Änderungen am Zytoskelettbewirken eine Änderung der Formund der Bewegungsaktivität der Zel-le; die Kontakte zu Nachbarzellenund zur extrazellulären Matrix überZelladhäsionsmoleküle, also Anker-moleküle, können moduliert und neuabgestimmt werden. Um diese Zu-sammenhänge zu verstehen, hilftschon lange kein Mikroskop mehr

weiter. Es sind „molekulare Abhör-methoden“, mit denen die Wissen-schaftler versuchen, das „Flüstern“zwischen den Zellen zu registrieren.

Angesichts der vielen Schritte inder Embryogenese und der Vielfaltder zellulären Funktionen, die kon-trolliert werden müssen, überraschtes, dass die Anzahl der Signal-moleküle in diesem Prozess dochüberschaubar gering bleibt. Die Leis-tungen des Kommunikationssystemszwischen den Zellen erklären sich al-so nicht allein aus der Spezifität derSignale und ihrer nachgeschaltetenSignalketten. Dasselbe Signal kannin verschiedenen Situationen ver-wendet werden und ganz unter-schiedliche Reaktionen auslösen.Wie in unserer Sprache, in der sichder Sinn eines Satzes erst aus derZusammenstellung der Wörter er-gibt, ist die Bedeutung eines zel-lulären Signals vom Kontext dervorgegebenen Bedingungen abhän-gig. Die Konzentration der Signal-moleküle, die Kombination mit an-deren Signalen sowie die Verrech-nungsprozesse in der Zelle tragenzur Interpretation des Signals durchdie Zielzelle bei.

In der Abteilung von Peter Hausenam Max-Planck-Institut für Ent-wicklungsbiologie in Tübingen sinddie Wissenschaftler dem Rätsel derGestaltbildung schon seit langem aufder Spur. Die Arbeitsgruppe vonFrancois Fagotto hat sich die Kartie-rung des Signalsystems zur Aufgabegemacht: Erneut muss der Froschdafür herhalten. Xenopus laevis, derafrikanische Krallenfrosch, ist –nicht nur bei Entwicklungsbiologen– ein beliebtes Haus- oder besser ge-sagt Labortier. So können die einzel-nen Faktoren einer Signalkette aufhistologischen Schnitten in den Zellkernen von Froschembryonenmit spezifischen Antikörpern sicht-bar gemacht und einer quantitati-ven Computerauswertung unterzo-gen werden. Auf diese Weise bekom-men die Forscher zunächst einmaleinen Eindruck davon, welche Sig-nalprozesse in welcher Region desEmbryos aktiv sind. In der Regel istin einer Region mehr als ein Signal-

In der Tierhaltung des Max-Planck-Instituts für Entwick-lungsbiologie in Tübingen ist eines der klassischen Labor-tiere untergebracht: Der afrikanische Krallenfrosch Xenopuslaevis. Soweit die Tiere nicht aus der eigenen Nachzuchtstammen, werden sie von Farmen aus Südafrika bezogen.

Mit kritischem Blick prüfen Araceli Medina, Rajeeb K.Swain und Herbert Steinbeisser (von links) das ausgewählteFroschweibchen. Die äußere Körperform liefert den Forschern Anhaltspunkte dafür, ob das Weibchen bereitsüber ausreichend Eier verfügt.

Durch subkutane Injektion von humanem Gonadotropin wird die Eireifung angeregt. 12 Stunden später können die Eier abgestreift und durch Zugabe von Spermien enthaltendem Hodenhomogenat befruchtet werden.

Die ausgewachsenen Tiere erreichen eine Körperlänge von 12 Zentimetern und werden nach anderthalb Jahren geschlechtsreif. Nach Entnahme von Eiern benötigen die Weibchen eine zweimonatige Ruhepause, bevor sie erneut für Experimente eingesetzt werden können.

Mit einem Kescher werden die Frösche dem ein mal zwei Meter großen Becken entnommen. Wasser- und Lufttemperatur betragen hier etwa 20°C. Die Tiere erhalten ein Mischfutter auf Fleischbasis.

An die 25 Frösche tummeln sich in einem Becken. Dabei bleiben Männchen und Weibchen allerdings sorgfältig getrennt. 400 Tiere befinden sich derzeit in der Tierhaltung des Instituts. Sie werden zwischen fünf und acht Jahre alt.

Page 29: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 57

EntwicklungsBIOLOGIE

56 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FASZINATION Forschung

schen Zellen in nahezu jedem Ent-wicklungsprozess eine Rolle: von derBildung der embryonalen Achsen bishin zur Bildung der Organe, und dassowohl bei Wirbellosen wie bei Wir-beltieren. Genetische Untersuchun-gen bei der Taufliege Drosophila ha-ben beispielsweise zur Aufschlüsse-lung des Wnt/ß-Catenin-Pfads ge-führt. In Drosophila wird über diesenSignalpfad die Körpersegmentierunggesteuert. Im Froschembryo ist es die Ausbildung der Dorsal- bzw.Rückenseite.

GEHEIMNISVOLLE

ANSCHLUSSNUMMERN

Das Anschalten der Signalkette er-folgt über ein Wnt-Protein. Herz-stück der Kette ist dann das so ge-nannte ß-Catenin, über das die Akti-vierung spezifischer Gene ausgelöstwird. Die Max-Planck-Wissenschaft-ler konnten zeigen, dass ß-Cateninohne die Hilfe eines Transportpro-teins in den Zellkern eindringen undihn auch selbsttätig wieder verlassenkann. „Möglicherweise war ß-Ca-tenin ursprünglich selbst ein Trans-portprotein, das später in der Evolu-tion für die Funktion in der Wnt-Signalkaskade vereinnahmt wurde“,sagt Nicola Wiechens. Auch bei der

prozess aktiv. Darüber hinaus sinddie Signale erstaunlich dynamisch:Von Stunde zu Stunde ändert sichihre Intensität, sie treten in neuenRegionen auf und verschwinden an-derswo. Die Forscher befinden sichin ähnlicher Situation wie Mitarbei-ter einer Telefongesellschaft – siekönnen eine Vielzahl von Telefonge-sprächen nachweisen und auch zei-gen, in welchem Netzabschnitt diesegeführt wurden; sie kennen die Ge-sprächsdauer und die beteiligten Ge-sprächspartner (dies entspräche derNummer des entsprechenden Tele-fonanschlusses). Über Inhalt undZweck der Gespräche erfahren sieaber auf dieser Ebene nichts. WelcheEntwicklungsprozesse werden hiergesteuert? Um das herauszufinden,müssen sie, wie Abhörspezialisten,zu verfeinerten Analyseverfahrengreifen.

Zu den schon seit längerem iden-tifizierten „molekularen Anschluss-nummern“ gehören die Proteine derWnt-Familie, einer Familie von etwaeinem Dutzend Proteinen, die sich inihrer Aminosäuresequenz geringfü-gig unterscheiden. Allein beim Men-schen gibt es 19 verschiedene Gene,die für Wnt-Proteine kodieren. Siespielen bei der Kommunikation zwi-

Aufschlüsselung der Signalkette, diemorphogenetische Zellbewegungensteuert, sind die Forscher bereits einStück vorangekommen: Hier heißendie weiterführenden AnschlüsseCdc42, ein GTP bindendes Protein,sowie Proteinkinase JNK. Nur wenndieser so genannte PCP-Pfad (engl.:planar cell polarity) angeschaltet ist,bilden die Zellen am entsprechendenZellpol Lamellipodien aus – quasi„Füßchen“ für die Wanderbewegung.

Die beschriebenen Signalwege lau-fen über dieselbe Art von Verteiler –die Frizzled-Transmembranproteine.Das sind Rezeptormoleküle, die mitihrer Aminosäurekette die Zellmem-bran durchspannen und Signale vonaußerhalb der Zelle aufnehmen, umsie an die weiterführenden Signal-ketten im Inneren der Zelle zu kop-peln. Man könnte sie auch als eineArt Wandler bezeichnen. „Dabeikann ein und derselbe Rezeptortypan unterschiedliche Signalproteinebinden und somit auch unterschied-liche Signalketten schalten“, erklärtHerbert Steinbeisser. Ein Beispiel istder Frizzled-Rezeptor 7 – er hatSteinbeisser und seinen Kollegen Ru-dolf Winklbauer, Araceli Medina undRajeeb K. Swain zu einer Veröffentli-chung in der renommierten Zeit-

schrift NATURE (25. Oktober 2001)verholfen. Der Frizzled-Rezeptor 7koppelt nicht nur an den Wnt/ß-Ca-tenin-Pfad, sondern auch an einennoch weitgehend unbekanntenWnt/PKC-Pfad.

Schon seit längerem gab es Hin-weise darauf, dass es einen drittenüber Wnt-Proteine gesteuerten Sig-nalweg geben könnte. Als möglicherAdressat einer solchen „Netzverbin-dung“ galt das Enzym ProteinkinaseC (PKC). Welche Botschaft würdensich die Zellen wohl auf diesem Wegezuflüstern? Mit einem von Fachkolle-gen als besonders pfiffig erachtetenExperiment konnte Steinbeissers Ar-beitsgruppe dieses Geheimnis lüftenund damit tatsächlich einen weiterenSignalweg dingfest machen: Zu-nächst platzierten die Max-Planck-Wissenschaftler Kügelchen aus meso-dermalen Zellen auf einem Stück Ek-toderm und beobachteten deren Tren-nungsverhalten. Normale Mesoderm-Kügelchen blieben auf der Oberflächedes Ektoderms liegen. Dieses erwarte-te Verhalten resultiert aus den unter-schiedlichen adhäsiven Eigenschaftenmesodermaler und ektodermaler Zel-len (siehe Abbildung unten).

Anschließend schalteten die Tü-binger Forscher mit gentechnischenMethoden den Frizzled-Rezeptor 7aus. Kurze Nukleotidketten, so genannte Antisense-Oligonukleotide,binden im Zellexperiment an die Bo-ten-RNA des Rezeptors und verhin-dern so eine Abschrift (Transkrip-tion) in die entsprechende Ami-nosäuresequenz des Proteinmoleküls.Damit verloren die mesodermalenZellen jedoch auch ihren „morpho-

genetischen Code“, über den sie ei-nem bestimmten Gewebe quasi zu-geordnet werden. Dabei handelt essich um einen ganz eigenen Satz von Zelloberflächenmolekülen, deres den Zellen erlaubt, in einer für siecharakteristischen Weise an andereZellen sowie an die extrazelluläreMatrix zu binden. Die Mesoderm-Zellen versanken jetzt im Ektoderm.Weil sich Zellen des Ektoderms unddes Mesoderms unter diesen Bedin-gungen mischen, können auch diewährend der Gastrulation stattfin-denden Einstülpungsbewegungennicht mehr korrekt ablaufen und eskommt zu einer fehlerhaften Aus-bildung der Körperachse im Frosch-embryo. Dieser Effekt ließ sich durchInjizieren von Proteinkinase C unddamit das Anschalten der PKC-Sig-nalkette wieder umkehren.

FORSCHER WAGEN

DEN LAUSCHANGRIFF

Unsere Abhörspezialisten warenalso bei ihrem „Lauschangriff“ aufdie Zellen tatsächlich erfolgreich:Zum ersten Mal gibt es jetzt konkreteHinweise auf die molekulare Steue-rung des Trennungsverhaltens vonZellen bei der Keimblattentwicklung.Sind diese oder ähnliche Signalwegeauch bei der Organbildung und -re-generation beteiligt? Bleiben die Sig-nalwege während der Evolution unddamit über die Artgrenzen hinwegerhalten? Diese Fragen wollen dieWissenschaftler jetzt angehen. Feststeht bereits: Einfache Modellvor-stellungen wird es für die komplexenOrganisationsprozesse nicht geben.Signalmoleküle können in kleinen

Arealen produziert werden und anTeile der extrazellulären Matrixgebunden bleiben. Sie können aberauch von Anfang an großräumigverbreitet sein und sich von derQuelle aus in Form von Gradientenausbreiten; in verschiedenen Regio-nen des frühen Embryos sind diebiochemischen Signalgeber dannunterschiedlich stark konzentriert.Ihre Aktivität kann im extrazel-lulären Raum durch andere Signalegehemmt oder erst durch biochemi-sche Veränderungen in Gang gesetztwerden.

Das Ganze läuft nicht etwa in ei-nem Körper mit statischer Geometrieab, sondern die morphogenetischenBewegungen im Embryo schaffenständig neue Nachbarschaften zwi-schen den verschiedenen Zellgrup-pen. Die einzelnen Zellen werden einem komplizierten Wechsel vonSignalen ausgesetzt. Je nach Ent-wicklungsstand der Zelle ändert sichderen Bedeutung oder deren Kom-bination – die Interpretation der Botschaften findet immer vor demHintergrund der zelleigenen „Biogra-fie“ statt.

Schon beim Frosch steckt also hin-ter den sichtbaren gestaltbildendenVorgängen während der frühen Em-bryogenese ein komplexes Netzwerkbiochemischer Informationen, in dassich zahlreiche Forscher weltweit inihren Labors eingeklinkt haben. Nureinen Bruchteil der Anweisungenkonnten sie bisher entschlüsseln.Viele Fragen sind noch offen. Einesaber ist wissenschaftlich bewiesen:Ein Kuss macht aus einem Froschkeinen Prinzen. CHRISTINA BECK

Ein Signalmolekül, das an einen Rezeptor in der Membran der Zielzelle bindet, löst im Zellinneren eine Kaskade biochemischer Reaktionen aus, die sowohl zytoplasmatische als auch genregulierende Aktivitäten im Kern steuert.

Über die Wnt-Signalmoleküle und den entsprechenden Frizzled-Rezeptor werden verschiedene Signalwege geschaltet, die zum einen die Morphogenese (Gestaltbildung), zum anderen die Differenzierung und Dorsalisierung (Ausbildung der Rückenachse) regulieren.

Wenn die Zellen normales Trennungsverhalten zeigen, dann bleiben die Mesoderm-Kügelchen aufden Ektoderm-Zellen liegen (links). Die Blockierung des Frizzled-Rezeptors führt zu einem Verlustdieser Fähigkeit, mit dem Ergebnis, dass sich die Zellen der beiden Keimblätter mischen (rechts).

Page 30: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 59

INFORMATIK

58 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FASZINATION Forschung

Monitor mimtMienenspielDie Fortschritte in der

Computergrafik und der

künstlichen Intelligenz

könnten es in absehbarer Zeit

erlauben, „Kollege Computer“

mit einem Gesicht auszu-

statten, mit dem man sich wie

mit einem Schreibtisch-

nachbarn unterhalten kann.

Wesentlich für die Akzeptanz

dieser Ansätze sind die

fotorealistische Modellierung

und Animation „virtueller“

menschlicher Gesichter.

Auf diesem Gebiet hat das

Team um DR. JÖRG HABER

am Saarbrückener MAX-

PLANCK-INSTITUT FÜR

INFORMATIK wichtige

Pionierarbeit geleistet: Die

Forscher entwickelten eine

größtenteils automatisch

arbeitende Software, die

zuvor eingescannte Köpfe in

Echtzeit auf dem Bildschirm

animiert. Diese „talking

heads“ zeigen ein verblüffend

realistisches Mienenspiel.

deutsche Kinokassen nicht so lautklingeln ließ wie erhofft. An hölzernagierenden digitalen Charakterendürfte die Zurückhaltung des Publi-kums allerdings eher nicht gele-gen haben: Die digitalen Hauptdar-steller dieses Science-Fiction-Strei-fens wirkten durchaus so realistisch,dass man als Zuschauer gelegentlichSchwierigkeiten hatte, Schein undWirklichkeit auseinanderzuhalten.Aber mit welchem Aufwand wurdeder Film hergestellt! Allein an derModellierung der Charaktere arbeite-ten hundert Fachleute, etwa zehn proHauptfigur, rund zwei Jahre. Unddas waren gerade erst einmal dieVorarbeiten: An jedem einzelnenBild der Kinofassung rechnetenanschließend selbst hochgezüchteteGrafik-Supercomputer noch einmalbis zu fünfeinhalb Stunden. Da kannsich Haber tatsächlich bequemzurücklehnen: Aus seiner Werkstattkommt eine Software, die sprechen-de Köpfe in Echtzeit auf einem han-delsüblichen PC agieren lässt – undzwar verblüffend echt.

Dabei hat Jörg Haber mit Hol-lywoodfilmen eigentlich weniger imSinn. Ihm geht es in erster Linie umdie Grundlagenforschung, um dieFrage, wie man virtuelle Köpfe aufdem Bildschirm mit möglichst wenigAufwand sprechen, lächeln und Gri-massen schneiden lassen kann – undzwar so, dass es lebensecht wirkt.Die Methoden zur Animation virtu-eller Gesichter, die Haber in Saar-brücken entwickelt, sollen einmalComputerlinguisten und Forschern,die an Künstlicher Intelligenz arbei-ten, nützen. Und vielleicht werdensie auch einmal „menschliche“ Inter-faces für Webseiten oder Betriebssys-teme darstellen: Computerprogram-me, die zum Beispiel bei Web-UsernDaten abfragen müssen und diesmittels eines verblüffend echten,menschlichen Gegenübers tun, dasauch mit einer passenden Mimik aufihre Angaben reagiert. Habers spre-

die über einen mehr oder wenigerstarren Schädel mit herunterklapp-barem Kiefer gezogen ist: Unter demmenschlichen Teint sind beim Reden,Weinen oder Lachen rund 200 ein-zelne Muskeln ständig in Aktion; ei-nige davon sind einfache, lineareBänder, andere eher flächig angelegt.Beim Orbicularis oris, dem „Lippen-muskel“, der für Kuss- und Schmoll-mund sowie die korrekte Formungdes „O“ zuständig ist, handelt es sichsogar um ein recht komplexes, aberenorm bewegliches Muskelgeflecht.Und alle diese Muskeln sind nichteinfach lose unter der Haut verteilt,sondern sie beeinflussen sich bei je-der Bewegung gegenseitig. „Wennman den Mund spitzt, werden auchdie am Orbicularis oris befestigtenMuskeln in die Länge gezogen“, sagtHaber. Auch die damit verbundenenVerformungen der eigentlich nichtaktiv am Sprechgeschehen beteilig-ten Muskelstränge zeichnen sich imGesicht ab: Zieht sich ein Muskel zu-sammen, wird er dicker, wenn manihn streckt, schmaler. Auch die Haut,

Bereits eine Auswahl von 20 der 200 „echten“Gesichtsmuskeln reicht, um einem „virtuellenGesicht“ die Möglichkeit zu verleihen, dieMundbewegung bei der Lautformung sowie einfache Mienenspiele nachzuahmen.

Um von den eingescannten 3D-Daten eines menschlichen Kopfes zu einem animier-baren „virtuellen“ Kopf zu gelangen, passt der Computer einen generischen Referenz-kopf (Mitte) an die eingescannte Punktwolke (links) an. Dabei entsteht ein individuellesKopfmodell (rechts). Durch diesen Trick können auch Kopfpartien modelliert werden, die dem Scanner durch die Maschen gegangen sind.

Der Ablauf einer „virtuellen Gesichtstransplantation“: Rund drei bis sechs Fotos einesGesichts – aus nahezu beliebigen Blickwinkeln zusammengesetzt – werden vom Computer automatisch montiert und auf die zuvor erfasste Kopfgeometrie aufgezogen.

chende Gesichter könnten somit ei-nen alten Traum der Schnittstellen-designer erfüllen: Der Computer alsKollege, mit dem man sich von An-gesicht zu Angesicht unterhält.

EIN GESICHT IST MEHR

ALS EINE MASKE

Nun ist es – wie der Aufwandzeigt, der für „Final Fantasy“ getrie-ben werden musste – nicht geradeeinfach, virtuellen Gesichtern Lebeneinzuhauchen, ohne dass sie wiekühle Wachsmasken aussehen: Diemenschliche Wahrnehmung reagiertäußerst sensibel auf Nuancen in derBewegung von Gesichtern. KeinWunder, war es doch im Lauf dermenschlichen Evolution lebenswich-tig, stets treffsicher im Mienenspielseines Gegenübers zu lesen. Erstrecht kompliziert wird die Sache,wenn es darum geht, bekannte Köpfemit ihren Bewegungs- und Aus-drucksmöglichkeiten lebensecht aufden Bildschirm zu bannen.

Denn ein Gesicht ist bei weitemmehr als eine Art Fantomas-Maske,

Doch, „Final Fantasy“ hat ersich angesehen. Mit seinem

Team. „Hoffentlich haben wir dieLeute auf den Nachbarplätzen nichtgestört mit unseren Kommentaren.Aber alles in allem war der Filmwirklich nicht schlecht gemacht“,sagt Jörg Haber, ein junger Wissen-schaftler, der seit etwa zweiein-halb Jahren am Saarbrückener Max-Planck-Institut für Informatikforscht. Aber Haber hat sich diesenFilm mit seinen vollständig im Com-puter erzeugten Hauptdarstellernauch nicht unbedingt zum Spaß an-geguckt: „Es ging schon ein wenigdarum, zu sehen, was man im Film-Business heute schon so alles mitComputeranimation erreichen kann.“

Ein Film also, den man sich durch-aus ansehen kann – auch wenn er AL

LEAB

B.: M

PI F

ÜR

INFO

RMAT

IK

Page 31: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 61

INFORMATIK

60 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FASZINATION Forschung

Diese Probleme haben Jörg Haber,der sich zuvor lange mit Raytray-cing-Verfahren und Bilddatenkom-pression mittels Wavelets befasst hat,gereizt. „Es war für mich eine He-rausforderung, auf einem Gebiet zuarbeiten, auf dem man den kleinstenFehler sofort erkennt. Außerdemmuss man für die Simulation von Ge-sichtern stärker als in vielen anderenGebieten der Informatik eine ganzeReihe von Kenntnissen aus vielenverschiedenen Gebieten zusammen-führen: aus der Modellierung vonOberflächengeometrien, der Numeriknichtlinearer Differentialgleichungen,der Erzeugung wirklichkeitsnaherTexturen und sogar der Linguistikund der Medizin“ – denn um sich mitden Ausdrucksmöglichkeiten vonmenschlichen Gesichtern vertraut zumachen, musste der Forscher auch einige Blicke in einschlägige Anato-miebücher werfen.

Die Arbeit hat sich allerdings ge-lohnt: In knapp eineinhalb Jahrenhaben Haber und seine Mitarbeiterihre selbst gewählte Aufgabe in denGriff bekommen – mit Hilfe einesverblüffend einfachen Konzepts undeiner echtzeitfähigen Software, die

bereits auf einem schnellen Perso-nalcomputer zum Laufen gebrachtwerden kann. Der Clou des Saar-brückener Konzepts ist, dass JörgHaber Gesichter als wunderbar aus-balanciertes Aggregat aus virtuellenMuskeln in einem komplexen, aberhandhabbaren Netzwerk aus mitein-ander verbundenen Federn und Mas-sepunkten betrachtet.

20 VIRTUELLE MUSKELN

FÜR EIN VIRTUELLES „O“

Die virtuellen Gesichter, die einemwomöglich in ein paar Jahren vomBildschirm aus mitteilen, dass dieFestplatte wieder einmal defragmen-tiert werden müsste, verfügen zwarderzeit nur über zwanzig „Gesichts-muskeln“, die nach einem von Habers Mitarbeiter Kolja Kähler er-arbeiteten Konzept zwischen eineelastische Haut und einen starrenSchädel „eingehängt“ werden –„Geometry-based muscle modelling“heißt das Verfahren. Die zwanzigAuserwählten aber haben es in sich.„Wir haben uns zunächst auf dieMuskeln und Muskelgruppen be-schränkt, die beim Sprechen und beigewissen Gesten, etwa dem Hebender Stirn, zum Einsatz kommen. Die-se haben wir für die Animation je-weils in eine Anzahl von Ellipsoidenzerlegt, die sich so deformieren, wiees dem Muskel als Parameter vor-gegeben wird“, sagt Haber. Die Mus-keln ziehen sich in Kählers Modellzusammen, wenn man sie streckt,und erhöhen ihren Durchmesser,wenn sie kontrahiert werden. Mitsichtbarem Ergebnis: „Die Ketten ausMuskel-Ellipsoiden sind über virtu-elle Federn mit der Hautschicht darü-ber verbunden und übertragen so dieMuskelbewegungen auf die Haut.“

Die Haut selbst ist als dichtes Fe-der-Masse-Netzwerk aus mehrerentausend Maschen ausgelegt. „Damitkönnen wir alle wichtigen physikali-schen Parameter der Haut, zum Bei-spiel ihre Elastizität, nachbilden“, soHaber. Vorteil: Da die Federmodelle,die in diesem System Haut und Mus-keln repräsentieren und untereinan-der verknüpfen, alle miteinander zu-

die das Gesichtsmuskelnetzwerküberwölbt, wird bei diesen Bewegun-gen gestaucht und gespannt. DieseMuskelspiele und Hautbewegungenwerden zum Teil kaum bewusstwahrgenommen, haben aber großenEinfluss darauf, ob ein vom Compu-ter simuliertes Mienenspiel vommenschlichen Betrachter als „echt“interpretiert wird.

Menschliche Gesichter photorea-listisch im Computer nachzuahmengalt daher lange Zeit als extremkomplizierte Aufgabe – so kompli-ziert, dass manche Animateure dievirtuellen Gesichter auf dem Bild-schirm lieber „von Hand“ so langezurechtbogen, bis ein lebendiger Ge-sichtsausdruck dabei herauskam.Zwar gab es schon seit Anfang derachtziger Jahre Versuche, mensch-liche Gesichter automatisch zu ani-mieren – die Erfolge hielten sichaber stets in engen Grenzen. Auchneuere Ansätze aus der Forschungkranken vielfach noch daran, dasseinzelne Gesichtsausdrücke zwar gutrüberkommen, die Bewegungen da-zwischen, beispielsweise bei der Si-mulation der Lautfolge „A-u-to“,aber eher ungelenk wirkten. sammenhängen, gerät bei der Akti-

vierung eines Muskelsatzes – etwazur Formulierung eines „O“ – nachwenigen Iterationen der Simulati-onssoftware das ganze gekoppelteSystem in Bewegung. Wie im richti-gen Leben. Eine durchaus lebendigeund verblüffend echte Mimik ist dieFolge. „Da wir uns auf zwanzig Mus-keln beschränkt haben, ist die Aus-drucksfähigkeit dieser Gesichtssimu-lationen zwar begrenzt: Die ganzeTiefe menschlicher Emotionen kanndas System natürlich noch nicht aus-drücken. Aber es reicht, um zum Bei-spiel Freude oder Überraschung zuvermitteln.“

Auch das überaus bewegliche Lip-penmuskel-Netzwerk hat das Saar-brückener Team auf diese Weiseüberzeugend animiert: Es kannschmollen, „O“ machen, sich zu ei-nem Pfiff spitzen, und könnte imPrinzip an jeder Stelle zwischenOber- und Unterlippe einen Stroh-halm packen, wenn man es von ihm

verlangte – und das alles im perfek-ten Zusammenspiel mit den anderenMuskeln und natürlich der Haut, diesich darüber spannt. Die Bewegun-gen, die das komplexe Konglomerataus virtuellen Muskeln und Bitmapsausführen muss, um zum Beispielbesagtes „O“ zu formen, haben Haberund sein Team dem Modell zwarnoch „von Hand“ in komplizierterDetailarbeit beibringen müssen – mitPhonetik-Fachbüchern neben demBildschirm. „Diese Arbeit musstenwir jedoch nur einmal tun, da wir jaein und denselben Muskelapparat inallen Modellen verwenden und dieBewegungen des Sprechapparats beiallen Menschen im Prinzip gleichsind“, sagt Haber.

Um eine bekannte Person wieder-zuerkennen, braucht es natürlichauch eine realistisch gestaltete Haut

und eine Kopfform, die dem Originalmöglichst nahe kommt. Auch für dieSimulation dieser Faktoren habenHaber und seine Kollegen Konzepteentwickelt und in einer Software na-mens „MEDUSA“ gebündelt – für diedarin arbeitenden Techniken zur Ge-sichtsmodellierung bekam Haber imNovember 2001 den Heinz-Billing-Preis verliehen.

Das Besondere an der MEDUSA-Software: Sie läuft bis auf wenigeStellen, an denen ein Operator helfenmuss, vollautomatisch und benötigtfür die Nachbildung eines „talkingheads“ auf dem Monitor lediglich ei-nen Satz Geometriedaten des zu vir-tualisierenden Kopfes nebst einigenFotos.

Zunächst erstellt MEDUSA aus derräumlichen „Punktwolke“, die ein3D-Scanner vom Kopf eines Men-

I’d like to tell you … errr … something

Die korrekte Augenfarbe und das richtige Lächeln sind wichtig für die Wiedererkennung einer bekannten Person. Aus jeweils einer einzigen Aufnahme der Augen und Zähne werdenautomatisch individuelle Modelle generiert, die in das Kopfmodell eingepasst werden.

Die Nachahmung des sprachbezogenen Mienenspiels (unten) macht das virtuelle Gegenüber lebendiger und Vertrauen erweckender – und erhöhtsogar die Verständlichkeit der vom Computer „gesprochenen“ Sätze.

Page 32: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 63

INFORMATIK

Netzwerkmodell angeben, die ihm alsBezugspunkt für diese digitale Mas-kerade dienen können. Der manuelleZeitaufwand hierfür liegt bei rundfünf Minuten pro Foto, die virtuelleTransplantation der kompletten Ge-sichtshaut ist dann in 15 bis 20 Mi-nuten abgeschlossen. Ein speziellerGlättungsalgorithmus sorgt schließ-lich noch dafür, dass eventuelle,durch unterschiedliche Beleuchtungdes Originals verursachte Farbun-gleichheiten ausgeglichen werden.

Zum Schluss müssen lediglichnoch Zähne und Augen fotografiertund ins Bild eingesetzt werden. Fürdie Zahnmontage reicht – bitteLächeln! – eine Aufnahme der vor-dersten Zahnreihe, alle anderen Zäh-ne werden, wie auch die Zunge, nachStandardvorgaben modelliert. Derkorrekte Sitz der vom Computer ein-gesetzten Augen muss allerdings ge-legentlich mit einem Satz einfacherSchieberegler nachjustiert werden,sonst schielt das virtuelle Gesicht.

Die komplizierte Umwandlung ei-nes Kopfes in ein texturiertes Poly-gon-Netzwerk hat einen entschei-denden Vorteil: Es verlagert einenGroßteil der für die Gesichtssimulati-on benötigten Rechenzeit ins Vorfeldder eigentlichen Animation. So dau-ert zum Beispiel die automatischeAnpassung des Kopfmodells an diedigitale „Strumpfmaske“ rund zehnMinuten. Das so definierte digitaleFeder-Masse-Netzwerk ist dann für

62 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

schen liefert, ein engmaschiges Netz-werk aus Dreiecken, das im nächstenSchritt wie der Strumpf eines Bank-räubers über ein virtuelles, idealisier-tes Kopfmodell gezogen wird – nur,dass sich hier nicht der Strumpf demKopf anpasst, sondern umgekehrt,denn der Computer optimiert dieGeometrie seines Referenzkopfesmöglichst eng auf die Maschen desaus den 3D-Daten ermittelten Netz-werks und glättet anschließend des-sen Oberfläche je nach gewünschterDetailtreue. Auf diese Weise kann dieSoftware auch Bereiche des Kopfesinterpolieren, die dem Scanner durchdie Maschen gegangen sind, zumBeispiel den mit Haaren bedecktenHinterkopf. Besondere Umsicht lässtMEDUSA auch bei der Anpassungdes Polygon-Netzwerks im Bereichder Nase, der Augen und des Mundeswalten: Zwar kommt es darauf an,die Anzahl der Dreiecke für dieschnelle Simulation zu minimieren.Andererseits kann aber bereits eineinziges falsches Polygon den realis-tischen Eindruck des Modells zer-stören.

Weiterer Vorteil des anpassungs-fähigen Idealkopfes: „Unsere virtuel-len Muskeln sind fest an diesemSchädelmodell befestigt. So verän-dern sie ihre Position bei der schritt-weisen Anpassung an die Geometrie

FASZINATION Forschung

der digitalisierten Person gleich mit.Damit müssen diese virtuellen Mus-keln nicht in jedem Einzelfall neupositioniert werden“, sagt Haber. Position und Gestalt der Gesichts-muskelfasern werden vielmehr in ei-nem iterativen Optimierungsverfah-ren automatisch ermittelt.

DIE GEBURT EINES

DIGITALEN EBENBILDS

Für den schönen „Teint“ sorgtschließlich ein weiterer Teil der Soft-ware, der die Digitalfotografien einesGesichts zu einer Art Gummihautmontiert, die anschließend ebenfallsautomatisch und passgenau über denfertig modellierten virtuellen Kopfgezogen wird. Während die räumli-chen Daten des Kopfes noch mit ei-nem 3D-Scanner eingelesen werdenmüssen, reichen für die Abbildungder Haut eine Hand voll Fotos mit ei-ner Digitalkamera, die aus nahezubeliebigen Blickwinkeln aufgenom-men werden können, sofern das Ge-sicht damit vollständig erfasst wird.Diese Fotosession erfordert nichteinmal eine besondere Beleuchtung;der Klient sollte lediglich darauf ach-ten, mit einem möglichst ausdrucks-losen Gesicht Modell zu sitzen.

Damit später alle Grübchen an derrichtigen Stelle sitzen, muss man demRechner allerdings Punkte auf dem

schnelle Doppelprozessor-PCs untereinem Ressourcen schonenden Be-triebssystem aber so bequem, dassman das Mienenspiel von MEDUSAsvirtuellen Gesichtern auf dem Bild-schirm in Echtzeit, mit einer Frame-rate von 100 Bildern pro Sekunde,bestaunen kann: Ein Prozessor be-rechnet dabei interativ das gekoppel-te Feder-Netzwerk, der andere ist fürdas Rendering, das heißt, die lebens-nahe Bildschirmausgabe perspekti-visch dargestellt und ansprechendbeleuchtet, verantwortlich.

Derzeit nutzt MEDUSA ihr beein-druckendes Echtzeit-Mienenspiel lei-der erst zu eher bescheidenen Auf-tritten bei der Formulierung vorge-fertigter Textpassagen – zum Bei-spiel im Labor von Linguistikern.Aber wer weiß: Vielleicht wird esMEDUSA eines Tages gelingen, auchTexte vorzulesen – samt passendemGesichtsausdruck, wenn eine ge-schriebene Stelle traurig ist oder zurÜberraschung Anlass gibt.

Einen ersten Schritt in diese Rich-tung leistet eine bemerkenswerte Er-gänzung der MEDUSA-Software, dieHabers Mitarbeiterin Irene Albrechtjüngst in das Projekt eingebracht hat:ein Programm, das Aufzeichnungengesprochener Sätze auf ihre Satzme-lodie (Prosodie), auf Pausen und ge-sprochene Lautstärke hin analysiertund die „paralinguistischen Informa-tionen“, die sich in diesen Variatio-nen zu erkennen geben, in automa-tisch erzeugte Gesichtsausdrücke um-setzt. Virtuelle Köpfe, die auf diesemWeg zum Sprechen gebracht werden,bewegen nicht nur die Lippen syn-chron zur gesprochenen Silbe, son-

dern heben die Augenbraue, wenn sieeine Frage aussprechen (was sich ander Erhöhung der Stimmfrequenz ge-gen Ende eines Satzes zeigt), nickenund zwinkern, wenn sie etwas Wich-tiges betonen wollen (was sich zumBeispiel durch betontes, langsamesAussprechen offenbaren kann) undsehen sogar zur Decke oder legen denKopf schief, wenn sie eine Sprech-pause einlegen und „nachdenken“.Durch gelegentliche zufällige Augen-bewegungen nehmen sie auch vonder für menschliche Gesprächspart-ner unangenehmen Unsitte Abstand,ihr reales Gegenüber die ganze Zeitanzustarren.

VIRTUELLE PARTNER

STATT FRAGEBOGEN

Die überaus komplexe Leistung,die hinter der Analyse gesprochenerSätze steckt, erbringt das System al-lerdings nicht mehr in Echtzeit. Fürdie paralinguistische Untersuchungeines zehnsekündigen Sprachsam-ples benötigt ein schneller PC immernoch rund sechs Minuten. Dafür er-höht die Unterstützung durch dasMienenspiel eines virtuellen Gesichtsdas Verständnis gesprochener Spra-che deutlich – und macht das digi-tale Gegenüber Vertrauen erwecken-der. Ob sich die Software schon fürdie stimmungsvolle Wiedergabe lan-ger Romane eignet, mag allerdingsnoch dahingestellt sein: Satzmelo-dien, die Angst, Freude und Lange-weile ausdrücken, kann MEDUSAderzeit noch nicht erkennen und daher auch nicht durch entsprechen-de Gesichtsausdrücke begleiten. Bisman die vorlesende Großmutter frü-

her ins Bett schicken kann, dürfte esdaher also schon noch ein wenigdauern: Dafür sind auch die gedank-lichen Leistungen, die hinter der au-tomatischen „Entschlüsselung“ unddem Verständnis eines lediglich ge-druckt vorliegenden Textes stehen,noch viel zu komplex. Denkbar ist al-lerdings, dass uns MEDUSAs Gesich-ter in absehbarer Zeit auch im World-WideWeb begegnen: „Im Prinzip soll-te es in absehbarer Zeit möglich sein,die Software, die für die Animationeines Kopfes zuständig ist, als eineArt Applet über das Internet herun-terzuladen und auf dem heimischenPC auszuführen“, meint Haber. Gutmöglich, dass überdrehte Netzwesenwie „Robert T-Online“ aus der Wer-bung einem dann auch vom Web-browser aus Waschmittel und ähnli-ches in einem persönlichen Gesprächans Herz zu legen versuchen.

Und wenn eines Tages George Lu-cas oder ein anderer Hollywoodpro-duzent am Telefon ist und Unterstüt-zung für einen neuen virtuellen Drehin der Art „Final Fantasy“ sucht?„Dann erkläre ich ihm unser Verfah-ren natürlich. An einer Dienstlei-stung für Filmproduktionen habenwir aber kein Interesse. Denn umSchauspieler wirklich realistisch zuimitieren, müsste man nicht nur 20,sondern alle 200 Gesichtsmuskelnanimieren“, sagt Haber. „Möglichwäre das zwar schon jetzt. Das wäredann aber nur noch eine Fleißarbeit,die uns nicht reizt. Bevor wir uns damit befassen, wenden wir uns lie-ber neuen, reizvolleren Themen zu.“Man darf gespannt sein, welche dassein werden. STEFAN ALBUS

Bildfolge aus einer von MEDUSA in Echtzeit erzeugten Sequenz, in der lediglich die zur Lautbildung benötigtenMuskeln animiert wurden. Da alle Menschen ihre Gesichtsmuskulatur beim Sprechen in ähnlicher Weise einsetzen, mussten die korrekten Bewegungsabläufe bei der Lautformung nur einmal ausgearbeitet werden. Sind sie erst einmal etabliert, können sie problemlos auf alle anderen eingescannten Köpfe übertragen werden.

Die in Saarbrücken in Echtzeit animierten virtuellen Köpfe können nicht nur Laute formen: MEDUSA beherrscht auch die verblüffend lebendige Wiedergabe von Gesichtsausdrücken, die mit Trauer oder Überraschung einhergehen.

Page 33: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 65

BIOCHEMIE

64 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

WISSEN aus erster Hand

Der Zellzyklusim Fokus

der Krebsforschung

Als Zellzyklus bezeichnet man die Gesamtheit aller biochemischen Vorgänge, die während

der Teilung einer Zelle ablaufen. Immer tiefere und detailliertere Einblicke in diesen

Urprozess des irdischen Lebens zu gewinnen, ist zunächst Sache der Grundlagenforschung.

Doch das Phänomen der Zellteilung ist auch aus medizinischer Sicht ungemein interessant,

wie PROF. ERICH A. NIGG, Direktor am Martinsrieder MAX-PLANCK-INSTITUT FÜR

BIOCHEMIE, im folgenden Bericht darlegt: Für Nigg wächst mit dem Wissen über den

Zellzyklus auch die Hoffnung auf neue therapeutische Ansätze gegen Krebserkrankungen.

Der Nobelpreis 2001 für Medizinund Physiologie ging an den

Amerikaner Leland (Lee) Hartwellsowie an die Briten Paul Nurse undTimothy (Tim) Hunt. Diese drei For-scher wurden für ihre grundlegendenEntdeckungen zur Regulation derZellteilung geehrt. Der Preis galtaber nicht nur drei hervorragendenWissenschaftlern, er rückte auch ei-ne wichtige Thematik der modernenZellbiologie, die „Zellzyklus“-For-schung, ins Rampenlicht. Diese For-schung beschäftigt sich mit dergrundlegenden Frage, wie biologi-sche Zellen sich vermehren und da-bei ihre Erbsubstanz – ihr „Genom“ –unverändert von einer Zellgenera-tion zur nächsten weitergeben.

Das Nobelkomitee hat Hartwell,Nurse und Hunt für ihre Beiträge zurKrebsforschung ausgezeichnet. Diesmag auf den ersten Blick erstaunen,haben doch die beiden GenetikerHartwell und Nurse die Vermehrungvon Hefezellen untersucht, währendder Biochemiker Hunt sich vornehm-lich mit Seeigeln und Muscheln be-schäftigt hat. Hefen sind jedemBäcker und Bierbrauer vertraut, undauch Seeigel und Muscheln kennenviele zumindest vom Urlaub her; wasdiese Organismen aber mit der Ent-stehung von Krebserkrankungen zutun haben sollen, verdient eine kurzeErklärung. In der Tat illustriert diejüngste Geschichte der Zellzyklus-Forschung einmal mehr, dass medi-zinisch wichtige Entdeckungen oftdort gemacht werden, wo man sievielleicht gar nicht erwarten würde.

schickt? Wie werden bei jeder Zelltei-lung alle Gene fehlerfrei kopiert undkorrekt auf die Tochterzellen verteilt?Und was geschieht bei tumoralen Er-krankungen? Weshalb kommt es beieinem Krebs zu unkontrollierten Zell-teilungen? Und weshalb sind vieleTumorzellen genetisch derart unsta-bil, dass besonders gefürchtete Artenvon Krebs ein immer aggressiveresVerhalten an den Tag legen?

Die Vermehrung von Zellen stellthöchste Ansprüche an die exakte Ko-ordination und präzise Ausführungeiner Vielzahl biochemischer Vor-gänge. Um sich zu teilen, muss eineZelle zunächst wachsen, also Protei-ne, Fette, Zucker und andere Baustei-ne für eine Verdoppelung zellulärerStrukturen bereitstellen. Insbeson-dere muss sie ihr gesamtes Genomvollständig und fehlerfrei kopieren.Anschließend muss das verdoppelteGenom während der eigentlichenZellteilung gleichmäßig auf die bei-den entstehenden Tochterzellen ver-teilt werden. Dazu werden die extremlangen DNS-Fäden des Genoms in eine kompakte, für die Verteilung geeignete Form gebracht, wodurchsie als so genannte Chromosomensichtbar werden. Schließlich findetdie eindrücklichste Phase der Zell-

Interphase Prophase Prometaphase Metaphase Anaphase Zytokinese

Was Hefe, Seeigel und Menschenmit allen anderen Lebewesen aufdiesem Planeten gemeinsamen ha-ben ist, dass sie aus Zellen aufgebautsind. Obschon pflanzliche Zellen(und deren Zellwände) bereits im 17.Jahrhundert unter dem Mikroskopsichtbar gemacht werden konnten,haben die Forscher erst im 19. Jahr-hundert erkannt, dass auch Tiere ausZellen aufgebaut sind. Die Einsicht,dass sämtliche Lebewesen aus Zellenbestehen, gehört zweifellos zu denwichtigsten wissenschaftlichen Er-kenntnissen aller Zeiten. Doch selbstnach der Formulierung der „Zell-theorie“ wurde lange über den Ur-sprung von Zellen gerätselt und de-battiert. Schließlich aber setzte sichdie Erkenntnis durch, dass Zellendurch binäre Teilung entstehen –oder wie es der berühmte PathologeRudolf Virchow prägnant formulier-te: „Omnis cellula e cellula.“ Somitist die Zellteilung ein Vorgang, derseit der Entstehung einer ersten „Urzelle“ – seit Beginn des Lebensauf diesem Planeten – ununterbro-chen abläuft.

Die biologische Zelle zeigt allecharakteristischen Eigenschaften desLebens, insbesondere die Fähigkeitzur Reproduktion. Sowohl die Struk-tur als auch die Funktionen einer je-den Zelle sind in einer vererbbarenSubstanz, der berühmten „Desoxyri-bonukleinsäure“ oder DNS, festge-schrieben. Diese erbliche Substanz,das so genannte Genom, beinhaltetdie Gesamtheit der genetischen In-formation einer Zelle. Auf speziellen

Proteinen aufgewickelt, liegt die DNSim Innern des Zellkerns in langenund extrem dünnen Fäden vor. Aufdiesen Fäden sind alle Gene des ent-sprechenden Lebewesens aneinander-gereiht, wobei jedes einzelne Gen dienotwendigen Instruktionen für dieHerstellung eines Proteins (oder inselteneren Fällen einer Ribonukle-insäure) beinhaltet. Somit entsprichtdas Genom einer Blaupause für dieHerstellung aller Makromoleküle, diefür den Aufbau und die Aktivitäteneines Lebewesens benötigt werden.

Hervorgegangen aus einer einzi-gen Zelle, der befruchteten Eizelle,besteht ein erwachsener Mensch ausetwa 1014 (100 000 Milliarden) Zel-len. Selbst nach der Beendigung deskörperlichen Wachstums hören Zell-teilungen aber keineswegs auf. VieleZellen im menschlichen Körper haben eine begrenzte Lebensdauerund müssen deshalb – ausgehendvon Stammzellen – ständig ersetztwerden. Beispielsweise haben roteBlutkörperchen eine Lebensdauervon lediglich 120 Tagen. Um abster-

bende Zellen zu ersetzen, müssendeshalb in einem menschlichen Kör-per jede Sekunde rund drei Millionenneue Blutzellen gebildet werden. Zudem kann diese Produktionsrate je nach Bedarf (zum Beispiel nach einem Blutverlust) erhöht werden.

Wie kommt es, dass entsprechendeStammzellen „wissen“, wann und wiehäufig sie sich teilen sollen, um einbestimmtes Gewebe oder Organ in-takt und funktionstüchtig zu erhal-ten? Was läuft im Innern einer Zelleab, wenn sie sich zur Teilung an-

Alle Lebewesen – ob Hefe, Seeigel oder Mensch – sind ausZellen aufgebaut, die sich durch Teilung vermehren. Die fluoreszenzmikroskopischen Aufnahmen im Vordergrund zeigen die Teilung einer menschlichen Zelle (das heißt: die verschiedenen Stadien der Mitose). Die Chromosomen (DNS,blau) werden durch ein Gerüst aus fädigen Strukturen (Mik-rotubuli, grün) und zwei kleine Zellorganellen (die Zentroso-men, gelb) auf die beiden neu entstehenden Zellen verteilt.

ILLU

STRA

TIO

N: R

OH

RER

/ FO

TOS:

MPI

RBI

OCH

EMIE

- E.

NIG

G-M

ARTI

GN

ON

I, P.

MER

ALD

I

Page 34: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 67

BIOCHEMIE

66 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

WISSEN aus erster Hand

Die Konstanz der genetischen Infor-mation ist eine unabdingbare Voraus-setzung für die Gesundheit eines je-den Lebewesens und für das Besteheneiner jeden Spezies. Demzufolge ist es nicht erstaunlich, dass die kor-rekte Durchführung des Zellzyklus einer strengen „Qualitätskontrolle“unterliegt. Einzelne Zellzyklus-Vor-gänge müssen sowohl zeitlich alsauch räumlich exakt koordiniert werden, und diese Koordination wird durch spezialisierte biochemi-sche Überwachungssysteme – so ge-nannte „Checkpoints“ – beaufsichtigt.Beispielsweise wird der Zellzyklus ge-stoppt, sobald durch einen CheckpointSchäden an der DNS entdeckt werden.Ähnlich wird aufgrund eines speziel-len Checkpoints die Mitose so langeangehalten, bis alle Chromosomenkorrekt an die Teilungsspindel ange-heftet sind. In höheren Lebewesensind bestimmte Überwachungssyste-me überdies in der Lage, im Falle irre-parabler Schäden einen programmier-ten Zelltod (die so genannte Apop-tose) auszulösen. Dadurch wird weit-gehend vermieden, dass genetisch geschädigte Tochterzellen entstehen.

FEHLER KOMMEN VOR –UND MÜSSEN SEIN

Eigentlich kann man nur staunen,mit welch hoher Präzision DNS-Syn-these beziehungsweise Mitose durch-geführt werden. Dennoch sind selte-ne Fehler unvermeidlich. Als Resultatfehlerhafter DNS-Synthese entstehenMutationen im Genom, sodass derInformationsgehalt einzelner Geneverändert wird. Andererseits führenFehler bei der Verteilung der Chro-mosomen zu „Aneuploidien“, dasheißt, zu Abweichungen von der nor-malen Chromosomenzahl. Vom me-dizinischen Standpunkt her betrach-tet sind solche Veränderungen dergenetischen Eigenschaften von Zel-len ebenso wichtig wie unerwünscht,führen sie doch im Allgemeinen zuErkrankungen. Andererseits solltenicht übersehen werden, dass einegewisse Veränderbarkeit der Erbsub-stanz eine Grundvoraussetzung fürdie Evolution darstellt.

Epidemiologische und molekular-biologische Untersuchungen habenzur Erkenntnis geführt, dass Krebser-krankungen von Mutationen (alsovon Veränderungen im Informations-gehalt) gewisser Schlüsselgene ab-hängig sind. Diese Schlüsselgenewerden als „Oncogene“ und „TumorSuppressor Gene“ bezeichnet – jenachdem, ob ihre Rolle bei der Ent-stehung von Tumoren auf zu viel (imFalle der Oncogene) oder zu wenigGenaktivität (im Falle der TumorSuppressor Gene) zurückzuführen ist.

Dabei muss aber betont werden,dass diese Gene lediglich im Falle ihrer Fehlregulation oder Fehlfunk-tion für die Entstehung von Krank-heiten verantwortlich sind. Im ge-sunden Organismus hingegen sinddieselben Gene für die Ausführungwichtiger Zellfunktionen unerläss-lich. Insbesondere spielen viele die-ser Gene eine entscheidende Rollebei der Steuerung der Zellteilung,während andere für die Qualitäts-kontrolle im Zellzyklus (für Check-points) zuständig sind. Als Konse-quenz übermäßiger Oncogen-Akti-vität kann es dazu kommen, dass ru-hende Zellen fortwährend zu weite-ren Teilungen stimuliert werden.Andrerseits kann der Verlust vonCheckpoint-Funktionen im Zellzy-klus eine zunehmende genetischeUnstabilität verursachen. Dabei gibtes gute Gründe zu der Annahme,dass gerade diese Fähigkeit zur fort-währenden genetischen Veränderungeine entscheidende Triebkraft für daszunehmend aggressive Verhalten ge-wisser Krebsformen darstellt. Über-dies liegt in der genetischen Wandel-barkeit von Tumorzellen höchst-wahrscheinlich die Erklärung für dashäufige Auftreten von therapieresis-tenten Zellen.

Es würde zu weit führen, im Rah-men dieser kurzen Abhandlung dieeinzelnen biochemischen Abläufe zudiskutieren, die während einer Zell-teilung im Innern der Zelle ablaufen.Es sei aber erwähnt, dass die grund-legenden Vorgänge der Zellteilung inallen Tieren und Pflanzen ähnlich re-guliert werden. Insbesondere hat man

teilung statt, die „Mitose“: Dabeiwerden die beiden kompletten Chro-mosomensätze korrekt getrennt undin einem räumlich und zeitlich genaukoordinierten Vorgang auf die zweisich bildenden Tochterzellen verteilt.Und zum Schluss werden die beidenTochterzellen dann durch einenDurchschnürungs-Prozess (Zytokine-se) voneinander getrennt. Der Begriff„Zellzyklus“ umfasst die Gesamtheitall dieser Vorgänge, von der Bereit-stellung der zellulären Bausteine überdie Verdoppelung des Genoms bis hinzur Verteilung der Chromosomenwährend der Mitose.

Dass der Zellzyklus vielfältigenKontrollen unterliegen muss, ist leichtzu verstehen. Selbst einzellige Lebe-wesen wie Hefen haben ein Interessedaran, ihr Zellteilungs-Verhalten aufdie Verfügbarkeit von Nährstoffenabzustimmen. In mehrzelligen Orga-nismen sind diese Kontrollen nochviel wichtiger, müssen doch die Zellteilungen innerhalb eines jedenOrgans den Bedürfnissen des gan-zen Körpers untergeordnet werden.Grundsätzlich muss im Laufe eines je-den Zellzyklus das gesamte Genom inunveränderter Form von einer Zell-generation zur nächsten übertragenwerden. Allerdings gibt es zu dieserRegel einige wichtige Ausnahmen:Insbesondere geht die Bildung vonKeimzellen – während der so genann-ten Meiose – mit einer Halbierung derChromosomenzahl einher.

während der vergangenen 10 bis 15Jahre erkannt, dass gewisse „Schritt-macher“ des Zellzyklus mehrere 100Millionen Jahre der Evolution in ih-rer Struktur und Funktion nahezuunverändert überdauert haben. Fürdie Charakterisierung eben dieserSchrittmacher wurden die drei No-belpreisträger Hartwell, Nurse undHunt ausgezeichnet. Dabei handelt es sich um spezielle Enzyme, so ge-nannte Protein-Kinasen, die im Ver-lauf des Zellzyklus periodisch an-und abgeschaltet werden. Durch ihreAktivität steuern diese Protein-Kina-sen praktisch alle wichtigen Prozesseim Zellzyklus, insbesondere die Ver-doppelung der DNS und die eigentli-che Zellteilung, die Mitose. Da sie al-le von speziellen regulatorischen Un-tereinheiten, so genannten Cyclinen,abhängen, werden diese Zellzyklus-Schrittmacher als cyclinabhängigeKinasen – oder CDKs („Cyclin-De-pendent Kinases“) – bezeichnet.

Protein-Kinasen sind Enzyme, die Phosphatmoleküle auf Proteineübertragen und dadurch deren Struk-tur und/oder Aktivität regulieren.Diese Phosphatübertragung (oder„Phosphorylierung“) wirkt auf mole-kularer Ebene wie ein Schalter, durchden biochemische Aktivitäten sehrschnell an- oder abgedreht werdenkönnen. Heute wissen wir, dass in je-der Zelle Hunderte von Protein-Kina-sen wirken. Diese steuern nicht nurdie Zellteilung, sondern auch meta-bolische Prozesse, Genaktivitäten so-wie die Übertragung hormonalerSignale. Die enorme Bedeutung vonProtein-Kinasen ist kaum zu über-schätzen, und dementsprechend wur-den die Entdecker der ersten Protein-Kinasen, Ed Krebs und Ed Fischer,bereits 1992 mit dem Nobelpreisausgezeichnet.

In der Zellzyklus-Forschung hattedie Entdeckung der CDKs, der Cyc-lin-abhängigen Protein-Kinasen, dieWirkung eines Dammbruchs. WenigeJahre nach ihrer Entdeckung in He-fen und wirbellosen Meerestierenwurden entsprechende Kinasen auchim Menschen nachgewiesen. Undmittlerweile ist bekannt, dass struk-

turell ähnliche CDKs den Zellzyklusin allen eukaryontischen Lebewesensteuern. In normalen Zellen wird dieCDK-Aktivität auf vielfältige Weiseunter Kontrolle gehalten. Insbeson-dere wird die Verfügbarkeit der Cyc-lin-Untereinheiten sowohl über dieSynthese als auch den Abbau dieserProteine genau dosiert. Überdieswerden die CDKs selbst durch Phos-phorylierung reguliert, und schließ-lich spielen physiologische Hemm-stoffe (so genannte CDK-Inhibitoren)eine wichtige Rolle bei der Begren-zung der CDK-Aktivität.

NEUE ANSÄTZE

FÜR KREBSTHERAPIE

Während die Aktivitäten der CDKsin normalen Zellen also streng regu-liert ablaufen, sind diese Regulati-onsmechanismen in Krebszellen ge-stört. Daher weisen bestimmte CDK-Formen in vielen Tumoren einedeutlich erhöhte oder zeitlich ausge-dehnte Aktivität auf. Wenn man da-nach fragt, wie eine Tumorzelle dieKontrolle über CDK-Aktivitäten ver-loren hat, so sieht man verschiedeneMechanismen am Werk. Insbesonde-re beobachtet man häufig eineÜberexpression bestimmter Cyclineoder aber einen teilweisen Verlustvon CDK-Inhibitoren.

Die beschriebenen Erkenntnisselassen kaum einen Zweifel daran,dass Krebserkrankungen wesentlichauf Störungen im Zellzyklus zurück-gehen. Dementsprechend werdenweltweit intensive Versuche unter-nommen, die aus der Zellzyklus-Forschung gewonnenen Erkenntnis-se zu klinischen Anwendungen zubringen. Beispielsweise suchen For-scher in vielen pharmazeutischenFirmen nach pharmakologisch wirk-samen Hemmstoffen von zellzyk-lusaktiven Protein-Kinasen. Auchwenn man sich stets vor Augen hal-ten muss, dass die Entstehung vonKrebs ein überaus komplexes biolo-gisches Problem darstellt, das nichtauf einen Verlust an Zellzyklus-Kon-trolle reduziert werden kann, sowecken die jüngsten Fortschritte inunserem Verständnis der Zellzyklus-

Regulation doch vielfältige Hoff-nungen auf neuartige therapeutischeAnsätze.

Noch steckt das Gebiet der Zell-zyklus-Forschung in den Kinder-schuhen, und viele grundlegendeFragen warten weiterhin auf Ant-worten. Beispielsweise wissen wirnach wie vor sehr wenig darüber,wie die DNS-Synthese reguliert undüberwacht wird, oder wie alle Chro-mosomen bei jeder Zellteilung kor-rekt auf die beiden Tochterzellenverteilt werden. Für zukünftige the-rapeutische Ansätze zur Behand-lung von Krebserkrankungen könn-ten aber gerade die Antworten aufsolche Fragen von größter Bedeu-tung sein. Lässt sich die für Tumor-zellen typische genomische Instabi-lität auf bestimmte genetische Unter-schiede zwischen Krebszellen undderen normale Nachbarn zurück-führen, dann könnte in eben diesenUnterschieden eine Achillesferse desTumors liegen. �

Prof. Dr. ERICH A. NIGG, geboren 1952 in der Schweiz, ist seit 1999 Direktor amMax-Planck-Institut für Biochemie in Martinsried. Nach der Promotion an der ETH Zürich 1980 ging er für zwei Jahre andie University of California in San Diego.1988 habilitierte er an der ETH Zürich im Fach Zellbiologie. Bis 1995 war Nigg

Forschungsgruppenleiter am Schweizerischen Institut fürExperimentelle Krebsforschung, bis 1999 Ordentlicher Professor an der Universität Genf. Zu den Schwerpunktenseiner Arbeit gehören Zellzyklus und Zellteilung, Spindel-organisation und Zentrosomenfunktion sowie die Erfor-schung von Mechanismen der Krebsentstehung.

Fluoreszenzmikroskopische Aufnahme einer sich normal teilenden menschlichen Zelle. Nach dem Ab-bau der Cycline werden Chromosomen (blau) anhandvon Mikrotubuli (grün) auseinandergezogen.

Fluoreszenzmikroskopische Aufnahme einer mensch-lichen Zelle, deren Teilung durch Überexpression

einer nicht-abbaubaren Cyclin-Mutante blockiert wurde (Chromosomen, blau; Mikrotubuli, grün).

FOTO

S: M

PI F

ÜR

BIO

CHEM

IE-

E. N

IGG-M

ARTI

GN

ON

I, P.

MER

ALD

I(2

) / W

OLF

GAN

GFI

LSER

(1)

Page 35: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 69

WissenschaftsGESCHICHTE

68 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

KONGRESSbericht

Simulieren geht über ProbierenDie Zeiten, da man noch mit Stift und Papier Wissenschaft betrieb, sind vorbei. Heute bestimmen digi tale Techniken den Stil und das Tempo der Forschung auf vielen

Gebieten. Mit Blick auf diese Entwicklung lud DR. URSULA KLEIN vom MAX-PLANCK-INSTITUT FÜR WISSENSCHAFTSGESCHICHTE in Berlin im Dezember

vergangenen Jahres Naturwissenschaftler, Historiker, Wissenschaftsphilosophen und -soziologen zu einer Tagung. Unter dem Motto „The Digital Workbench: Computer

Modelling, Data Processing and Visualization in Science and Technology“ standen aktuelle Fragen der Wissenschaftstheorie zur Diskussion: Wie verändern Computer-

simulationen den Stil der Forschung, den Glauben an die Verlässlichkeit der Wissenschaft – und nicht zuletzt auch unser Bild von der Natur?

Das Paradebeispiel einer compu-tergestützten – oder soll man

sagen: computerabhängigen – Wis-senschaft bietet die Klimaforschung.Als deren Vertreter argumentierteLennart Bengtsson, emeritiertes Wis-senschaftliches Mitglied des Ham-burger Max-Planck-Instituts für Me-teorologie: „Es gibt keinen Labor-tisch, an dem wir die Zukunft desErdklimas erkunden können – dieeinzige Möglichkeit dazu bietenComputersimulationen.“

Noch vor zwei Jahrzehnten wärendie detaillierten Prognosen undenk-bar gewesen, die heute eine dramati-sche Erwärmung der Erde anzeigen –die aber keineswegs unproblematischsind. Sowohl Modelle als auch dieihnen zu Grunde liegenden Messda-ten weisen nach wie vor erheblicheMängel auf. Dass sich das Klima ändert, ist nicht „verbriefte Gewiss-heit“, sondern eine Entwicklung, diemit einer bestimmten Wahrschein-lichkeit eintritt – ähnlich einer Wet-tervorhersage, von der man erst imNachhinein wirklich weiß, ob sierichtig war oder falsch.

Genau hier liegt die Schwierigkeit,so die Wissenschaftshistorikerin Na-omi Oreskes von der University ofCalifornia in San Diego: Die Compu-termodelle bieten nicht allein neueEinsichten, sie verschärfen vielmehrauch die Frage nach der Zuverlässig-keit wissenschaftlichen Wissens. Unddarauf zielen vor allem in den USA Kritiker der Klimamodelle: Wierealistisch sind die Simulationen

tatsächlich – und in welchem Maßkann und darf man sie für politischeEntscheidungen heranziehen?

Doch das Problem geht weit überdie Klimadebatte hinaus. Auch inanderen Fällen streiten sich Expertenüber die Zuverlässigkeit von Simula-tionen. Als Beispiel dafür nannteOreskes Yucca Mountain – einenBerg in der Wüste Nevadas, den dieUS-Regierung als Endlager fürAtomabfall im Auge hat. Wie dieNew York Times vor kurzem resü-mierte, währt der Streit darüber in-zwischen 14 Jahre und hat bereitsviereinhalb Milliarden Dollar ver-schlungen. Dennoch sind die rund1800 Wissenschaftler, die den„Atomberg“ regelmäßig in klimati-sierten Bussen aus Las Vegas aufsu-chen, bisher zu keinem endgültigenErgebnis gekommen.

Eine der Hauptstreitfragen: KönnteRegenwasser radioaktiven Müll ausdem Berggestein ins Grundwasserspülen? Das verneinen zwar Geolo-gen der Regierungsbehörden, ge-stützt auf Simulationen – konntendamit aber die Zweifel der Projekt-

sen, wonach Computersimulationenzwar elegant seien, harte Fakten in-dessen nur über Experimente zu ge-winnen wären: Diese Unterschei-dung sei vollkommen sinnlos. Zwarlieferten Rechnermodelle nie eindeu-tige Lösungen und deshalb nie völli-ge Sicherheit, doch Experimente tä-ten dies ebenso wenig. Denn moder-ne Messinstrumente seien oft derar-tig kompliziert, dass sich experimen-tell gewonnene Daten ohnehin nurmit Computermodellen verarbeitenließen – und damit ebenso vage blie-ben wie reine Simulationen.

Wohl nirgends wird das deutlicherals in der Teilchenphysik. „Hier las-sen sich praktisch keine Messdatenohne Computersimulationen auswer-ten“, sagte die Wissenschaftsforsche-rin Martina Merz von der UniversitätBern. Sie beobachtet seit Jahren dieArbeitsweise der Physiker am Eu-ropäischen Teilchenlabor CERN naheGenf: Um beispielsweise die Eigen-schaften eines bestimmten Elemen-tarteilchens über Versuche in einemTeilchenbeschleuniger überhaupt auf-decken zu können, berechnen diePhysiker das wahrscheinliche Ver-halten des fraglichen Partikels mit-tels Computermodellen voraus. Dennnur so lässt sich im Chaos der Mess-daten das Augenmerk für die mitun-ter flüchtigen Effekte schärfen.

„Haben sie es, oder haben sie esnicht?“, fragte sich die Fachwelt imJahr 2000, als die CERN-Forschermeldeten, dem so genannten Higgs-Teilchen auf der Spur zu sein, einemder meistgesuchten Partikel in derPhysik. Die Enttäuschung war groß,als der für die Versuche genutzteTeilchenbeschleuniger nach elfjähri-ger Laufzeit endgültig abgeschaltet

gegner nicht ausräumen. Oreskessieht in diesem Fall mehr als einenbloß politischen Streit: Er zeige auf,wie sich die Arbeit von Wissen-schaftlern gewandelt hat. So hättenGeologen ehemals die erdgeschicht-liche Auffaltung von Gebirgskettenzu verstehen versucht – sich dabeiaber mitnichten auf das heikle Feldder Prognosen begeben. „Ich binGeologe, ich mache keine Vorhersa-gen“, antwortete noch vor zwei Jah-ren der US-Wissenschaftler CharlieRubin auf die Frage, wann dennwohl mit dem nächsten Erdbeben ander San-Andreas-Spalte in Kaliforni-en zu rechnen sei. Inzwischen jedochwerden die Erdforscher von der Poli-tik in die Pflicht genommen – undversuchen, mittels Computermodel-len mögliche künftige Entwicklun-gen und die Wahrscheinlichkeit vonBeben in bestimmten Regionen ab-zuschätzen.

Das halten manche für begrüßens-wert, zum Beispiel der Wissen-schaftsphilosoph Stephen Nortonvon der University of Maryland. Erwill den Einwand nicht gelten las-

Computer als Interface zwischen Mensch und Nanowelt: Mit Hilfe der Scanning-Tunnel-Mikroskopie (STM), einercomputergestützten Mikroskopiermethode, lässt sich die räumliche Struktur von Molekülen abbilden, beispielsweiseder fußballartigen Fullerene (rechts). Links dazu im Ver-gleich: mit Computersimulationen erstellte 3-D-Modelle.

ABBI

LDU

NG

EN: T

HE

BIO

ENG

INEE

RIN

GIN

STIT

UTE

, UN

IVER

SITY

OF

AUCK

LAN

D

ABBI

LDU

NG

EN: I

GN

ACIO

PASC

UAL

, FRI

TZ-H

ABER

-IN

STIT

UT

Page 36: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 71

WissenschaftsGESCHICHTE

70 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

KONGRESSbericht

Laboratory in den USA ging sogarnoch weiter. Er sprach vom Computerals „numerischem Labor“: Neben denbeiden klassischen Erkenntnismetho-den der Physik – Experiment undmathematische Theorie – böten Com-putersimulationen gewissermaßen ei-nen dritten Weg, die Natur zu erfor-schen. Einerseits nämlich fußen Si-mulationen wie auch Theorien aufmathematischen Gleichungen; ande-rerseits würden Computermodelle(wie Experimente auch) zuvor völligunbekannte Phänomene enthüllen,beispielsweise die Entstehung vonWirbeln in bestimmten Strömungen.

„NANO-TASTSINN“ DURCH

TUNNEL-ELEKTRONEN

Tatsächlich bestreitet kaum einWissenschaftler, dass Computersimu-lationen bisher unerforschte Bereicheder Natur erschließen. Das zeigt auchdie „Scanning-Tunnel-Mikroskopie“(STM), eine computergestützte Mik-roskopiermethode, mit der man dieBeschaffenheit von Materialober-flächen bis in atomare Strukturensichtbar machen kann. „Dabei sinddie Möglichkeiten der STM parallelzur Entwicklung der Computertech-nik ständig gewachsen“, betont Igna-cio Pascual vom Fritz-Haber-Institutder Max-Planck-Gesellschaft in Ber-lin. Die STM nutzt einen Quantenef-

fekt, den so genannten Tunnelstrom.Dieser elektrische Strom beginnt zufließen, wenn man die feine Metall-spitze des Mikroskops einer Material-oberfläche bis auf etwa einen Nano-meter (einen Millionstel Millimeter)annähert. Dann überspringen einzel-ne Elektronen den winzigen Spalt –und je geringer der Abstand zwi-schen Spitze und Oberfläche, destostärker fließt der Elektronenstrom.

Wandert die Metallspitze währenddes Mikroskopiervorgangs über dieMaterialoberfläche, verursachen da-her selbst kleinste Höcker und Kuh-len entsprechende Schwankungendes Tunnelstroms – wodurch sichdas „atomare Relief“ der Material-probe quasi erfühlen lässt. Freilichbedarf es vielfältiger Rechenopera-tionen im Computer, um dieses Reliefoptisch abzubilden. So kommen beider Datenprozessierung digitale Fil-ter zum Einsatz, durch die sich dieQualität der Messsignale erhöhenlässt. Und Farbcodes oder 3-D-Effek-te werden genutzt, um die visuelleWahrnehmung zu erleichtern: „DerComputer wird damit zum Interfacezwischen Mensch und Nano-Welt“,stellt Pascual fest: Die Bilder atoma-rer Landschaften, wie sie die STMliefert, hätte kein menschliches Augeohne Hilfe der Computermodellie-rung je gesehen.

werden musste – noch bevor sich dieHiggs-Phänomene mit genügenderSicherheit beobachten ließen. „Es istnoch zu früh, um von einer Ent-deckung zu sprechen“, klagte damalsCERN-Physiker Christoph Rembser.„Die Hinweise sind zu vage.“

Doch ohne Simulationen wärenauch diese schwachen Spuren garnicht erst aufgefallen, und so haltenviele Physiker Computersimulationeninzwischen für einen Kernbestandteilihrer experimentellen Arbeit. „Nochvor zehn Jahren hätte man vieles,was wir heute machen, gar nicht alswissenschaftlich akzeptiert“, stellteauch Florian Müller-Plathe fest, deram Mainzer Max-Planck-Institut fürPolymerforschung die Eigenschaftenvon Kunststoffen in Modellsimulatio-nen untersucht. Inzwischen seienderartige Rechnermodelle im Zugebestimmter industrieller Produktions-prozesse sogar Standard, und Unter-nehmen zahlten dafür Geld. Bei-spielsweise lässt sich am Computertesten, welches Polymer am bestengeeignet ist, luftdichte Verpackungenherzustellen – oder umgekehrt Folienzu fertigen, die besonders durchlässigfür bestimmte Gase sind. Sogar diegenauen Diffusionswege der Gasmo-leküle durch die Polymerschicht kön-ne man im Computer nachvollziehen,so Müller-Plathe weiter: „Das Com-putermodell rekonstruiert gewisser-maßen die molekulare Reiseroute desGaspartikels durch den Kunststoff –und bietet damit zusätzliche Infor-mationen, die ein herkömmlichesDiffusionsexperiment nie hätte lie-fern können. Mit Hilfe solcher Simu-lationen verstehen wir also auch un-sere Experimente besser.“

Der Strömungsphysiker Karl-HeinzWinkler vom Los Alamos National

Noch in einem ganz anderen Sinnverlängern die Rechner die Reich-weite der Wissenschaft: Sie ermög-lichen es, die fast undurchschaubareKomplexität der Natur in den Griffzu kriegen. Das zumindest glaubtLeroy Hood, der in den achtzigerJahren am California Institute ofTechnology die automatische Gen-sequenzierung einführte und damitzu einem der Väter der modernenGenomforschung wurde.

Hood denkt inzwischen weiter: Inden vergangenen 30 Jahren hättenBiologen isolierte Gene und Eiweißestudiert. Nun aber komme es daraufan, Gene und Eiweiße in ihren schierunendlichen Wechselbeziehungen zuverstehen. Um diesem Ziel näher zukommen, hat Hood vor gut zwei Jah-ren im US-Staat Washington ein ei-genes Institute for Systems Biologygegründet. Dort erforschen Biologengemeinsam mit Computerspezialistendie verwickelten Zusammenhänge,die beispielsweise bestimmte Stoff-wechselvorgänge in Hefezellen be-einflussen. So hoffen die Wissen-schaftler, mittels leistungsstarkerModellsimulationen das Puzzle derbiologischen Forschung zu einerEinheit zusammenzufügen und das„System Organismus“ tatsächlich alsGanzes erfassen zu können.

Diese Vision verfolgt auch DenisNoble. Der Oxforder Physiologie-professor hat gemeinsam mit Kolle-gen aus Neuseeland und den USAein gigantisches Computermodellentwickelt: ein virtuelles Herz. DieForscher verschlüsselten dazu bio-chemische, elektrische und mechani-sche Eigenschaften der Herzzellen inrund 50 Millionen mathematischenGleichungen. Auf dem Computer-schirm schlägt das Organ, als wäre

es echt. Noble betrachtet dieses vir-tuelle Herz indes nur als Gesellen-stück einer neuen Biologie, die Le-bensvorgänge im Computer simu-liert, um den Organismus besser zuverstehen – und um Medikamentevirtuell zu testen. Manches davon istsogar schon Wirklichkeit: Als vor einigen Jahren ein neu erprobtesHochdruckmittel bei Patienten dieHerzströme veränderte, konnte Nob-les Team diesen Effekt durch eine Simulation im Computer tatsächlichnachvollziehen und außerdem zei-gen, dass er die normale Herzfunkti-on nicht gefährdet. Die US-Arznei-mittelbehörde FDA schenkte demvirtuellen Medikamententest Glau-ben und genehmigte das Präparat.

TRAUBENZUCKER ERNÄHRT

„TAMAGOTCHI-ZELLE“

Noble und Kollegen gehen davonaus, dass sich die derzeit noch enormaufwändigen Simulationen schnellbezahlt machen. So steckte die US-Industrie im Jahr 2000 rund 23 Mil-liarden Dollar in die Arzneimittelfor-schung. Doch nur jeder zehnte Dollarwurde in Mittel investiert, die dieklinischen Prüfungen auch erfolg-reich durchliefen, der große Rest desGeldes verpuffte bei der Erprobungvon Substanzen, die sich als nutzlosoder sogar gefährlich erwiesen. „Dasist eine Katastrophe“, sagt JeremyLevin, Präsident der von Noble mit-gegründeten Simulationssoftware-Firma Physiome Sciences in NewJersey: Er hofft, dass ein Teil derForschungsgelder anstatt in frucht-lose Pharmastudien nun in seine ei-gene Firma fließen könnte.

Inzwischen schießen vergleichbareProjekte weltweit aus dem Boden. Sotrafen sich vergangenes Jahr in den

USA zahlreiche Forschergruppenbeim ersten internationalen Sympo-sium zur „Computational Cell Biolo-gy“ – einer aufstrebenden Disziplin,die mit Computersimulationen Zellenmodellieren. Softwarepakete mitklangvollen Namen wie „VirtualCell“ oder „E-Cell“ wurden vorge-stellt. Mit dem Simulationspro-gramm E-Cell hatte ein Team um denjapanischen Bioinformatiker MasaruTomita bereits vor längerem eine hy-pothetische Zelle mit 127 lebens-wichtigen Genen im Computer ge-schaffen. Diese „Tamagotchi-Zelle“simulierte grundlegende Lebens-funktionen, nahm Traubenzuckeraus einem virtuellen Nährmediumauf und hielt ein stabiles Stoffwech-selgleichgewicht aufrecht.

„Freilich gibt es diese Zelle in derNatur so nicht“, kommentiert dieHeidelberger Biochemikerin UrsulaKummer, die selbst mit ihrem Teaman Computermodellen für denZuckerstoffwechsel arbeitet. Doch ei-ne vollständige Körperzelle mit allihren Eigenschaften zu simulieren,das sei bisher Science-Fiction, denn:„Im Grunde wissen wir von vielenbiochemischen Vorgängen nochherzlich wenig.“ Und ein Modellkönne schließlich nur so gut sein wiedas biologische Wissen, das manhineinsteckt. „Natürlich spiegeln allunsere Modelle nur einen Teil derWirklichkeit“, sagt Noble. Dochwenn sich eine Computersimulationan manchen Stellen als falsch erwei-se, biete das eben auch Hinweise aufdie eigentliche Natur der Dinge. „Wodas Modell scheitert, entsteht Er-kenntnis“, so Noble, „und deshalbliegt der Nutzen eines guten Modellsgerade darin, dass es nie ganz richtigist.“ MARTIN LINDNER

Synthese von Form undFunktion: Daten über dieArchitektur des Herzens lassen sich im Computer zu lebensnahen Organmo-dellen zusammenfügen (siehe auch Abb. auf S.69). Damit können beispielsweisevirtuelle Medikamenten-tests durchgeführt oderHerzrhythmusstörungen er-forscht werden.

Chirurgie in silico: Per Computer lässt sich simulieren, wie sich die

Hornhaut des Auges beieiner Operation verformt

und welchen mecha-nischen Belastungen siedadurch ausgesetzt ist.

ABBI

LDU

NG

EN: T

HE

BIO

ENG

INEE

RIN

GIN

STIT

UTE

, UN

IVER

SITY

OF

AUCK

LAN

D

Page 37: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 73

Moritz* scheint blendenderLaune zu sein. Freundlich

lugt er aus seinem Autotragesitz, indem ihn seine Mutter zu den Termi-nen und Unternehmungen seines ge-rade mal neunmonatigen Lebensbringt: Kinderarztbesuche, Einkau-fen, Treffen bei Freundinnen der

Mutter, andere Kinder sehen – wasman eben so erlebt als Baby. Dassheute etwas Ungewöhnliches aufdem Programm steht, kann Moritznicht wissen. Er ist für die Forschungim Einsatz: Er nimmt an einer Studieteil, in der Wissenschaftler das Ver-

ka Holzmeier konnte keine dieserFragen exakt beantworten, obwohlsie sehr viel Zeit mit Moritz ver-bringt. Und so schien es ihr nur fol-gerichtig, das Angebot anzunehmen,das ihr das Max-Planck-Institut fürpsychologische Forschung in Mün-chen machte. „Unsere Forschungs-

PSYCHOLOGIE

72 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

FORSCHUNG & Gesellschaft

In den ersten Monaten

lernen Babys mehr als jemals

später in ihrem Leben.

Sie erforschen die Welt und

bewältigen mit ihren Sinnen

eine Fülle von Reizen und

Eindrücken. Wie sich die

Grundlagen der Steuerung

eigener Handlungen und das

Verständnis für die Hand-

lungen anderer Personen in

den ersten 18 Lebensmonaten

entwickeln, untersucht

GISA ASCHERSLEBEN mit

ihrer Forschungsgruppe

„Entwicklung von Kognition

und Handlung” am MAX-

PLANCK-INSTITUT FÜR

PSYCHOLOGISCHE

FORSCHUNG in München.

Ihre zentrale Annahme:

Schon Kleinkinder regulieren

zielgerichtete Handlungen,

indem sie die Effekte, die

diese Handlungen in der Welt

produzieren, gedanklich

vorwegnehmen.

FOTO

S: W

OLF

GAN

GFI

LSER

Wie Babys die Weltbegreifen lernen

halten von gesunden, normal ent-wickelten Babys beobachten.

„Wir laden Sie ein!! Ihr Baby kannuns helfen!!”: Monika Holzmeier*war erstaunt über den Brief, vondem sie ein gemaltes Babywesen mitrosa Bäckchen und gelbem Strahlen-kranz um den Kopf anschaute. „Ha-

ben Sie sich auch schon mal gefragt,wie Babys die Handlungen andererMenschen verstehen und ab wannsie andere Personen imitieren kön-nen? Wie lernen Babys, Dinge zu er-greifen und sie gezielt zu bewegen?Und wie merken sie sich, welche Fol-gen ihre Handlungen haben?” Moni-

Spielen im Dienst der Wissenschaft: Voller Freudeprobiert Moritz unter mütterlicher Aufsicht, ob manden gelben Tischtennisball vom Koalabären abneh-men kann, den die psychologisch-technische Assis-tentin Maria Zumbeel ihm hinhält. Die Videokamera(im Hintergrund) zeichnet Moritz’ Verhalten auf.

* Namen von der Redaktion geändert

Page 38: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 75

te: Erstens untersuchen die Wissen-schaftlerinnen die kognitiven Aspek-te der kindlichen Handlungskontrolleund deren Entwicklung, zweitens die Entwicklung des kindlichen Ver-ständnisses von Handlungen, dievon anderen Personen ausgeführtwerden, und drittens interessiert sieder Zusammenhang dieser beidenKomponenten.

Was ist eigentlich eine Handlung?Eine klare Definition dieses Begriffsist grundlegend für die Forschungs-arbeit der Gruppe. Aschersleben undihre Mitarbeiterinnen gehen davonaus, dass Handlungen auf Ziele aus-gerichtet sind und sich dadurch voneinfachen Bewegungen unterschei-den. Handlungen bestehen demnachaus zwei Komponenten: Bewegungund Ziel – entsprechend der etablier-ten Unterscheidung zwischen Mittel(means) und Zweck (end). Um so-wohl gesehene Handlungen interpre-tieren als auch eigene, zielgerichteteHandlungen ausführen zu können,müssten bereits Säuglinge in der La-ge sein, zwischen einer Bewegungund ihrem Ziel zu unterscheiden. DieIdee, dass für das Verständnis einerHandlung vor allem deren Effektewichtig sind – also das, was dieHandlung in der Umwelt bewirkt –wurde nach Meinung der MünchnerBabyforscherinnen in der entwick-lungspsychologischen Literatur bis-lang zu wenig beachtet.

Alle Projekte der Münchner Max-Planck-Psychologen sind durch den„Ansatz der gemeinsamen Codie-rung” motiviert. Durch diesen An-satz verabschieden sich die Forschervon der klassischen Vorstellung, dassProzesse der Wahrnehmung und derHandlungssteuerung jeweils eigenenFunktionssystemen angehören, unddass die dazu gehörigen sensori-schen beziehungsweise motorischenInformationen getrennt verarbeitetwerden. Die Forscher nehmen viel-mehr an, dass Wahrnehmungsinhalteund Prozesse der Handlungssteue-rung im kognitiven System gemein-sam repräsentiert sind. Die Codesvon wahrgenommenen Ereignissen

und zu produzierenden Handlungenkönnen also direkt kommunizieren,ohne dass ein Übersetzungsprozesszwischen der perzeptiven und dermotorischen Seite nötig ist.

Handlungen und wahrgenommeneReize werden auf die gleiche Weiseverarbeitet – nämlich als Ereignissein der Umwelt. Wenn nun Handlun-gen durch die kognitive Vorwegnah-me ihrer Effekte kontrolliert und ge-steuert werden, dann sollte dies so-wohl für Erwachsene als auch fürKleinkinder gelten. Im Detail heißtdas: Man sollte bei Säuglingen nach-weisen können, dass die Effekte vonBewegungen die Art und Weise be-einflussen, wie Kinder ihre eigenenHandlungen steuern, und wie sie dieHandlungen anderer Menschen in-terpretieren.

Aber wie lassen sich überhauptAussagen über das Handlungsver-ständnis von Säuglingen treffen?Schließlich kann man sie nicht be-fragen. Das Aufkommen der Video-technik hat die Arbeit der Entwick-lungspsychologen ungemein erleich-tert – nicht zuletzt aus diesem Grundwandten sich seit den siebziger Jah-ren immer mehr Wissenschaftlerweltweit der Erforschung vonKleinstkindern zu. Mit Videokameraslassen sich das Verhalten und dieBlicke von Säuglingen in fest um-schriebenen Situationen beobachtenund aufzeichnen. Anschließend wirddann das Videomaterial Bild für Bildanalysiert, um die einzelnen Be-standteile des Verhaltens und ihreDauer zu codieren und zu quantifi-zieren. Diese Ergebnisse werdendann zu den jeweiligen Erwartungenund Hypothesen in Bezug gesetzt.

BLICKE VERRATEN

NEUGIER UND LANGEWEILE

Die Münchner Säuglingsforsche-rinnen verwenden verschiedene eta-blierte methodologische Vorgehens-weisen. Sie machen sich dabei dieNeugier von Kindern zunutze undihre Neigung, Handlungen nachzu-ahmen. So werden den Babys gemäßdem „Preferential-looking-Paradig-

PSYCHOLOGIE

74 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

gruppe sucht wissenschaftliche Ant-worten auf diese Fragen. Wir würdenuns freuen, wenn Sie und Ihr Babyan einer unserer Studien teilnehmenwürden”, hieß es in der Einladung.

„Max-Planck-Institut, das klangfür mich gleich seriös”, sagt die Mutter. „Da stellt man sich dochgern zur Verfügung und außerdemmacht das auch Spaß.” Und so ist derkleine Welterforscher heute bei den„großen“ Forschern zu Gast. MonikaHolzmeier sitzt im babygerecht aus-staffierten Warteraum im Institut,der so gar keine Laboratmosphäreverbreitet. Es gibt einen Wickeltisch,Spielsachen und eine komplette klei-ne Küchenzeile mit Mikrowelle undFlaschenwärmer – falls der kleineHunger zwischendurch gestillt wer-den muss. Hier werden Mutter undKind von den Wissenschaftlerinnenbegrüßt, die vor Beginn der Beob-achtung erst einmal mit Moritz ver-traut werden wollen.

Jahrhundertelang galten Kinder imWesentlichen als unvollkommene Er-wachsene. Man definierte sie durchdas, was sie nicht konnten und nichtwussten. Säuglinge wurden in dieserZeit als passive Wesen gesehen, diein den ersten drei Lebensmonatennur wenig von ihrer Umwelt bemer-ken und lediglich reflexhaft auf ihreUmwelt reagieren können. Dies än-derte sich zu Beginn des 20. Jahr-hunderts, als das Interesse daran er-wachte, wie sich der Geist und auchdas Gehirn im Verlauf der Lebens-spanne verändern und entwickeln.Außerdem entdeckte man bei dersystematischen Beobachtung vonBabys deren erstaunliche Fähigkei-ten und Fertigkeiten, die bald denBegriff des „kompetenten Säuglings”prägten.

Der Begründer der modernen Ent-wicklungspsychologie, Jean Piaget,beobachtete in den dreißiger Jahrendes 20. Jahrhunderts die Entwick-lung seiner eigenen Kinder undzeichnete minutiös in Tagebücherndie scheinbar zufälligen Muster inihrem Verhalten auf. Dadurch er-kannte er, dass Säuglinge schon von

Lebensbeginn an einiges Wissen be-sitzen und außerdem ausgeprägteLernfähigkeiten mitbringen – eineErkenntnis, die sich mehr und mehrzu etablieren begann, als die Säug-lingsforschung verstärkt in den wis-senschaftlichen Fokus rückte.

Viele Studien haben gezeigt, dassBabys und Kleinkinder weit mehrvon der Welt wissen und über sie ler-nen, als man geglaubt hat. Säuglingesind eben nicht bloße Reflexbündel,sondern sie beobachten ihre Umweltund ihre Mitmenschen genau, ma-chen Vorhersagen, ziehen Schlüsseund sind vielleicht sogar auf der Su-che nach Erklärungen. Bislang wis-sen Entwicklungspsychologen mehrdarüber, was Kinder in welchem Al-ter können, als darüber, wie sie dieslernen. Darum erarbeiten Wissen-schaftlerteams weltweit Theoriendarüber, was Babys in jedem Ent-wicklungsstadium wissen, auf wel-che Weise dieses Wissen entstehtund wie sie noch mehr lernen.

VERSTEHEN BABYS, WAS

ANDERE MENSCHEN TUN?

In der Max-Planck-Gesellschaftbeschäftigen sich mehrere Instituteund Einrichtungen mit der Beobach-tung von Babys. So werden bei-spielsweise am Friedrich-Miescher-Laboratorium für biologische Ar-beitsgruppen in Tübingen Prozesseder Gesichts- und Objekterkennungim Säuglingsalter untersucht. AmLeipziger Max-Planck-Institut fürevolutionäre Anthropologie erfor-schen die Wissenschaftler, wie sichwährend des ersten Lebensjahres soziale Erwartungen herausbilden,und wie sich Nachahmung undKommunikation in den ersten 18 Le-bensmonaten entwickeln.

Die Forschungsgruppe „Entwick-lung von Kognition und Handlung”am Max-Planck-Institut für Psycho-logische Forschung in München hatsich unter der Leitung von GisaAschersleben auf die kognitiven Me-chanismen der Handlungskontrollein den ersten zwei Lebensjahren spe-zialisiert. Es gibt drei Themengebie-

FORSCHUNG & Gesellschaft

ma“ zwei Objekte oder zwei Hand-lungen gleichzeitig gezeigt und danndie Betrachtungszeiten analysiert.Präferiert der Säugling eine derHandlungen, schaut er also eineHandlung länger an als die andere,wird dies als Beleg dafür angesehen,dass er einen Unterschied zwischenden Handlungen bemerkt hat. Das„Habituations-Paradigma“ basiert da-gegen darauf, dass Babys sich zulangweilen beginnen, wenn man ih-nen mehrmals dasselbe zeigt. Das In-teresse des Säuglings für einen wie-derholten Handlungsablauf sinkt,und die Betrachtungszeit wird kür-zer, weil er sich an den Anblick ge-wöhnt. Kommen neue Abläufe oderDinge ins Spiel, steigt die Aufmerk-samkeit wieder, und die Blickdauerwird länger (Dishabituation). Ausdieser Verhaltensveränderung kannman schließen, welche Merkmale eines Handlungsablaufs für Babysvon besonderer Bedeutung sind.

BEWEGUNG ODER ZIEL –WAS IST INTERESSANTER?

Mit Hilfe dieser Methode habenGisa Aschersleben und Bianca Jova-novic nachgewiesen, dass Säuglingezumindest in Ansätzen die Zielge-richtetheit von Handlungen andererMenschen wahrnehmen. Ihre Studiebaut auf einer Untersuchung derAmerikanerin Amanda Woodwardauf, in der Babys auf einer kleinenBühne wiederholt eine Hand sahen,die nach einem von zwei Spielzeu-gen griff. Sobald sich die Babys andiese Handlung gewöhnt hatten,wurde die Position der Spielzeugevertauscht, und die Hand griff ab-wechselnd nach dem einen oder demanderen Spielzeug. Es zeigte sich,dass bereits sechs Monate alte Säug-linge stärker dishabituierten – alsolänger hinschauten –, wenn sich dasZiel der Handlung (das Spielzeug)änderte, als wenn sich die Bewegungselbst änderte. Ein entsprechendesReaktionsmuster ergab sich jedochnicht, wenn die Bewegung unab-sichtlich aussah, in diesem Fall also,wenn das Spielzeug mit dem Hand-

Auf dem Schoß der Mutter sitzend, beobachtet das Baby, was der Arm auf der

Bühne in einer unabsichtlich aussehenden Bewegung mit dem Handrücken tut.

Die Blickbewegungen der Kinder zeigen: Ändert sich das Zielobjekt, also das Spielzeug,

schauen sie länger hin, als wenn der Arm eine andere Bewegungsrichtung nimmt.

Page 39: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 77

PSYCHOLOGIE

76 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

rücken berührt wurde. Woodwardwertete das Ergebnis als Hinweisdarauf, dass Säuglinge fähig sind,zwischen absichtlichen und unab-sichtlichen Handlungen zu unter-scheiden.

Doch woran machen Babys dieseUnterscheidung fest? Das wollte dasTeam um Aschersleben herausfinden.Ihre Vermutung war, dass sich dieBlickmuster für „Greifen“ und „mitdem Handrücken berühren“ unter-scheiden, weil die Kinder unter-schiedliche Erwartungen hinsichtlichder möglichen Effekte der Handlun-gen haben. Schon Säuglinge sinddamit vertraut, dass beim Greifenüblicherweise die Position von Ob-jekten verändert wird. Unabsichtli-che Handlungen sind dagegen wahr-scheinlich nicht mit bestimmten Ef-fekten assoziiert. Würde nun aber ei-ne unabsichtliche Handlung einensichtbaren Effekt auf das Objekt aus-üben, müsste dies dazu führen, dassdie Kinder die Handlung als zielge-

schiedlichen Perspektiven aufzeich-nen, fallen kaum auf. Während diepsychologisch-technische AssistentinMaria Zumbeel mit der Demonstra-tion der Bewegungen beginnt, schau-en im benachbarten Technikraum allegebannt auf den Bildschirm: Wie wirdMoritz reagieren?

Der Bub ist äußerst angetan vondem Koalabären, den Maria Zumbeelihm zeigt. Am rechten Arm desStofftiers ist ein gelber Tischtennis-ball befestigt. Außerdem präsentiertdie Assistentin einen Becher, in demsich ein zweiter, identischer Ball be-findet. Sie schüttelt den Becher, unddas Geräusch des kullernden Balls istzu hören. Moritz möchte die Objekteam liebsten sofort anfassen, aber siewerden zunächst beiseite geräumt.Erst zehn Minuten später, nachdemMoritz einige andere Aufgaben bear-beitet hat, werden der Bär mit demBall und ein leerer Becher vor ihmaufgestellt. Kann er sich nun nochan das erinnern, was Maria Zumbeelvorgeführt hat? Und kommt er alleinauf die Idee, den Ball vom Bären ab-zunehmen, in den Becher zu tun undauf diese Weise sich selbst eine ArtRassel zu bauen?

„Gut, dass der Ball abwaschbar ist“,entfährt es Birgit Elsner, die vomTechnikraum aus auf dem Monitorbeobachtet, was Moritz tut. Denn dernimmt den Ball zwar vom Bären ab,denkt aber gar nicht daran, ihn inden Becher zu stecken. Die genaueUntersuchung des Balls mit Händenund Mund scheint viel interessanterzu sein. Für Birgit Elsner ist das nichtüberraschend: „Neun Monate alte Babys werfen den Ball selbst dannnicht in den Becher, wenn wir es ih-nen zehn Minuten vorher gezeigt ha-ben“, hat sie inzwischen festgestellt.Sind die Babys jedoch nur drei Mo-nate älter, dann werfen sie den Ball inden Becher, nachdem es ihnen vorge-macht wurde. Aber auch in diesemAlter stellen Babys die Beziehungzwischen dem Mittel („Ball in den Be-cher tun“) und dem Ziel („Ball im Be-cher geräuschvoll schütteln“) nichther, wenn sie den Bewegungsablauf

FORSCHUNG & Gesellschaft

nicht gesehen haben. Die Tatsache,dass einjährige Kinder die Hand-lungssequenz nachahmen, mag alsBeleg dafür gelten, dass Babys durchBeobachtung zuerst andere Personenverstehen und auf diese Weise er-fahren, dass Menschen zielgerichteteDinge tun. Dieses Wissen könnten dieBabys anschließend nutzen, um sichselbst und ihre eigenen Handlungenzu verstehen.

SPIELEN FÜR DIE FORSCHER

MACHT MÜDE

Moritz hat inzwischen fast eineViertelstunde im Beobachtungsraum„gearbeitet“ und wird langsam müde.Koalabär, Tischtennisball und diefreundliche Animation von MariaZumbeel scheinen ihn nur nochmäßig zu interessieren. Und auch dereingeschränkte Aktionsradius aufdem mütterlichen Schoß findet nunsein Missfallen. Aber das machtnichts, denn das Forschungspro-gramm ist stets an der Mitmachlustder Kinder orientiert. Trotzdem kal-kulieren Birgit Elsner und ihre Kolle-ginnen immer mit ein, dass einigeBeobachtungen nicht ausgewertetwerden können, weil die Kinder keinInteresse an den Studien zeigen, starkfremdeln oder anfangen zu weinen.„Man muss rund 30 Kinder einladen,um 24 auswertbare Videoaufzeich-nungen zu bekommen“, sagt sie.

Glücklicherweise gibt es in Mün-chen genügend interessierte Eltern,die die Einladung des Max-Planck-Instituts annehmen. Und dass Elternund Kinder auch gern für weitereStudien wiederkommen, liegt nichtnur an dem bedruckten Halstuchoder an der Urkunde mit Polaroid-foto, die man den Babys als Danke-schön für ihre erste Mitarbeit imDienste der Forschung mit nach Hau-se gibt. Es zeigt vielmehr, dass derAnspruch, den Birgit Elsner für dieArbeitsweise der Gruppe formuliert,erfüllt wird: „Grundlagenforschungmit Säuglingen erfordert nicht nurwissenschaftliches Können. Sie lebtauch davon, dass Eltern und Kindersich bei uns wohl fühlen.” SUSANNE BEER

Ralf Möller lässt Roboterlernen: Über einKamerasystemsieht der Greifarm die unterschiedlich geformten Holzbausteineund soll sie richtig fassen können.

richtet werten und ähnlich reagierenwie bei einer Greifhandlung. Um die-se Hypothese zu testen, zeigtenAschersleben und Jovanovic sechsMonate alten Babys, wie eine Handein Spielzeug mit dem Handrückenberührt und es anschließend um ei-nige Zentimeter verschiebt.

Wie erwartet verhielten sich dieKinder unter diesen Bedingungenähnlich wie in der WoodwardschenGreifstudie: Nach der Gewöhnungs-phase kehrte ihre Aufmerksamkeitbei einer Änderung des Spielzeugsstärker zurück als bei einer veränder-ten Bewegung. Ziele und Effekte vonHandlungen sind demnach beson-ders wichtig für die frühe Interpreta-tion dessen, was Menschen tun.Möglicherweise hilft diese spezifi-sche Sensitivität für Effekte den Ba-bys dabei, die komplexen Hand-lungsabläufe, die sie täglich in ihrerUmwelt beobachten, in einfache undsinnvolle Sequenzen zu gliedern.

Ob Babys das, was sie bei anderenMenschen sehen, auch auf ihre eige-nen Handlungen übertragen, wirdentsprechend dem Imitations-Para-digma untersucht, das den Nachah-mungstrieb der Babys nutzt: Manzeigt einen festgelegten Handlungs-ablauf, bei dem Bewegungen mit einem Objekt ausgeführt werden;anschließend darf das Baby selbstmit dem Objekt spielen, und die For-scher analysieren, ob es die gesehe-nen Bewegungen öfter ausführt alsein Kind der Kontrollgruppe, dem dieHandlung nicht vorgeführt wurde.

BÄR, BALL, BECHER –DIE MITTEL UND DAS ZIEL

Moritz ist so ein „Kontrollkind“ undsitzt nun im Beobachtungsraum aufdem Schoß seiner Mutter an einemTisch. Sie darf Moritz nur an denHüften halten, damit er unbehelligtspielen kann. Im Gegensatz zum War-teraum ist dieser Raum in gedecktenFarben gehalten und schlicht einge-richtet – nichts soll das Kind von dengezeigten Bewegungen und Objektenablenken. Auch die Videokameras, die Moritz’ Verhalten aus unter-

Kognitionspsychologische Forschung mit handlungsorientier-tem Schwerpunkt steht seit der Berufung von Wolfgang Prinzals Direktor im Mittelpunkt der Arbeit des Max-Planck-Insti-tuts für Psychologische Forschung. Dessen Mitarbeiter führenStudien durch, die auf eine umfassende Analyse der kognitivenGrundlagen der Handlungssteuerung zielen, nicht nur bei Babys. Denn die Kognitionspsychologie hat Handlungsprozesselange Zeit weitgehend ausgeblendet und sich auf Menschen alserkennende, nicht aber als handelnde Wesen beschränkt. Nunsoll näher beleuchtet werden, wie sich Wahrnehmungs- undHandlungsprozesse wechselseitig beeinflussen. Durch die Ein-richtung von gleich drei Selbständigen Nachwuchsgruppen hatPrinz das Forschungsfeld jetzt weiter ausgebaut: Die Gruppenuntersuchen die „Kognitive Psychophysiologie der Handlung“,forschen zu „Kognitiver Robotik“ und haben die „Sensomoto-rische Koordination“ im Blick.

EIN ROBOTER ALS MODELL

Üblicherweise werden menschliche Kognition und Handlunganhand experimenteller Befunde analysiert, doch Ralf

Möllers sechsköpfige Gruppe für Kognitive Robotik schlägt denumgekehrten, synthetischen Weg ein: Sie versucht, Modelle vonWahrnehmungs- und Handlungsauswahl zu formalisieren undin Computersimulationen umzusetzen, die letztendlich wiederVerhalten „synthetisieren“. Beobachtet man das in der Simula-

Wahrnehmen und Handeln – eine Einheit

An den Monitoren verfolgen die Mitarbeiter den Versuchsablauf und zeichnen ihn auf.

Die Forschungsgruppe „Entwicklung von Kognitionund Handlung“ um Gisa Aschersleben (Mitte).

Page 40: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 79

in zwei Wege der Informationsverarbeitung, den dorsa-len und den ventralen Pfad. Seit langem herrscht Einig-keit darüber, dass diese beiden Pfade nicht nur physiolo-gisch getrennt, sondern auch für unterschiedliche Aufga-ben in der Reizverarbeitung zuständig sind. Edmund Wa-scher will die Annahme, dorsal und ventral ablaufendeProzesse würden sich eher in Bezug auf Zeitabläufe un-terscheiden und weniger hinsichtlich der Verarbeitungunterschiedlicher Reizaspekte, nun präzisiert wissen: Derdorsale Pfad wäre demnach für schnelle visuo-motori-sche Umwandlung zuständig, während der ventrale Pfaddie langsame beziehungsweise kognitiv vermittelte Reiz-verarbeitung widerspiegelt. Diese – bislang auf Patien-tenstudien basierende – Annahme kann die Gruppe nunauch bei gesunden Probanden bestätigen.

In einer Reihe von Studien wurden die Gehirnströmevon Probanden untersucht, während diese einfache Auf-gaben lösten. Je nach Auftauchen eines bestimmten Rei-zes auf einem Monitor mussten die Probanden einenTastendruck mit der rechten oder linken Hand ausführen.Erhielten die Probanden zusätzlich zum eigentlichenZielreiz auch irrelevante Information, so konnte dieseden Tastendruck entweder beschleunigen (wenn die irre-levante Information das Handlungskonzept unterstützte)oder verlangsamen (wenn irrelevante und relevante In-formation im Widerspruch standen). Dabei zeigte sich,dass nur beschleunigende Effekte eindeutig einer Akti-vierung des dorsalen Pfades zugeordnet werden konnten.Wurden jedoch in nahezu derselben Anordnung basaleGrundvoraussetzungen einer natürlichen Handlung ver-letzt (indem die Probanden beispielsweise die Hände per-manent überkreuzen mussten), so war dieser Mechanis-mus nicht mehr aktiv.

PSYCHOLOGIE

78 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

tion erzeugte Verhalten, kann man einerseits prinzipielldarauf schließen, wie brauchbar ein Modell ist – erkenn-bar daran, ob es sinnfälliges Verhalten hervorbringt. An-dererseits kann man es mit dem Verhalten menschlicherVersuchspersonen vergleichen, um weitere Erkenntnisseüber die zugrunde liegenden Hirnprozesse zu gewinnen.So versuchen die Mitarbeiter der Gruppe, experimentelleErgebnisse ihrer „analytisch“ arbeitenden Kollegen imInstitut mithilfe künstlicher neuronaler Netzwerke – alsoSimulationen von Vorgängen in biologischen Nervensys-temen – zu reproduzieren und zu erklären. Eine Beson-derheit bei der Umsetzung der synthetischen Methodebesteht darin, dass in der Regel nur das Modell der neu-ronalen Vorgänge simuliert wird, nicht aber die Umwelt,in der wahrgenommen und gehandelt wird. Das vermei-den mittlerweile viele Gruppen mit ähnlicher Ausrich-tung, da vereinfachende Annahmen bei der Gestaltungder Umweltsimulationen oft zu Fehlentwicklungen inden neuronalen Modellen führten. Im Labor der Gruppefinden sich deshalb mehrere „künstliche Agenten“, unteranderem ein sechsgelenkiger Roboterarm, der über einbewegliches Stereo-Kamerasystem visuelle Informatio-nen über seine Welt erhält. In Reichweite des Greifarmsliegen verschiedene Objekte, derzeit farbige, unterschied-lich geformte Holzbausteine. Seine Wahrnehmungsfähig-keiten sollen sich letztlich im zielgerichteten Verhaltendes Robotersystems äußern – beispielsweise sollen Ob-jekte an den richtigen Stellen und in passender Orientie-rung ergriffen werden.

In den theoretischen Konzepten der Gruppe zeigt sichdeutlich eine Abkehr vom klassischen „kognitivistischenParadigma“, das Wahrnehmung und Handlungsauswahlals getrennte Prozesse betrachtet. Den Modellen, die eingrundlegendes Raum- und Formverständnis erklären sol-len, liegt deshalb ein handlungsorientierter Wahrneh-mungsbegriff zugrunde: Objekte werden im Gehirn nichtdirekt durch ihre visuellen Merkmale „repräsentiert“,stattdessen wird anhand ihrer visuellen Merkmale indi-rekt auf sensorische Konsequenzen des Umgangs mit ih-nen geschlossen – ein Objekt wird also unmittelbar inseiner Handlungsbedeutung wahrgenommen. Erforder-lich dafür ist Wissen über die Konsequenzen eigenerHandlungen; dies erlernt der Roboterarm in der Interak-tion mit den Gegenständen in seinem Greifraum.

Künstliche neuronale Netzwerke erfassen und spei-chern die Zusammenhänge zwischen den Bewegungendes Roboters und den daraus resultierenden Änderungendes wahrgenommenen Bildes. Das erlernte Wissen wirddann benutzt, um in unbekannten Situationen Hand-lungskonsequenzen vorherzusagen. Dies führt letztend-lich dazu, dass Wahrnehmung und Handlungsauswahlverschmelzen: Eine visuelle Szene wird durch die Vor-hersage von Handlungskonsequenzen „begriffen“, zu-gleich können aber aufgrund der Vorhersage passendeHandlungen ausgewählt werden. �

FORSCHUNG & Gesellschaft

Obwohl sich auch diesmal Einflüsse irrelevanter Infor-mation auf die Handlung fanden, konnte man nichtmehr von vergleichbarer Informationsverarbeitung aus-gehen. Wascher und seine Gruppe vermuten nun, dass eseine Reihe von psychologischen Phänomenen gebenmuss, welche zwar oberflächlich große Ähnlichkeitenmiteinander aufweisen, jedoch auf unterschiedlichenMechanismen basieren und somit auch physiologisch ge-trennt im Gehirn realisiert sind. Um dies zu überprüfen,wird die Informationsverarbeitung vom Auge zur Handnun Schritt für Schritt unter die Lupe genommen. �

VOM KAUEN, SPRECHEN UND DEUTEN

Noch ganz neu ist die im Rahmen des Kooperations-abkommens zwischen der Max-Planck-Gesellschaft

und des französischen CNRS (Centre National de la Re-cherche Scientifique) eingerichtete Nachwuchsgruppevon Rafael Laboissière. Er wird untersuchen, wie daszentrale Nervensystem (ZNS) mit der Komplexität desmotorischen Systems umgeht. Dazu hat er während sei-ner Forschungstätigkeit in Frankreich ein biomechani-sches Modell des Sprechapparates entworfen, das er alsAusgangspunkt für die Arbeit in der Nachwuchsgruppenutzen möchte. Nach welchen Prinzipien erzeugt undkoordiniert das Gehirn die Befehle bei der Produktionvon Sprache oder beim Kauen? Sind diese Befehle viel-leicht ganz einfach strukturiert? In welchem Ausmaßmuss das ZNS die Komplexität der biomechanischen Pe-ripherie bei der Produktion von Handlungen überhauptberücksichtigen?

Neben dem Sprechapparat gilt Laboissières Augenmerkauch dem Zusammenspiel von Hand- und Fingergelen-ken. „Was veranlasst Menschen dazu, beim Zeigen ent-weder das Handgelenk zu benutzen oder vielleicht nurden Finger zu bewegen? Und wie findet das Nervensys-tem heraus, welche Bewegungsradien, welche Freiheits-grade für den Arm, die Hand oder die Finger existieren?Spielt es eine Rolle, dass Hand- und Fingergelenke un-terschiedlich groß und damit unterschiedlich schwersind?“, fragt sich der Wissenschaftler. Denn obwohl esbeim Zeigen wie auch beim Kieferöffnen um simple Be-wegungen geht, muss der Mensch Dutzende von Mus-keln präzise koordinieren. Und das tut er scheinbar ganzmühelos.

Laboissière berücksichtigt ebenfalls den PrinzschenAnsatz der gemeinsamen Codierung. Vielleicht, so denktder Forscher, ist das Auftreten eines bestimmten Frei-heitsgrades eng verknüpft mit der gemeinsamen Reprä-sentation der mit ihm verbundenen propriorezeptivenWahrnehmungseffekte (Wahrnehmungen, die der eigeneKörper aus Muskeln, Gelenken und Sehnen vermittelt)und der Muskelkoordination, um diesen Bewegungs-spielraum anzusteuern. SUSANNE BEER

AUF ZWEI PFADEN DURCHS GEHIRN

Edmund Wascher und seine Mitarbeiter beschäftigen sich mit der kognitiven Psychophysiologie von

Wahrnehmungs- und Handlungsprozessen. Sie wollenvor allem mittels EEG (Elektroenzephalogramm) heraus-finden, was physiologisch im Gehirn passiert, wenn visu-elle Informationen in manuelle Handlungen umgesetztwerden. Das EEG wird genutzt, um Mechanismen der In-formationsverarbeitung besser verstehen zu können.Dafür müssen Studienteilnehmer bisweilen mehrereStunden Aufgaben lösen, während bis zu 60 Elektrodenauf der Kopfhaut messen, welche Hirnareale aktiv sind.Waschers Team macht sich dabei unter anderem dasPrinzip der Kontralateralität zu Nutze: Räumliche Infor-mationen werden immer in der gegenüberliegenden Ge-hirnhälfte verarbeitet. Sieht man zum Beispiel ein Objektlinks, ist die Sehrinde der rechten Hirnhemisphäre stärkeraktiv als die der linken Hemisphäre. Im Umkehrschlussbedeutet das: Misst man erhöhte Hirnaktivität rechts, istdies ein guter Indikator dafür, dass das Gehirn zu diesemZeitpunkt einen linken Reiz verarbeitet.

Vergleicht man die Aktivitäten beider Seiten, erhältman so genannte ereignisabhängige Lateralisierungen imEEG, die die Verarbeitung räumlicher Informationen wi-derspiegeln. Sie zeigen auch an, wie unterschiedlicheAreale in einer Hirnhälfte in Interaktion miteinander ste-hen. Je nachdem, wo ein Aktivitätsmaximum liegt, kannman sagen, ob es sich um Reizverarbeitung oder um mo-torische Vorbereitung handelt und so den Weg der Infor-mationen vom Auge zur Hand verfolgen. Dabei steht fürdie Gruppe im Vordergrund, dass psychologische Theori-en auch physiologisch plausibel sein müssen.

Physiologischer Hintergrund des theoretischen Kon-zepts der Gruppe ist die Trennung des visuellen Systems

Die Komplexität eines einfachen Fingerzeigs: Rafael Laboissière erforscht,wie das zentrale Nervensystem mit bestimmten Teilen des motorischen Systems umgeht.

Welche Areale im Hirn sind gerade aktiv? Edmund

Wascher spritzt ein Gel unter die Elektrodenhaube,

das die Aufzeichnung derHirnströme erleichtert.

Page 41: MPF_2002_1  Max Planck Forschung

Frank Pfrieger

80 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2 1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 81

NeuroBIOLOGIEZur PERSON

Frank Pfriegercher Kontakte – und deren Eigen-schaften bestimmen, ob und wie sichein Reiz im Gehirn ausbreitet, undwelche Reaktionen er auslöst. 10Milliarden Nervenzellen enthält dasmenschliche Gehirn. Doch erst Sy-napsen machen aus der Ansamm-lung von Zellen ein zum Denken undFühlen fähiges Organ – sie sind derSchlüssel zu Gedächtnis und Intelli-genz. Umso erstaunlicher deshalb,dass Forscher die Bedeutung derSynapsen zwar seit knapp 100 Jah-ren kennen, aber die biologischenRegeln, nach denen Nervenzellen dieVerbindungen knüpfen und abbau-en, bislang kaum verstanden haben.

Die Erklärung für die Wissenslückeliegt in der Komplexität des Gehirns.„Am lebenden Organ ist es praktischunmöglich, die Bildung von Synap-sen zu untersuchen, weil zu vieleEinflüsse gleichzeitig wirksam sind“,sagt Pfrieger. Seine Idee war es des-halb, wenige lebende Nervenzellenaußerhalb des Gehirns „im Reagenz-glas“ zu beobachten. Dort lassen sichdie Bedingungen beliebig kontrollie-ren und variieren.

Als Pfrieger 1994 in Barres’ Laborkam, hatte dessen Gruppe bereitswichtige Grundlagen für das Projektgelegt. Ende der achtziger Jahre hatte das Forscherteam eine Methodeentwickelt, Nervenzellen in hoherReinheit aus der Netzhaut jungerRatten zu gewinnen – ohne Verun-reinigung durch andere Zellen. Dabeinutzte die Gruppe, dass bestimmteNervenzellen ein charakteristischesProtein auf der Oberfläche zeigen.Barres verwendete Antikörper, umdieses Protein zu erkennen und dieZellen gezielt herauszufischen: Unter200 auf diese Weise gereinigten Zel-len befindet sich höchstens eine, diekeine Nervenzelle ist. Doch das warnur der erste Schritt: „Anfangs star-ben die isolierten Nervenzellen in-nerhalb weniger Tage, wenn man sie

in Kultur nahm“, meint Pfrieger –und das genügte nicht, um die Sy-napsenbildung zu untersuchen.

Die Netzhautzellen länger am Le-ben zu erhalten, war die zweitewichtige Vorarbeit der kalifornischenGruppe: Es dauerte weitere siebenJahre, bis Barres´ Team die Zutatenzur Nährlösung identifiziert hatte,die diese Zellen zum Überleben brau-chen. Bis 1994 hatte die US-Gruppedann die Kulturbedingungen gefun-den, unter denen die Nervenzellendrei Wochen lang am Leben gehaltenwerden konnten.

WAS HILFT NERVENZELLEN

NETZE KNÜPFEN?

Mit diesem System konnte Pfriegernun seine Fragen untersuchen. Bei-spielsweise: Bilden Nervenzellen auchdann untereinander Synapsen, wennsie sozusagen unter sich sind? DieAntwort war eher ein „Jein“: Es gabzwar Synapsen, aber die waren wederbesonders zahlreich, noch besondersgute Kontaktstellen. „Wir hatten zudiesem Zeitpunkt bereits den Ver-dacht, dass Nervenzellen auf die Un-terstützung durch andere Zellen an-gewiesen sein könnten“, sagt FrankPfrieger. Die Wissenschaftler tipptenauf so genannte Gliazellen. Drei ver-schiedene Typen dieser Zellen gibt esim Gehirn: „Oligodendrozyten“ bil-den die Isolation für die Nervenfa-sern, die sich quer durchs Gehirn zie-hen; „Astrozyten“ sorgen für stabileUmwelt- und Stoffwechselbedingun-gen, und „Mikroglia“ arbeiten alsspezialisierte Abwehrzellen. Diesedrei Zelltypen findet man überall imGehirn als enge Begleiter der Nerven-zellen (Kasten auf Seite 83).

Die Idee der beiden Forscher, dassNervenzellen auf die Unterstützungdurch Gliazellen angewiesen seinkönnten, beruht einmal auf der räumlichen Beziehung: Astrozytenhaben eine enge Verbindung zu den

Wie sich Nervenzellen wechselseitig verknüpfen, ist Thema der SELBSTÄNDIGEN

NACHWUCHSGRUPPE „DEVELOPMENT OF SYNAPTIC CONNECTIONS“, die von

der Max-Planck-Gesellschaft am CENTRE DE NEUROCHIMIE des CNRS in Straßburg

eingerichtet wurde. Der Leiter dieser Gruppe, DR. FRANK PFRIEGER, ist mit seinen

Mitarbeitern unlängst in ein „Fettnäpfchen“ geraten: Die Forscher fanden, dass

Cholesterin – gemeinhin als „böses“ Blutfett in Verruf – entscheidend zur Bildung

stabiler Kontakte zwischen Nervenzellen und damit zur Funktion des Gehirns beiträgt.

FOTO

S: H

ARAL

DO

PPER

MAN

N

Ferien sind nicht unbedingt das,was Frank Pfrieger sich jetzt

wünscht. Doch es ist Jahreswechsel,und Pfriegers vierköpfige Gruppe amCentre de Neurochimie der Univer-sität in Straßburg ist im – wohlver-dienten – Urlaub. Der 36-jährige Bio-loge brennt aber darauf, seine Expe-rimente weiter voranzutreiben. Dashat einen verständlichen Grund. Ge-rade hat der Leiter einer Nachwuchs-gruppe der Max-Planck-Gesellschaftdie vielleicht entscheidende Phaseseiner Karriere als Wissenschaftlererreicht: Seine Gruppe hat zur eige-nen und zur Überraschung vielerKollegen ausgerechnet das als „bö-ses“ Blutfett verschriene Cholesterinals entscheidende Zutat identifiziert,ohne die Nervenzellen keine stabilenVerbindungen miteinander ausbildenkönnen. Damit hatte niemand ge-rechnet: Ohne Cholesterin würde dasGehirn nicht funktionieren.

„Unsere Entdeckung hat ein Toraufgestoßen. Jetzt gibt es eine Reihevon neuen Fragen, an deren Beant-wortung ich mich jetzt gerne ma-chen würde“, sagt Pfrieger und fügthinzu: „Das ist das Schönste, was ei-nem Wissenschaftler passieren kann:auf etwas zu stoßen, das zu völligneuen Hypothesen führt und an dergängigen Lehrmeinung rüttelt.“

Das war freilich nicht abzusehen,als der in Konstanz und Münchenausgebildete Biologe 1994 als Post-Doc für drei Jahre zu Ben Barres andie Stanford Universität in Kaliforni-en wechselte. Pfrieger wollte dortuntersuchen, wie Nervenzellen Kon-takte zueinander knüpfen. Diese Ver-bindungsstellen heißen Synapsen.Das sind charakteristisch geformte„Knospen“ die immer dann chemi-sche Botenstoffe freisetzen, wenn einSignal von einer Nervenzelle auf dienächste übertragen werden soll.Manche Nervenzellen bilden zuihren Nachbarn mehr als 10 000 sol-

Page 42: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 83

NeuroBIOLOGIE

82 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

Zur PERSON

meisten Synapsen. Hinzu kommt ei-ne zeitliche Korrelation während derEntwicklung des Gehirns: Säugertragen zwar bei der Geburt die meis-ten Nervenzellen, die sie im Laufeihres Lebens benötigen werden, be-reits im Gehirn, doch sind die Zellendurch verhältnismäßig wenige Sy-napsen verbunden – diese Kontaktebilden sich erst nach der Geburt aus.Zufall oder Prinzip: Auch Gliazellensind bei Geburt noch ausgesprochenrar; sie vermehren sich parallel mitder Entstehung der Synapsen.

Barres Methoden schufen nun dasTestsystem, Einflüsse auf die Synap-senbildung zu untersuchen: Die For-scher konnten nach Gutdünken Zu-taten hinzufügen und die Wirkungauf die Entstehung von Synapsenbeobachten. Es war Pfrieger, der dasExperiment übernahm, Gliazellen zuden Nervenzellen aus der Ratten-Netzhaut hinzuzufügen. Die Folgenwaren dramatisch: Die Signalüber-tragung zwischen den Nervenzellenverbesserte sich um den Faktor 70.Weitere Experimente zeigten, dassder Effekt allerdings nicht auf direk-tem Kontakt zwischen Glia und Ner-venzellen beruhte, sondern auf ir-gendetwas, das die Gliazellen in dieNährlösung ausschieden: Es reichte,Nervenzellen mit der Nährlösung zu„füttern“, in der Gliazellen einige Ta-ge gewachsen waren, um die Synap-senbildung deutlich anzuregen.

Damit waren Mitte 1997 die we-sentlichen Mitspieler identifiziert.Frank Pfrieger zog dann wiederzurück nach Deutschland, an dasMax-Delbrück-Center für Molekula-re Medizin in Berlin-Buch, wo er sei-ne eigene Nachwuchsgruppe aufbau-te. „Es war mit Barres abgesprochen,dass ich an dem Thema dranbleibenwürde“, sagt Pfrieger. Aus Partnernwurden Konkurrenten, die vor allemeine Frage beantworten wollten: Wasist es, das die Gliazellen den Nerven-zellen bereitstellen? Die Identifika-tion dieses Faktors, so war zu erwar-ten, würde wichtige Einblicke in dieMechanismen der Synapsenbildunggewähren. „Wir versuchten es zuerstauf konventionellem Weg“, schildertPfrieger. Das bedeutete Fleißarbeit:

In langen Versuchsreihen nutzte dieGruppe biochemische Methoden, umdie Bestandteile des Zellüberstandsnach Eigenschaften wie „Größe“ zusortieren. Immerhin stellte sich her-aus, dass die „Zutat“ der Gliazellenein ausgesprochen großes Molekülzu sein schien. Doch erst eine Analy-se der Proteinbestandteile der Ner-venzellen half weiter: Apolipopro-tein E (ApoE) schien der entschei-dende Stoff zu sein.

VOLLTREFFER

MIT FETTKÜGELCHEN

Seit langem war bekannt, dass imGehirn nur Astrozyten dieses Proteinsynthetisieren. Die Zellen produzie-ren fett- und cholesterinhaltigeTröpfchen, die sie in die Flüssigkeitdes Hirns ausscheiden. Jedem dieserFetttröpfchen packen sie einigeApoE-Moleküle bei, mit deren Hilfedie Tröpfchen dann von anderenZellen einschließlich Nervenzellenerkannt und aufgenommen werdenkönnen. Weitere Experimente zeig-ten, dass ApoE in Reinform jedochdie Synapsenbildung nicht verbes-serte: War es also einer der Stoffe inden Fetttröpfchen, in denen ApoEsitzt? „Ich erinnere mich noch gut,als ich in einer Besprechung vor-

schlug, es könnte Cholesterin sein“,sagt Pfrieger. Die anderen Mitgliederder Gruppe waren von dem Geistes-blitz zuerst wenig angetan. „Damalswaren wir ziemlich skeptisch“, sagtDaniela Mauch, Mitglied in PfriegersGruppe. Mauch übernahm schließ-lich die Aufgabe, die Idee zu testen.

Die Vermutung erwies sich alsVolltreffer. Die Zugabe von Choleste-rin verbesserte die Bildung vonSynapsen ebenso gut wie die Anwe-senheit von Gliazellen. Und wenndie Forscher in Gliazellen die Choles-terinherstellung durch Medikamenteblockierten, verloren die Zellen ihreFähigkeit, die Synapsenbildung zufördern. „Die Wieder-Entdeckungvon Cholesterin war zunächst einmalder Super-GAU: Es gibt wohl nichtsSchlimmeres, als jahrelang nach ei-nem Molekül zu suchen, bis sichrausstellt, dass es sich um einen al-ten Hut handelt“, erinnert sich Pfrie-ger. Mittlerweile sei die Frustrationaber einem „leicht euphorischen Ge-fühl“ gewichen, sagt er: Der Fundwirft ein neues Licht auf den weniguntersuchten Cholesterin-Metabolis-mus im Gehirn. Bisher hatten dieForscher angenommen, dass Nerven-zellen selbst genügend Cholesterinproduzieren: „Niemand war auf die

Idee gekommen, dass Nervenzellenauf den Import von Cholesterin an-gewiesen sein könnten“, sagt Pfrie-ger. Seine Resultate deuten nun abergerade darauf hin. Neuronen schei-nen selbst gerade genügend Choles-terin herzustellen, um zu überlebenund Zellausläufer sowie einige weni-ge Synapsen herstellen zu können.

Der massive Ausbau der Kontakt-stellen scheint jedoch so große Cho-lesterinmengen zu erfordern, dassNervenzellen, wenn sie die Substanzselbst herstellen müssten, nicht mehrgenug Energie für ihre eigentlicheAufgabe zur Verfügung hätten. Auchan das im Blut treibende Cholesterinkommen Nervenzellen nicht heran:

sagt Pfrieger. Und schließlich stelltsich die zellbiologische interessanteFrage: Wie fördert Cholesterin dieSynapsenbildung?

Doch die Entdeckung könnte auchfür die Medizin bedeutsam werden –wobei ganz oben die AlzheimerscheKrankheit steht. Schon vor einigenJahren haben US-Forscher entdeckt,dass erbliche Unterschiede im Auf-bau des ApoE-Moleküls das Risikoerhöhen, an dieser Altersdemenz zuerkranken. Pfriegers Entdeckungstützt die Vermutung, dass Verände-rungen in Cholesterintransport oder-aufnahme hinter dem für Alzheimercharakteristischen Verlust an Synap-sen stecken. Die Fragen wird Pfriegernun zum Teil in Kooperation mit an-deren Kollegen angehen. Die Jagdnach dem Faktor, mit dem GliazellenNervenzellen füttern, hat die kleineGruppe während der Zeit in Berlin sobeansprucht, dass der Wissenschaft-ler nur wenig publizieren konnte.Das passt freilich nicht in das vor-herrschende Schema der Leistungs-bewertung von Forschern nach demMotto „publish or perish“ – „publi-ziere oder krepiere“.

JENSEITS DES RHEINS

FORSCHT SICH’S ANDERS

Am MDC bestanden wenig Chan-cen auf eine Verlängerung von Pfrie-gers Stelle, deshalb nahm er das An-gebot an, im Rahmen eines Aus-tauschprogramms mit dem CentreNational de la Recherche Scientifi-que (CNRS), der größten französi-schen Forschungsorganisation, eineNachwuchsgruppe der Max-Planck-Gesellschaft zu gründen. Das führteihn nach Straßburg: „Das ist nun ei-ne völlig andere Art von Abenteuer.In Frankreich ist die Wissenschaftganz anders organisiert, wir müssenuns hier erst zurechtfinden.“ DerRhein trennt die Wissenschaft in ei-nem Maß, das sich der Biologe sonicht vorgestellt hat.

Ein Beispiel ist die Vergabe vonDoktoranden-Stipendien: In Frank-reich erhalten die jeweils besten Stu-denten eines Jahrgangs ein Staatssti-pendium. Die Rangfolge richtet sichnach Noten aus schriftlichen und

mündlichen Prüfungen. Ein anderes:In Frankreich sind die Möglichkeiten,Drittmittel einzuwerben, zumindestfür Neurobiologen sehr beschränkt,weil es keine der Deutschen For-schungsgemeinschaft vergleichbareEinrichtung gibt. Dennoch ist Pfrie-ger zufrieden und schätzt den Wertdes Austausch-Programms: „Es istgut, über den Tellerrand zu schauenund Einblick in andere Forschungs-systeme zu bekommen. Nur so weißman, was man hat im eigenen Land.“Der junge Wissenschaftler kann eskaum erwarten, dass seine Truppeaus dem Urlaub zurückkehrt, die Är-mel hochkrempelt und sich an dieArbeit macht ... KLAUS KOCH

Von diesem Reservoir sind sie durchdie so genannte Blut-Hirn-Schrankeabgeschirmt, eine Zellschicht um alleBlutgefäße, die das Gehirn unter an-derem vor Giftstoffen im Blutschützt. „Das könnte endlich eine Er-klärung dafür liefern, warum Glia-zellen überhaupt ApoE produzierenund cholesterinhaltige Partikel frei-setzen“, vermutet Pfrieger.

Dieses Szenario wirft eine Reiheneuer Fragen auf: Bislang haben dieExperimente der Pfriegerschen Grup-pe nur an Zellen außerhalb des Ge-hirns stattgefunden, „im Reagenz-glas“ also. Was aber geschieht imGehirn? Läuft da dieselbe Koopera-tion zwischen Glia- und Nervenzel-len? Und weiter: Hängen alle Ner-venzellen von der externen Choles-terinzufuhr ab? Oder haben einigeZellen doch eigene Quellen? Einigesspricht dafür, dass der Import die Re-gel ist: „In den meisten Hirngebietenentwickelt sich die Mehrzahl derSynapsen erst nach den Makroglia“,

Mit Nervenzellenallein ist kein Gehirn zu machenWill man die Funktion des Gehirns verstehen, kommtman um die Gliazellen nicht mehr herum: Die rapideEntwicklung der zell- und molekularbiologischen Methoden zu Beginn der achtziger Jahre rückte diese„schweigende Mehrheit“ von Zellen im Gehirn in denBlickpunkt. Oligodendroyzten, Astrozyten und Mikro-glia stellen etwa zwei Drittel der Zellen des Zentral-nervensystems. Und die drei Gliazelltypen sind, wie inden vergangenen Jahren deutlich wurde, keineswegsnur schlichtes Stütz- und Nährgewebe, sondern eben-bürtige Partner der rund zehn Milliarden Nervenzellen.Die drei Zelltypen erfüllen unterschiedliche Funktionen:Mikroglia sind die Abwehrzellen des Gehirns; im gesun-den, unverletzten Gehirn liegen diese relativ kleinenZellen zwischen den Neuronen oder entlang der Ner-venfasern. Ohne sich gegenseitig zu berühren bilden siemit vielen Verzweigungen ein engmaschiges Netz. Dievergleichweise großen Oligodendroyzten und Astro-zyten werden als „Makroglia“ zusammengefasst. Oligo-dendrozyten wirken vor allem als Isolatoren: Sie „um-wickeln“ beispielsweise die langen Zellausläufer derNervenzellen und verbessern so die Signalleitung vonZelle zu Zelle. Der dritte Zelltyp, die Astrozyten, über-nimmt je nach Entwicklungsphase des Gehirns unter-schiedliche Funktionen: Im heranwachsenden Gehirnbilden Astrozyten nicht nur die „Leitplanken“ für ge-zielte Wachstums- und Wanderungsbewegungen derNervenzellen, sondern produzieren auch einige der vonden Neuronen benötigten Nervenwachstumsfaktoren.Nach Abschluss dieser Wachstumsprozesse bauen dieAstrozyten durch Kontakte untereinander ein zusam-menhängendes Kanalsystem auf, das auch mit allen an-deren Zelltypen und den Blutgefäßen in enger Verbin-dung steht. In Kooperation mit den Nervenzellen tragenAstrozyten entscheidend zur Aufrechterhaltung derUmweltbedingungen im Gehirn bei. KLAUS KOCH

Mit seiner Idee, das verfemte Cholesterin könne eine Art „Hirnschmalz“ sein, erntete Frank Pfrieger zunächst wenig Beifall – selbst in der eigenen Gruppe: „Wir waren damalsziemlich skeptisch“, verrät seine Mitarbeiterin Daniela Mauch (rechts).

Page 43: MPF_2002_1  Max Planck Forschung

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 85

NEU erschienen

Forscher geben RechenschaftJahrbuch 2001 der Max-Planck-Gesellschaft, 900 Seiten, 477 Abbildungenund CD-ROM, Verlag Vandenhoeck & Ruprecht, Göttingen, 74 Euro.

Der 900 Seiten starke Band ent-hält wissenschaftliche For-

schungsberichte aus allen Max-Planck-Einrichtungen und eine CD-ROM mit der Bibliographie der Max-Planck-Gesellschaft aus den Jahren1998 bis 2000. Die Datenbank weistmehr als 33000 Veröffentlichungender Max-Planck-Wissenschaftler nach.

Erstmals enthält die CD-ROM einePDF-Datei, mit der die vollständi-

gen Veröffentlichungslis-ten einzelner Instituteund Arbeitseinheiten aus-gedruckt werden können.Links führen den Nutzerder CD-ROM auf die In-ternetseiten der einzelnenMax-Planck-Institute.

Der Band enthält einPersonen- und erstmalsein Stichwortregister, dasdie aktuellen Forschungs-schwerpunkte erschließt.

Auch online sind die Jahrbücher 2000und 2001 zu finden: Als PDF-Dateienstehen sie im Internet-Angebot derMax-Planck-Gesellschaft unter: www.mpg.de/doku/ jahrbuch/2001/

Aus der Vielzahl der Forschungs-ergebnisse seien drei beispielhaft benannt: Darüber, wie Salmonellatyphimurium-Bakterien helfen, eineTuberkulose-Impfung zu entwickeln,berichtet das Max-Planck-Institutfür Infektionsbiologie in Berlin;„Blitze im BOREXINO-Detektor – derRuhemasse der Sonnenneutrinos aufder Spur“ heißt ein Beitrag des Max-Planck-Instituts für Kernphysik inHeidelberg; und zum Thema „Inte-gration und Konflikt in der RegionGambella, West-Äthiopien“ schreibtdas Max-Planck-Institut für ethnolo-gische Forschung in Halle an derSaale. GOTTFRIED PLEHN

Erfindungenund ihre FolgenHeinz Martin, POLYMERE UND PATENTE,Karl Ziegler, das Team, 1953-1998, 310 Seiten, Wiley-VCH Verlag, Weinheim,49,90 Euro.

Dies ist die Geschichte einer derwertvollsten Erfindungen, die

im vergangenen 20. Jahrhundert ineinem chemischen Labor gemachtwurde: der Ziegler-Katalysatoren zurPolymerisation von ungesättigtenKohlenwasserstoffen (Ethylen, Pro-pylen usw.) unter Normaldruck. ImJahr 1963 haben Karl Ziegler vomMax-Plank-Institut für Kohlenfor-schung und Giulio Natta für diese

Entdeckung zu-sammen den Che-mie-Nobelpreiserhalten. In dieLexika sind dieseKatalysatoren als„Ziegler-Natta-Katalysatoren“eingegangen. DerAutor des vorlie-genden Buchs,Heinz Martin,nennt Sie „Zieg-

ler-Katalysatoren“, weil er auf derPriorität der Entdeckung durch Zieg-ler beharrt.

Martin dokumentiert zahlreicheEntscheidungen vor allem US-ameri-kanischer Gerichte, die die patent-rechtliche und damit zugleich wis-senschaftliche Priorität der Ziegler-schen Forschungen bestätigen. DerAutor war enger Mitarbeiter Zieglers,zuletzt dann Geschäftsführer derStudiengesellschaft Kohle mbH, dieals Treuhänderin für das Max-Planck-Institut für Kohlenforschungfungiert. Martin stellt die Geschichteder Erfindung und vor allem dernachfolgenden Auseinandersetzun-gen um Rechte und Lizenzen anhandder Originaldokumente dar. Die Aus-einandersetzungen währten bis zumJahr 1999 – Martin beziffert den fi-nanziellen Einsatz des Instituts für

die Verteidigung der Schutzrechteund die Verfolgung von Rechtsver-letzern auf 30 Millionen Mark bis1995. Durch die Einnahmen aus denLizenzgebühren gelang es dem Max-Planck-Institut für Kohlenforschungüber rund 40 Jahre, sich selbst zu finanzieren – eine Tatsache, die sobeeindruckend ist, dass man sieschon im Grundstudium der Chemiebeigebracht bekommt.

Man braucht schon eine gehörigeMenge an chemischem Wissen, umdas Buch lesen zu können. HeinzMartin schreibt in seiner Einführung,dass sich sein Buch vorwiegend anChemiker und Juristen richtet. DerMünchner Max-Planck-Patentrecht-ler Joseph Straus hat dem Band einVorwort beigegeben, aus dem nochzwei Textstellen zitiert seien: „DieArbeit von Dr. Mar-tin sollte zur Pflicht-lektüre für jedenwerden, der sich mitdem Schutz und derVerwertung von Er-gebnissen der öf-fentlich gefördertenForschung beschäf-tigt, und eigentlichauch für jeden, dererfahren will, wasDurchsetzung undVerwertung von Patenten in der Pra-xis bedeutet oder jedenfalls bedeutenkann. So viel Anschauungsmaterialwie hier wird wohl nirgends geboten.Die Arbeit gibt beredt Zeugnis da-von, wie schwierig und kostspielig esist, selbst nobelpreisgekrönte For-schungsergebnisse erfolgreich wirt-schaftlich zu verwerten.“

Und weiter: „Nicht zuletzt die Uni-versitäten, andere außerindustrielleForschungseinrichtungen und dieForschungs- und Kultusministeriensollten daraus lernen, dass zur er-folgreichen wirtschaftlichen Verwer-tung von Forschungsergebnissennicht nur Spitzenleistungen von For-schern gehören, sondern auch Spit-zenleistungen von denjenigen, diefür deren Schutz und Verwertungzuständig sind.” Dem ist nichts hin-zuzufügen. GOTTFRIED PLEHN

Page 44: MPF_2002_1  Max Planck Forschung

INSTITUTE aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 8786 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

INSTITUTEaktuellaktuell

Um die Bedeutung der Pflan-zenforschung für Europa zubetonen und Möglichkeiteneines „Integrierten Projekts“im Bereich „Plant FunctionalGenomics“ zu diskutieren,trafen sich in Brüssel EndeNovember 2001 Wissen-schaftler, Politiker sowie Vertreter von Industrie- undVerbraucherverbänden zu einem Workshop. Veranstal-ter waren das Max-Planck-Institut für molekulare Pflan-zenphysiologie in Golm sowiedie European Plant ScienceOrganisation (EPSO).

Hintergrund des Workshopswar der erste Entwurf des 6. europäischen Forschungs-rahmenprogrammes (6RP) für die Jahre 2002 bis 2006. Darin wurden die Pflanzenwis-senschaften aus Sicht der For-schung und vieler Verbände derIndustrie- und Verbraucher-organisationen nur unzurei-chend berücksichtigt. Ziel desWorkshops war es daher, An-sätze im Bereich der Pflanzen-genomforschung aufzuzeigen,anhand konkreter Projekt-ideen mögliche „IntegrierteProjekte“ für das 6RP vorzu-

Im Gewächs-haus züchten die Golmer Forscher Arabidopsis-Pflanzen

EUROPÄISCHER WORKSHOP

Pflanzenforschung soll gedeihen

stellen und schließlich die Bereitschaft der Wissenschaftzur Gestaltung eines euro-päischen Forschungsraums zu demonstrieren.Zu dem Workshop waren Wis-senschaftler aus renommiertenInstituten erschienen. Die eu-ropäischen Industrie- und Ver-braucherverbände EuropaBio,BEUC und AEC sowie ein Ver-treter der KMU unterstütztenderen Vorhaben, über die Not-wendigkeit und Möglichkeitender Pflanzengenomforschungauf europäischer Ebene zu dis-kutieren. Viele dieser Teilneh-mer haben sich bereits durchihre Mitgliedschaft in EPSO zu-sammengeschlossen. Außerdemdemonstrierten viele Politikerdurch ihre Anwesenheit ihreZustimmung zu diesem Vorha-ben – so ForschungskommissarPhilippe Busquin, Kabinettsmit-glied Kurt Vandenberghe oderBruno Hansen, Direktor der Di-rektion E Lebenswissenschaf-ten. Ebenfalls zu dem Treffengekommen waren europäischeParlamentarier und Mitgliederdes ITRE-Ausschusses.Durch die wissenschaftlicheVorstellung vieler Bereiche, indenen die Pflanzengenomfor-

schung in der europäischenScientific Community und für den WissenschaftsstandortEuropa auch zukünftig eineRolle spielen sollte, gelang es indem halbtätigen Workshop, dieKernthematik eines möglichen„Integrierten Projekts“ für das6RP vorzustellen. Das GolmerMax-Planck-Institut für mole-kulare Pflanzenphysiologie istbereit, dieses Projekt in engerZusammenarbeit mit interes-sierten Instituten, Organisatio-nen und Verbänden aus Indus-trie und Forschung zu koordi-nieren. Die zusätzlich anfallen-den Managementaufgabenkönnten dabei durch den EU-Referenten des Instituts wahr-genommen werden, dessen Anstellung durch eine An-schubfinanzierung der Max-Planck-Gesellschaft ermöglichtwurde. Um dem Gedanken der angestrebten Interdiszipli-narität und einer stärkeren Berücksichtigung der Ver-braucherinteressen im 6. For-schungsrahmenprogramm ge-recht zu werden, sollten in dem„Integrierten Projekt“ neben Industrie und Züchtungs- auchVerbraucherorganisationen alsPartner einbezogen werden. �

Weitere Informationen

erhalten Sie im Internet: www.epsoweb.orgwww.mpimp-golm.mpg.de

@

Der kanadische Premier-minister Jean Chrétien hatam 19. Februar 2002 ge-meinsam mit der kanadischenBotschafterin in Berlin, Marie Bernard-Meunier, dasBerliner Max-Planck-Insti-tut für molekulare Genetikbesucht. Grund der Visite war unter anderem die Un-terzeichnung eines „Koope-rationsabkommens zur Er-forschung der molekularenUrsachen menschlicher Erbkrankheiten mit Hilfe genomischer Technologien“.

Das Abkommen wurde zwi-schen dem Max-Planck-Institutfür molekulare Genetik, demGenetik-Institut der CanadianInstitute for Health Research(CIHR) und dem Canadian Genetics Diseases Network geschlossen. Auf kanadischer Seite unterzeichneten RonWoznow, Leiter des „Network“,und Steve Scherer, Repräsen-tant des CIHR-Instituts; für

das Max-Planck-Institut unter-schrieb der GeschäftsführendeDirektor Hans-Hilger Ropers.Die zukünftige Zusammenar-beit soll sich vor allem auf diegemeinsame Entwicklung undAnwendung genomischer Tech-niken und Methoden und dasStudium monogenetischer Er-krankungen beziehen. Die ge-planten Aktivitäten umfassenneben gemeinsamen For-schungsprojekten auch die Or-ganisation von Seminaren undWorkshops, den Austausch vonWissenschaftlern zwischen

MAX-PLANCK-INSTITUT FÜR MOLEKULARE GENETIK

Kanadas Premierminister zu Besuch

gratulierte Jean Chrétien denLeitern der Institute in einerkurzen Ansprache zu ihrer Zu-sammenarbeit. Anschließendwurden die kanadischen Gästevon den Direktoren Hans-Hilger Ropers, Hans Lehrachund Martin Vingron zu einemRundgang eingeladen. DasMax-Planck-Institut für mole-kulare Genetik betreibt inter-nationale Spitzenforschung aufdem Gebiet der Genomanalyse,der Erforschung molekularerUrsachen von Erbkrankheitenund der Bioinformatik. Einen

ersten Eindruck vonder täglichen Arbeitkonnte Premiermini-ster Chrétien bei derIsolierung genomi-scher DNA gewin-nen, die er selber im Labor vornahm.Zu den jüngsten Er-folgen der BerlinerWissenschaftlergehören die Auf-klärung der Wir-kungsweise ver-schiedener Antibio-tika und die maß-gebliche Beteiligung

an der Entschlüsslung vonChromosom 21. Bei der Ent-wicklung von Automatisierungund Miniaturisierung der Ge-nomanalyse spielt das Max-Planck-Institut für molekulareGenetik eine international an-erkannte Schlüsselrolle. Die Besichtigung der hierfür ent-wickelten Roboter stellte einenweiteren Programmpunkt des Besuchs dar. �

Unter den kriti-schen Augen von

Kanadas Premier-minister Jean

Chrétien (stehend,links) und PeterGruss, nächster

Präsident derMax-Planck-Ge-sellschaft, unter-

zeichnen SteveScherer vom Ge-netik-Institut des

Canadian Insti-tute for Health

Research (CIHR),Ron Woznow,

Leiter des Cana-dian Genetics

Diseases Network,und Hans-Hilger

Ropers, Ge-schäftsführender

Direktor am Max-Planck-Institutfür molekulare

Genetik (sitzend,von links), dasKooperations-

abkommen.

den beteiligten Einrichtungenund die gegenseitige Unter-stützung bei der Ausbildungvon Studenten und jungenNachwuchswissenschaftlern.„Die Kooperation wird uns neben dem erwarteten Nutzenfür die Gesundheitsvorsorgeneue Einsichten in die mole-kularen Prozesse des Lebensliefern“, sagte Ropers.Nach der Unterzeichnung FO

TO: M

PI F

ÜR

MO

LEKU

LARE

GEN

ETIK

FOTO

: MPI

RM

OLE

KULA

REPF

LAN

ZEN

PHYS

IOLO

GIE

Page 45: MPF_2002_1  Max Planck Forschung

menarbeit erörtert. Der Aufbaueines solchen Wissenschafts-netzes auf international kon-kurrenzfähigem Niveau ist zueinem der wichtigsten Projekteder serbischen Regierung ge-worden. Der serbische Premier-minister Zoran Djindjic setztsich persönlich dafür ein. Klarist allen Beteiligten, dass einesolide wissenschaftliche Aus-bildung der Jugend eine ent-scheidende Voraussetzung auchfür den wirtschaftlichen Wie-deraufbau des Landes ist. DieFähigkeit zur freien Kommuni-kation über alle Grenzen hin-weg ist eine Grundvorausset-zung für Demokratisierung undStabilität. Noch zu Kriegszeitenhatte sich das Internet als zwarlangsames, aber stabiles Kom-munikationssystem zwischenden Forschern im Widerstandund ihren Kollegen im Westenerwiesen.Die technische Planung für ein Wissenschaftsnetz in derBundesrepublik Jugoslawien istabgeschlossen. Sie wurde mitdem Netzwerkanbieter CiscoSystems und dem IntegratorTelindus durchkalkuliert, diesich mit Vorausfinanzierungenin diesem Projekt engagieren. Gerade werden die Planungenauf die Nachbarländer derBundesrepublik Jugoslawienausgeweitet. Ziel ist es, inner-halb von ein bis zwei Jahren ein Datennetz aufzubauen, das alle Universitäten und For-schungseinrichtungen in siebenLändern Südosteuropas mitein-ander verknüpft. Mit Übertra-gungsraten zwischen einemund zehn Gigabit pro Sekundesoll das Netz auf dem neuestentechnischen Stand sein. Natür-lich müssen auch viele PC-Arbeitsplätze erneuert und digitale Lehrräume mit Kame-ras, Übertragungstechnik undServern eingerichtet werden.Der neue Ansatz in diesemNetzwerkprojekt besteht darin,die ausländischen Investitionenin die Netzwerkausrüstung miteiner kostenlosen Bereitstel-lung von Glasfaserkabeln durchdie südosteuropäischen Länder

zu koppeln. Technisch kanndies durch Wellenlängen-Mul-tiplexing, das heißt, durch pa-rallele Signalkanäle über einGlasfaserkabel, erreicht werdenoder durch den Ausbau einerprivaten Glasfaserinfrastruktur.Beide Lösungen sind mit denbestehenden Telekom-Mono-polen vereinbar. In einer bahn-brechenden Entscheidung wur-de in Serbien beschlossen, demkünftigen akademischen Netzneue Glasfaserkabel kostenloszur Verfügung zu stellen. „Da-mit ist eines der größten Hin-dernisse für das WIGV-Projektaus dem Weg geräumt“, sagtWess. Von Seiten des europäi-schen Netzes Geant ist die Bereitschaft vorhanden, soschnell wie möglich die Anbin-dung an Europa herzustellen. Auch die Netze in den LändernBosnien-Herzegowina, Alba-nien, Mazedonien, Kroatien,Bulgarien und Rumänien wür-den Kosten sparend an das In-ternet angeschlossen werden,beispielsweise über die schnelleVerbindung in Jugoslawien.Auch die Netze dieser Staatensollen direkt in eine gemein-same technologische Strukturintegriert werden. Alle Länderteilen das Schicksal, bisher vonden europäischen Netzen weitgehend abgeschnitten zu sein. Nach der Investition durch das Bundesministerium für Bildung und Forschung mussgegenwärtig die weitere Finan-zierung sichergestellt werden. Julius Wess, seine Partner und Mitarbeiter bemühen sich um Finanzierungsquellen, beispielsweise der EuropäischenKommission und einzelner europäischer Geberländer. Dabei besteht intensive Zu-sammenarbeit insbesonderemit der Deutschen Kommissionder UNESCO. „Ich freue michsehr über die moralische undfinanzielle Unterstützung, dieuns alle bisherigen Kontaktegebracht haben. Es wird noch ein langer Weg bis zur end-gültigen Sicherung des Pro-jekts, aber ich bin zuversicht-lich“, so Wess. �

INSTITUTE aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 89

Trafen sich inMünchen (vonlinks): Dr. SimeonAnguelov, Beraterder UNESCO, Prof.Dragan Domazet,Prof. Pierre Lasserre, Direktorder UNESCO ROSTE (RegionalOffice for Scienceand Technology in Europe), VeraHerrmann, Lei-terin des Rechen-zentrums der FH Lübeck, undProf. Julius Wess.

Nach Jahren des Kriegs und der Zerstörung stehendie Staaten des ehemaligenJugoslawien vor dem Neu-anfang. Dies gilt auch für die Naturwissenschaften. Wiedramatisch die Lage dort ist,erfuhr vor drei Jahren JuliusWess, Direktor am Münche-ner Max-Planck-Institut fürPhysik. Er gründete daraufhin die Initiative „Wissen-schaftler in globaler Verant-wortung“ (WIGV), um dieKollegen in Südosteuropawieder an internationaleStandards heranzuführen.Ehrgeizigstes Projekt ist derAufbau eines Hochleistungs-Datennetzes für die LänderSüdosteuropas.

In ihren wissenschaftlichenKontakten beschränkt sich dieInitiative bisher noch auf dieBereiche Physik und Mathema-tik, da in diesen Disziplinen seitjeher mit Wissenschaftlern ausdem Westen eng zusammen-gearbeitet wurde. Jugoslawiengehörte 1954 sogar zu denGründerstaaten des europäi-schen Teilchenlabors CERN inGenf. Doch in den vergangenenzehn Jahren ging es in Südost-europa mit Forschung und Leh-re steil bergab. Experimental-physik existiert praktisch kaumnoch, weil Geräte nicht gewar-tet werden können. Computersind völlig veraltet, und die Bibliotheken leiden unter ra-dikal gekürzten Budgets. Sokonnte sich die Bibliothek derPhysikfakultät in Sarajevo seit1994 gerade vier Bücher leisten.Das langfristig größte Problemaber ist wohl das intellektuelleAusbluten der Länder: „40 bis50 Prozent der guten Wissen-schaftler und bis zu 70 Prozenteines neuen Studentenjahr-gangs haben Serbien verlassen,davon die meisten in die USA“,resümierte der serbische Wis-senschaftsminister Dragan Domazet bei einem Treffen in

München. Das ist nicht ver-wunderlich, denn bei einemmonatlichen Gehalt von 100bis 150 Euro muss ein Professormindestens einen Nebenjobannehmen, um überleben zukönnen.Als Julius Wess sein Hilfsprojektstartete, fühlte er sich an seineeigene Vergangenheit erinnert:„So wie uns nach dem ZweitenWeltkrieg die Amerikaner dazuverholfen haben, wieder An-schluss an die internationaleForschung zu gewinnen, sowollen wir heute den StaatenEx-Jugoslawiens helfen.“ Hier-bei müssen viele Gräben über-wunden werden, „denn derKrieg hat auch bei den Wissen-schaftlern tiefe Wunden hin-terlassen“, so Wess. Dank mehrerer Sponsoren wieder Max-Planck-Gesellschaft,dem Bundesforschungsminis-terium, der Deutschen For-schungsgemeinschaft (DFG)oder der VolkswagenStiftungkonnten bereits Konferenzenveranstaltet und Bibliothekenunterstützt werden. Die DFGhalf dabei, ein Graduiertenkol-leg in München speziell fürStudenten aus Südosteuropafinanziell aufzustocken. Lang-fristig ist es jedoch wichtig,dass die Studenten in ihrenHeimatländern gut ausgebildetwerden. Durch Förderungenwie die Vergabe von Stipendienkehren die Studenten häufignicht mehr in ihr Heimatlandzurück. „Dies müssen wir ver-hindern, indem wir die Arbeits-und Lebensbedingungen in un-serem Land wieder entschei-dend verbessern“, erklärte derserbische Wissenschaftsminis-ter Domazet. Die serbische Regierung setzt daher mithöchster Priorität auf eine Ver-besserung der Infrastruktur,mehrere tausend PCs wurdenangeschafft und Laboratorienerneuert. In diesem Zusammenhang gehtauch das nächste Projekt der

WIGV weit über traditionelleAufbauhilfe hinaus. Innerhalbvon ein bis zwei Jahren sollenalle Länder Südosteuropas anein gemeinsames leistungsfähi-ges Datennetz angeschlossenwerden. Dies soll ihnen denschnellen Zugang zum Internetund den Austausch wissen-schaftlicher Daten und Publi-kationen ermöglichen. Gleich-zeitig soll ein neuartiges Sys-tem des „electronic learning“etabliert werden, in der Lehr-inhalte an einigen wenigenPunkten ins Netz eingespeistund dezentral abgerufen wer-den können. Südosteuropa sollmithilfe dieses Projekts mitdem Namen SINSEE (ScientificInformation Network SouthEastern Europe) neueste Tech-nologie in die Hand bekom-men, um sich damit selbst hel-fen zu können. Beispielsweisesoll mit „eLearning“, also mitVideo on demand und Video-konferenzen, der dramatischeLehrermangel an vielen Uni-versitätsstandorten gelindertwerden.Das Bundesforschungsministe-rium hat sich Ende 2001 mitmehr als 300 000 Euro enga-giert, um ein Pilotprojekt auf-zusetzen. In den drei Univer-sitätsstädten Novi Sad, Belgradund Nis werden die naturwis-senschaftlichen Institute lokalein hoch modernes Netzwerkerhalten. Gleichzeitig werdenin Workshops und Konferenzendie Anwendungen neuer Tech-nologien, eLearning und dieDetails der regionalen Zusam-

INSTITUTE aktuell

88 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

KOOPERATION

Wissenschaftsnetz für die Balkanländer

FOTO

: LU

TZM

ÖLL

ER

Weitere Informationen erhalten Sie imInternet: www.wigv.de

@

In der Abteilung Neurobiolo-gie des Max-Planck-Institutsfür biophysikalische Chemieund in der Abteilung Mole-kulare Neurobiologie desMax-Planck-Instituts für ex-perimentelle Medizin habenForscher Antikörper gegensynaptische Proteine aus Ner-venzellen entwickelt, die überdie Garching Innovation andie Firma Synaptic Systemsauslizensiert werden konnten.So stehen diese hervorragendcharakterisierten und teilwei-se einzigartigen Antikörperweltweit Forschern zur Verfü-gung und dienen unter ande-rem zur Differentialdiagnoseneuroendokriner Tumore.

Das Nervensystem ist für dieschnelle Kommunikation inner-halb eines Organismus zustän-dig. Es stellt ein Informations-netzwerk dar, das der Reiz-Reaktions-Kopplung dient, In-formationen verarbeiten und speichern kann, sowie kom-plexe Verhaltensweisen steuert. Die kleinste selbstständige Ein-heit des Nervensystems ist eineNervenzelle, deren Funktion auf Empfang, Integration undÜbertragung von Signalen spezialisiert ist. Die Übertragung von Signalenzwischen kommunizierendenNervenzellen erfolgt durch dieFreisetzung von niedermoleku-laren Botenstoffen an so ge-nannten chemischen Synapsen,spezialisierten Kontaktzonenzwischen zwei Nervenzellen. Die als Neurotransmitter be-zeichneten Botenstoffe werdenin synaptischen Vesikeln ge-speichert und nach Aktivierungeiner Nervenzelle an der Sy-napse freigesetzt. FreigesetzteTransmitter diffundieren zunachgeschalteten Nervenzellenund ändern – je nach Transmit-tertyp – deren physiologischenZustand durch Erregung oderInhibition. �

GARCHING INNOVATION

Antikörper gegensynaptische Proteine

Page 46: MPF_2002_1  Max Planck Forschung

INSTITUTE aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 91

Ende November 2001 habendie Max-Planck-Gesellschaftund die Alexander von Hum-boldt-Stiftung gemeinsamvier im Ausland und acht inDeutschland arbeitende Wis-senschaftler mit dem Max-Planck-Forschungspreis 2001ausgezeichnet. Die mit je-weils 125 000 Euro dotierteAuszeichnung ging an zwölfPreisträger in sechs verschie-denen Disziplinen. Die für international herausragendewissenschaftliche Leistungenverliehenen Max-Planck-Forschungspreise wurden imHarnack-Haus in Berlin-Dah-lem im Rahmen einer Fest-veranstaltung überreicht.

Bei der Preisübergabe sprachenHubert Markl, Präsident derMax-Planck-Gesellschaft, undUwe Thomas, Staatssekretär imBundesministerium für Bildungund Forschung. Im Festvortragreferierte Adolf Hoffmann, Di-rektor des Deutschen Archäo-logischen Instituts in Istanbul,zum Thema „Bauforschung –Aufgaben von heute für Monu-mente von gestern”.Zum 12. Mal wurde der „Max-

Planck-Forschungspreis für

internationale Kooperation“ anausländische und deutsche Wis-senschaftler für ihre herausra-genden, international beson-ders anerkannten wissenschaft-lichen Leistungen vergeben. Die Prämien sollen für die deut-schen Preisträger einen flexib-len Rahmen zur Aufnahme,Vertiefung oder Erweiterungvon Forschungskooperationenmit Partnern außerhalbDeutschlands ermöglichen undfür die ausländischen Preisträ-ger die Grundlagen zur Zusam-menarbeit mit deutschen Part-nern schaffen. Die dadurchmögliche, langfristige und in-tensivierte Zusammenarbeit sollzu neuen internationalen Spit-zenleistungen in der Wissen-

schaft führen. Mit dem Preiswerden insbesondere kurzfristi-ge Forschungsaufenthalte, ge-meinsame Fachtagungen oderWorkshops sowie zusätzlich er-forderliche Mittel für Sachaus-gaben und Hilfspersonal finan-ziert. Die Mittel für dieses seit1990 laufende Programm stelltdas Bundesministerium für Bil-dung und Forschung der Max-Planck-Gesellschaft und derAlexander von Humboldt-Stif-tung zur Verfügung. Im Jahr2001 entschied sich der Aus-wahlausschuss aus 51 Nominie-rungsvorschlägen, von denen 23 im Ausland forschendenWissenschaftlern galten, für die Auszeichnung folgenderPersonen und Projekte:

INSTITUTE aktuell

90 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

MAX-PLANCK-FORSCHUNGSPREIS

Mit ausländischen Partnern an die Spitze

Die zwölf Preis-träger (von links): Matthias R. Scheffler, AndreasGriewank, BenedictMoldovanu, AdolfHoffmann, FelixOtto, Arthur Konnerth, Igor Ku-kushkin, Gérard A. Maugin, FrankArnold, AlexanderJ. Varshavsky, Horst Kessler, FransCarl de Schryver.

BIOWISSENSCHAFTEN Prof. Dr. Arthur Konnerth Physiologisches Institut, Ludwig-Maximilians-Universität, MünchenUND MEDIZIN Prof. Dr. Alexander J. Varshavsky California Institute of Technology, Division of Biology, Pasadena, USA

CHEMIE Prof. Dr. Horst Kessler Institut für organische Chemie und Biochemie, Technische Universität München

Prof. Dr. Frans Carl de Schryver K.U. Leuven, Department of Chemistry, Heverlee, Belgien

GEISTES- Prof. Dr. Adolf Hoffmann Deutsches Archäologisches Institut IstanbulWISSENSCHAFTEN Prof. Dr. Benedict Moldovanu Universität Mannheim, Fakultät für Wirtschaftswissenschaften A5

INGENIEUR- Prof. Gérard A. Maugin Université Pierre et Marie Curie, Centre National de la Recherche WISSENSCHAFTEN Scientifique, Laboratoire de Modélisation en Mécanique,

Paris, Frankreich

MATHEMATIK Prof. Dr. Andreas Griewank Technische Universität Dresden, UND INFORMATIK Institut für Wissenschaftliches Rechnen

Prof. Dr. Felix Otto Institut für Angewandte Mathematik, Universität Bonn

PHYSIK Prof. Dr. Frank Arnold Max-Planck-Institut für Kernphysik, HeidelbergProf. Dr. Igor Kukushkin Institute of Solid State Physics, Russian Academy of Sciences,

Laboratory of nonequilibrium processes, Moskau, RusslandProf. Dr. Matthias Robert Scheffler Fritz-Haber-Institut der Max-Planck-Gesellschaft,

Abteilung Theorie, Berlin

Weitere Informationen

zu den Preis-trägern und ihrem

Arbeitsgebiet finden Sie unter

http://www.mpg.de/preise/

fp2001/

SEMINAR

Oberflächen im Spiel der Kräfte„Electronic Origin of Mag-netoelastic Anisotropy andStress in Atomic Layers” war der Titel eines vom Max-Planck-Institut für Mikro-strukturphysik organisiertenund von der Wilhelm-und-Else-Heraeus-Stiftung geför-derten Seminars. Die beson-deren elektronischen, mag-netischen, strukturellen undmechanischen Eigenschaftenan Oberflächen und in epi-taktisch gedehnten Atomla-gen wurden bei diesem 258.WE-Heraeus-Seminar, das imSeptember 2001 auf SchlossRingberg stattfand, disku-tiert. 33 Teilnehmer ausFrankreich, Italien, Nieder-lande, Spanien, USA undDeutschland trafen sich, umin 22 Vorträgen und einerPostersitzung experimentelleund theoretische Ergebnissezu präsentieren.

Modernste magnetische Sen-soren und Elemente der Daten-speicherung setzen Materialienein, deren Schichtdicke oft nurwenige Dutzend Atomlagenbeträgt und deren laterale Aus-dehnung nur einigen tausendAtomdurchmessern entspricht.Die physikalischen Eigenschaf-ten dieser Nanostrukturen un-terscheiden sich im allgemei-nen von den entsprechendenEigenschaften volumenartigerProben. Ein „Herunterskalieren“der Volumeneigenschaften aufdie Nanoskala ist generell nichtmöglich, da oftmals neue Phä-nomene die Physik der Nano-strukturen bestimmen. Von größtem Interesse ausSicht der Grundlagenforschungwie auch der Anwendung istdabei das physikalisch fundier-te Verständnis, wie reduzierteDimensionen die Eigenschaftenvon Materialien verändern.

Im Mittelpunkt des Seminarsstand hier die Frage, auf wel-che Weise die veränderten phy-sikalischen Eigenschaften anOberflächen und in Atomlagenmit den besonderen Bindungs-verhältnissen und strukturellenEigenschaften an Oberflächenund in epitaktisch gedehntenAtomlagen korreliert sind.Zu diesen Themen wurden neueexperimentelle Ergebnisse zuSpannungsmessungen bei Ad-sorption und Filmwachstum,Messungen der magnetischenAnisotropie und der magneto-elastischen Kopplung sowie zurelektronischen und elastischenlangreichweitigen Wechsel-wirkung an Oberflächen vorge-stellt. Kräfte an Oberflächenund in Atomlagen werden hochempfindlich aus Messun-gen der Verkrümmung dünnerSubstrate bestimmt. Experi-mente zur Elektronen- undRöntgenbeugung klären dieoberflächennahe atomareStruktur auf. Magnetische Ei-genschaften werden mit elekt-ronischer Spektroskopie undmagneto-optischen Verfahrenuntersucht. In einem Abend-vortrag wurden Anwendungenmagnetoelastischer Bauele-mente als Druck- und Drehmo-mentsensoren beschrieben.Theoretische Beiträge habeneindrucksvoll gezeigt, dass imVergleich zu einem Seminar,das im Juni 1998 im Max-Planck-Institut in Halle statt-fand, mittlerweile das Ver-ständnis relevanter elektroni-scher Prozesse, die Spannungenan Oberflächen und Grenz-flächen bestimmen, weiterfortgeschritten ist. In Ergän-zung zu bisherigen Modellenzeigen aktuelle Rechnungen,dass – neben dem Ladungs-transfer zwischen Adsorbatund Substrat – die Symmetriewechselwirkender elektroni-scher Orbitale für die resultie-rende Oberflächenspannungs-änderung entscheidend ist.

Fortschritte in der numerischenGenauigkeit von First-Princip-les-Rechnungen haben esaußerdem ermöglicht, dassselbst die mit kleinsten Ener-gieänderungen der Größenord-nung µeV pro Atom verknüpf-ten magnetischen Anisotropienberechnet werden können. Sowurden erstmals Rechnungenzur Dehnungsabhängigkeit dermagnetoelastischen Kopplungpräsentiert, die die Interpreta-tion der ebenfalls im Seminarvorgestellten Messungen dermagnetoelastischen Kopplungin gedehnten Atomlagen aufeine über die phänomenologi-sche Betrachtung hinausge-hende, theoretisch fundierteBasis stellen. �

Weitere Informationen:PD DR. DIRK SANDER, Max-Planck-Institut für Mikrostrukturphysik, HalleTel.: 0345/5582-660, Fax: 0345/5511-223,[email protected]

Strukturmodell(oben) und resul-tierende Änderungder Elektronen-dichte (unten) beider Adsorption vonLithium (rot) aufMolybdän (blau).Die Orange-Fär-bung zeigt nach einer Rechnung von Jürgen Müller,ForschungszentrumJülich, die erhöhteLadungsdichte inder Mo-Oberflächeunterhalb des Li-Adsorbats an.Dies führt zu eineranziehenden Wech-selwirkung zwi-schen Li und Mo in der Oberfläche.

@

@FO

TO: M

PG /

BILD

SCH

ÖN

GRA

FIK:

FO

RSCH

UN

GSZ

ENTR

UM

JÜLI

CH/ M

ÜLL

ER

Page 47: MPF_2002_1  Max Planck Forschung

INSTITUTE aktuell

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 93

PISA (Programme for Inter-national Student Assessment)ist die bisher umfassendsteund differenzierteste interna-tionale Schulleistungsstudie.Die Untersuchung wird vonder Organisation für wirt-schaftliche Zusammenarbeitund Entwicklung (OECD)durchgeführt und von allenMitgliedsstaaten gemein-schaftlich getragen und ver-antwortet. In Deutschlandwurde die PISA-Studie vonder Kultusministerkonferenz(KMK) in Auftrag gegeben;verantwortlich ist ein natio-nales Konsortium unter Fe-derführung von Prof. Dr. Jür-gen Baumert, Direktor amBerliner Max-Planck-Institutfür Bildungsforschung; dieProjektkoordination liegt beiDr. Petra Stanat vom selbenInstitut.

In drei Wellen (in den Jahren2000, 2003, 2006) werden dieLeistungen von 15-jährigenSchülerinnen und Schülern inden Bereichen Lesen, Mathema-tik und Naturwissenschaftenerhoben. Einbezogen werdenaußerdem fächerübergreifendeKompetenzen wie zum BeispielVoraussetzungen selbstregulier-ten Lernens sowie allgemeine

Problemlösefähig-keiten. Bezugsrah-men ist ein inter-national abge-stimmtes Konzeptder Grundbildung(„Literacy“). Im Mittelpunktsteht hier nicht das Faktenwis-sen, sondern es werden Basis-kompetenzen analysiert, die inmodernen Gesellschaften eineGrundlage für die Teilhabe amgesellschaftlichen, wirtschaftli-chen und politischen Leben bil-den.Die zentralen Befunde der ers-ten Erhebungswelle, in derenMittelpunkt die Lesefähigkeitbeziehungsweise das Textver-ständnis („Reading Literacy“)stand, wurden Ende 2001 derÖffentlichkeit vorgestellt. Die-ser Vergleich der Testleistungendeutscher Schülerinnen undSchüler mit denen von Gleich-altrigen in 31 weiteren Teilneh-merstaaten ermöglicht eine dif-ferenzierte Untersuchung vonStärken und Schwächen desdeutschen Bildungssystems.Durch die Einbeziehung schuli-scher und außerschulischerLern- und Lebensbedingungenwerden zudem wichtige Infor-mationen für die Interpretationder zum Teil erheblichen Lei-stungsunterschiede zwischen

INSTITUTE aktuell

92 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

BILDUNGSFORSCHUNG

PISA-Studie veröffentlichtden OECD-Staa-ten gewonnen.Mit PISA erhaltendie an Schule Be-teiligten eine indieser Breiteeinzigartige empi-rische Grundlagefür bildungspoliti-sches Handeln.

In der Folge der Publikation der Ergebnisse finden Bildungs-themen bundesweit verstärktesInteresse.Damit die Ergebnisse der PISA-Studie innerhalb Deutschlandsauch auf der Ebene der Bun-desländer analysiert werdenkönnen, wurde die 219 Schulenumfassende Stichprobe für deninternationalen Vergleich auf1466 Schulen mit insgesamtetwa 50 000 Schülern erhöht.Die Ergebnisse dieser nationa-len Erweiterung (PISA-E) wer-den der Kultusministerkonfe-renz voraussichtlich im Som-mer 2002 vorgelegt werden.Der nationale Bericht über diePISA-Ergebnisse ist als Buch erschienen:Jürgen Baumert, Eckhard Klie-me, Michael Neubrand, Man-fred Prenzel, Ulrich Schiefele,Wolfgang Schneider, Petra Sta-nat, Klaus-Jürgen Tillmann & Manfred Weiß (Hrsg.), PISA2000: Basiskompetenzen vonSchülerinnen und Schülern iminternationalen Vergleich, Les-ke + Budrich, Opladen 2001. �

@

Beispiel neuartige, verbesserteLichtquellen auch für denschwierig zu erschließendenkurzwelligen Ultraviolett-Be-reich hergestellt werden kön-nen. Das eröffnet unter ande-rem Chancen, die biochemi-schen Vorgänge im Inneren lebender Zellen erstmals sogarin allen drei Dimensionen zuerfassen. Grundsätzlich solltensich mit Hilfe der „neuen Optik“ Messgenauigkeit undräumliche Auflösung ebensowie die Bildverarbeitung ver-bessern und vor allem dieMessgeschwindigkeit in außer-gewöhnlichem Maß steigern lassen. Der innovative Ansatz,auch Quanteninformationen in solche Untersuchungen miteinzubeziehen, verspricht inZukunft völlig neue Möglich-keiten.Die Forschung auf dem Gebietder Optik in Erlangen-Nürn-berg hat international hohesNiveau. In Deutschland gibt es nur wenige Orte mit einemvergleichbaren Engagement in der Optik. Verstärkt wirddiese Aktivität noch dadurch,dass es in anderen Bereichender Universität umfangreicheoptische Anwendungsfor-schung gibt, die in den Fakul-täten für Naturwissenschaft,Medizin und Technik angesie-delt sind. Besonderes Gewicht hat dietraditionell starke Werkstoff-wissenschaft. Auch die Nach-richtentechnik spielt an derFriedrich-Alexander-Univer-sität eine große Rolle, sodasssich zusätzliche Synergien ergeben. Durch die ortsnaheKonzentration all dieser Akti-vitäten bietet sich für die Op-tikforschung eine in Deutsch-land einmalige Konstellation.Das im Jahr 2000 von der Universität gegründete ZEMObündelt die vorhandenen Op-tik-Forschungsaktivitäten undist auch Gründungsmitglied imBMBF Kompetenznetz „BayernPhotonics“, mit dem die bereitsbestehenden guten Kontaktezur Industrie weiter inten-siviert werden sollen. �

ENGERE ANBINDUNG AN DIE UNIVERSITÄTEN

Max-Planck-Forschungsgruppe in Erlangen

Forschungsgemeinschaft undder Max-Planck-Gesellschaft im Jahre 1999 ausgesprochenhatte. Ihr zufolge sollte auchdie Max-Planck-Gesellschaftdazu beitragen, die struktu-rellen Bedingungen der univer-sitären Forschung zu verbes-sern und die Zusammenarbeitmit den Universitäten zu ver-stärken. Daraufhin hatte dieMax-Planck-Gesellschaft inAussicht gestellt, im Rahmeneines flexiblen Pilotprogrammsdrei bis fünf solcher Max-Planck-Forschungsgruppen anUniversitäten zeitlich befristeteinzurichten und anteilig zu finanzieren. Die gemeinsameFörderung der Einrichtungenist zunächst auf einen Zeit-raum von fünf Jahren ange-legt. Derzeit prüft die Max-Planck-Gesellschaft vier weite-re, unterschiedlich konkreti-sierte Gründungsüberlegungenfür Max-Planck-Forschungs-gruppen an Universitäten. DieVerwirklichung dieser Vorha-ben hängt von der weiterenEntwicklung der Finanzierungder Max-Planck-Gesellschaftdurch Bund und Länder ab. Das Konzept für die gemein-sam mit der Friedrich-Alexan-der-Universität Erlangen-Nürnberg zu etablierende Max-Planck-Forschungsgruppe„Optik, Information und Pho-tonik“ hat den Umfang vonzunächst drei wissenschaftli-chen Abteilungen. Mit dem imZentrum für Moderne Optik(ZEMO) integrierten Lehrstuhlfür Optik von Professor GerdLeuchs ist die erste Abteilungder Forschungsgruppe bereitsvorhanden. Darüber hinaussollen zwei weitere Abteilun-gen unmittelbar und eine vier-te Abteilung zu einem späterenZeitpunkt eingerichtet werden. Die Besetzung dieser wissen-schaftlichen Leitungspositio-nen erfolgt nach internationa-ler Ausschreibung und unterMitwirkung einer Berufungs-kommission der Max-Planck-Gesellschaft auf Lehrstühle der NaturwissenschaftlichenFakultät I (Physik und Mathe-

matik) der Universität. Die laufenden Kosten für das Ge-meinschaftsprojekt werden gemeinsam von den Partnerngetragen. Sie betragen – bezo-gen auf die Laufzeit von fünfJahren – zirka 14 Millionen Euro pro neu zu schaffender Abteilung. Darüber hinaus be-darf es zur Einrichtung derForschungsgruppe der Bereit-stellung einmaliger Investiti-onsmittel in Höhe von rund 14 Millionen Euro, die im Rah-men der allgemeinen Hoch-schulbauförderung und überSonderfinanzierungen zur Ver-fügung gestellt werden sollen. Die jetzt vom Senat beschlos-sene Max-Planck-Forschungs-gruppe „Optik, Information und Photonik“ an der Univer-sität Erlangen-Nürnberg sollMethoden der modernen Optik erforschen und ent-wickeln, Fragestellungen ausder Grundlagenforschung inden Bereichen optische Mess-verfahren, optische Kommuni-kation, optische Materialiensowie Optik in Biologie undMedizin untersuchen und aufAnwendungsmöglichkeitenüberprüfen.Nach Überzeugung der Exper-ten aus der Universität Erlan-gen und der Max-Planck-Ge-sellschaft erlebt die Optik der-zeit „eine bemerkenswerte Renaissance“. BahnbrechendeFortschritte beispielsweise aufden Gebieten der Mikroskopie,der optischen Lithographieoder der Einsatz von ultrakur-zen Pulsen im Bereich vonFemtosekunden (10-15 Sekun-den) werden die bisherigenGrenzen der Optik überwinden– eine Entwicklung, auf die et-wa die USA mit einem starkenAusbau der Grundlagenfor-schung in den großen etablier-ten Zentren für Optik in Or-lando, Tucson und Rochestersowie durch die Gründungneuer Zentren reagiert haben. Eine wichtige Voraussetzungfür die künftige „Extrem-Optik“ stellen optisch aktive,elektrisch ansteuerbare Werk-stoffe dar, mit denen zum

Internet:www.mpib-berlin.mpg.de/pisa

Der Senat der Max-Planck-Gesellschaft hat am 8. Märzauf seiner Sitzung in Jena beschlossen, die Max-Planck-Forschungsgruppe „Optik, Information und Photonik“ an der Friedrich-Alexander-Universität Erlangen-Nürn-

berg für die Dauer von fünfJahren einzurichten. Weiterewissenschaftliche Konzeptefür Max-Planck-Forschungs-gruppen an Hochschulen inDeutschland werden derzeitmit universitären Koopera-tionspartnern geprüft.

Die Max-Planck-Gesellschaftverwirklicht mit der erstmali-gen Einrichtung einer Max-Planck-Forschungsgruppe aneiner deutschen Hochschule eine Empfehlung, die die inter-nationale Kommission zur Sys-temevaluation der Deutschen

Page 48: MPF_2002_1  Max Planck Forschung

INSTITUTE aktuell

94 M A X P L A N C K F O R S C H U N G 1 / 2 0 0 2

STANDorte

1 / 2 0 0 2 M A X P L A N C K F O R S C H U N G 95

docs – ihre Studien unter denThemen „New methods inmicroscopy“, „New ways to stu-dy biologically important mole-cules“, „Visualizing molecularmovements“ und „Optical me-thods to study neuronal func-tion“. Während dreier Poster-Sessions gab es an den 55 Pos-ter-Präsentationen ausführlicheGelegenheit für Diskussionen.Die geladenen WissenschaftlerScott Fraser (California Instituteof Technology/Pasadena), UdiIsacoff (University of Califor-nia/Berkeley), Amiram Grinvald(The Weizmann Institute ofScience/Rehovot), Jeff Lichtman(Washington University), Wolf

SCHLOESSMANN-SEMINAR

Optische Methoden unter der Lupe Mitte Dezember 2001 trafensich im oberbayerischenSchloss Elmau 130 Teilneh-mer aus neun Ländern, davon21 Wissenschaftler aus denUSA, um sich über optischeMethoden in der modernenbiologischen Forschung aus-zutauschen. Im Rahmen die-ses 5. Schloeßmann-Seminarsüberreichte NobelpreisträgerErwin Neher an elf Nach-wuchswissenschaftler Urkun-den für ein Schloeßmann-Stipendium oder einenSchloeßmann-Preis. Veran-stalter des Seminars war dasMax-Planck-Institut fürNeurobiologie in Martinsried.

Reinhard Genzel vom Garchin-ger Max-Planck-Institut fürextraterrestrische Physik denBlick der Seminarteilnehmervom Mikroskop in die Welt derTeleskope. Spannende Vorträge,lebhafte Diskussionen unddurchwegs positive Rückmel-dungen der Teilnehmer zeigten,dass das Schloeßmann-Seminareine wichtige Funktion der in-terdisziplinären wissenschaft-lichen Kommunikation erfüllt,auch um junge talentierte For-scher für die Max-Planck-Insti-tute zu gewinnen – ganz imSinne von Ernst-RudolfSchloeßmann, der vor seinemTod 1993 als Förderndes Mit-glied der Max-Planck-Gesell-schaft eine Stiftung zur Förde-rung des wissenschaftlichenNachwuchses ermöglichte.Mit einem Schloeßmann-Preisausgezeichnet wurden: DieterBraun (Rockefeller University),Veronica Egger (Cold SpringHarbor Laboratory), GiovanniGalizia (Freie Universität Berlin),Sally Kim (Max-Planck-Institutfür biophysikalische Chemie),Arnd Pralle (University ofBerkeley) und Philip Tinnefeld(Max-Planck-Institut für bio-physikalische Chemie). EinSchloeßmann-Stipendium er-hielten: Sidney Cambridge(Max-Planck-Institut für Neu-robiologie), Maz Hasan (Max-Planck-Institut für medizinischeForschung), Bernd Kuhn (Max-Planck-Institut für Biochemie),Christian Lohmann (WashingtonUniversity), Malte Wachsmuth(Deutsches Krebsforschungs-zentrum, Heidelberg). �

MAXPLANCKFORSCHUNG

wird herausgegeben vom Referat für Presse- und Öffentlichkeitsarbeitder Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Vereinsrechtlicher Sitz: Berlin.ISSN 1616-4172

Redaktionsanschrift: Hofgartenstraße 8, 80539 München Tel. 089/ 2108-0 (-1276) Fax 089/2108-1207E-Mail: [email protected]: http://www.mpg.de.

Verantwortlich für den Inhalt:Dr. Bernd Wirsing (-1276)

Leitender Redakteur:Helmut Hornung (-1404)

Biologie, Medizin:Dr. Christina Beck (-1306) Walter Frese (-1272)

Chemie, Physik, Technik: Eugen Hintsches (-1257) Helmut Hornung (-1404)

Geisteswissenschaften:Susanne Beer (-1342)

Redaktion BIO-/GEOMAX:Dr. Christina Beck (-1306)

Online-Redaktion:Dr. Andreas Trepte (-1238)

Gestaltung: Rudi Gill DTP-Operating: Franz Pagel Senftlstraße 1, 81541 MünchenTel. 089/448 21 50E-Mail: [email protected]

Litho: kaltnermediaDr.-Zoller-Str. 1, 86399 Bobingen

Druck+Vertrieb:Druckhaus Beltz Tilsiter Straße 17, 69502 Hemsbach

Anzeigen: Brigitte Bell Verlagsgruppe Beltz Postfach 100154, 69441 Weinheim Tel. 06201/6007-380 Fax 06201/18 46 84

Für Mitarbeiter der MPG ist einemTeil der Auflage die Mitarbeiterzeit-schrift MAXPLANCKINTERN beigefügt:Susanne Beer (-1342/Redaktion)Carin Gröner (-1231/Personalien)

MAXPLANCKFORSCHUNG will Mitar-beiter und Freunde der Max-Planck-Gesellschaft aktuell informieren. DasHeft erscheint in deutscher und eng-lischer Sprache (MAXPLANCKRESEARCH)jeweils in vier Ausgaben pro Jahr. DieAuflage beträgt zurzeit 29 000 Exem-plare. Der Bezug des Wissenschafts-magazins ist kostenlos.

Alle in MAXPLANCKFORSCHUNG ver-tretenen Auffassungen und Meinun-gen können nicht als offizielleStellungnahme der Max-Planck-Gesellschaft und ihrer Organe interpretiert werden.

MAXPLANCKFORSCHUNG wird auf chlor-frei gebleichtem Papier gedruckt.Nachdruck der Texte unter Quellen-angabe gestattet. Bildrechte können nach Rücksprache erteilt werden.

Die Max-Planck-Gesellschaft zurFörderung der Wissenschaften unter-hält 80 Forschungsinstitute, in denenrund 11200 Mitarbeiter tätig sind,davon etwa 3100 Wissenschaftler.Hinzu kamen im Jahr 2001 rund 7900

Stipendiaten, Gastwissenschaftler und Doktoranden. Der Jahresetat um-fasste insgesamt 1245 Millionen Euro;davon stammten 1186 Millionen Euroaus öffentlichen Mitteln.

Die Forschungsaktivität erstreckt sich überwiegend auf Grundlagen-forschung in den Natur- und Geistes-wissenschaften. Da die Max-Planck-Gesellschaft ihre Aufgabe vor allemdarin sieht, Schrittmacher der For-schung, insbesondere in Ergänzung zu den Hochschulen zu sein, kann sienicht in allen Forschungsbereichentätig werden. Sie versucht daher, ihreMittel und Kräfte dort zu konzentrie-ren, wo besondere Forschungsmög-lichkeiten erkennbar sind.

Die Max-Planck-Gesellschaft ist einegemeinnützige Organisation des pri-vaten Rechts in der Form eines einge-tragenen Vereins. Ihr zentrales Ent-scheidungsgremium ist der Senat, indem eine gleichwertige Partnerschaftvon Staat, Wissenschaft und sach-verständiger Öffentlichkeit besteht.

NIEDERLANDE

� NijmegenITALIEN

� Rom� FlorenzSPANIEN

� AlmeriaFRANKREICH

� GrenobleBRASILIEN

� Manaus

Forschungseinrichtungen derMax-Planck-Gesellschaft

� Institut/Forschungsstelle� Teilinstitut/Außenstelle❍ Sonstige Forschungs-einrichtungen

Dem Organisationskomitee mitTobias Bonhoeffer, AlexanderBorst (beide Direktoren amMax-Planck-Institut für Neuro-biologie), Winfried Denk (Di-rektor am Max-Planck-Institutfür medizinische Forschung)sowie Reinhard Jahn und ErwinNeher (beide Direktoren amMax-Planck-Institut für bio-physikalische Chemie) war esgelungen, neben jungen Talen-ten auch herausragende Wis-senschaftler für Vorträge zugewinnen. In 17 Vorträgen präsentierten die Nachwuchs-forscher – überwiegend Post-

Almers (Oregon Health ScienceUniversity), Noam Ziv (TheTechnion/Haifa), Karel Svoboda(Cold Spring Harbor Labora-tory), Derek Toomre (Yale Uni-versity/New Haven), Tim Ryan(Cornell University/New York)sowie Stefan Hell, Petra Schwil-le und Tom Jovin (alle Max-Planck-Institut für biophysikali-sche Chemie) hielten jeweilseinstündige Hauptvorträge, indenen sie ihre Arbeiten zumThema der Tagung vorstellten.Mit seinem Vortrag über„Schwarze Löcher, Galaxienund das frühe Universum“ hob FO

TO: M

ARTI

NKO

RTE,

MPI

FÜR

NEU

ROBI

OLO

GIE

Page 49: MPF_2002_1  Max Planck Forschung

Im FOKUS

Es fliegt was in der Luft über dem Mittelmeer: Schwebeteilchen unterschiedlicher Art und Herkunft, die unter dem Raster-elektronenmikroskop eine Vielfalt ästhetisch reizvoller Formen zeigen. Für diese luftgetragenen Partikel – „Aerosole“ genannt – interessieren sichForscher der Abteilung Biogeochemie am Mainzer Max-Planck-Institut für Chemie. Denn diese Teilchen – in der Größenordnung von Mikrometern– beeinflussen das regionale und globale Klima: Sie reduzieren die Strahlung, die von der Sonne auf den Erdboden einfällt und reflektieren einenAnteil zurück ins All; außerdem spielen sie bei der Bildung von Wolken mit – die ihrerseits wieder auf den Strahlungshaushalt wirken. Die Teilchenin den beiden oberen Reihen sowie in der Mitte der dritten Reihe sind biologischen Ursprungs; das linke Bild in der mittleren Reihe zeigt ein Silikat-Partikel, das vermutlich aus der Wüste stammt. Bei den Kügelchen in der vierten Reihe handelt es sich um Flugasche, und die Kristallformen der un-tersten Reihe deuten auf anorganische Salze hin. Das Konglomerat rechts in der dritten Reihe ist noch unbekannt. FOTOS: MPI FÜR CHEMIE