59
7/23/2019 MPF_2001_4 Max Planck Forschung http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 1/59 MaxPlanckForschung MaxPlanck Forschung Das Wissenschaftsmagazin der Max-Planck-Gesellschaft B20396F 4/2001 PSYCHOLINGUISTIK Wenn der Computer aufs Wort gehorcht PSYCHOLINGUISTIK Wenn der Computer aufs Wort gehorcht ESSAY Terrorismus und Geldwäsche ESSAY Terrorismus und Geldwäsche METEOROLOGIE Sonne, Mensch und Klima METEOROLOGIE Sonne, Mensch und Klima SCHWERPUNKT Unsichtbares Universum SCHWERPUNKT Unsichtbares Universum

MPF_2001_4 Max Planck Forschung

Embed Size (px)

Citation preview

Page 1: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 1/59

MaxPlanckForschungMaxPlanckForschungDas Wissenschaftsmagazin der Max-Planck-Gesellschaft 

B20396F4/2001

PSYCHOLINGUISTIK

Wenn der Computer 

aufs Wort gehorcht

PSYCHOLINGUISTIK

Wenn der Computer 

aufs Wort gehorcht

ESSAY

Terrorismus und 

Geldwäsche

ESSAY

Terrorismus und 

GeldwäscheMETEOROLOGIE

Sonne, Mensch 

und Klima

METEOROLOGIE

Sonne, Mensch 

und Klima

SCHWERPUNKT

Unsichtbares Universum

SCHWERPUNKT

Unsichtbares Universum

Page 2: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 2/59

4848

4 / 2 0 0 1 M A X  P  L A N C K F O R S C H U N G   32   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

INHALT

FORSCHUNG aktuell 

Reaktionsfronten auf atomarer Skala   4

Molekularer Nahkampf . . . . . . . . . . . .  5 Auf dem „Östrogen-Pfad”gegen Alzheimer . . . . . . . . . . . . . . . . .  7

 Aminosäure-Schalter für die Angst . . .  8Flackerndes Licht

 vom Schwarzen Loch . . . . . . . . . . . .  10 Wie der Zufall mit Proteinen spielt . .  11Röntgenblick auf die Venus . . . . . . . 12Gleich zu gleich bewegt sich’s leicht   14

ESSAY

❿ Eine Zauberformel,die den Terrorismus bannt? . . . . . 16

SCHWER punkt

Unsichtbares UNIVERSUM

❿ Botschaften vom Randdes Universums . . . . . . . . . . . . . . 22

❿ Schwarze Löcher

als galaktische Gasheizung . . . . . .  28❿ Ein Hauch von Wärme

 verrät das Unsichtbare . . . . . . . . . 34❿Kollisionen, die im Raum

 Wellen schlagen . . . . . . . . . . . . . . 42❿ Radioaugen mustern

Magnetfelder im Weltall . . . . . . . .  48❿Kosmologie und ihre Quintessenz   52

FASZINATION Forschung

❿ Biologische Kybernetik:

In die Röhre geguckt . . . . . . . . . .  56❿ Bose-Einstein-Kondensation:

Gleichtakt im ultrakaltenQuanten-Orchester . . . . . . . . . . . .  62„The young Kid of the Block“ . . . .  69

❿Atmosphären-Chemie:

 Atemtest am Regenwald . . . . . . . . 70

WISSEN aus erster Hand 

❿Meteorologie:

Sonne, Mensch und Klima . . . . . . 78

KONGRESSbericht 

❿ Psycholinguistik: Wenn derComputer aufs Wort gehorcht . . . 84

 Wortsucheim Millisekundentakt . . . . . . . . . .  90

FORSCHUNG & Gesellschaft 

❿ Islamisches Strafrecht:

Die Vielfalt der Rechtsmeinungengilt dem Islam als Gnade . . . . . . . 92

zur  PERSON

❿ Richard Wielebinski . . . . . . . . . . .  98

NEU erschienen

Das Zahngold der Etrusker . . . . . . .  104Die Nägel des Kopernikus . . . . . . . .104Der Brief des Edwin Hubble . . . . . .105

INSTITUTE aktuell

 Vier Jahrzehnte

Energieforschung für die Zukunft . .  106 Attraktion im Reich der Mitte . . . . .107Peter Gruss nächster Präsidentder Max-Planck-Gesellschaft . . . . . .108Neues Teilinstitutin Hannover gegründet . . . . . . . . . . 109Engagements in Lateinamerikaund Russland . . . . . . . . . . . . . . . . . 11075 Jahre in der TraditionErnst Rabels . . . . . . . . . . . . . . . . . . .112iOnGen AG hat Krebs im Visier . . .  113100 Jahre Werner Heisenberg . . . . .  114MPF jetzt als PDF-Version . . . . . . .  114

STANDorte 

Forschungseinrichtungender Max-Planck-Gesellschaft . . . . . 115Impressum . . . . . . . . . . . . . . . . . . .  115

Im FOKUS

❿ „Hightech“-Ring für Weißstörche  116

DAS WELTALL hat die Menschen zu allen Zeiten in seinen Bann geschlagen.

Doch erst in den vergangenen Jahrzehnten haben Wissenschaftler viele kosmische

Rätsel aufgedeckt. Der Artikel auf SEITE 22 führt zu den Ursprüngen von Raum und Zeit 

zurück, als sich die ersten Sternsysteme formten. Licht in diese Epoche der Galaxien-

geburt bringt der europäische Röntgensatellit XMM-Newton (SEITE 28). Aber ist das,

was wir beobachten, auch wirklich „alles“? Vermutlich sind mehr als 90 Prozent der Masse 

des Universums unsichtbar. Max-Planck-Forscher spüren mit einem Thermometer dieser 

Dunklen Materie nach (SEITE 34). Zu den faszinierenden Phänomenen im All gehören

auch die Schwarzen Löcher, deren Kollisionen den Raum erzittern lassen (SEITE 42), und 

Magnetfelder, die Radioastronomen mit ihren Antennen ins Visier nehmen (SEITE 48).

Trotz wichtiger Ergebnisse bleiben entscheidende Fragen offen und knirscht es noch

erheblich im Weltgebäude der Kosmologen (SEITE 52).

ZUM TITELBILD:Gravitationswellen rasenin dieser Computersimulationnach dem Zusammenprallzweier Schwarzer Löcherauf die Erde zu.

FOTO: MPI FÜR GRAVITATIONSPHYSIK- BENGER

Schwerpunkt Unsichtbares Uni versum

LESERAKTION:Wie gefällt IhnenMAXPLANCKFORSCHUNG undMAXPLANCKINTERN? Fragebogendazu finden Sie in diesem Heft.

EXPEDITION: Forscher des MPIfür Chemie haben in Brasilienanalysiert, welche Prozesse

im tropischen Regenwald ablaufen und wiedie „grüne Lunge“ das Klima beeinflusst.

70RÖHRE: Mit der funktio-nellen Magnet-Resonanz-Tomographie schaut Nikos

K. Logothetis vom MPI für biologischeKybernetik dem Gehirn beim Denken zu.

56 DREIECKSVERHÄLTNIS:Wie Sonne, Mensch und Klimazusammenwirken, beschreibt

Ulrich Cubasch vom MPI für Meteorologieunter der Rubrik „Wissen aus erster Hand“.

78 KORAN: Mit den unterschied-lichen Rechtsordnungen isla-mischer Staaten beschäftigt

sich Silvia Tellenbach vom MPI für auslän-disches und internationales Strafrecht.

92 „ALL“-TAG: Richard Wiele-binski, Direktor am MPIfür Radioastronomie, gehört

zu den weltweit führenden Experten aufdem Gebiet kosmischer Magnetfelder.

98GRENZGEBIET: Am MPI fürQuantenoptik untersuchen For-scher Bose-Einstein-Kondensate,

also ultrakalte Gaswolken, deren Atomeden gleichen Quantenzustand besetzen.

62

Liebe Leserin, lieber Leser,

 viermal jährlich berichten wirf ürSie überdiewissenschaftlicheArbeitan den Instituten derMax-Planck-Gesellschaft. Jetztwollen wireinmalselberForschung betreiben – wirforschen nach IhrerMeinung!Wiegef älltIhnen M AXPLANCK FORSCHUNG? Wassollen wir ändern? Helfen Sieunsundschicken Siediesen Fragebogen mitIhren Antworten perPostoderFaxan unszur ück. IhreAngaben bleiben selbstverständlich anonym.DieErgebnissederLeserbefragung werden in einerdernächsten Ausgaben

 von M AXPLANCK FORSCHUNG ver öffentlicht.

 Vielen Dankf ürIhreHilfe!

Mitfreundlichen Gr üßen

HelmutHornung(Redaktion M AXPLANCK FORSCHUNG)

IHRE MEINUNG IST GEFRAGT!

MaxPlanckForschung 

Ihren ausgef üllten Fragebogen

schicken Siebittean:MAX-PLANCK-GESELLSCHAFT

REDAKTION  MAXPLANCKFORSCHUNG

STICHWORT: LESERBEFRAGUNG

HOFGARTENSTRASSE  8

80539MÜNCHEN

ODER PER FAX:

089/ 2108-1405ODER   -1207

FallsSieMitarbeiterderMax-Planck-Gesellschaftsind, nehmen Siebitteauch an derLeserbefragung von M  AXPLANCK INTERN teil. Vielen Dank!

22

4242

52521. W ie habe n S ie  vo nM  A X P LA NC K F OR S CH UN G e rf ahr en? 

       F r eund e/ B e k annt e         A r be its ko l le g en        I nt e rnet        S onsti g e s  _ __ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __

2. D i e G e s taltung  d e s H e f te si s t …( M e hr fac hnennung en mö g li c h)        ans  p re chend 

       üb er s ic htl ich       mo de rn

       altmo d is ch       lang we ili g 

       ve rw irr e nd 3 . D er U mf ang d es H eft es ist …       zu g r o ß 

       aus re ichend        z u k le in

4 . M  AX P L AN C K F OR SC H UN G ers cheint …       z uof t 

       o ft g e nug        zu s e lte n

5 . D i e  A rti ke l  im H ef ts ind  übe rw ieg end…

       g ut ve r st ä nd li c h       ve rst ä ndli ch       s chw e r v er st ä nd lic h

6 . W el che  S chul no t e w ürd e nSi e M  AX P L AN CK F OR SC H U N G ins ge samt ge be n? 

       s ehrg ut        g ut 

       be fri ed i ge nd        aus re i chend 

       mang e lhaft        ung e nüge nd 

7. W e lc he r F achbe re i ch inte r es sie rt S ie b e so nd er s ? 

( M e hr fac hnennung en mö g lic h)        Bi olo gi e/M e d iz in       C he mie/ Ph ys ik/ Te c hnik        G ei s te sw iss enschaf ten

8. We lc he Rubr i ke n i nM  A X P LA NC K F O RS CH U N G 

i nt e re ssi ere n Sie b e so nd er s?(M e hr f ac hnennung en mö g l ic h) 

       F o r sc hung  ak tuell        E ss a y        S c hw e r  punk t 

       Faszi natio nF or sc hung        W i s se n aus  e r st e r H and        K ongr e ss be r ic ht        Fo rs c hung  &  G es e ll s chaf t 

       W i sse ns chaft sg e sc hi c ht e        Z ur  Pe rs o n

       N eu er s chie ne n       Ins tit ut e aktuel l        I m Fo kus 9 .  W ür de nS ie d as H e f t auc h be s te lle n,

w enn e s nic ht ko ste nl o s w ä re ?         j a

       ne i n

Z um S c hl us s noc h e in p aar  F r ag en zu Ihre r P er s on: 10. W ie alt  si nd  Si e?   _ __ __ __ _ _11. I hr Ge sc hle cht ? 

       mä nnl ic h       w ei b li c h12 . Ü b er we lchen B ild ungs ab s chlus s v e r f üge n S ie ? 

       H au p t sc hule        M it t el -/R eal-/ F ac hs chul e 

        A b it ur / Ho chsc hul re i fe        natur wi sse ns chaft lic he s S tud ium       g ei s te sw iss ens chaf tli c he sS tudi um13 .W e lchen B er uf üb e n Si e  aus ? 

 _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _14. Si nd  Si eM it ar b ei ter /in d er M ax -P lanck -G es e ll s chaf t ? 

        j a       ne in

15. Habe n S ie  A nre gung en o d e r K rit i k z uM  A X P LA NC K F O RS CH U NG ?  __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ __ __ __ __ __ _

 __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _

 _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __

 _ __ __ __ __ __ _ _ _ __ __ __ __ __ __ _ _ _ _ _ __ __ __ __ __

F R AG E B O G E N  Z U M W I S S E N S C H AF T S M AG AZ I N 

M AX P LAN C K F O R S C H U N G  ( F ü rex ter ne  Le se r u nd  M it ar b ei ter  d er M a  x - Pl an ck -G es ell s ch af t!) 

2828

34

22GEOMAX:Die aktuelle Ausgabeberichtet über die vonden Vereinten Nationenausgezeichnete Arbeitder AG Feuerökologie.

Page 3: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 3/59

Wissenschaftler des BerlinerFritz-Haber-Instituts derMax-Planck-Gesellschafthaben erstmals die atomaren Vorgänge sichtbar gemacht,die auf der Oberflächeeines Katalysators so ge-nannte chemische Reaktions-fronten entstehen lassen(SCIENCE, 31. August 2001).Dieser Erfolg gelang demForscherteam um ChristianSachs und Joost Wintterlinaus der von Prof. GerhardErtl geleiteten Abteilung„Physikalische Chemie“.

Gewöhnlich laufen chemischeProzesse gleichmäßig ab, dasheißt: In dem gesamten Raum,

in dem sie stattfinden, ist dieStoffumwandlung etwa im sel-ben Moment beendet. MancheReaktionen nehmen jedocheinen anderen Verlauf: Sie„zünden“ an einer Stelle undbreiten sich dann frontartigaus. Solche Phänomene sindzwar schon länger aus der Che-mie bekannt und lassen sichauch recht gut mit theoreti-schen Modellen erklären. Bisherwussten die Forscher allerdings

nicht, ob die einfachen Vor-stellungen, so genannte Reak-tions-Diffusions-Modelle, die Vorgänge auch auf atomarerEbene korrekt beschreiben.Mithilfe eines Rastertunnelmik-roskops haben Wissenschaftlerdes Fritz-Haber-Instituts diemolekularen Prozesse in einerReaktionsfront jetzt erstmalsdirekt sichtbar gemacht. Dabeistellte sich heraus, dass mandie Konzepte einfacher Reakti-ons-Diffusions-Modelle nichtauf den kleinen Maßstab vonAtomen und Molekülen über-tragen kann. Vor allem müssenkünftig die Wechselwirkungenzwischen den reagierendenPartnern berücksichtigt wer-

den, damit man die Eigen-schaften der Fronten – zumBeispiel ihre Geschwindigkeit –genau berechnen kann.Frontartige Ausbreitungen sindnicht nur aus der Chemie, son-dern auch aus anderen Berei-chen der Natur und sogar beisozialen Vorgängen bekannt:Waldbrände etwa zeigen einähnliches Verhalten. WeitereBeispiele sind die Pestepide-mien im Mittelalter oder die

Einführung des Ackerbaus inEuropa in der Jungsteinzeit. Siebeginnen in einem lokal be-grenzten Gebiet und breitensich frontartig aus. Mathema-tisch lassen sich all diese Vor-gänge ähnlich beschreiben.Bei chemischen Reaktionen, andenen meistens nur relativ ein-fach gebaute, einheitliche Mo-leküle beteiligt sind, scheinendie zugrunde liegenden Prozes-se besonders leicht verständlichzu sein. Die Reaktion beginntirgendwo und bildet lokal einekleine Menge an Produkt.Bei bestimmten chemischenProzessen nimmt jedoch dasentstehende Produkt selbstwieder an der Stoffumsetzung

teil und beschleunigt sie da-durch. Einmal gestartet, wirdder Ablauf daher immerschneller und die Menge dererzeugten Substanz nimmt indiesem Bereich stark zu.Gleichzeitig beginnt daszunächst räumlich konzentrier-te Produkt durch Diffusionauseinander zu laufen und sichin seiner Umgebung auszubrei-ten. Hier startet es erneut dieReaktion, die sich weiter fort-

4   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

FORSCHUNGBestimmte Antibiotika hemmen denAufbau von Proteinen in den Ribosomen– den „Eiweißfabriken“ – von Bakterien.Wissenschaftlern der Arbeitsgruppe fürRibosomenstruktur der Max-Planck-Gesellschaft am DESY in Hamburg (Lei-tung: Ada Yonath) und der Ribosomen-Arbeitsgruppe am Max-Planck-Institutfür molekulare Genetik in Berlin (Lei-tung: François Franceschi) ist es jetzt ge-lungen, die Wirkungsweise dieser Anti-biotika bis in ihre atomaren Details auf-zuklären (NATURE, 25. Oktober 2001):Sie konnten die Wechselwirkung zwi-schen einer Untereinheit der Ribosomen

des Bakteriums Deinococcus radioduransmit jeweils fünf verschiedenen, klinischbedeutsamen Antibiotika bestimmen.Damit ergeben sich neue Ansatzpunkte,die Ausprägung von Resistenzen gegenAntibiotika zu erschweren sowie die bis-her sehr langwierige und teure Entwick-lung neuer Antibiotika zu vereinfachen.

Ribosomen sind komplexe Makromoleküle,die aus etwa 60 verschiedenen Proteinenund drei bis vier Nukleinsäureketten (ribo-somale RNA) aufgebaut sind. Sie zeichnenin jeder Zelle für die Herstellung der lebens-wichtigen Proteine verantwortlich, indemsie den genetischen Code, also die Bauanlei-tung für die Proteine, übersetzen. Riboso-men bestehen aus zwei unabhängigen, un-terschiedlich großen Untereinheiten, dieverschiedene Funktionen bei der Protein-

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   5

FORSCHUNG aktu

aktuell aktuell 

STRUKTURBIOLOGIE

MolekularerNahkampf 

Erythromycin(rot) blockiert

den Tunnel der50S-Unterein-heit des Ribo-

soms. Die beidenRNA-Stränge der

50S-Unterein-heit sind blau

dargestellt, dieribosomalen Pro-

teine goldgelb.

PHYSIKALISCHE  CHEMIE

Reaktionsfronten auf atomarer Skala

setzt. Diese Vorgänge wieder-holen sich ständig – das ent-spricht der Ausbreitung einerFront.Die Geschwindigkeit, mit dersich die Front bewegt, kann da-bei viel größer sein als die Dif-fusionsgeschwindigkeit. Miteinfachen theoretischen Mo-dellen, die nur die Reaktionund die Diffusion berücksichti-gen (daher der Name Reakti-ons-Diffusions-Modell) lässt

sich dieses Verhalten im Prinziperfassen. Dennoch gibt es Hin-weise, dass diese Beschreibungzu einfach ist.Wissenschaftler des Fritz-Haber-Instituts um ChristianSachs und Joost Wintterlin ausder Abteilung von Gerhard Ertlhaben herausgefunden, dassbei der katalytischen Oxidationvon Wasserstoff bei tiefenTemperaturen Fronten entste-hen können. Die Reaktion zwi-schen Wasserstoff und Sauer-stoff findet dabei auf der alsKatalysator wirkenden Platin-oberfläche statt; als Produktentsteht Wasser. Die Messun-gen fanden im Ultrahoch-vakuum unter einem Raster-tunnelmikroskop statt – ein Verfahren, das Abbildungenvon Atomen und Molekülenauf Oberflächen liefert. Mitdieser Technik ist es jetzt ge-lungen, solche chemischenReaktionsfronten sichtbar zu

machen: Bei diesen Reaktionenzeigen sie typische Breitenvon 10 bis 100 Nanometern(= Millionstel Millimeter).Die Berliner Forscher habenaußerdem beobachtet, dassals Zwischenprodukt OH-Mo-leküle auf der Platinoberflächeentstehen, die sich dann mitWasserstoffatomen zu Wasser(H2O) vereinen. Dieses Wasserreagiert aber weiter und setztmit noch vorhandenen Sauer-

Rastertunnel-mikroskopischeAufnahmen ei-ner Reaktions-front bei derWasserstoff-oxidation auf einer Platin-oberfläche. DieFront erscheintals heller Ring,der sich miteiner Geschwin-digkeit von 15Nanometern(= MillionstelMillimeter) proMinute ausbrei-tet.Die hellen Punk-te in der Frontsind Inseln, die

 jeweils auswenigen OH-Molekülen be-stehen.

   A   U   F   N   A   H   M   E   N  :   F   R   I   T   Z  -   H   A   B   E   R  -   I   N   S   T   I   T   U   T

stoffatomen wieder OH frei.Dadurch wächst lokal die Men-ge an OH, sodass OH und in derFolge H2O immer schneller er-zeugt werden. Wasser kann auf der Platinoberfläche diffundie-ren und diesen Prozess somitauch in der Umgebung auslö-sen. Als Ergebnis breitet sicheine Reaktionsfront aus, wobeidas Zwischenprodukt OH sichin der Front anreichert.Nachdem es nun gelungen ist,

auf atomarer Skala die in denFronten reagierenden Atomeund Moleküle sichtbar zumachen, zeigen sich viel kom-pliziertere Prozesse als inReaktions-Diffusions-Modellenbeschrieben. Zwar reagierenund diffundieren die chemi-schen Partner tatsächlich –aber nicht unabhängig vonein-ander. Die OH- und H2O-Mo-leküle zeigen starke Wechsel-wirkungen, zum Beispiel bildensich durch anziehende Kräftezwischen den Teilchen kleineInseln aus. Damit lässt sicherklären, warum die experi-mentell gemessenen Geschwin-digkeiten und Profile der Fron-ten nicht mit den theoretischvorhergesagten Werten über-einstimmen. Die Wissenschaft-ler hoffen nun, dass sich mitdiesen Befunden bessere theo-retische Modelle entwickelnlassen, die sich dann auch auf andere Beispiele dieses weit

verbreiteten Phänomens über-tragen lassen.

Weitere Informationenerhalten Sie von:

JOOST WINTTERLIN

Fritz-Haber-Institut, BerlinTel.: 030/8413-5127Fax: 030/8413-5106E-Mail: [email protected]

@

Page 4: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 4/59

FORSCHUNG aktue

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   7

Steckt in Östrogenen, inweiblichen Sexualhormonen,eine chemische Struktur, dieals „Leitstruktur“ für einen

Wirkstoff gegen die Alzhei-mer-Krankheit dienen kann?Können Östrogene selbstden Krankheitsprozess hinterdieser Demenz beeinflussen?Neue experimentelle Befundeeiner Arbeitsgruppe amMünchener Max-Planck-In-stitut für Psychiatrie sprechenklar für diesen schon längervermuteten Sachverhalt.

Die als Östrogene bezeichne-ten weiblichen SexualhormoneÖstradiol, Östron und Östriolstehen nicht nur im Dienst derFortpflanzung. Vielmehr übensie allerlei vorteilhafte „Neben-wirkungen“ aus, so etwa auf das Herz-Kreislauf-System, auf den Stoffwechsel der Knochenund nicht zuletzt auch auf dasGehirn: Dort tragen Östrogeneals Neurohormone und Schutz-faktoren auf vielfältige Weisezur Struktur, Funktion und Er-haltung von Nervenzellen bei.

Mit der neuroprotektiven Akti-vität der Östrogene, also mitihrem schützenden Einfluss auf Nervenzellen, beschäftigt sicheine Selbständige Nachwuchs-gruppe am Münchner Max-Planck-Institut für Psychiatrieunter Leitung von PrivatdozentChristian Behl.Diese Arbeitsgruppe konnteschon vor einigen Jahren miteinem überraschenden Befundzum Östrogen aufwarten.

Es gelang erstmals der bioche-mische Nachweis, dass Östro-gene aufgrund ihrer chemi-schen Struktur als neuroprotek-tive Antioxidantien wirken:Sie fangen chemisch aggressiveMoleküle – „freie Radikale“ –ab und verhindern damit derenzerstörerischen oxidierendenEinfluss auf molekulare Werk-zeuge oder Strukturelementeder Nervenzellen, so genanntenoxidativen Stress. In dieserFunktion, man spricht auch vonRadikalfängern, ähneln Östro-gene dem Vitamin E und bildeneine Art molekularen Schutz-

schild für die Nervenzellen.Über diese rein strukturellechemische Wirkung hinausgreifen Östrogene aber auch di-rekt in zahlreiche biochemischeAbläufe innerhalb der Nerven-zellen ein. Auf eine dieser Akti-vitäten richtet sich inzwischendas besondere Interesse Behlsund seiner Mitarbeiter: Es gehtdabei um ein Eiweiß, Amyloid- Vorläufer-Protein oder kurzAPP genannt, und um dessenProzessierung, also um seine„biochemische Weiterverarbei-tung“ in Nervenzellen.Im Zuge dieser APP-Prozessie-rung kann es zu einem Fehlerkommen, der fatale Folgen hat.Dann entsteht aus dem APPein toxisches Eiweiß, das Beta-Amyloid, das sich in filzigenAggregaten, in so genanntenamyloiden Plaques, im Gehirnvon Alzheimer-Kranken abla-gert. Die Bildung dieser Beta-Amyloid-Aggregate gilt deshalb

als Kernprozess und Auslöserder Alzheimer-Demenz.Frühere Studien hatten bereitsangezeigt, dass Östrogene of-fenbar die Prozessierung desAPP beeinflussen und die Bil-dung des toxischen Beta-Amy-loids unterdrücken. Der genauemolekulare Mechanismus die-ser Östrogen-Aktivität war bis-her unbekannt und auf diesenSachverhalt konzentrierte sichChristian Behl mit seinen Mit-

arbeitern. Nun konnten un-längst zwei wesentliche Befun-de vorgelegt werden. So zeigtesich zum einen, dass der Ein-fluss der Östrogene auf dieAPP-Prozessierung nicht überÖstrogenrezeptoren vermitteltwird, also nicht über den „klas-sischen“, hormonellen Mecha-nismus der Östrogen-Wirkung.Zum anderen stellt sich heraus,dass der Effekt der Östrogeneauf die Prozessierung des APPin Nervenzellen jeweils sehrrasch erfolgt und über be-stimmte intrazelluläre Signal-faktoren, so genannte Kinasen,

vermittelt wird (Manthey et al.,EUROPEAN JOURNAL OF BIOCHEMISTRY,267: 5687-5692, 2001). Einewesentliche Erkenntnis darausist, dass Östrogene die APP-Prozessierung offenbar auchin solchen Nervenzellen imGehirn beeinflussen, die über-haupt keine aktiven Östrogen-rezeptoren besitzen.Aus diesen neuen Befundenzur Östrogenwirkung im Gehirnergeben sich verschiedene For-schungsansätze, die von Chris-tian Behl und seinen Kollegenbereits intensiv bearbeitet wer-den: Mit Blick auf die Wirkungals schützendes Antioxidansmuss man diejenigen Struktur-elemente der Östrogenmoleküleidentifizieren, die für diesenicht-hormonellen schützenden„Nebenwirkungen“ verantwort-lich zeichnen. Dann kann mandiese chemischen Bauteile alspharmazeutische „Leitstruktu-ren“ nutzen, um neue antioxi-

dative neuroprotektive Medika-mente zu entwickeln. Diesewären dann aufgrund der nichtvorhandenen feminisierendenWirkungen bei Frauen wie beiMännern einsetzbar.Den Weg zu diesem Ziel um-reißt Behl so: „Wir können ei-nerseits die chemische Strukturdes Östrogens dahingehendverbessern, dass die strukturelleantioxidative Aktivität verstärktwird und neuroprotektive

von Nahrungsmitteln. Als un-mittelbare Folge sind viele(bakterielle) Erreger in zuneh-mendem Maße multi-resistentgegen eine große Zahl ver-schiedener Antibiotika. Schonin den fünfziger Jahren begün-stigte diese Resistenz den Aus-bruch der bakteriellen Ruhr inJapan, ausgelöst durch multi-resistente Stämme von Shigelladysenteriae, einer Infektion,die noch immer jährlich etwa600.000 Tote weltweit fordert.Das Problem der Antibiotika-Resistenz ist inzwischen sodrängend, dass die Weltge-sundheitsorganisation (WHO)von einer weltweiten Gesund-heitskrise spricht.Üblicherweise vergehen nicht

mehr als ein bis zwei Jahrenach der Einführung einesneuen Antibiotikums, bis dieersten resistenten Erreger auf-treten. Die Entwicklung neuerAntibiotika kann daher mitder zunehmenden Verbreitungresistenter Bakterienstämmekaum Schritt halten: In denvergangenen 30 Jahren ist nureine neue Wirkstoffklasse auf den Markt gekommen. DieAufklärung der Struktur dergroßen ribosomalen Unterein-heit in Verbindung mit ver-schiedenen Antibiotika, unddamit die Kenntnis der Wech-selwirkung zwischen Antibio-tika und Ribosomen, erlaubenes nunmehr, die langwierigeund kostenintensive Entwick-lung neuer Medikamente deut-lich zu beschleunigen oder zuvereinfachen.

können. Darüber hinaus wer-den die so genannten Makro-lide-Antibiotika zur Bekämp-fung einer Vielzahl bakteriellerInfektionen verwendet, vonAkne bis Syphilis.Aufgrund biochemischerDaten war bereits bekannt,dass Erythromycin die Peptidyl-transferase-Reaktion erst nachder Bildung einer kurzen Ami-nosäurekette unterbindet. DieStruktur der 50S-Untereinheitim Komplex mit Erythromycinsowie mit den zwei anderenMakroliden (Roxithromycinund Clarithromycin) zeigt, dassdiese Klasse der Antibiotikaden Tunnel der 50S-Unterein-heit blockiert, durch den alleProteine hindurch gefädelt

werden. Dies führt zu einemvorzeitigen Abbruch der Pro-tein-Synthese.Chloramphenicol ist sehr wir-kungsvoll in der Behandlungeines breiten Spektrums bakte-rieller Infektionen, einschließ-lich schwerer anaerober Infek-tionen. Clindamycin wird unteranderem zur Bekämpfung an-aerober Infektionen und Cocci-Bakterien sowie zur Behand-lung von Pneumocystis-indu-zierter Lungenentzündung vonAIDS-Patienten verwendet.Beide Antibiotika binden direktim Peptidyltransferase-Zent-rum des Ribosoms. Die Struk-turen der ribosomalen Unter-einheit mit Clindamycin undChloramphenicol bestätigendie Vermutung, dass dieseAntibiotika die Protein-Bio-synthese durch „molekulareMimikry“ unterbrechen: Siebesetzen nämlich Bereiche,die denen von zelleigenen

Aminosäuren ähnlich sind undwerden deshalb durch das Ri-bosom gebunden. Da sie abernaturgemäß keine Peptidbin-dung eingehen können, brin-gen sie die Peptidyltransferase-Reaktion zum Stillstand – unddas Bakterium wird somit ge-tötet. Der größte Teil der Anti-biotika wird heute nicht zurBehandlung bakterieller Infek-tionen eingesetzt, sondern zurProduktion und Konservierung

RSCHUNG aktuell 

6   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

Biosynthese erfüllen. Die klei-ne Untereinheit (30S im Fallebakterieller Ribosomen) ist we-sentlich für die Dekodierung

des genetischen Codes zustän-dig, während die große Unter-einheit (50S) in der so genann-ten Peptidyltransferase-Reak-tion die einzelnen Aminosäu-ren zu einer langen Amino-säurenkette zusammenfügt,die schließlich zu einem Pro-teinmolekül verknäult wird.Während ihrer Produktion be-findet sich die Aminosäuren-kette teilweise innerhalb der50S-Untereinheit, in einemetwa 100 Angström langen und15 Angström breiten Tunnel,der sie vor enzymatischen An-griffen schützt (ein Angströmentspricht einem Zehnmilli-onstel Millimeter). Erst 1999gelang es – nach mehr als 20Jahren intensiver Forschung –,die komplizierte Struktur desRibosoms mit atomarer Auf-lösung aufzuklären.Die zentrale Rolle des Ribo-soms bei der Protein-Biosyn-these macht es zugleich zu

einem bevorzugten Angriffs-punkt vieler Antibiotika (bakte-rienhemmende oder –tötendeWirkstoffe) und Cytostatika(tumorhemmende Wirkstoffe).Die Details des Wirkmechanis-mus waren jedoch bisher unbe-kannt. Chloramphenicol, Clin-damycin und Erythromycin sindeinige der Antibiotika, die ge-gen das zu trauriger Popula-rität gelangte Bacillus anthra-cis (Anthrax) eingesetzt werden

ntibiotika sindebenso kleinewirkungsvolleMoleküle. Diebbildung zeigt

die dreidimen-onale Struktur

(links) sowiedie chemische

Struktur fürErythromycin,

b) Clindamycinund c) Chlor-

amphenicol.

   G   R   A   F   I   K  :   A   R   B   E   I   T   S   G   R   U   P   P   E   R   I   B   O   S   O   M   E   N   S   T   R   U   K   T   U   R   D   E   R   M   A   X  -   P   L   A   N   C   K  -   G   E   S   E   L   L   S   C   H   A   F   T   A   M

   D   E   S   Y

ZELLBIOLOGIE

 Auf dem „Östrogen-Pfad“ gegen Alzheimer

Weitere Informationenerhalten Sie von:

DR. FRANK SCHLÜNZEN

Arbeitsgruppe Ribosomenstruktur,Max-Planck-Gesellschaft am DESY Tel.: 040/8998-2809Fax: 040/8998-6810E-Mail: [email protected]

DR. FRANCOIS FRANCESCHI

Max-Planck-Institut für molekulareGenetik, BerlinTel.: 030/8413-1691Fax: 030/8413-1690E-Mail: [email protected]

@

   F   O   T   O  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

Die schützendeWirkung von

Östrogenen auf Nervenzellen des

Gehirns erfor-schen ChristianBehl und seineMitarbeiter am

Max-Planck-Institut fürPsychiatrie.

Page 5: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 5/59

Designer-Antioxidanzien ent-stehen. Bei der Entwicklungsolcher östrogenverwandterantioxidativer Strukturen sindwir bereits entscheidendeSchritte weitergekommen undhaben erste hoch aktive Mo-lekülstrukturen i dentifiziert, diebereits in Tiermodellen getestetwerden. Da jedoch Rezeptorenfür Östrogene in verschiedenenGehirnregionen vorhandensind, werden in einem zusätzli-chen Forschungsansatz auchGene identifiziert, die in Ner-venzellen durch Östrogene an-oder abgeschaltet werden und

WeitereInformationenerhalten Sie von:PD DR. CHRISTIAN BEHL

Max-Planck-Institutfür Psychiatrie,MünchenTel.: 089/30622-246Fax: 089/30622-642E-Mail: [email protected]

RSCHUNG aktuell 

8   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

FORSCHUNG aktue

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   9

BUCH ZUM THEMAmehr über die bislang bekannten neuroprotek-Aktivitäten erfahren will, die Östrogene im Hirnlten, der sollte sich das Buch „Estrogen – Mysteryfor the Brain?“ vornehmen, das vor kurzem er-nen ist: Christian Behl gibt darin einen Überblickaktuellen Stand des Wissens zu diesem Thema,war sowohl der Grundlagenforschung als auchlinischen Erfahrungen.uch, erschienen 2001 im Springer Verlag,/New York, ist in Englisch verfasst und zunächstpezialisten, darüber hinaus aber auch für vieleessierte und vorgebildete Leser – etwa MedizinerMedizinjournalisten – wertvoll und aufschlussreich.

das Überleben der Nervenzellebeeinflussen. Unter Einsatz sogenannter DNA-Chips könnengenetische Programme aufge-deckt werden, die Nervenzellenbei Frauen wie bei Männernresistent gegen neurodegene-rative Prozesse machen. Auf der Grundlage dieser Datenließen sich dann Medikamenteentwickeln, die diese Schutz-programme gezielt anschalten– und Östrogene wären dann, jedenfalls als Ganzes, nichtmehr notwendig, um neuro-

protektive Wirkungen zu er-zeugen.“ Vorerst freilich werden dieMünchner Forscher nochreichlich Östrogene benötigen,um die von diesen Hormonenangezeigte Spur zu verfolgen,die am Ende vielleicht zu einemMedikament gegen die Alz-heimer-Krankheit und andereneurodegenerative Erkran-kungen wie etwa den Schlag-anfall führt.

@

In der Zeitschrift PROCEEDINGSOF THE NATIONAL

ACADEMY OF SCIENCES (25. September 2001, Vol. 98) berichten Wissenschaftler aus derAbteilung von Joachim Spiess vom Max-Planck-Institut für experimentelle Medizinin Göttingen über die Entdeckung einesAminosäure-Schalters im Stresshormon CRF:Mit dem Austausch einer einzigen Amino-säure ist es ihnen gelungen, die Bindungs-eigenschaften des Moleküls gezielt zu ver-ändern. Auf der Grundlage dieser Beobach-tung sollte es zukünftig möglich sein,selektive CRF-artige Peptide (kurze Protein-abschnitte), die in spezifischer Weise anre-gen oder hemmen, zu entwickeln und damitdie Erforschung der CRF-Wirkungen ent-scheidend voranzutreiben.

Stress ist eine Erfahrung, die jeder kennt. Esgibt vielerlei Stress oder auch Angst auslösendeReize. Doch so unterschiedlich die von außenkommenden stressvollen Reize auch sein mö-gen – die chemischen Reaktionen, die sie inunserem Körper auslösen, folgen zunächst ein-mal einem grundlegenden Muster: In Beant-wortung eines stressvollen Reizes setzen Men-schen wie auch andere Säugetiere ein chemi-sches Signalmolekül im Gehirn frei: das aus41 Aminosäurebausteinen bestehende Corti-cotropin-Freisetzungshormon (corticotropinreleasing factor CRF). Über die Nervenfaserngelangt es zunächst zu einem venösen Ge-fäßknäuel oberhalb der Hirnanhangdrüse unddann mit dem Blutstrom dieses Gefäßknäuelsin den vorderen Teil der Hirnanhangdrüse(Hypophyse). Hier wird nun das Hormon Corti-cotropin ausgeschüttet, das die Freisetzung sogenannter Glucocorticoide in der Nebennie-renrinde bewirkt.Die Wissenschaftler bezeichnen diese komplexeAktivierungskette als Hypothalamus-Hypophy-sen-Nebennierenrinden-Achse oder einfachals Stressachse. Bei der spezifischen Anpassungdes Körpers an Stresssituationen spielt diese

Achse eine sehr wichtige Rolle. Unter patholo-gischen, also krank machenden Bedingungenwie depressiven Erkrankungen und Angst-störungen, kann die normale Funktion dieserStressachse erheblich gestört sein.Über seine Rolle bei der Aktivierung der Stress-achse hinaus wirkt das Signalmolekül CRF auchbei der Bildung von Gedächtnis, Angst undEssverhalten im Gehirn mit. Diese Wirkungenvon CRF werden durch verschiedene in denZellwänden verankerte Rezeptoren vermittelt.Das sind quasi Antennenmoleküle, die das CRFbinden und auf diese Weise weitere Signal-

Der schraubenförmige (alpha-helikale)Teil des Peptids CRF mit den Aminosäu-ren auf der Wasser abweisenden Seite.h/rCRF bindet mit einer um den Faktor 3höheren Bindungsstärke an das Bin-dungsprotein als an den Rezeptor (CRFRezeptor, Subtyp 1). Der Austausch derAminosäure Alanin (Ala) gegen Glutamin-

säure (Glu) vermindert die Bindungs-stärke zum Bindungsprotein um denFaktor 150 und erhöht die Bindungs-

stärke zum Rezeptor um den Faktor 3.

tauscht, so wird das Molekülnicht mehr an das Bindungs-protein, sondern lediglich anden CRF-Rezeptor gebunden.Damit halten die Wissenschaft-ler sozusagen einen molekula-ren Schalter in den Händen,mit dem sie die Bindungseigen-schaften des Signalmolekülsgezielt verändern können. DerAminosäureaustausch findetin einem schraubenförmig ge-wundenen Bereich des CRF-Moleküls statt, der sehr wasser-abstoßend ist.Den Göttinger Wissenschaft-lern ist es bereits gelungen,

diesen wissenschaftlichen Be-fund bei der Entwicklung vonHemmstoffen umzusetzen: Sieveränderten einen Hemmstoff,das Astressin, der wegen seinergeringen Löslichkeit bisher nurbegrenzt in Tierversuchen ein-gesetzt werden konnte und dereine schwache Bindung an dasCRF-Bindungsprotein zeigte,durch die Einführung der„Schalteraminosäure“ Glutamin-säure. Dadurch erhöhte sichdie Bindungsfestigkeit an denCRF-Rezeptor, während dieFähigkeit, an das Bindungspro-tein zu binden, verloren ging.Zugleich wurde durch diese Veränderungen die Wasserlös-lichkeit des sauren Astressins sogesteigert, dass es im Tierexpe-riment wirksam werden konnte– Angstreaktionen bei Mäusenließen sich mit saurem Astressin jetzt ohne Schwierigkeitenunterdrücken. Zur Zeit arbeitendie Wissenschaftler des Göttin-

ger Max-Planck-Instituts anHemmstoffen mit größererSelektivität für Untergruppendes CRF-Rezeptors.

Weitere Informationenerhalten Sie von:

JOACHIM SPIESS

Max-Planck-Institut für experi-mentelle Medizin, GöttingenTel.: 0551/3899-258Fax: 0551/3899-359E-Mail: [email protected]   A

   B   B .  :

   M   P   I   F    Ü   R   E   X   P   E   R   I   M   E   N   T   E   L   L   E   M   E   D   I   Z   I   N

Jahr 1995 konnten AndreasRühmann, Ines Bonk und Joa-chim Spiess aus der AbteilungMolekulare Neuroendokrinolo-gie des Göttinger Max-Planck-Instituts für experimentelleMedizin in Zusammenarbeitmit Chijen Lin und Michael Ro-senfeld vom Howard HughesInstitute in San Diego einensolchen selektiv bindendenHemmstoff, das Peptid Anti-Sauvagine-30, erzeugen.In ihrer jüngsten Veröffentli-

chung in PNAS haben Wissen-schaftler derselben Abteilung –Klaus Eckart, Olaf Jahn, JelenaRadulovic, Hossein Tezval, Larsvan Werven und JoachimSpiess – nun gezeigt, dass derAustausch einer einzigen Ami-nosäure im CRF-Molekül darü-ber entscheidet, ob CRF an seinBindungsprotein gebundenwird oder nicht. Wird die Ami-nosäure Alanin gegen die Ami-nosäure Glutaminsäure ausge-

ketten im Inneren der Zelleauslösen. Interessanterweisekann CRF Gedächtnis undAngst sowohl verstärken alsauch schwächen, je nachdem,an welche Rezeptoren einerHirnregion es gebunden hat.Darüber hinaus wird CRF nichtnur an verschiedene Rezepto-ren der Gehirnzellen gebunden,sondern auch an ein so ge-nanntes CRF-Bindungsprotein.Dieses Protein bindet immenschlichen Gehirn etwa50 Prozent des vorhandenenSignalmoleküls, und das mitgrößerer Festigkeit beziehungs-weise Affinität als die erwähn-ten Rezeptoren. Noch habendie Wissenschaftler die biolo-gische Funktion dieses Bin-dungsproteins nicht vollständigverstanden, aber es stellt ohneZweifel ein pharmakologischwichtiges Reservoir von CRF

dar, das beispielsweise für die Verbesserung der Gedächt-nisleistung benutzt werdenkönnte.Um die durch die CRF-Rezep-toren vermittelten Gehirnfunk-tionen besser zu verstehen,versuchen die WissenschaftlerCRF-analoge Signalmoleküleherzustellen, die bevorzugtvon einem der Rezeptoren oderaber dem Bindungsprotein ge-bunden werden. Bereits im

EXPERIMENTELLE MEDIZIN

 Aminosäure-Schalter für die Angst

@

Page 6: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 6/59

FORSCHUNG aktue

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   11

RSCHUNG aktuell 

10   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

Schwarze Löcher saugenmit ihrer enormen Schwer-kraft Gas aus der Umgebungauf. Stürzt es in die Schwer-

kraftfalle hinein, so erhitztes sich und sendet Röntgen-strahlung aus. Nach dergängigen Theorie müsstendie Röntgenblitze auch um-gebende Materie aufheizenund zum Leuchten im sicht-baren Licht anregen. Durchgleichzeitige Messung vonRöntgenstrahlung und sicht-barem Licht sollte dieses„Lichtecho“ nachweisbarsein. Die besten Messungendieser Art haben Astronomenvon den beiden GarchingerMax-Planck-Instituten fürextraterrestrische Physik undfür Astrophysik gewonnen(NATURE, 8. November 2001).

Überraschenderweise ließensich die Ergebnisse jedochnicht mit der bisherigen „Echo-theorie“ erklären. Das Team umGottfried Kanbach und HenkSpruit vermutet, dass von demSchwarzen Loch ein Materie-

strom ausgeht, in dem dieoptische Strahlung entsteht.Die Garchinger Forscherhatten sich für ihre Untersu-chungen einen etwa 6000Lichtjahre entfernten Himmels-körper mit der BezeichnungXTE J1118+480 (auch KV UrsaMajoris genannt) ausgewählt.Auf Grund früherer Beobach-tungen vermuten die Forscherdort ein Schwarzes Loch, dasmehr als die sechsfache Son-

nenmasse besitzt. Von einemBegleitstern strömt Gas zumSchwarzen Loch hinüberund sammelt sich zunächst ineiner Scheibe. Von dort ausstrudelt es nach und nach inden kosmischen Mahlstromhinein. Kommt es hierbei zuStörungen, bei denen größereGaswolken in das SchwarzeLoch hineinstürzen, strahltdas Gas einen i ntensivenRöntgenblitz ab.Kanbach und seine Kollegenbeobachteten XTE J1118+480im Juli 2000 gleichzeitig imRöntgenbereich mit dem ame-

rikanischen WeltraumteleskopRossi XTE und im sichtbarenLicht mit einem Teleskop auf Kreta. Für ihre dortigen Mes-sungen verwendeten sie dasam Max-Planck-Institut fürextraterrestrische Physik ent-wickelte Instrument OPTIMA;es erlaubt die Messung sehrrascher Helligkeitsänderungen.Mit diesen Synchronbeobach-tungen gelang es ihnen,schnelle Variationen der Rönt-genstrahlung und des opti-schen Lichts auf Zeitskalen vonMillisekunden miteinander zukorrelieren. „Zu unserer Über-raschung zeigte sich jedoch,dass die optische Strahlung vielschneller auf Variationen derRöntgenstrahlung reagiert alswir es auf Grund des bisherigenModells erwartet hatten“, sagtHenk Spruit. Tatsächlich folgtenach jeweils einem Röntgen-ausbruch ein Helligkeits-anstieg im sichtbaren Bereich

schon nach etwa einer Zehn-telsekunde.Die Forscher interpretierendiese Beobachtung als Hinweisauf einen Materieausfluss vomSchwarzen Loch. Demnachlenken Magnetfelder einen Teildes auf das Schwarze Lochzuströmenden Gases um undbeschleunigen es senkrecht zurScheibe. Jedes Mal, wenn einegroße Gaswolke in RichtungSchwarzes Loch fällt, gerät

auch mehr Materie in den ab-strömenden Gasstrom. In ihmbilden sich dann Wellen, dieden beobachteten Lichtblitzaussenden. Einfachen Abschät-zungen zufolge müsste dieserAusstrom mit weniger als zehnProzent der Lichtgeschwindig-keit erfolgen. Die optischeEmission käme dann aus einerRegion in etwa 20.000 Kilome-tern Entfernung vom Schwar-zen Loch. Die Zeitverzögerungdes sichtbaren Lichts gegen-über dem Röntgenausbruchwird also durch eine Laufzeit-verzögerung erklärt.

Dieser relativ langsame Aus-strom wäre ein neues Phäno-men in der Umgebung einesSchwarzen Lochs. Bisher sindausschließlich stark gebün-delte Gasstrahlen (Radiojets)bekannt, in denen sich dieTeilchen mit bis zu 90 Prozentder Lichtgeschwindigkeit vomSchwarzen Loch fortbewegen.Ob diese Interpretation stimmt,wollen die Forscher mit wei-teren Beobachtungen an ähn-lichen Quellen überprüfen –XTE J1118+480 ist nach seinemsiebenmonatigen Ausbruchim Jahr 2000 erloschen.

Weitere Informationenerhalten Sie von:DR. GOTTFRIED KANBACH

Max-Planck-Institut fürextraterrestrische Physik,GarchingTel.: 089/30000-3544Fax: 089/30000-3606E-Mail: [email protected]

PROF. DR. HENK SPRUIT

Max-Planck-Institut fürAstrophysik, GarchingTel.: 089/30000-2220Fax: 089/30000-2235E-Mail: [email protected]

@

ASTROPHYSIK

Flackerndes Licht vom Schwarzen Loch

ration derlungsprozesser Umgebungchwarzenes XTE

8+480.röme von

m Begleitsternerhalb dess) bilden einebe um das(dunkelrot

braun dar-llt).olken stürzenort in dasarze Loch, dast unsichtbart, und senden Röntgen-lung aus). Gleichzeitig

mt Gas in Formsehr schnellen

“ (blau) insin langsamererrom strahltnach demgenblitz imbaren Licht).

   I   L   L   U   S   T   R   A   T   I   O   N  :   M   P   I   F    Ü   R   A   S   T   R   O   P   H   Y   S   I   K

    /   S   P   R   U   I   T

zeigen, dass offensichtlich dasZusammenspiel dieser beidenProteine die Stabilität des Mikrtubuli-Netzwerks festlegt:XMAP215 alleine sorgt für eineschnellere Polymerisationsrate,vergleichbar mit jener unter In-vivo-Bedingungen. Durch Zugavon XKCM1 wird die Polymerisationsrate nicht beeinflusst. Umgekehrt senkt XMAP215 aber ddurch diesen Faktor ausgelösteKatastrophenrate, also das Um-schalten in den Depolymerisations- oder Schrumpfungsprozes„Die Ähnlichkeit zwischen derdynamischen Instabilität in vivund unserem aus Tubulin,XMAP215, XKCM1 bestehendenIn-vitro-System ist unüberseh-bar“, sagt Anthony Hyman.

„Möglicherweise halten wir denSchlüssel in Händen, um zuküntig auch komplexe zelluläre Prozesse wie die Organisation derZellteilungsspindel in vitro ablaufen zu lassen.“Damit kämen die Wissenschaftnicht nur einem Verständnis deGrundprinzipien zellulärer Organisation näher. Auch im medizinischen Bereich könnten dieseErkenntnisse relevant werden.Schon seit längerem ist bekanndass Defekte auf der Ebene derMikrotubuli-Dynamik Einflussauf Krebserkrankungen haben.Mikrotubuli sind daher ein An-griffsziel für die ChemotherapieTaxol beispielsweise stabilisiertMikrotubuli und verhindertdie dynamische Instabilität. Beibestimmten Krebsformen, wieBrustkrebs, löst es spezifisch deTod der Krebszellen aus.

Weitere Informationenerhalten Sie von:

CLAUDIA LORENZ

Max-Planck-Institut für molekulaZellbiologie und Genetik, DresdenTel.: 0351/210-2030Fax: 0351/210-1679E-Mail: claudia.lorenz@mpi-cbg.

PROF. ANTHONY H YMAN

Tel.: 0351/210-1700Fax: 0351/210-1289E-Mail: [email protected]

tionszentren stellen ununter-brochen neue, rein zufällig aus-gerichtete Mikrotubuli her.Ein Mikrotubulus, der von einemsolchen Zentrum aus wächst,kann stabilisiert werden, wennsein „Plus-Ende“ von spezifischenProteinen eingefangen wird, umseinen Abbau zu verhindern. Ge-schieht dies durch eine Strukturin einem besonderen Bereich derZelle, wird der Mikrotubulus einziemlich stabiles Bindeglied zwi-schen dieser Struktur und demOrganisationszentrum bilden.Mikrotubuli dehnen sich deshalbnur in bestimmte Bereiche der

Zelle aus und schaffen einenMechanismus für die räumlicheOrganisation von Zellen sowie fürgerichtete Bewegungen vonOrganellen. Verglichen mit Mikrotubuli, dieaus gereinigtem Tubulin zusam-mengesetzt wurden, polymerisie-ren Mikrotubuli in ihrer physiolo-gischen Umgebung viermal soschnell und schalten auch we-sentlich häufiger von Polymerisa-tion zu Depolymerisation. DieMax-Planck-WissenschaftlerAnthony Hyman, Kazuhisa Kino-shita und ihre Kollegen habensich auf die Suche nach den Fak-toren begeben, die die Mikrotu-buli-Dynamik steuern. Beim Kral-lenfrosch Xenopus stießen sie auf ein Mikrotubuli-assoziiertes Pro-tein – kurz XMAP215 genannt –,das die Polymerisationsrate derMikrotubuli entscheidend stei-gert: Ohne XMAP215 gibt esbeim Krallenfrosch kein Mikro-tubuli-Wachstum. Des Weiteren

konnten die Forscher denvorherrschenden „Katastro-phenauslöser“ identifizieren:

Das Protein XKCM1, einMitglied aus der Kinesin-Familie, destabilisiert dieMikrotubuli, setzt also ihrenSchrumpfungsprozess inGang. Die beiden Faktorenhaben somit eine gegen-sätzliche Wirkung.In den In-vitro-Tests konn-ten die Wissenschaftler nun

den Verlust beziehungsweise dasHinzufügen von Tubulin-Baustei-nen. Die Gesamtpopulation vonMikrotubuli in der Zelle bestehtzu jedem Zeitpunkt aus einemGemisch von langsam wachsen-den und schnell schrumpfendenPolymeren. Das Umschalten zwi-schen diesen beiden Zuständenerfolgt rein stochastisch.Bereits 1984 wurde dieses dyna-mische Verhalten von Mikrotu-buli entdeckt. Es ist wesentlichesOrganisationsprinzip für eineganze Reihe wichtiger zellulärer Vorgänge. Denn im Gegensatzzu einem Knochenskelett, das

ausschließlich Stützfunktionübernimmt, ermöglicht dieserdynamische Grundzustand demZytoskelett auch zelluläre Bewe-gungen: So organisieren Mikro-tubuli den Transport von Zell-organellen, das Auswachsen derFasern von Nervenzellen oderdie Trennung der Chromosomen-paare während der Zellteilung.Wie geschieht das?Die Mikrotubuli liegen am dich-testen um den Zellkern und deh-nen sich von dort strahlenförmigin feinen filigranartigen Fädenzur Zellperipherie hin aus. Wegenseiner dynamischen Instabilitätwird ein neu gebildeter Mikro-tubulus nur bestehen bleiben,wenn seine beiden Enden vorDepolymerisation, also demSchrumpfen, geschützt sind. InZellen werden die so genanntenMinus-Enden der Mikrotubuligewöhnlich durch die Mikrotu-buli-Organisationszentren ge-schützt, von denen aus diese

Fäden wachsen. Die Organisa-

ZELLBIOLOGIE

 Wie der Zufall mit Proteinen spielt

Auch Zellen haben ein „Ske-lett“ – ein Gerüst aus faden-förmigen Eiweißmolekülen, daseinerseits Stützfunktionen er-füllt, andererseits aber auchBewegungen der Zelle ermög-licht sowie an Transportprozes-sen innerhalb des Zellkörpersmitwirkt. Eine wichtige Rollefür dieses Zellskelett spielendie so genannten Mikrotubuli,die einem fortwährenden Auf-und Abbau unterliegen: einemdynamisch-instabilen Prozess,den Forscher am Max-Planck-Institut für molekulare Zell-biologie und Genetik jetzt

erstmals modellhaft „nach-gespielt“ haben (SCIENCE,9. November 2001).

„Dynamische Instabilität“ –damit sind nicht die derzeitigenSchwankungen der Aktienkursean der Börse gemeint, sonderndas Verhalten von Mikrotubuli,von winzigen, aus dem EiweißTubulin aufgebauten Polymeren,die wesentlicher Bestandteildes Zytoskeletts sind. Dabeihat der Verlauf der Aktienkursedurchaus einiges gemein mitdem Verhalten von Mikrotubuli –wechselt er doch ebenso zwi-schen Hoffnung weckendemAnstieg und katastrophalemAbsturz hin und her.Auch Mikrotubuli schalten umvon einem Katastrophenzustandin einen einträglicheren Status –die Wissenschaftler sprechen et-was nüchterner von Depolymeri-sation und Polymerisation: Siemeinen damit das Verkürzen oder

 Verlängern der Mikrotubuli durch

Die Bilder zeigen das vom Mikrotubuli-Organisationszentrum ausgehende Verlängern und Schrumpfen verschiedener Mikrotubuli-Fäden.

@   F   O   T   O   S  :   M   P   I   F    Ü   R

   M   O   L   E   K   U   L   A   R   E   Z   E   L   L   B   I   O   L   O   G   I   E   U   N   D   G   E   N   E   T   I   K

Page 7: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 7/59

Strahlung so auf, dass das opti-sche Licht auf Bereiche außer-halb des Röntgendetektors ab-gelenkt wurde und somit nichtmehr stören konnte. Gleichzei-tig ermöglichte das Gitter aucheine genaue Analyse des Rönt-genspektrums. Dabei zeigtesich, dass die Röntgenstrahlungim Wesentlichen nur auf zweiWellenlängen konzentriertist, die genau den Röntgen-Fluoreszenzlinien von Sauer-stoff und Kohlenstoff ent-sprechen, den Hauptbestand-teilen in der Kohlendioxid-Atmosphäre der Venus.

Wie entsteht die Fluoreszenz?Röntgenphotonen von derSonne katapultieren aus denSauerstoff- und Kohlenstoff-atomen jeweils ein Elektronheraus, und nachrückendeElektronen besetzen die freigewordenen Plätze sofort wie-der. Bei diesem Prozess wirdStrahlung emittiert – die be-obachtete Röntgenfluoreszenz.Das Röntgenbild zeigt – andersals optische Fotos – eine starkeAufhellung des der Sonne zu-gewandten Planetenrandes.Diesen Effekt haben Forscherdes Max-Planck-Instituts fürextraterrestrische Physik amComputer detailgetreu simu-liert. „Die Röntgenfluoreszenz-Strahlung ist in Höhen von120 bis 140 Kilometern amkräftigsten. Im Röntgenbereichist die von der Sonne beschie-nene Halbkugel der Venus voneiner nahezu durchsichtigenleuchtenden Schale umgeben,

die am Rand am hellsten er-scheint, da wir dort am meistenvon der leuchtenden Materiesehen“, erklärt Konrad Dennerl.Die Eigenschaften dieser obe-ren atmosphärischen Schich-ten, der Thermosphäre und derExosphäre, lassen sich somitdurch Röntgenbeobachtungengut untersuchen.

Ein weiteres interessantes Er-

gebnis: Die Wechselwirkungder schweren, hoch ionisiertenAtome des Sonnenwinds mitder Atmosphäre spielt – im Ge-gensatz zur Röntgenstrahlungvon Kometen – bei der Venuseine untergeordnete Rolle.„Dies liegt vor allem daran“, soDennerl, „dass das Gas in derAtmosphäre erheblich dichterund konzentrierter ist als in derKoma eines Kometen“.Wie schwierig die Messungenwaren, zeigt eine Zahl: DieStärke der registrierten Rönt-genstrahlung betrug ein Zehn-milliardstel der optischenStrahlung – nur etwa alle 40Sekunden fing der Detektor einRöntgenphoton auf. Aus die-sem Grund musste Chandra die Venus drei Stunden lang unterdie Lupe nehmen und die Pho-tonen „aufsammeln“. Währenddieser Zeit bewegten sich Ve-nus und Erde auf ihren Bahnenum die Sonne und zog Chandra

um die Erde. Diese „Choreogra-fie“ ließ das Röntgenbild der Venus um das Zwanzigfacheihres Durchmessers im Teleskopweiter wandern. Um dennochein scharfes Bild zu erhalten,mussten die Photonen einzelnauf diese Bewegung korrigiertund der CCD-Detektor alle dreiSekunden ausgelesen werden.

Die Röntgenphotonen auf demBild erscheinen als einzelnePunkte. Zum Zeitpunkt der Be-obachtung betrug der schein-bare Durchmesser der Venusnur etwa ein Achtzigstel desErdmonddurchmessers; erstChandra machte es möglich,derart kleine Objekte im Rönt-genbereich abzubilden.

Weitere Informationenerhalten Sie von:

DR. KONRAD DENNERL

Max-Planck-Institutfür extraterrestrische Physik,GarchingTel.: 089/30000 - 3862Fax: 089/30000 - 3569E-Mail: [email protected]

FORSCHUNG aktue

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   13

Ein deutsch-amerikanischesTeam um Konrad Dennerlvom Max-Planck-Institutfür extraterrestrische Physik(MPE) in Garching bei Mün-chen hat erstmals die Venusmit einem Röntgenteleskopbeobachtet; das Instrumentkreist an Bord des SatellitenChandra um die Erde. Die„Röntgenfluoreszenz“ ent-steht in den oberen Schich-ten der Venusatmosphäre;Ursache dafür ist die Rönt-genstrahlung von der Sonne.Eine wesentliche Rolle beider Beobachtung spielte das

am Garchinger Max-Planck-Institut entwickelte Nieder-energie-Transmissionsgitter,das mit dem Chandra-Tele-skop hoch aufgelöste Spekt-roskopie erlaubt. Überihre Ergebnisse werden dieWissenschaftler in einerder nächsten Ausgaben derrenommierten FachzeitschriftASTRONOMY & ASTROPHYSICS

berichten.

Die Venus umrundet die Sonnein einer durchschnittlichenEntfernung von 108 MillionenKilometern, also innerhalb derErdbahn: Deshalb entfernt sichdie Venus von unserem Plane-ten aus gesehen niemals weiterals 48 Grad von der Sonne. Undaus diesem Grund beobachtenwir sie als hellen Morgen- oderAbendstern am östlichen oderwestlichen Dämmerungshim-mel, aber niemals um Mitter-nacht hoch im Süden. Der ge-

ringe Winkelabstand zur Sonnebedeutet für die meisten Rönt-gensatelliten ein Problem: Siedürfen nur Objekte in einemWinkelabstand von etwa 90Grad von der Sonne ins Visiernehmen, da sonst solaresStreulicht die Beobachtungstört, sich der Satellit erwärmtoder – im Fall fest montierter

Solarzellen – die Stromver-sorgung beeinträchtigt wird.Der amerikanische Röntgensa-tellit Chandra jedoch kann sichbis auf 45 Grad Winkelabstandan die Sonne „herantasten“.Dies reicht für die Venus gera-de aus. Dazu muss sie sich aberim maximalen Sonnenabstandbefinden, was etwa alle 19Monate zwei Mal hintereinan-der vorkommt. Im Januar 2001war dies der Fall: Die Venusglänzte als heller Abendsternund zeigte sich im Fernrohrals „Halbmond“.Weil die dichte Venusatmo-

sphäre einen großen Teil deseintreffenden Sonnenlichtsin den Weltraum reflektiert,erscheint sie sehr hell. Dasbedeutete ein besonderesProblem bei der Beobachtung,denn die große Leuchtkraftverfälscht das Röntgensignal.Andererseits dürfen Filter zur

RSCHUNG aktuell 

12   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

ASTRONOMIE

Röntgenblick auf die Venus

Das erste Rönt-genbild der Venus,aufgenommenam 13. Januar2001 mit demRöntgenteleskopan Bord des Sa-telliten Chandra.

Intensität der Röntgen-Fluores-zenzstrahlung in der Venusatmo-

sphäre in Abhängigkeit vonder Höhe über der Oberfläche.Die durchgezogenen Linien gel-ten für senkrechten Einfall derSonnenstrahlung („Mittag“),während die gestrichelten Liniendie Verhältnisse für flachen Ein-fall („Dämmerung“) wiederge-ben. In allen Fällen ist die Flu-oreszenzstrahlung in Höhen von120 bis 140 Kilometern am kräf-tigsten. Die Buchstaben C, N, Obezeichnen Kohlenstoff, Stick-stoff und Sauerstoff; diese Ele-mente senden die Fluoreszenz-strahlung aus.

   A   B   B .  :

   M   P   I   F    Ü   R   E   X   T   R   A   T   E   R   R   E   S   T   R   I   S   C   H   E   P   H   Y   S   I   K

„Dämpfung“ nicht zu dichtsein, da sie sonst nicht nur dassichtbare Licht, sondern auchdie zu untersuchende Rönt-genstrahlung schwächen. DieFilter an Bord von Chandra sindso ausgelegt, dass sie für diemeisten Röntgenquellen dasoptische Licht ausreichend un-terdrücken. Bei der Venus je-doch lässt auch das dichtesteFilter noch etwas Licht durch.Dies wirkt sich zwar auf dieRöntgenbilder nicht stark aus,beeinträchtigt aber spektraleUntersuchungen, bei denen dieStrahlung nach Wellenlängen

zerlegt wird.Um dieses Problem zu umge-hen, bedienten sich die For-scher einer speziellen Beobach-tungstechnik. Das am Max-Planck-Institut für extraterres-trische Physik entwickelteTransmissionsgitter fächertedie vom Teleskop eingefangene

Mesosphäre Thermosphäre Exosphäre

Höhe über der Oberfläche (km)

@

Page 8: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 8/59

RSCHUNG aktuell 

14   M A X  P L A N C K F  O R S C H U N G   4 / 2 0 0 1

KongruenteHandpositionen:beide Handflächen

nach oben oderbeide nach unten.

PSYCHOLOGISCHE  FORSCHUNG

Gleich zu gleich bewegt sich’s leicht

wegungen mit der symmetri-schen Struktur des Körpers unddes Nervensystems zusammen-hängt. Die Symmetrietendenzist – so die traditionelle Lehr-meinung – eine Tendenz zurgemeinsamen Aktivierung ana-tomisch homologer Muskeln.Eine solche Deutung scheint auf den ersten Blick plausibel, dennhomologe Muskeln, aber auchzueinander spiegelbildlicheGebiete in beiden Hirnhälftenund im Rückenmark könnenerstens leicht gemeinsam akti-viert werden und sind zweitensüber neuronale Wege miteinan-

der verbunden, die selbst wie-derum eine besonders intensiveund effektive „Express-Kom-munikation“ ermöglichen.Eine andere Erklärung der Sym-metrietendenz liegt jedoch auf der Hand: Es könnte sein, dasssich hier keineswegs eine Ten-denz zur gemeinsamen Aktivie-rung homologer Muskeln aus-drückt, sondern dass wir zu Be-wegungen neigen, die symme-trisch aussehen und sich sym-metrisch anfühlen. Da wir Spie-gelsymmetrie gut erkennenund beurteilen können, sindsymmetrisch gestaltete Bewe-gungen möglicherweise beson-ders leicht zu überwachen undzu steuern. Franz Mechsner,Dirk Kerzel, Günther Knoblichund Wolfgang Prinz vom Max-Planck-Institut für psychologi-sche Forschung zeigten nun ineinfachen Bewegungsexperi-menten, dass unsere Neigungzur Symmetrie in der Tat auf 

einer äußerlich wahrnehmba-ren Symmetrie beruht – ohne

Bezug auf Muskeln oder moto-rische neuronale Kommandos.In einem ihrer Experimente un-tersuchten die Wissenschaftlerdie beidhändige „Fingeroszilla-tion“, das klassische Beispielfür die Symmetrietendenz: Eine Versuchsperson bewegt zumTakt eines Metronoms beidenebeneinander nach vorn aus-gestreckte Zeigefinger gemein-sam nach links und rechts.Oberhalb einer kritischen Fre-quenz wechseln die meistenMenschen unwillkürlich vondiesem „parallelen“ Bewe-gungsmodus in einen spiegel-

symmetrischen Modus, bei demsich die Zeigefinger im Takt ge-geneinander bewegen. Symme-trische Fingerbewegungen da-gegen bleiben stets stabil.Die Max-Planck-Wissenschaft-ler haben diese Versuchsanord-nung auf einfache Weise nocherweitert: Die Testpersonen be-wegten beide Zeigefinger wei-terhin sowohl parallel als auchsymmetrisch. Doch dabei liegteine Hand mit der Handflächenach unten, die andere nachoben: In „kongruenten“ Posi-tionen zeigen beide Hand-flächen nach unten oder beidenach oben. In „inkongruenten“Positionen zeigt eine Hand-fläche nach oben und dieandere nach unten.Interessant für das Experimentsind die inkongruenten Hand-positionen, denn hier gehenparallele Fingeroszillationenmit periodischer gemeinsamerAktivierung homologer Mus-

keln einher. Wenn also tatsäch-lich eine Tendenz zur gemein-

gungungs-er: parallelegung (links),

metrische Be-ng (rechts).

Bei Bewegungen, die mitbeiden Händen gleichzeitigausgeführt werden, zeigt derMensch eine starke Tendenzzu spiegelsymmetrischen Be-wegungen. Diese Neigungzur Symmetrie wird meist alsgemeinsame Aktivierung ho-mologer, das heißt anato-misch spiegelbildlicher, Mus-keln gedeutet. Wissenschaft-ler vom Münchner Max-Planck-Institut für psycholo-gische Forschung haben jetzt jedoch herausgefunden, dassdie Steuerung solcher Bewe-gungen offenbar über die

Wahrnehmung erfolgt:Äußerlich symmetrische unddamit einfach wahrnehmbareBewegungen scheinen be-sonders gut steuerbar, unab-hängig von den beteiligtenMuskeln. Danach könnenMenschen auch hoch kom-plexe, ja normalerweise „un-mögliche“ Bewegungen aus-führen, wenn nur das von ih-nen wahrnehmbare Ergebnisder Bewegung einfach ist(NATURE, 1. November 2001).

Menschen tendieren dazu, Be-wegungen beider Hände spie-gelbildlich zu synchronisieren.Unsymmetrische Bewegungenkönnen gar unwillkürlich insymmetrische übergehen, be-sonders bei höheren Bewe-gungsgeschwindigkeiten. Wieist diese spontane Symmetrie-tendenz bei bimanuellen Bewe-gungen zu erklären? Die meis-ten Forscher favorisieren bisher

die nahe liegende Idee, dass dieNeigung zu symmetrischen Be-

FORSCHUNG aktue

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   15

dass die Neigung zur Symme-trie auf der Aktivierung gleich-artiger Muskeln beruht, istdamit für die untersuchtenBewegungsabläufe widerlegt.Doch was ist letztlich die Er-klärung für die Symmetrieten-denz? Franz Mechsner undseine Kollegen nehmen an, dassMenschen Bewegungsmusterbevorzugen, die sich auf mög-lichst unkomplizierte Weiseüber Wahrnehmungen undmentale Vorstellungsbilderkoordinieren, steuern undüberwachen lassen. Dieser Ge-danke steht im Gegensatz zutraditionellen Theorien, denenzufolge Bewegungsabläufe inmotorischen neuronalen Struk-turen koordiniert werden. Die-

sen Theorien zufolge trainiertder Organismus in sich zusam-menhängende muskuläre oderneuronale „Motorprogramme“,die für die jeweilige Bewegungcharakteristisch sind, und setztsie bei Bedarf ein. Die Max-Planck-Forscher argumentierendagegen, dass wir Bewegungennicht mittelbar über solchemotorischen Aktivierungsmus-ter, sondern unmittelbar mitHilfe von Wahrnehmungen undmentalen Vorstellungen steu-ern. Die Wissenschaftler konn-ten ihre Annahme durch einweiteres Experiment erhärten: Versuchspersonen drehtenunter einem Tisch beidhändigzwei von oben nicht sichtbareKurbeln, mit denen sie zweisichtbare kreisende Zeigerkontrollierten. Der linke Zeigerkreiste direkt über der linkenHand, während der rechte sich,über ein Zahnradgetriebe ge-steuert, vier Drittel mal schnel-

ler bewegte als die rechteHand. Die Versuchspersonen   A

   B   B .  :   M

   P   I   F    Ü   R   P   S   Y   C   H   O   L   O   G   I   S   C   H   E   F   O   R   S   C   H   U   N   G

bekamen die Aufgabe, diesichtbaren Zeiger in spiegel-symmetrischen oder gegenläu-figen Kreisen zu bewegen. Inbeiden Fällen müssen sie dazuihre Hände in einem Frequenz-verhältnis von 4:3 kreisenlassen. Zum einen ist das einehöchst komplexe Bewegung,die normalerweise unmöglichist. Zum anderen lässt sich ausder Bewegung der Hände dasBewegungsmuster der Zeigernicht erschließen. Symmetrieund Gegentakt in den Zeigernkönnen somit über „motorischeProgramme“, die auf die Mus-keln zielen, nicht erzeugtwerden. Dennoch sind die Ver-suchspersonen recht gut in derLage, die geforderten Bewe-

gungsmuster einzustellen, in-dem sie nur auf die kreisendenZeiger achten und dabei ihreHände „vergessen“. Schlussfol-gerung: Wir Menschen könnenum einfacher Effekte willenhöchst komplizierte, ja „un-mögliche“ Bewegungen aus-führen, sofern wir vor allemauf die angestrebten Effekte,nicht aber auf die genaueKörperbewegung achten. Diesscheint dadurch möglich zusein, dass wir Bewegungen un-mittelbar über Wahrnehmun-gen und Vorstellungen, nichtaber mittelbar über Koordina-tionsprozesse im motorischenSystem steuern. Die nötigenMuskeln scheinen im Diensteder angestrebten Effekte inletztlich einfacher Weise ak-tiviert zu werden. Ihr formalhoch komplexes Tätigkeits-muster ergibt sich dabei ge-wissermaßen automatisch undvon selbst, ohne dass es eigens

als integriertes Ganzes organi-siert werden müsste.

Weitere Informationenerhalten Sie von:

DR. FRANZ MECHSNER

Max-Planck-Institut fürpsychologische Forschung,MünchenTel.: 089/38602-248Fax: 089/38602-199

E-Mail: [email protected]

InkongruenteHandpositionen:eine Handfläche

nach oben undeine nach unten.

@

samen Aktivierung homologerMuskeln besteht, sollte bei in-kongruenten Handpositionendas parallele Bewegungsmusterstabiler sein als das symmetri-sche. Wenn aber eine Tendenzzu einer räumlich spiegelsym-metrischen Bewegungsgestaltbesteht, dann sollten auch beiinkongruenten Handpositionensymmetrische Bewegungen sta-biler sein als parallele – obwohldabei nicht homologe, sondernunterschiedliche Muskeln ge-meinsam aktiviert werden.Die Versuchsergebnisse wareneindeutig: Auch bei inkongru-enter Position der Hände sindspiegelsymmetrische Fingeros-zillationen wesentlich stabilerals parallele. Bei höheren Be-

wegungsgeschwindigkeitenkommen spontane Übergängevom parallelen in den symme-trischen Bewegungsmodus vor,niemals jedoch Übergänge indie umgekehrte Richtung.Schlussfolgerung: Die spontaneSymmetrietendenz bei derZeigefingeroszillation ist eineTendenz zu räumlich spiegel-symmetrischer Bewegung.Welche Muskeln dabei aktivwerden oder welche Nerven-signale dabei gegeben werden,spielt offenbar keine Rolle.Weitere Experimente der Max-Planck-Wissenschaftler legennahe, dieses Forschungsergeb-nis zu verallgemeinern: Diespontane Neigung zur Sym-metrie bei Bewegungen beiderHände ist eine Tendenz zuräumlicher Symmetrie. DasGeschehen ist also stets be-stimmt von äußerlich wahr-nehmbaren Bewegungsgestal-ten, nicht von der motorischen

Struktur des Nervensystems.Die traditionelle Auffassung,

Page 9: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 9/59

SAY

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   17

STRAFRECH

Die Kontrolle von Geldströmen und der Zugriff auf unrechtmäßige oder verdächtige Vermögenswerte

stehen im Zentrum der unmittelbar nach den terroristi-schen Anschlägen von New York und Washington vom11. September auch hier zu Lande neu entfachten(rechts-)politischen Diskussion. Damit wird ein Ansatzaufgegriffen, der bereits seit 15 Jahren einen Kernpunktder internationalen Bemühungen um den Kampf gegendie so genannte Organisierte Kriminalität (OK) bildet. Esgeht bei dieser strafrechtlichen (oder besser: kriminal-strategischen) Konzeption, die maßgeblich von den Ver-einigten Staaten ausging und seitdem von allen wichti-gen internationalen Gremien (UNO, Europarat, Europäi-sche Union) adaptiert und in einer Vielzahl multilatera-

ler Rechtsakte, Verträge und Übereinkünfte auch prak-tisch umgesetzt wurde, um Gesetze zur Bekämpfung vonGeldwäsche. Der Begriff Geldwäsche gilt – das zeigtauch die jüngste Diskussion in Politik und Medien inDeutschland – als eine Art Zauberformel: Konsequentangewendet, so die Meinung, wäre die erfolgreicheBekämpfung des internationalen Terrorismus allenfallseine Frage der Zeit.

Doch hier ist Skepsis angebracht. Das belegt eine wis-senschaftliche Analyse des Freiburger Max-Planck-In-stituts für ausländisches und internationales Strafrechtzu den bislang in der Bundesrepublik bis zur rechtskräf-tigen Verurteilung gelangten Geldwäsche-Verfahren:Mit den entsprechenden Strafvorschriften (vor allem

EineZauberformel,

die denTerrorismus

bannt?

   F   O   T   O  :   S   T   O   C   K   M   A   R   K   E   T

Die Anschläge am 11. September in den USA haben auch in Deutschland

die Diskussion um die Geldwäsche neu belebt. Ließen sich die illegalen Geld-

ströme eindämmen oder gar austrocknen, wäre dem internationalen Terrorismus 

der Boden entzogen – so die von Politikern und Medien vertretene Meinung.

Etwas anders sieht das der Fachmann: MICHAEL KILCHLING, Geschäftsführen-

der Referent am Freiburger MAX-PLANCK-INSTITUT FÜR AUSLÄNDISCHES

UND INTERNATIONALES STRAFRECHT (Forschungsgruppe Kriminologie), ist 

überzeugt, dass allein mit den Rechtsinstrumenten im Bereich Geldwäsche das 

Problem des internationalen Terrorismus nicht in den Griff zu kriegen ist.

Page 10: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 10/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   19

Gelder berührt werden könnte, in gleicher Weise naiv. Wirklich betroffen wird hingegen der Ruf der einzelnenFinanzinstitute – und seriöse Banken unternehmen des-halb große Anstrengungen, Geldwäsche über ihre Häu-ser möglichst noch über das im Geldwäschegesetz vor-gegebene Maß hinaus vor der Inanspruchnahme durchStraftäter zu schützen. Wenn überhaupt ein konkretes Rechtsgut für die

Geldwäsche zutreffend erscheint, so ist es das staatlicheInteresse – zum einen an Strafverfolgung, zum anderenan Gewinnabschöpfung entweder zugunsten des Staatesoder betroffener Dritter, insbesondere der Opfer.

Diese Interpretation entspricht am ehesten dem ei-gentlichen (originären) Charakter der Geldwäsche als

 Verschleierungs- und Verwertungsdelikt. Erkennbar wird dabei auch die kriminalstrategische Zielrichtungdes Geldwäschekontrollkonzepts: Über die Bestrafung

einzelner Täter hinaus soll der Straftatbestand der Geld-wäsche – durch Rückverfolgung so genannter Papier-spuren – möglichst viele weitergehende Erkenntnisseüber weitere Tatbeteiligte sowie den Zugang zu deren

 Vermögen eröffnen, um diese abzuschöpfen.Es ist deshalb schon geäußert worden, dass man mit

dem Geldwäsche-Tatbestand eigentlich gar nicht dieGeldwäsche als solche bestrafen wolle. Daran ist viel

 Wahres. Dies zeigt sich gerade in den nach den Attacken vom 11. September angelaufenen Bemühungen, durchRückverfolgung von Geldströmen – auch der mutmaßli-chen Börsentransaktionen im Vorfeld der Anschläge –

 verwertbare Spuren zu Osama bin Ladens Netzwerk AlQaida zu finden: Schwer vorstellbar, dass daran Betei-ligte, würde man ihrer habhaft, wegen Geldwäsche vor Gericht kämen. Es handelt sich also tatsächlich um ei-nen weit gehend technischen (Hilfs-)Tatbestand, der dieBasis für strafrechtliche Ermittlungen bilden kann undsoll, solange keine weiter gehenden, konkreten Vortat-nachweise verfügbar sind.

Dies wurde in einzelnen Fällen auch in der Vergan-genheit genutzt. So hat der Bundesgerichtshof, diehöchste deutsche Instanz in Strafsachen, im Jahr 1995die Verurteilung eines Mannes zur Höchststrafe von fünf Jahren für rechtens erklärt, weil er einen Betrag von20.000 Mark „gewaschen“ hatte; bei der fraglichenSumme handelte es sich um den Bruchteil von einemProzent aus dem Lösegeld einer Entführung. Die Beteili-gung des Verurteilten an der Entführung wurde vermu-tet, war aber nicht nachzuweisen. Da liegt die Annahmenahe, dass das für deutsche Verhältnisse sehr hoheStrafmaß nicht nur die Geldwäsche, sondern auch die –nicht beweisbare – Vortatbeteiligung des (noch dazunicht vorbestraften) Verurteilten widerspiegelt. DiesesPhänomen ist übrigens aus dem Bereich des Verkehrs-strafrechts bestens bekannt; dort wird beim Strafmaßfür Fahrerflucht regelmäßig ein (fiktiver) Trunkenheits-

entsprechende europarechtliche Ver-pflichtung umgesetzt wurde.

Dass bislang konkrete Anlasstatenfür einen substanziellen Geldwä-scheverdacht (insbesondere durcheine illegale Geldbeschaffung binLadens) fehlen, zeigt außerdem,dass ein Zugriff auf die fraglichenGelder nicht so problemlos seinkann wie das mitunter dargestelltwird – jedenfalls nicht mit straf-rechtlichen oder strafprozessualenMitteln. Die Fälle, in denen bisher in Deutschland Konten aus demUmfeld bin Ladens eingefroren wur-den, erfolgten denn auch auf der 

Grundlage der EU-Verordnungen, die interessanterweise

bereits im März und Juli 2001 erlassen wurden und auf  Artikel 60 beziehungsweise 301 des EU-Vertrages(GASP) basieren. Sie wurzeln also in außenwirtschafts-rechtlichen Boykottmaßnahmen gegen den Staat Afgha-nistan, stellen aber keine strafrechtlichen Maßnahmengegen konkrete Personen dar. Eine rein präventive Ver-mögenseinziehung ist in Deutschland nicht möglich.

STRAFRECH

18   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

§ 261 StGB) werden keinesfalls die „großen“ OK-Fälleerfasst, an die der Gesetzgeber bei der Implementierungder Geldwäschegesetzgebung gedacht hatte. Was verbirgt sich überhaupt hinter dem Begriff der 

Geldwäsche? Vereinfacht gesprochen soll mit diesemDelikt jegliche Anlage oder (Weiter-)Verwertung delik-tisch erworbener Vermögenswerte unter Strafe gestelltund damit erschwert oder möglichst ganz unterbundenwerden. Demnach wäre Geldwäsche als eine Nachfolge-tat zu einer bereits begangenen Vortat zu sehen, beider Gewinne angefallen sind. Fraglich bleibt allerdings,worin der spezifische Unwert der Geldwäsche liegensoll. Denn: Sieht man von der unrechtmäßigen Herkunftder fraglichen Gelder einmal ab, so umschreibt der Straftatbestand des § 261 Handlungen, die auch alsganz normales Finanzmanagement erscheinen können.

 Was macht also den besonderen, den strafwürdigen Ge-

halt der Geldwäsche aus?

SAY

aufschlag angesetzt – in der Annah-me, dass das Motiv für Fahrerfluchtregelmäßig in einer Alkoholisierungder Täter zu suchen ist, die manspäter nicht mehr nachweisen kann.

Darüber hinaus ist der Tatbestandder Geldwäsche für die Strafverfol-gungsbehörden auch im Frühstadi-um der Ermittlungen von nichtunerheblicher Bedeutung. Solangenämlich noch keine konkreten An-haltspunkte für bestimmte Vortaten

 vorliegen, bedarf es des Geldwä-scheverdachts, um überhaupt einErmittlungsverfahren eröffnen undbesondere Ermittlungsmaßnahmenanordnen zu können. Insoweit darf man sich von der 

Übertragung des Geldwäschekonzepts auf die Terroris-musbekämpfung tatsächlich einen gewissen Gewinn

 versprechen, insbesondere mit Blick auf die Ermittlungund Verfolgung verwertbarer Spuren.

Dennoch gilt es, weitere Missverständnisse aufzu-klären, die in der öffentlichen Diskussion um eine geld-wäschebezogene Terrorismusbekämpfung mitunter auf-tauchen. So ist festzustellen, dass die Finanztransaktio-nen, die im Vorfeld der September-Anschläge mutmaß-lich getätigt wurden, wohl zu einem Gutteil legal waren.Jedenfalls ist Gegenteiliges nicht bekannt: Bin Ladensoll sein Vermögen geerbt, beziehungsweise im Straßen-bau redlich verdient haben. Anders als bei der RAF, de-ren Geldbeschaffung auf Straftaten wie Banküberfällenbasierte, oder im Fall der PKK, deren Spendensammel-praxis nach Erkenntnissen des Bundeskriminalamts mit-unter Schutzgelderpressungen nach italienischer Mafia-Manier ähnelt, wurde also ganz offenbar nicht mit Gel-dern gearbeitet, die aus Straftaten herrühren; zum da-maligen Zeitpunkt handelte es sich also zunächst nichtum „schmutziges Geld“. Auch die Gleichsetzung von Al-Qaida-Geldern mit

Staatsvermögen der Taliban, das teilweise aus Drogen-geldern gespeist sein soll, erscheint ohne nähere Er-kenntnisse nicht a priori möglich. Der Eindruck, einestrengere Geldwäschegesetzgebung und –kontrolle hät-ten die September-Anschläge eventuell verhindern kön-nen, führt deshalb in die Irre. Geldwäsche ist ein repres-siver, kein präventiver Ansatz. Und Vorfeldermittlungenunter dem allgemeinen Gesichtspunkt terroristischer Betätigung waren zum damaligen Zeitpunkt überdiesnoch gar nicht möglich: Es gab noch gar kein auf aus-ländische Organisationen zugeschnittenes Organisati-onsdelikt – übrigens eine Lücke, auf die bereits unser Forschungsbericht ausdrücklich hinweist. Der entspre-chende Paragraph (§ 129b StGB) wird erst mit dem ers-ten Sicherheitspaket eingeführt, womit zugleich eine

Mythos Bankgeheim

s ist Geldwäsche? 

Dass Straftäter aus ihrem kriminellen Tun nicht zu-sätzlich Gewinne ziehen, mag moralisch wünschenswertsein. Dies rechtfertigt in einem Rechtsstaat freilich nichthinreichend, ein solches Verhalten unter Strafe zu stel-len. Das gilt umso mehr angesichts der Tatsache, dassder § 261 StGB vergleichsweise hohe Strafen vorsieht:Geldwäsche stellt einen der relativ wenigen Straftatbe-stände im deutschen Strafgesetzbuch dar, auf die alsMindeststrafe regelmäßig eine Freiheitsstrafe steht. EineGeldstrafe – wie sonst zumeist möglich – ist hier ausge-schlossen; damit ist Geldwäsche sogar schärfer bedrohtals manche ihrer Vortaten.

Gerade im Hinblick auf den Ultima-Ratio-Charakter des Strafrechts ist es nach unserem Rechtsverständnisunerlässlich, mit einer Strafnorm ein spezifischesRechtsgut zu schützen. Doch bis heute ist nicht geklärt,welches Rechtsgut oder welche Rechtsgüter durch denStraftatbestand der Geldwäsche eigentlich geschütztwerden. Kritiker sagen, solche Rechtsgüter seien auchbei bestem Willen nicht ersichtlich; einige Befürworter meinen, der legale Wirtschafts- und Finanzkreislauf müsse vor der Infizierung durch „schmutziges Geld“ ge-schützt werden.

Fraglich ist allerdings zum einen, ob Geld alsgrundsätzlich neutraler Wertträger überhaupt durch kri-minelle Einzelvermögen „infizierbar“ ist. Dann nämlichwären innerhalb kürzester Zeit sämtliche Geldwerte der Erde, die ständig im weltweiten Finanzkreislauf fließenund in Millionen täglicher Transaktionen neu vermischtwerden, „angesteckt“ – eine höchst absurde Vorstellung.

Zum anderen erscheint die Idee, dass das (weltweite)Finanzsystem als technische Service-Infrastruktur vonder legalen oder illegalen Herkunft der darin bewegten

 Auf der anderen Seite bieten die schon entwickeltenund erprobten Instrumente durchaus Ansatzpunkte für die nach dem 11. September angelaufenen Strafverfol-gungsbemühungen (die gegenwärtig zunächst freilichreine Ermittlungsbemühungen darstellen). Als nützlichkönnte sich die Rückverfolgung der verdächtigen Fi-nanzströme erweisen. Dies ist schon seit längerem mög-lich und wird im Rahmen von Finanzermittlungen be-reits heute praktiziert – mit zunehmendem Erfolg: 1999stellte die Polizei in Deutschland verdächtige Vermö-genswerte in Höhe von etwa 430 Millionen Mark vor-läufig sicher; im Jahr 2000 lag der Betrag in der Größenordnung von rund einer Milliarde Mark, und imJahr 2001 werden nach vorläufigen Schätzungen bis zuzwei Milliarden Mark „eingefroren“. Der Mythos einesumfassenden Bankgeheimnisses entspricht somit schonlange nicht mehr der Realität. Allerdings ist nachhaltig daran zu erinnern, dass die

 Verfolgung verdächtiger Gelder nur eine – zusätzliche –Ermittlungskomponente sein kann. Bereits bei der Bekämpfung der Organisierten Kriminalität hat sich ge-zeigt, dass die Verfolgung der Geldwäsche keineswegsden Königsweg bietet, als der sie ursprünglich konzipiertworden war. Dies wird sich im Rahmen der neu einset-zenden Bemühungen zur Terrorismusbekämpfung ver-mutlich bestätigen. Die Ermittlung, die strafrechtliche

 Verfolgung und der damit zugleich intendierte konfiska-

Page 11: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 11/59

20   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SAY

torische Zugriff auf die fraglichen Vermögenswerte stoßen in der Pra-xis auf vielfältige Probleme. Dashaben unsere Forschungen im Be-reich der Geldwäsche deutlich ge-zeigt.

Ein großes Problem, wenn aucherst in zweiter Linie, ist dabei dieZuordnung verdächtiger Vermö-genswerte zu bestimmten Personen.Hintermänner von Strohmannkon-ten (ein gängiges Vorgehen im kri-minellen Milieu) lassen sich mitentsprechendem ermittlungstechni-schem Aufwand durchaus identi-fizieren: Das haben zuletzt die Er-mittlungen der Genfer Strafverfolgungsbehörden im

Leuna-Komplex deutlich gemacht, deren Ergebnisse indem „Tapete“ genannten Schema, das im Sommer 2001in der Presse abgedruckt war, sehr schön sichtbar ge-macht wurden. Weit schwieriger ist es hingegen, die

 verdächtigen Vermögenswerte jeweils konkreten Straf-taten zuzuordnen – was die unabdingbare Vorausset-zung für einen strafrechtlichen Zugriff ist.

der Schweiz sind erheblich höhereZahlen zu verzeichnen; allein zwi-schen 1991 und 1997 wurden dort243 Personen einschlägig verurteilt,davon viele Fälle nach Rechtshilfe-ersuchen aus dem Ausland. Dieszeigt sehr schön die Sonderstellungdes internationalen BankenplatzesSchweiz.

In einer verstärkten internationa-len Zusammenarbeit wird daher auch im Bereich der Geldwäsche-bekämpfung das mögliche weitereErfolgspotenzial zu suchen sein. Sohaben denn die Justiz- und Innen-minister der EU bereits wenige Wo-

chen nach den September-Anschlägen die Intensivie-

rung entsprechender Maßnahmen verabredet. Die Er-gänzung der bisher zumeist nur national ausgerichtetenGeldwäschebehörden um eine europäische Institution –sei es als Unterabteilung oder als Schwesterbehörde vonEuropol – erscheint durchaus folgerichtig. Wobei es inder Bundesrepublik in der Vergangenheit aus Gründendes Föderalismus nicht einmal gelungen war, eine na-tionale Geldwäschemeldestelle nach ausländischem Vor-bild zu etablieren. Erst jetzt wird ein neuer Anlauf un-ternommen.

Bei allem, jedenfalls vom Grundsatz her nicht ganzunberechtigt erscheinenden Optimismus über die Taug-lichkeit der Geldwäschekontrollstrategie auch im Be-reich des Terrorismus, darf man freilich nicht vergessen,dass diese bislang nur auf dem Gebiet der OrganisiertenKriminalität zum Einsatz kam. Bis auf ganz wenige Län-der, wie Spanien, wurde Terrorismus nämlich (aus defi-nitorischer Perspektive mit guten Gründen) als nicht mitder OK vergleichbares Phänomen verstanden. Denn der Terrorismus ist, anders als die OK, nicht darauf ausge-richtet, Gewinne zu erzielen. Dies ist raison d’être der Organisierten Kriminalität, die ohne Rückgriff auf ihreGewinne und ohne Nutzbarkeit der weltweiten Finanz-kreisläufe ihrer entscheidenden Antriebsfeder beraubtund nicht lebensfähig wäre.

Für den Terrorismus ist Geld hingegen nur Mittel zumZweck: Erschließung von Geldquellen zur Finanzierung

 von Anschlägen. Der bloße Entzug von Finanzmittelnoder von bestimmten Finanzierungskanälen kann dieoriginäre Gefahr, nämlich die Begehung weiterer Terror-akte, nicht bannen. Die präventive Komponente, diedem Geldwäsche- und Gewinnabschöpfungskonzeptauch zu Grunde liegt, läuft beim Terrorismus wohl zueinem Gutteil leer. Geldwäschebekämpfung wird somittraditionelle kriminalistische Ansätze sinnvoll ergänzen,aber keinesfalls ersetzen können.  

mplexität als Hauptproblem

 Allerdings liegen die Probleme nicht etwa in Schwä-chen der Gesetzgebung, sondern in der Komplexität der Materie. Die Vorstellung, die dem Gesetzgeber bei der Konzeption der Geldwäschestrategie vor Augen stand –dass nämlich von verdächtigen Vermögenswerten ausproblemlos in Richtung der zu Grunde liegendenStraftaten ermittelt werden könne („verdachtsunabhän-gige Finanzermittlungen“) – hat sich als etwas zu opti-mistisch erwiesen. Von allen 78 im Rahmen unseresForschungsprojekts untersuchten Geldwäscheverfahrenhatten nur sieben ihren Ermittlungsursprung in einer 

 Verdachtsmeldung nach dem Geldwäschegesetz; fast al-le anderen gingen auf vortatbezogene Ermittlungenzurück, wurden also mit der „herkömmlichen“ Ermitt-lungsrichtung (das heißt von einer konkreten Straftat zuden dazugehörigen Geldern) erzielt.

Kaum überraschend erscheinen vor einem solchenHintergrund auch die bislang europaweit sehr niedrigen

 Verurteilungszahlen. So gab es 1999 in der Bundesrepu-blik 604 der Geldwäsche Verdächtigte. Tatsächlich ver-urteilt werden jährlich allenfalls 20 bis 25 Personen.

 Von der Einführung des Geldwäschetatbestands im Jahr 1993 bis Ende 1999 wurden gerade 143 Verurteilungenregistriert – und nur bei 26 dieser Personen auch dieentsprechenden Gelder eingezogen. Mit diesen niedrigen

 Verurteilungsquoten bei Geldwäsche liegt Deutschlandübrigens durchaus im europäischen Trend. Lediglich in

Page 12: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 12/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   23

Unsichtbares UNIVERSUHWER punkt 

Es ist nur ein unscheinbares, rotschimmerndes Pünktchen in

den Weiten des Weltraums. Seine Be-

zeichnung lautet SDSS 1030+0524,und seine Geschichte beginnt auf dem 2788 Meter hohen Apache Pointim US-Bundesstaat New Mexico.Dort wurde im Mai 1998 ein Tele-skop mit einem 2,5-Meter-Spiegel inBetrieb genommen, das den Himmeldurchmustert und dabei weit in denRaum hinausdringt. Das Fernrohrist mit einer Mosaik-CCD-Kameraund einem Multifaserspektrographenausgerüstet. Die Kamera nimmt dieastronomischen Objekte durch fünf 

 verschiedene Filter und damit in fünf unterschiedlichen Farben auf undliefert Bilder mit drei Grad (sechs

 Vollmondscheiben) Durchmesser; der Spektrograph zerlegt das Licht inkleine „Regenbögen“, in denen che-mische Elemente ihre Fingerab-drücke als charakteristische Linienhinterlassen. Daraus analysieren die

 Wissenschaftler wiederum die stoff-liche Zusammensetzung der unter-suchten Himmelskörper.

Mit dem 2,5-Meter-Teleskop arbei-ten die Forscher an dem Sloan Digi-tal Sky Survey (SDSS), der bisher umfangreichsten digitalen Himmels-durchmusterung. Das Projekt wird

 von einem Konsortium amerikani-scher, japanischer und deutscher Forschungseinrichtungen getragen.

 Auf deutscher Seite sind das Max-Planck-Institut für Astronomie inHeidelberg und das Garchinger Max-Planck-Institut für Astrophysik be-

Fernrohre gleichen Zeitmaschinen: Je weiter sie in den Raum schauen,

umso weiter blicken sie in die Vergangenheit zurück. Quasare, gigantische 

Schwarze Löcher in den Herzen der ersten Galaxien, führen die Astro-

nomen zu den Ursprüngen des Alls. HANS-WALTER  RIX, Direktor am

Heidelberger MAX-PLANCK-INSTITUT FÜR  ASTRONOMIE, und seine

Kollegin LAURA PENTERICCI sind beim Studium eines Quasars bis zur 

dunklen Ära des jungen Universums vorgedrungen.

Botschaften

 vom Randdes Universums

   F   O   T   O   S  :   S   L   O   A   N

   D   I   G   I   T   A   L   S   K   Y

   S   U   R   V   E   Y

teiligt. Der SDSS soll innerhalb vonfünf Jahren 10.000 Quadratgrad –den halben Nordhimmel – kartieren

und die Rotverschiebungen von etwaeiner Million ferner Galaxien und100.000 Quasaren messen. Das be-deutet einen gewaltigen Sprung,denn damit werden die Astronomendie räumliche Verteilung der Stern-systeme in einem hundertfach grö-ßeren Volumen als bisher bestim-men. Die Durchmusterung wird 15Terabytes an Daten bringen; um siezu speichern, bräuchte man 24.000CD-ROMs.

DER COMPUTER

SORTIERT DEN H IMMEL

Für gewöhnliche Sterne innerhalbunserer Milchstraße oder Kleinplane-ten und Kometen, die zufällig insBild kommen, interessieren sich dieSDSS-Forscher ebensowenig wie für relativ nahe, wenige Millionen Licht-

 jahre entfernte Galaxien. Auf denersten Blick erscheint die Unterschei-dung der verschiedenen Objekteschwierig: Die Bilder von weit ent-fernten Galaxien, Sternen oder Kleinplaneten ähneln sich – alle er-scheinen sie auf den digitalen Weit-winkelfotos als mehr oder weniger schwache Lichtpünktchen. Es bedarf einer speziellen Software, um dieHimmelskörper nach vorgegebenenKriterien zu sortieren. Zum Beispielfischt das Computerprogramm jeneheraus, die nur im roten Bereich desSpektrums leuchten. Dahinter ver-bergen sich sehr häufig so genannte

,5-Meter-Teleskop des Sloan

al Sky Survey (SDSS) auf dem Apache

im US-Bundesstaat New Mexico.

Page 13: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 13/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   25

Unsichtbares UNIVERSU

(millionstel Millimeter), liegt also imunsichtbaren ultravioletten Licht.Die kosmische Rotverschiebung lässtsie jedoch in den sichtbaren Teil desSpektrums wandern. Weil das Licht von Quasaren stark 

rotverschoben ist, müssen sie „astro-nomisch“ weit von der Erde entferntsein (gerade deswegen gelten sienach der kosmologischen Interpreta-tion als Energiemonster, weil sietrotz der großen Distanzen ver-gleichsweise hell am irdischen Him-

24   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

Hier kommt die Kosmologie insSpiel. Nach dem klassischen Urknall-Modell expandiert der Raum seit der „Urexplosion“ vor 15 MilliardenJahren in alle Richtungen. Da dieLichtgeschwindigkeit endlich ist,benötigt das Licht eine gewisse Zeit,um von einem Punkt A nach einemPunkt B zu gelangen. Ist zum Bei-spiel „Punkt A“ die Sonne und„Punkt B“ die Erde, so dauert dieReise gut acht Minuten. Das heißt:

 Wir nehmen die Sonne so wahr, wiesie vor gut acht Minuten ausgesehenhat – zum Zeitpunkt also, zu demdas Licht ausgesandt wurde. Ebensoerscheint uns die rund 2,5 MillionenLichtjahre entfernte Andromeda-Ga-laxie so, wie sie vor 2,5 Millionen

Jahren ausgesehen hat. Kurz: Strah-lung aus dem All ist immer auch einBotschafter aus der Vergangenheit.Je weiter die Teleskope in den Raumhinausspähen, umso weiter blickensie in die Vergangenheit zurück.

Das Licht einer fernen Galaxiemuss eine weite Strecke durchlaufenund ist deshalb lange unterwegs.

 Während dieser Zeit expandiert dasUniversum, also der gesamte Raum,und damit wächst auch der Abstandzwischen Wellentälern und -bergen.Diese „Dehnung“ führt zu größeren

 Wellenlängen, also zu einer „Rotver-schiebung“ des Lichts – und gilt alsMaß für die Entfernung eines Ob-

 jekts: Je stärker das Licht „rotver-schoben“ ist, desto größer die Dis-tanz der Lichtquelle zur Erde.

Die Rotverschiebung (z) ist gleich-sam der Dehnungsfaktor der Wel-lenlänge; eine Rotverschiebung vonz = 1 heißt, dass die Wellenlänge auf das Doppelte angewachsen ist. In der Praxis suchen die Astronomen in ei-nem Galaxienspektrum nach einer bekannten Linie und vergleichen de-ren Wellenlänge mit dem gemesse-nen Laborwert. Als hilfreich bei der Suche hat sich die „Lyman-alpha“-Linie des Wasserstoffs erwiesen.

 Wasserstoff ist das häufigste Elementim Kosmos, und die Lyman-alpha-Linie steckt praktisch in jedem Gala-xienspektrum. Sie besitzt eine Ruhe-wellenlänge von 121,6 Nanometern

stecken. Diese Schwerkraftmonster saugen Materie an: Gaswolken undSterne sammeln sich in einer rotie-renden Akkretionsscheibe und stru-deln schließlich mit hohem Tempo inden kosmischen Schlund. Aus Qua-sar-Spektren leiten die Wissen-schaftler Geschwindigkeiten von biszu 5000 Kilometer in der Sekundeab. Pro Sekunde „verschluckt“ einQuasar etwa eine Erdmasse anMaterie. Dies erzeugt Energien, dienahezu den maximalen, von Ein-steins berühmter Äquivalenzformel„Energie ist gleich Masse mal demQuadrat der Lichtgeschwindigkeit“(E = m x c2) vorgegebenen Wert er-reichen. Dieser Prozess ist um ein

 Vielfaches effizienter als die Um-

wandlung von Wasserstoff zu Heli-um, mit der sonnenähnliche Sterne inihrem Inneren Energie produzieren.

TELESKOPE

ALS  ZEITMASCHINEN

Quasare leuchten in einem breitenBand des Spektrums: im Radio- undRöntgenbereich ebenso wie im op-tisch sichtbaren und vor allem im ul-travioletten Licht. Dennoch glimmtSDSS 1030+0524 wie alle anderenQuasare auf den Bildern des SloanDigital Sky Survey auffallend rot. Ir-gendetwas muss die Strahlung zulängeren Wellen, also in den rotenSpektralbereich, verschoben haben.

Quasare – und damit sind wir wieder bei dem roten Pünktchen SDSS1030+0524.

Im Juni 2001 analysierte XiaohuiFan vom Institute for Advanced Stu-dies in Princeton (USA) mit einigenKollegen des SDSS-Teams das Lichtdieses roten „Sterns“ und fand mit-hilfe eines extra aufgenommenenSpektrums heraus, dass es sich dabeitatsächlich um einen Quasar handelt.Diese Objekte gelten als die leucht-kräftigsten im Universum. Sie produ-zieren tausendmal mehr Strahlungals eine gewöhnliche Galaxie wieunsere Milchstraße mit ihren 100oder 200 Milliarden Sonnen. Weildie Strahlung von Quasaren inner-halb weniger Tage schwankt, muss

sie aus einem Bereich stammen, der wenige Lichttage Durchmesser hat;ein Lichttag ist die Strecke, die dasLicht in 24 Stunden zurücklegt, alsorund 26 Milliarden Kilometer. Dieserscheint groß – doch im Vergleichdazu beträgt der Durchmesser der Milchstraße etwa 100.000 Lichtjahre.

 Woher stammt die unglaublichkonzentrierte Kraft dieser Energie-bündel? Die meisten Forscher glau-ben, dass Quasare die Zentren vonGalaxien sind, in denen SchwarzeLöcher mit Millionen Sonnenmassen

mel strahlen). Damit sind Quasareauch sehr jung und erlauben denBlick in ein Universum, das weniger als ein Viertel oder gar ein Fünftelseines heutigen Alters besitzt.

Bei dem Quasar SDSS 1030+0524fanden die SDSS-Forscher die Ly-man-alpha-Linie bei einer Wellen-länge von 885 Nanometern – was ei-ne Rotverschiebung von z = 6,28 er-gibt. Einem gängigen kosmologi-schen Modell zufolge sehen wir dasObjekt zu einer Zeit, da das All etwa

URKNALL

15 Milliarden Jahre

-270 Grad

500 Millionen bis

1 Milliarde Jahre

-250 Grad

300000 Jahre

3000 Grad

1 Sekunde

10 Milliarden Grad

10-5 Sekunden

1 Billion Grad

10-43 Sekunden

1041 Grad

? ?

Gegenwart

Protogalaxien

Quasare

Helium- und

Wasserstoffatome;

das Weltall

wird transparent

Helium- und

Wasserstoffkerne

Beginn der Zeit

Ursuppe

Galaxien

fünf Prozent seines heutigen Altersaufwies; das entspricht einer Epochenur ungefähr 700 Millionen Jahrenach dem Urknall vor 15 MilliardenJahren. Das ist Rekord: Niemals zu-

 vor haben die Astronomen ein weiter entferntes Objekt gesehen.

Der Quasar sollte weitere Überra-schungen bergen. Hans-Walter Rix,Direktor am Heidelberger Max-Planck-Institut für Astronomie, undseine Mitarbeiterin Laura Pentericcinahmen sich SDSS 1030+0524 mitdem 8-Meter-Spiegel „Kueyen“ des

 Very Large Telescope vor. Diese An-

lage des European Southern Obser- vatory (ESO) auf dem chilenischen Andengipfel Paranal besteht aus vier Fernrohren mit jeweils acht Meter Durchmesser. Für ihre Spektralbe-obachtungen verwendeten Rix undPentericci FORS 2. Das Instrumentwiegt mehr als zwei Tonnen und ist,

 verbunden mit dem Teleskop, eine Art „All“-Zweckwaffe: Kamera,Spektrograph und Polarimeter in ei-nem. Es liefert nicht nur Bilder vomRand des Universums, sondern kannaußerdem 19 astronomische Objekte

Wie das All auf die Welt kam: Die Grafik

zeigt schematisch die wichtigsten

Stationen in der Entwicklung des Universums.

 Vier „Riesenaugen“ blicken zum Himmel:

Very Large Telescope der Europäischen Südsternwarte

(ESO) auf dem Cerro Paranal in Chile.

Der Quasar SDSS 1030+0524 erscheint

auf der Entdeckungsaufnahme als ein schwach

leuchtendes, auffallend rotes Objekt (Pfeil).

   F   O   T   O  :   E   S   O

   F   O   T   O  :   S   L   O   A   N

   D   I   G   I   T   A   L   S   K   Y

   S   U   R   V   E   Y

    /   I   L   L   U   S   T   R   A   T   I   O   N  :   R   O

   H   R   E   R

Page 14: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 14/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   27

schen Expansion kühlt das All umeinige hundert Millionen Grad ab,die Kernsynthese kommt nach weni-gen Minuten zum Stillstand. DasUniversum besteht jetzt aus Wasser-stoff, Helium-4 sowie extrem gerin-gen Mengen von Deuterium, Heli-um-3 und Lithium-7.

Rund 300.000 Jahre nach dem Ur-knall (entsprechend einer Rotver-schiebung von z = 1000) liegt dieTemperatur bei 3000 Grad. Jetzt ge-schieht etwas Entscheidendes: ImUniversum bildet sich neutraler Was-serstoff, denn den Atomkernen ge-lingt es, die umherschwirrendenElektronen einzufangen und Atomezu formen. Damit lichtet sich der „Elektronennebel“. Die Photonenkoppeln sich vom Plasma der Ele-mentarteilchen ab. Das All wird für elektromagnetische Wellen durch-sichtig; wegen der kosmischen Ex-pansion hat sich dieses „Urlicht“ bisheute auf drei Grad über dem abso-luten Nullpunkt (- 270 Grad = 3 Kel-

 vin) abgekühlt. Die „3-K-Hinter-grundstrahlung“ gilt als stärkstes Ar-gument für den Urknall.

Der Quasar SDSS 1030+0524 er-hellt diese finstere Epoche des neu-tralen Wasserstoffs: Offenbar dauerte

diese Ära nur wenige 100 MillionenJahre, denn als im Universum dieersten „Lichter angingen“ – alsoSterne und Quasare aufleuchteten –begann deren energiereiche Ultra-

 violett-Strahlung, das Elektron im Wasserstoffatom loszuschlagen, alsodie Materie zu ionisieren.

SPEKTRUM VERRÄT

NEUTRALES GAS

Diese Übergangsphase von „dun-kel“ nach „hell“ zeigt sich im Spek-trum, das Rix und Pentericci unter-sucht haben: „Die Lyman-alpha-Li-nie fällt bei kürzeren Wellenlängenzunächst nicht abrupt auf Null. Dar-in sieht man Materie, die durch dasQuasarlicht ionisiert wird“, erläutertder Heidelberger Astronom. „Dann

 jedoch bricht die Kontinuumsstrah-lung plötzlich ab. Im Bereich zwi-schen 875 und 835 Nanometern istsie auf höchstens 0,3 Prozent des ur-sprünglichen Werts reduziert. Erstunterhalb von 835 Nanometern hebtsie sich sehr schwach vom Hinter-grundrauschen ab.“ Was hat dieser Befund zu bedeu-

ten? Neutrales intergalaktisches Gas,das sich in einem Rotverschiebungs-bereich zwischen etwa z = 6,0 und

z = 6,3 befindet, absorbiert dieStrahlung nahezu vollständig undunterdrückt dadurch das Kontinuum;denn nur neutrale Materie kannStrahlung „verschlucken“. Auf diese

 Weise verrät sich im Quasar-Spek-trum gleichsam die kosmische Urma-terie. Zu der Zeit, zu der wir SDSS1030+0524 sehen, war der Prozessder erneuten Ionisation noch nichtabgeschlossen. Umgekehrt belegenBeobachtungen von Quasaren beiniedrigeren Rotverschiebungen von

z = 4 oder z = 2 – also mit zuneh-mendem zeitlichen Abstand vom Ur-knall –, dass die Kontinuumsstrah-lung wieder ansteigt. Das heißt: Mitwachsendem Alter des Universumswurde der Wasserstoff von den jetztin immer höherer Zahl aufleuchten-den Quasaren immer stärker ioni-siert.

Zwar sind die Astronomen nun-mehr in die Epoche vorgedrungen,als aus dem neutralen Urgas die ers-ten Galaxien und damit Quasare ge-boren wurden. Aber wie diese Geburt

 verlief, wissen sie nicht. Und auchden exakten Zeitpunkt, zu dem esLicht wurde, haben sie noch nichtbeobachten können. Hans-Walter Rix und seine Kollegen hoffen daher auf den Satelliten PRIME, der mithil-fe des Deutschen Zentrums für Luft-und Raumfahrt (DLR) und der US-Raumfahrtbehörde NASA verwirk-licht werden soll. Der unbemannteSpäher könnte in ein paar Jahren in600 Kilometer Höhe die Erde umrun-den und mit einem 70-Zentimeter-Teleskop ein Viertel des Himmelsdurchmustern. Außerhalb der stören-den Erdatmosphäre werden seineInfrarot-Augen noch Objekte bei ei-ner Rotverschiebung von z = 20 se-hen und damit in die Kinderstubedes Kosmos. Das rote Lichtpünkt-chen mit der Bezeichnung SDSS1030+0524 hat den Weg gewiesen.

HELMUT  HORNUNG

Unsichtbares UNIVERSU

26   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

gleichzeitig spektroskopieren. Diegroße Licht sammelnde Wirkung von„Kueyen“ und die effiziente Kon-struktion von FORS 2 erlaubenaußergewöhnlich präzise Spektrenauch von schwachen Objekten wiefernen Galaxien oder Quasaren.

In dem Spektrum von SDSS1030+0524 (siehe die Abbildung auf Seite 27), das die beiden Max-Planck-Wissenschaftler gewannen,zeigt sich die Wasserstofflinie Ly-man-alpha, die der Quasar selbstaussendet und die – wie oben be-schrieben – wegen der hohen Rot-

 verschiebung statt im ultraviolettenim nahen Infrarotbereich erscheint.Die Linie ist relativ breit und spiegeltdamit die rasenden Bewegungen des

Gases in der Nähe des SchwarzenLochs wider.

Darüber hinaus identifizierten die Astronomen Linien von hoch ioni-siertem Stickstoff und von Kohlen-stoff – Elementen, die nur bei Kern-fusionsprozessen im Inneren vonSternen „gekocht“ und am Ende ih-res Lebens, zum Beispiel bei Super-nova-Explosionen, freigesetzt wer-den. „Massereiche Sterne leben we-nige hundert Millionen Jahre. Folg-lich muss die Sternproduktion ent-sprechend früh begonnen haben,

 vielleicht 300 Millionen Jahre vor den Supernova-Explosionen“, sagtRix. Damit liegt die Sternengeburtaber noch näher am Urknall undsollte im Fall des Quasars SDSS1030+0524 bereits 400 MillionenJahre nach der Geburt des Kosmoseingesetzt haben.

Dies verschärft ein Problem, dasdie Kosmologen schon länger plagt:

 Wie konnte sich die Materie schon sokurze Zeit nach dem Urknall zu Ster-nen zusammenballen? Mehr noch:Damit Sterne als Supernovae ster-ben, Materie ins All abgeben und alsSchwarze Löcher enden, müssen sieetwa die zehnfache Sonnenmassebesitzen. Andererseits kennen die

 Astronomen keine Sterne mit mehr als der hundertfachen Masse unserer Sonne. Die Schwarzen Löcher der Quasare haben jedoch eine MillionSonnenmassen. Wie also wurden sieerzeugt? „Eine bisher ungelöste Fra-ge“, sagt Hans-Walter Rix.

TEILCHENGEBURT

AUS URENERGIE

Um die Schwierigkeiten der Astro-nomen und die weitere Interpretati-on des Spektrums von SDSS1030+0524 zu verstehen, muss mandie Grundzüge des Standardmodells

 vom „inflationären Urknall“ kennen.Danach entstand das Universum auseinem punktförmigen Volumenhöchster Energiedichte. Die Wissen-

schaftler sind weit davon entfernt,die Fragen nach dem „Warum“ oder dem „Davor“ zu beantworten. Erstnach Ablauf der Planck-Zeit (10-43

Sekunden) macht es Sinn, über die

Entwicklung des Universums nach-zudenken. Es ist viel kleiner als ein

 Atomkern, und bei einer Temperatur  von 1041 Grad schwappt die Energiedarin hin und her. Nach 10-35 Sekun-den bläht sich der Raum auf; diese„Inflation“ lässt das All um das1050fache anwachsen, auf die Größeeiner Orange. Unterdessen entstehenaus der Urenergie Teilchen und ihre

 Antiteilchen – und vernichten sichaugenblicklich wieder. Nur jedesmilliardste Teilchen findet keinen

 Antimaterie-Partner; auf diese Weisekommt es zu einem winzigen Über-schuss von Materie.

Etwa eine hunderttausendstel Se-kunde nach dem Urknall formen sichdie Protonen und Neutronen, eine

Sekunde später vereinigen sich dieseMateriebausteine bei einer Tempera-tur von einer Billion Grad zu Was-serstoffkernen, die schließlich Heli-umkerne bilden. Wegen der kosmi-

Jet

Staubtorus

Akkretionsscheibe   SupermassivesSchwarzes Loch

Kosmisches Kraftwerk: Im Zentrum eines Quasars

steckt ein supermassives Schwarzes Loch; seine

Umgebung ist im Vergleich zum Gesamtbild um den

Faktor 10.000 vergrößert dargestellt.

Das Spektrum des neuen Entfernungsrekordhalters

SDSS 1033+0524, aufgenommen mit FORS 2 am

 Very Large Telescope. Im Bereich zwischen 835 und 875

Nanometern ist das Kontinuum auf höchstens 0,3 Prozent

des ursprünglichen Werts reduziert. Erst unterhalb von

835 Nanometern hebt es sich schwach vom Rauschen ab.

   A   B   B .  :

   M   P   I   F    Ü   R

   A   S   T   R   O   N   O   M   I   E

   A   B   B .  :

   M   P   I   F    Ü   R

   A   S   T   R   O   N   O   M   I   E

Page 15: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 15/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   29

Unsichtbares UNIVERSU

28   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

Galaxien wie unsere Milch-straße sind keine Einzelgän-

ger. Sie haben sich in großen Grup-

pen angesammelt, die im Extremfallmehrere tausend Mitglieder umfas-sen können. Nahe am Zentrum fast

 jedes großen Haufens befindet sicheine Riesengalaxie. Der Raum zwi-schen den Galaxien ist nicht gänz-lich leer, wie es auf Bildern im Be-reich des sichtbaren Lichts den An-schein hat. Vielmehr existiert dortein sehr fein verteiltes Gas. Da es

 viele Millionen Grad heiß ist, strahltes jedoch ausschließlich im Röntgen-licht – ein beobachterisch schwer zugänglicher Bereich, da die Erdat-mosphäre diese energiereiche Strah-lung absorbiert.

Die Entdeckung dieses intergalak-tischen Gases in den siebziger Jahrenführte zehn Jahre später zu einer Theorie, die bis heute heiß umstrittenblieb: Britische Astrophysiker zogendamals den Schluss, dass das Gaszunächst in das Zentralgebiet desHaufens strömt, wo die massereicheGalaxie mit ihrem starken Schwer-kraftfeld ihre Umgebung dominiert.Dort kühlt es sich innerhalb vonhöchstens einer Milliarde Jahren abund „kondensiert“ zu neuen Sternenaus. Die Fachleute sprachen voncooling flows. Aus den damals vor-handenen Messdaten schätzten dieForscher ab, dass auf diese Weise inExtremfällen jedes Jahr mehr alstausend neue Sterne in den coolingflows entstehen. Eine unglaublichhohe Rate im Vergleich zu einer 

durchschnittlichen Spiralgalaxie wieder Milchstraße, in der jährlich etwaein neuer Stern aufleuchtet. Dieser 

prognostizierte Vorgang müsstedemnach die Entwicklung von Gala-xienhaufen ganz erheblich beein-flussen.

Diese Aufsehen erregende Theoriehatte indes einen Haken: Weder daskühle Gas selbst noch die darin ent-stehenden jungen Sterne ließen sichnachweisen. Verfechter der Theorieerdachten daher immer neue Hypo-thesen, um die Diskrepanz zwischenTheorie und Beobachtung zu er-klären. So wurde beispielsweise ver-mutet, dass die Sternentstehung inden cooling flows anders abläuft alses von unserer Milchstraße und an-deren Galaxien her bekannt ist. Ins-besondere sollten fast ausschließlichmassearme Sterne entstehen, die sichaus größerer Entfernung nicht voneiner alten Sternpopulation unter-scheiden lässt, wie sie in der Zentral-galaxie vorhanden ist. Das wider-sprach hingegen aller Erfahrung.

PARADOXONZWISCHEN HEISS UND KALT

Das Paradoxon blieb bestehen: Dasheiße Gas war eindeutig vorhandenund nach allen Regeln der Physik müsste es sich auch abkühlen. Offen-bar tut es das aber nicht. Warum? Alle bisherigen Beobachtungen lit-

ten darunter, dass die Röntgentele-skope zum einen keine hohe Auflö-sung besaßen, also keine Details imInnern der Galaxienhaufen zeigten.

Zum anderen gab es keinen emp-findlichen Spektrographen. Ein sol-ches Instrument ist aber nötig, bei-

spielsweise um Gastemperaturen zumessen. Beide Möglichkeiten bietetdas Ende 1999 gestartete europäi-sche Röntgenobservatorium XMM-Newton.

Im Jahr 2000 beobachteten HansBöhringer und Kollegen vom Max-Planck-Institut für extraterrestrischePhysik in Garching mit XMM-New-ton die Zentralgalaxien von insge-samt drei Galaxienhaufen, um nachden cooling flows zu suchen. Diebesten Daten erhielten die Forscher 

 von dem etwa 50 Millionen Lichtjah-re entfernten Virgo-Galaxienhaufenund dessen Zentralgalaxie Messier 87 (kurz M 87). Sie zählt zu denmassereichsten bekannten Galaxien.

 Auffällig an ihr ist ein gebündelter Gasstrahl, ein so genannter Jet, der 

 vom Zentrum ausgeht und über eineStrecke von etwa 5000 Lichtjahrenins All hinaus schießt.

Über elf Stunden lang mussten die Astronomen das Teleskop auf dieGalaxie ausrichten, bis sie ein exzel-lentes Spektrum hatten. In ihm fan-den sich die Signaturen unterschied-licher chemischer Elemente in Form

 von Emissionslinien. Sie entstehen,wenn Stoffe sich in einer heißen undstrahlungsreichen Umgebung befin-den und darin selbst zum Leuchtenangeregt werden. Die Emissionsliniedes Eisens war besonders deutlichund diente den Astronomen gewis-sermaßen als Thermometer für das

Schwarze Löcher, Millionen bis Milliarden Mal massereicher als die Sonne,

befinden sich wahrscheinlich in den Zentren der meisten Galaxien. Eine Vielzahl

an wissenschaftlichen Daten haben die Astronomen mittlerweile über diese

Exoten im Universum gesammelt. Doch erst in jüngster Zeit wird immer deutlicher,

dass Schwarze Löcher eine wesentliche Rolle bei der Entwicklung der Galaxien

gespielt haben. Max-Planck-Forscher brachten mit Hilfe des europäischen Röntgen-

observatoriumsXMM-NEWTON mehr Licht in diese dunkle Seite des Universums.

Schwarze Löcherals galaktische

GasheizungM-Aufnahme des Gebietes um die Galaxie M 87.

mgebende Gas besitzt eine nahezu gleichförmige

eilung und ist deutlich heißer als zehn Millionen Grad.

   F   O   T   O  :   M   P   E    /   E   S   A

Page 16: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 16/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   31

Unsichtbares UNIVERSU

30   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

des Röntgenlichts, die ganz selektiv nur in den kühlen Bereichen auftritt.„Aber auch diese Möglichkeit schei-det unserer Meinung nach aus“, sagtHans Böhringer.

Unterstützt werden die Garchinger  Astronomen von ihren Kollegen ausden USA. Sie haben mit ihrem Rönt-genteleskop Chandra sehr hoch auf-gelöste Bilder von der Umgebung der Galaxie M 87 erhalten und findenebenfalls keinerlei Hinweise auf große kühle Wolken. Lediglich in denZentralgebieten einiger Haufen las-sen sich kleinere Regionen mit etwaskühlerem Gas ausmachen. Sie sind

 jedoch zehn- bis hundertmal mas-seärmer als es die Befürworter desCooling-flow-Modells voraussagen.

 Wenn sich aber das eindeutig vor-handene heiße Gas nicht abkühlt,muss es konstant geheizt werden.Diese „Heizung“ muss überdies sehr 

Gas im Zentrum des Virgo-Galaxien-haufens. Wenn das Modell der coo-ling flows stimmte, müsste es in der Umgebung von M 87 Regionen stark 

 verwirbelten Gases mit sehr unter-schiedlichen Temperaturen geben.Nichts davon war indes in den Spek-tren zu erkennen. Sie ließen sich ameinfachsten mit einer nahezu ein-heitlichen hohen Temperatur vonmehr als zehn Millionen Grad er-klären und sprechen eindeutig ge-gen das Cooling-flow-Modell. Umwirklich sicher zu gehen, überprüf-ten die Max-Planck-Wissenschaftler auch sehr spezielle Modelle, die ihreBeobachtungen im Rahmen des Coo-ling-flow-Modells erklären könnten,zum Beispiel eine starke Absorption

gleich mit der theoretischen Kühlratedes Gases zeigt, dass die Jets Energiegenau in der richtigen Größenord-nung liefern – ein überraschendes„Fine tuning“. Wie das funktioniert, könnte ein

selbst regulierender Mechanismuserklären. Hierbei nimmt man an,dass das intergalaktische Gas auf dasSchwerpunktzentrum, das SchwarzeLoch, zuströmt. Einen Teil dieses Ga-ses wird der dunkle Riese ver-schlucken, der andere Teil wird ent-lang der Magnetfelder in die Jets

eingeschossen. Je mehr Gas außen vorhanden ist, desto mehr Materieströmt auf das Schwarze Loch zuund umso mehr Energie liefern dieJets. Die ist gleichzeitig auch nötig,weil der Heizbedarf mit der Massedes umgebenden Gases steigt. Ist we-niger Gas vorhanden, bekommt dasSchwarze Loch auch weniger Nah-rung und heizt seine Umgebung

fein auf ihre Aufgabe abgestimmtsein: Ist sie zu stark, treibt sie das in-tergalaktische Gas aus den Zentrender Galaxienhaufen hinaus – wasnicht beobachtet wird. Ist sie zuschwach, kühlen sich die riesigenGasmassen über längere Zeit den-noch ab. Für die Garchinger Forscher kommt hier nur eine Möglichkeit inFrage: Schwarze Löcher in den Zen-tren aktiver Galaxien.

Die Astronomen sind sich heuteziemlich sicher, dass fast jede Gala-xie in ihrem Zentrum ein SchwarzesLoch birgt. Diese Gebilde können ei-nige Millionen bis Milliarden Malmassereicher sein als die Sonne. Um-geben sind sie von heißen Gasschei-ben, aus denen Materie langsam in

das zentrale Schwarze Loch hinein-strudelt und dort auf ewig ver-schwindet. Vermutlich rotieren diesekosmischen Mahlströme und verdril-len Magnetfeldlinien, die sich ent-lang ihrer Rotationsachsen – senk-recht zur Scheibenebene – ins Allwinden. Entlang dieser Feldlinienwerden laut Theorie elektrisch gela-dene Teilchen, vermutlich Elektronenund deren Antiteilchen (Positronen),in den Raum geschossen. Unterstütztwird dieses Szenario von Tübinger 

 Astronomen, die mit XMM-Newtonden Bereich in der unmittelbarenUmgebung eines Schwarzen Lochsstudiert haben.

JETS AGIEREN

ALS ENERGIETRÄGER

Diese Materiestrahlen (oder Jets)können sich bis zu eine MillionLichtjahre weit in den Raum er-strecken. Dort stoßen sie auf dasHaufengas und verwirbeln ingroßen, sich beständig ausdehnen-den Wolken. Die Jets stellen einenerheblichen Energiestrom dar. Es istsomit denkbar, dass die expandie-renden Gasblasen diese Energie zumTeil auf das intergalaktische Gasübertragen und es damit heizen. Die-se Art der Wechselwirkung konnten

 Astronomen jetzt mit Chandra direktnachweisen.

Eugene Churazov vom Max-Planck-Institut für Astrophysik in

Garching entwickelt derzeit einComputermodell, um den Energie-eintrag der Jets in das heiße Gas zusimulieren. Eine einfache Abschät-zung der reinen Zahlen deutet aber bereits darauf hin, dass die Garchin-ger Forscher auf dem richtigen Wegsind. Der Jet von M 87 beispielsweiseliefert etwa doppelt so viel Energiewie alle Sterne unserer Milchstraßezusammen abstrahlen. Die Zentral-galaxien in den Perseus- und Hydra-

 A-Galaxienhaufen sind sogar nochzehnmal energiereicher. Ein Ver-

Die XMM-Aufnahme zeigt eine Fülle aktiver

Galaxien und Quasare. Die Farben geben den Energie-

bereich an: Von Rot über Grün zu Blau nimmt die

Energie des abgestrahlten Röntgenlichts zu.

   F   O   T   O  :   M   P   E    /   E   S   A

et der Galaxie M 87, aufgenommen im

obereich, mit dem Weltraumteleskop Hubble

dem Röntgenteleskop Chandra (von oben).

   F   O   T   O   S  :   N   R   A   O    /   N   A   S   A

Page 17: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 17/59

Unsichtbares UNIVERSU

auch weniger auf. Dieser Mechanis-mus erklärt nicht nur die Heizungdes intergalaktischen Gases. Er hatauch zur Folge, dass die SchwarzenLöcher dadurch wachsen. M 87 bei-spielsweise sollte jährlich etwa Ma-terie in der Größenordnung einer hundertstel Sonnenmasse verschlin-gen. Über einen Zeitraum von zehnMilliarden Jahren ergäbe dies hun-dert Millionen Sonnenmassen. Den-noch kann dieser Vorgang nicht al-leinige Ursache für die Größe diesesSchwarzen Lochs sein, denn es be-sitzt etwa drei Milliarden Sonnen-massen.

DIE BELICHTUNGSZEIT

BETRÄGT 16 TAGE

Die Frage, wie sich diese kosmi-schen Riesen gebildet haben undwelche Rolle sie bei der Entstehungund Entwicklung der Galaxien ge-spielt haben, gehört zu den span-nendsten Kapiteln der heutigen

 Astrophysik. Auch hierzu hat XMM-Newton bereits ganz wesentlich bei-

getragen. Als zu Beginn der sechziger Jahre raketengetragene Detektorenerstmals Röntgenstrahlung aus demUniversum empfingen, fiel bereits ei-ne diffuse Hintergrundstrahlung auf.Sie ließ sich keinen Einzelquellen zu-ordnen. Erst das deutsch-britischeRöntgenteleskop ROSAT brachte inden neunziger Jahren dank seiner wesentlich erhöhten Empfindlichkeitund Abbildungsschärfe Licht insDunkel: Demnach stammt rund Drei-

 viertel dieses Strahlungsfelds vonweit entfernten aktiven Galaxien undQuasaren, also Galaxien, die – ähn-lich wie M 87 – ein Schwarzes Lochim Zentrum bergen. 16 Tage langmussten Astronomen das Teleskopfür diese Beobachtung auf ein be-stimmtes Himmelsareal ausrichten,um zu dieser Erkenntnis zu gelangen.Das ist sicher eine der am längstenbelichteten astronomischen Aufnah-men aller Zeiten.

Schon bald danach tauchte die Ver-mutung auf, dass es sich auch bei denrestlichen unidentifizierten Quellen

um aktive Galaxien handelt. Hinter-grund dieser Vermutung war ein neu-es Modell aktiver Galaxien, das sichaus anderen Beobachtungen ergebenhatte. Demnach sollten die Schwar-zen Löcher in den Galaxienzentrennicht nur von einer heißen Scheibe,sondern in größerer Entfernung auch

 von einem Staubring umgeben sein.Der verdeckt dann den Blick auf dasZentrum, wenn man eine Galaxie zu-fällig von der Seite beobachtet. Aller-dings kann der Staub nur energiear-me Röntgenstrahlung verschlucken.Energiereichere sollte diesen Vorhangdurchdringen können.

ROSAT war für diesen Energiebe-reich nicht empfindlich, wohl aber XMM-Newton. Also richtete ein in-ternationales Team unter der Leitung

 von Günther Hasinger, dem neuenDirektor am MPE, das Instrument auf dasselbe Gebiet aus wie zuvor RO-SAT. Das Ergebnis dieser rund 28-stündigen Belichtung war erstaun-lich. Das gesamte Bildfeld war über-sät mit Galaxien. Auf einer Fläche

32   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

 von einem viertel Quadratgrad, ent-sprechend der Vollmondfläche, zähl-ten die Astronomen etwa 500 Rönt-genquellen. Dank der Energieauflö-sung des am MPE entwickeltenRöntgen-CCD-Detektors ließ sich er-mitteln, dass wie erwartet etwa ein

 Viertel aller Quellen nur im energie-reichen Röntgenlicht erkennbar sind.Unter diesen Quellen befinden sichweit entfernte Quasare und mit-einander kollidierende Galaxien,wie sich mit spektroskopischen Be-obachtungen im sichtbaren Lichtnachweisen ließ.

Damit ist klar: Der gesamte Rönt-genhintergrund stammt von aktivenGalaxien, von denen viele nur imenergiereichen Röntgenlicht nach-

weisbar sind. Rechnet man die mitXMM-Newton auf einer kleinenFläche gefundene Zahl an Objektenauf die gesamte Himmelssphärehoch, so kommt man zu einer Ge-samtzahl von rund hundert Millio-nen. Eine Überschlagsrechnung führtdamit zu der erstaunlichen Erkennt-nis, dass mindestens ein Fünftel aller Strahlung im gesamten Universum

 von Schwarzen Löchern erzeugtwird. Von jenen Himmelskörpern al-so, die gerade dafür berühmt sind,

dass sie Licht verschlucken. Dieseneue Erkenntnis deutet schon darauf hin, dass Schwarze Löcher die Ent-wicklung des Universums maßgeb-lich beeinflusst haben müssen. Dochder aufgegriffene Faden lässt sichnoch weiter verfolgen. So fanden

 Astronomen des Max-Planck-Insti-tuts für Astronomie in Heidelbergund Kollegen aus den USA den bis-lang am weitesten entfernten Quasar (siehe hierzu auch den Beitrag auf Seite 22ff. in diesem Heft). Er sandtedas heute von ihm empfangene Lichtzu einer Zeit aus, als das Universumerst etwa 700 Millionen Jahre alt war.

ASTRONOMEN BEOBACHTEN

„FRÜHGEBURTEN“

Die Forscher gehen davon aus, dassdie Mehrzahl der riesigen SchwarzenLöcher innerhalb der ersten MilliardeJahre nach dem Urknall bereitsexistiert hat. Und ein weiteres Ergeb-nis gibt zu denken: Man hat heraus-gefunden, dass die Schwarzen Löcher um so größer sind, je massereicher das sie umgebende Sternsystem ist.Es muss somit einen entwicklungs-geschichtlichen Zusammenhang zwi-schen Schwarzen Löchern und Gala-xien geben.

 Alles deutet daher darauf hin,dass die Schwarzen Löcher nichtmehr länger nur als faszinierende,aber exotische Gebilde angesehenwerden dürfen. Vielmehr müssen siegemeinsam mit den Galaxien ent-standen sein. Es ist sogar denkbar,dass sie gewissermaßen als Konden-sationskeime der Galaxien fungierthaben. „Wir erleben derzeit tat-sächlich einen Paradigmenwechselin der Entwicklung der Galaxien.Offenbar haben die SchwarzenLöcher hierbei eine wesentlichgrößere Rolle gespielt als wir bis-lang vermutet haben“, resümiertGünther Hasinger.

Die weitere Forschung muss nundie Frage angehen, wie sich die

Schwarzen Löcher gebildet haben.Besaßen sie anfänglich nur etwazehn Sonnenmassen, wie es die heu-tigen Theorien erwarten lassen, undsind sie erst durch einen beständigenMateriestrom gewachsen? Oder gabes einen noch unbekannten Vorgang,der es ermöglicht hat, dass gleichSchwarze Löcher mit etwa einer Mil-lion Sonnenmassen entstehen konn-ten? Diese Fragen werden die Astro-physiker noch lange begleiten.

THOMAS BÜHRKE

XMM-NEWTON – EUROPAS

RÖNTGENOBSERVATORIUM

Im Dezember 1999 startete die Europä-ische Weltraumbehörde ESA ihren bislanggrößten Wissenschaftssatelliten: das elf 

Meter lange und vier Tonnen schwere Rönt-genobservatorium XMM-Newton (X-rayMulti Mirror). Der Satellit ist mit drei parallel angeordneten,60 Zentimeter langen Teleskopen ausgestattet. Jedes von ihnenbesteht aus 58 ineinander geschachtelten und vergoldeten Röhrenmit Durchmessern von 70 bis 30 Zentimetern. Die Spiegelsystemeermöglichen es, mit drei verschiedenen Detektoren in derenBrennebenen gleichzeitig zu arbeiten: einer Kamera sowie zweiSpektrometern.Erstmals kamen bei XMM-Newton röntgenempfindliche Halbleiter-detektoren, Charge Coupled Devices (CCD), zum Einsatz – ent-wickelt und gebaut am Garchinger Max-Planck-Institut für extra-terrestrische Physik. Mit ihnen lässt sich die Energie der einfallen-den Röntgenphotonen feststellen. Damit ist es möglich, „Farbbil-

der“ im Röntgenbereich aufzunehmen.Die Spektrometer sind für die moderneAstrophysik unerlässliche Instrumente.In dem nach Wellenlängen zerlegtenRöntgenlicht finden sich „Fingerab-drücke“ einzelner chemischer Elemen-

te. Sie geben Aufschluss über wichtigephysikalische Größen wie Temperatur,Dichte, Bewegungszustand oder chemische Zusammensetzung derMaterie. Die Astronomen hoffen, mit XMM-Newton innerhalb vonzehn Jahren mehr als eine Million noch unbekannte Röntgenquellenzu entdecken und mehr als 30.000 Himmelskörper zu spektrosko-pieren.Deutschland war wesentlich an XMM-Newton beteiligt. Gebautwurde das 460 Millionen Mark teure High-Tech-Instrument unterder Leitung der Dornier Satellitensysteme (heute Astrium) in Fried-richshafen, die Firma Carl Zeiss war entscheidend am Bau derSpiegel beteiligt. Der empfindlichste Röntgendetektor in der Fokal-ebene wurde im Garchinger Max-Planck-Institut für extraterres-trische Physik entwickelt. THOMAS BÜHRKE

Aus den Zentren von Radiogalaxien und Quasaren hervorschießendeJets sind schon seit Jahrzehnten bekannt. Wie sie entstehen undauf welche Weise die Teilchen darin beschleunigt werden, ist abernoch weitgehend offen. Andrei Lobanov und Anton Zensus vomMax-Planck-Institut für Radioastronomie in Bonn haben kürzlich indem Jet des Quasars 3C273 eine wellenförmige Struktur entdeckt,die an die doppelt gewundene Helix der DNS erinnert – freilichauf ganz anderen Größenskalen von einigen hundert Lichtjahren.

 Vermutlich entsteht dieses Phänomen dadurch, dass sich der Jetdurch ein umgebendes Gas hindurchbohrt, das ihn von außen zu-sammendrückt. Ähnlich wie in ei-nem Wasserstrahl bilden sich dannauch in dem Gasstrahl periodischeInstabilitäten. Mit einem theoreti-schen Modell gelang es den BonnerAstronomen, die innere Strukturdes Jets bis herunter zu Größen-ordnungen von wenigen hundert-stel Bogensekunden, entsprechendetwa 1000 Lichtjahren, zu er-klären. Gleichzeitig lieferte dasModell wichtige physikalischeGrößen. Demnach besitzt der Jetnur ein Viertel der Dichte des

umgebenden Gases. Das Helix-Muster bewegt sich mit etwa20 Prozent der Lichtgeschwindigkeit vom Zentrum der Galaxie fort.Damit macht das Modell Voraussagen, die sich mit zukünftigenBeobachtungen überprüfen lassen.Möglich wurden die Beobachtungen durch eine bisher einmaligeingesetzte Technik. Im Jahr 1997 hatten japanische Forscher einacht Meter großes Radioteleskop, genannt HALCA, in eine Erd-umlaufbahn geschossen. Damit ließ sich erstmals die auf der Erdeschon lange praktizierte Radiointerferometrie (Very Long BaselineInterferometry, VLBI) auf den Weltraum ausdehnen. Hierbei wird

ein Himmelskörper gleichzeitigvon mehreren weltweit verteiltenRadioteleskopen beobachtet.Anschließend kombinieren die For-scher die Daten in einem Spezial-rechner miteinander. Diese „Welt-raum-VLBI“ ermöglicht Beobach-tungen mit einer vierfach höherenAuflösung als mit erdgebundenenTeleskopen allein. Für die Untersu-chung des Jets von 3C273 warenzehn amerikanische Antennen sowiedas 100-m-Radioteleskop in Effels-berg im Einsatz. THOMAS BÜHRKE

DIE DOPPELHELIX IN 3C 273

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   33

   M   P   I   F    Ü   R   R   A   D   I   O   A   S   T   R   O   N   O   M   I   E

   F   O   T   O  :   E   S   A

Page 18: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 18/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   35

Unsichtbares UNIVERSU

34   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

Kaum zu glauben: Nur mit einem Thermometer erforschen Physiker des

Münchener MAX-PLANCK-INSTITUTS FÜR  PHYSIK (WERNER-HEISENBERG-

INSTITUT) die Dunkelheit des Weltalls. Im Gran-Sasso-Tunnel in den

italienischen Abruzzen haben sie einen tiefgekühlten Detektor installiert,

mit dem sie „exotische“, bislang nicht fassbare Teilchen nachweisen wollen.

Diese Teilchen könnten der Schlüssel sein, um einerseits den Aufbau des

Mikrokosmos und andererseits die Strukturen im Universum zu verstehen.

Blickt man in einer klaren Nachtzum Firmament, dann scheint

es, als seien die leuchtenden Sternedie einzigen materiellen Objekte ineinem grenzenlosen Weltall. Dochder Eindruck täuscht: Seit dendreißiger Jahren des 20. Jahrhun-derts mehren sich die Anzeichendafür, dass auch der dunkle Raum

 von Materie erfüllt ist. Vermutlich verkörpert diese nicht leuchtende

Ein Hauch von Wärme verrät das

Unsichtbare

   A   L   L   E   A   B   B   I   L   D   U   N   G   E   N  :   M   P   I   F    Ü   R   P   H   Y   S   I   KMaterie sogar mehr als 90 Prozent

der Masse des Universums. Worausdie Dunkle Materie besteht, ist „einesder größten ungelösten Rätsel der 

 Astrophysik“, wie es Georg Raffelt vom Max-Planck-Institut für Physik formuliert.

Rund ein Dutzend Forschergrup-pen haben sich weltweit das Ziel ge-setzt, dieses Rätsel aufzuklären. DasMax-Planck-Institut für Physik hat

sich dafür mit der Technischen Uni- versität München, der Oxford Uni- versity sowie den „Laboratori Nazio-nali del Gran Sasso“ zusammenge-tan. In einer der Hallen des großenLaboratoriums, das die Italiener inden achtziger Jahren entlang desGran-Sasso-Autotunnels einrichte-ten, der L’Aquila mit Teramo verbin-det, haben die Wissenschaftler CRESST („Cryogenic Rare Event

Search with Superconducting Ther-mometers“) aufgebaut. Neben denriesigen Apparaten, die in der Hoch-energiephysik an Beschleunigernzum Nachweis von Teilchen dienen,nimmt sich dieser Detektor recht be-scheiden aus: Sein Kernstück bilden

 vier würfelförmige Saphirkristalle,die auf Temperaturen nahe dem ab-soluten Nullpunkt abgekühlt sind.Damit wollen die CRESST-Physiker,

nicht minder ehrgeizig wie ihre Kol-legen an den Großbeschleunigern,exotische Teilchen nachweisen, diemöglicherweise das Rätsel der Dun-klen Materie lösen und zudem einefundamentale Rolle in der Elemen-tarteilchenphysik spielen.

Der Begriff „Dunkle Materie“ gehtauf eine Veröffentlichung von FritzZwicky aus dem Jahr 1933 zurück.Zwicky deutete damals weit entfern-

te „Nebelflecken“ im All treffend als Ansammlungen von Galaxien. Sei-nen Beobachtungen zufolge bewe-gen sich die einzelnen Galaxien in-nerhalb eines solchen „Haufens“ soschnell, dass sie eigentlich auseinan-der fliegen müssten, würden sienicht durch die Schwerkraft Dunkler Materie zusammengehalten. Mittler-weile wurden die astronomischenMessverfahren beträchtlich ausge-

3000 Meter hoch ist der Corno Grande, unter dem der Gran-Sasso-Tunnel verläuft.Das Massiv der Abruzzen bildet einen wirksamen Schild gegen kosmische Strahlen.

Oberirdisch liegen die Versorgungs- und Verwaltungsgebäude, die zu den Gran-Sasso-Laboratorien gehö

Page 19: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 19/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   37

Unsichtbares UNIVERSU

gruppen, die den Halo unserer Gala-xis in Richtung der Großen Magel-lanschen Wolke durchmustert haben,zeigen fast unzweifelhaft, dass MA-CHOs nicht den Hauptanteil der Dunklen Materie der Milchstraßeausmachen können“, sagt Raffelt.

TROTZ MACHOS BLEIBT

DIE MASSENLÜCKE

 Auch aus anderen Gründen sinddie Kosmologen davon überzeugt,dass MACHOs und andere Formen

 von Materie, die aus gewöhnlichen –

wie Weiße Zwerge, Neutronensterneoder Schwarze Löcher, aber auchBraune Zwerge, deren Masse nichtausreicht, um die Fusion von Was-serstoff in Gang zu setzen. Sie wer-den unter dem Begriff „Massiveastrophysical compact halo objects“,kurz MACHOs, zusammengefasst.

MACHOs lassen sich nur mit-hilfe des „Gravitationslinsen“-Effektsnachweisen: Wenn sich in die Sicht-linie zwischen einem irdischen Be-obachter und einem weit entferntleuchtenden Stern ein MACHO

36   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

hundertmal so groß ist wie die Dich-te der leuchtenden Materie.

Neuere Beobachtungen weit ent-fernter Supernovae lassen denSchluss zu, dass das Weltall im Laufeder Zeit immer schneller expandiert.Dies ließe sich damit erklären, dasses nicht nur von Dunkler Materie,sondern auch von Dunkler Energieerfüllt ist, die – im Gegensatz zur Materie – einen negativen Druck ausübt und das Weltall gleichsamauseinander treibt. In gängigen kos-mologischen Modellen tragen die

den Außenbereichen der Galaxien viel schneller bewegen als aufgrundder Massenverteilung der leuchten-den Sterne zu erwarten wäre. Die be-obachteten Geschwindigkeiten lassenden Schluss zu, dass Spiralgalaxien –unsere Milchstraße eingeschlossen –in einen riesigen Halo (einer Art Wol-ke) aus Dunkler Materie eingebettetsind.

In die gleiche Richtung weisenÜberlegungen von Kosmologen.Gemäß gängigen Theorien entstanddie Welt vor rund 15 Milliarden Jah-

weitet: Röntgenteleskope sehen, dassdie Galaxienhaufen von heißem Gaserfüllt sind, kalter Staub wird vonInfrarotkameras erkannt, und dieMasse der Sterne lässt sich aus ihrer Leuchtkraft abschätzen, wenn manihre Entfernung kennt. Und auch dieheutigen Messungen bekräftigen,dass die „dynamische“ Masse vonGalaxienhaufen deren gesamtenachweisbare Masse um ein Vielfa-ches übersteigt.

Unterstützung erhielt Zwickys The-se von der Existenz Dunkler Materie

ursprünglich erzeugte Dichte der Nu-kleonen schließen. Die Häufigkeitdieser Elemente, die zu ermittelnnicht ganz ohne Tücken ist, zeigt: Esgibt zwar weit mehr dunkle baryoni-sche Materie als leuchtende, dochgemeinsam stellen sie nur einenBruchteil der kritischen Massendich-te. Außerdem benötigen die Physiker unbekannte, exotische Materiefor-men auch, um die Ausbildung der im

 Weltall beobachteten Strukturen –der Galaxien und Galaxienhaufen –zu erklären.

durch Vera Rubin und andere Astro-nomen, die in den siebziger Jahrenzahlreiche Spiralgalaxien durchmus-terten. Da sich die Wellenlängen desSternenlichts durch die Bewegungder Spiralarme verschieben (Doppler-effekt), konnten die Forscher aus der Messung bestimmter Spektralliniendie Rotationsgeschwindigkeit der Ga-laxien ableiten. Es stellte sich heraus,dass sich die Spiralarme vor allem in

ren in einer Art Urknall aus einempunktförmigen „Feuerball“ unddehnt sich seither aus. Heute ist un-ser Universum flach: Messungen der Mikrowellen-Hintergrundstrahlungbelegen, dass seine Raumgeometrieden Euklidischen Gesetzen folgt.Eine solche Geometrie entspricht ei-nem Weltall, in dem Materie undEnergie eine ganz bestimmte „kriti-sche“ Dichte besitzen, die mehr als

Dunkle Energie etwa 70 Prozent unddie Dunkle Materie etwa 30 Prozentzur kritischen Dichte des Universumsbei.

Offenbar steckt sehr viel Materieim Kosmos, die wir weder sehennoch nachweisen können. Astrono-men kennen eine Reihe von Objek-ten, die keine elektromagnetischeStrahlung aussenden und somit„dunkel“ sind: ausgebrannte Sterne

schiebt, dann lenkt er durch seineSchwerkraft die Lichtstrahlen desSterns so ab, dass zwei Bilder erzeugtwerden. Kurzfristig scheint sich da-durch die Helligkeit des Sterns zusteigern. Da dieser Vorgang extremselten auftritt, müssen für die Auf-zeichnung nur weniger „Gravitati-onslinsen“-Ereignisse Millionen vonSternen beobachtet werden. „DieMessungen mehrerer Forschungs-

das heißt aus Neutronen und Proto-nen aufgebauten – Atomen beste-hen, die Massenlücke nicht schließenkönnen. (Da Protonen und Neutro-nen in der Elementarteilchenphysik zur Klasse der Baryonen gehören,spricht man auch von „baryoni-scher“ Materie). Aus dem heutigen

 Vorkommen der leichten Elemente Wasserstoff, Deuterium, Helium undLithium lässt sich nämlich auf die

 Wann immer die Kosmologen insGrübeln kommen, treten Elementar-teilchenphysiker auf den Plan undbieten ihnen diverse Lösungsmög-lichkeiten an. Auch ihnen „fehlen“Teilchen – nicht, um Massenbilanzenauszugleichen, sondern um ihreTheorie vom Aufbau der Materie undder Wechselwirkung ihrer Bestand-teile zu vervollkommnen. Unter mehreren möglichen Kandidaten für 

Der würfelförmige Saphirkristall – in einer Halterung aus Kupfer – vor dem Einbau in die Kühlbox.en zu sehen ist der aufgedampfte Wolframstreifen, mit dem die Temperaturänderung ausgelesen wird.

Der Kopf des Kryostaten mit den Anschlüssen für Gasversorgung, Elektronik und Vakuumerzeugu

Page 20: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 20/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   39

ten Geschwindigkeiten von 200 bis300 Kilometer in der Sekunde undmüssten daher auch Laboratorien auf der Erde durchqueren. Um die be-obachtete Rotationsgeschwindigkeitder Sonne und anderer Sterne umdas galaktische Zentrum zu erklären,müsste ihre Dichte im Mittel etwa0,3 GeV pro Kubikzentimeter betra-gen. Das entspräche dann, je nach

 WIMP-Masse, etwa 300 bis 15.000 WIMPs pro Kubikmeter.

 Aber wie werden WIMPs fassbar?Grundsätzlich verraten sich alle Ele-

gewöhnlicher Materie: Sie geben ei-nem Atomkern, der ihnen im Wegsteht, einen ordentlichen „Schubs“ –und dieser Effekt lässt sich auf un-terschiedliche Weise messen.

Den Anstoß für die Entwicklungkryogenischer Detektoren gab LeoStodolsky, Direktor am Werner-Hei-senberg-Institut und heute Mitgliedder CRESST-Gruppe. Ursprünglichhatte er damit Neutrinos nachweisenwollen. Doch als Mitte der achtziger Jahre die Existenz Dunkler Materie

 von den Astrophysikern „abgeseg-

dert einen großen technischen Auf-wand.

Zunächst muss der Detektor, der im Wesentlichen aus vier würfelför-migen Saphirkristallen – sie wiegen

 jeweils 262 Gramm – besteht, auf 0,012 Kelvin abgekühlt werden, alsobis dicht über den absoluten Null-punkt. Jeder Kristallwürfel erhält alsThermometer einen Wolframstreifenaufgedampft, der bei 12 Millikelvinsupraleitend wird. Schon bei einer ganz geringen Erwärmung geht er indie normalleitende Phase über: Sein

Unsichtbares UNIVERSU

38   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

den Dunklen Stoff erfreuen sich der-zeit so genannte Weakly InteractingMassive Particles, kurz WIMPs, be-sonderer Beliebtheit. Das sind, wieder Name schon sagt, relativ schwereTeilchen ohne elektrische Ladung,die nur sehr schwach mit Materie in

 Wechselwirkung treten. Und der Na-me passt: Wimp hat in der amerika-nischen Umgangssprache die Bedeu-tung von „Schwächling, Feigling“.

 WIMPs könnten zum einen dieastrophysikalisch ermittelte Lückezwischen dynamischer und nachweis-

mentarteilchenphysik durch Boten-teilchen übertragen. Sie wirken zwi-schen den eigentlichen Bausteinender Materie: den „Leptonen“ wie demElektron (plus seinen instabilen Fa-milienmitgliedern Myon und Tauon)und den „Quarks“, die zum BeispielProton und Neutron aufbauen. Diebei allen schwachen Prozessen auf-tretenden elektrisch neutralen Neu-trinos sind Partnerteilchen von Elek-tron, Myon und Tauon. WährendLeptonen und Quarks so genannte„Fermionen“ sind, das heißt, einen

mion. Das leichteste supersymmetri-sche Teilchen könnte das Neutralinosein. Es ist – so schätzen Theoretiker – etwa 20- bis 1000-mal so schwer wie das Wasserstoffatom und hatdemnach eine Masse zwischen 20GeV und 1000 GeV. (In der Teilchen-physik hat man sich angewöhnt,Energien und Massen, die nach Al-bert Einstein einander äquivalentsind, in Einheiten von Elektronen-

 volt zu messen. Es ist die Energie, dieein Elektron nach Durchlaufen einesSpannungsgefälles von einem Volt

barer Masse schließen, zum anderendie Bildung von Strukturen nach demUrknall erklären. Teilchen mit genausolchen WIMP-Eigenschaften aber treten in den „SupersymmetrischenTheorien“ auf. Deren erklärtes Ziel istes, alle Naturkräfte – die Gravitation,die starke Kraft, die schwache und dieelektromagnetische Kraft – auf eineUrkraft zurückzuführen. Diese Kräftewerden im Standardmodell der Ele-

halbzahligen Spin (Eigendrehimpuls)besitzen, haben die Botenteilchen als„Bosonen“ einen ganzzahligen Spin.

Die oben genannte Vereinigungder Naturkräfte erfordert es, diese

 Asymmetrie aufzuheben. Dies wirdin den Supersymmetrischen Theorienerreicht, indem das Spektrum der Elementarteilchen verdoppelt wird:Jedes Fermion erhält ein Boson als„Superpartner“, jedes Boson ein Fer-

hat, und entspricht 1,6 x 10-19 Watt-sekunden. Ein „GeV“ ist eine Milliar-de Elektronenvolt.)

WIMPS SIND

SCHWER ZU FASSEN

Neutralinos nachzuweisen solltenach Einschätzung der Physiker imBereich des Möglichen liegen. Denn

 WIMPs durchfluten, wenn sie exis-tieren, unsere Galaxis mit vermute-

mentarteilchen nur über ihre Wech-selwirkung mit gewöhnlicher Mate-rie. Photonen und elektrisch gela-dene Teilchen wie Elektronen haben(bei ausreichender Energie) dieFähigkeit, Atome zu ionisieren, ih-nen also Elektronen zu entreißen.Neutronen treten über die starkeKraft mit Atomkernen in Wechsel-wirkung. WIMPs aber kennen nur ei-ne Form der Auseinandersetzung mit

net“ wurde, wandte man das Kon-zept auf den Nachweis von WIMPsan. Dahinter steckt die Vorstellung,dass WIMPs bei einem Zusammen-stoß einen Teil ihrer Energie aufden Atomkern übertragen. Dies führtdazu, dass sich der Kristall imKryodetektor geringfügig erwärmt,wenngleich nur um einige Mikro-kelvin. Temperaturerhöhungen dieser Größenordnung festzustellen erfor-

elektrischer Widerstand ändert sichsprunghaft. Diese Widerstandsände-rung wird mit so genannten SQUIDs(„Superconducting Quantum Interfe-rence Device“) ausgelesen, kleinenRingen aus supraleitendem Material,die an zwei Stellen von isolierenden,hauchdünnen Schichten unterbro-chen sind: Aufgrund quantenmecha-nischer Effekte spüren sie extremschwache Magnetfelder auf und

er Montage des Detektors in der Kühlbox ist viel Fingerspitzengefühl gefragt. Das dreigeschossige CRESST-Gebäude im Gran-Sasso-Tunnel. In der untersten Etage ist derDetektor aufgebaut, darüber befinden sich die Elektronik- und Kontrollräume.

Der CRESST-2-Detektor wird Krist

aus Kalziumwolframat verwenden,

die auf den Durchgang von

Teilchen nicht nur mit Erwär

mung, sondern auch mit Szintillier

reagieren. Da Kernrückstöße weitweniger Licht hervorrufen als Elek

tronrückstöße, können WIMPs dam

noch wesentlich besser von ionisie

renden Teilchen unterschieden we

den als mit dem jetzigen Aufbau.

So funktioniert das CRESST-Thermometer: Oben auf dem

Saphirkristall ist ein Wolframstreifen aufgedampft, dessen elektrischer

Widerstand sich schon bei einer kleinen Erwärmung stark ändert.

Page 21: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 21/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   41

Erwärmung als auch Ionisation pro- vozieren können. CDMS ist im Prin-zip genauso empfindlich für WIMPswie DAMA. Die Amerikaner sehenzwar Signale, interpretieren sie aber als „Background“, hervorgerufendurch Neutronen, die von kosmi-schen Strahlen erzeugt wurden. Ge-genüber den europäischen Gruppen,die im Gran-Sasso-Tunnel experi-mentieren, haben die Forscher in denUSA den entscheidenden Nachteil,dass ihr Experiment nur zehn Meter tief unter der Erde liegt. Es könnte

diskutierten Massenbereich nur ein-geschränkt empfindlich.“

Klarheit können nur neue Experi-mente bringen, die noch besser 

 WIMPs und Störquellen voneinander unterscheiden. Deshalb arbeiten dieMünchner Physiker bereits an einemNachfolgemodell von CRESST. Dieentscheidende Neuerung wird in der 

 Verwendung eines szintillierenden Absorberkristalls aus Kalziumwolfra-mat bestehen. So soll nicht nur dieTemperaturerhöhung, sondern auchdas Licht gemessen werden, dasdurch den WIMP-Atomkern-Zusam-menprall hervorgerufen wird. Da beieinem Kernrückstoß achtmal weni-ger Licht erzeugt wird als bei einemElektronenrückstoß, können ionisie-

rende Teilchen aus der kosmischenStrahlung oder aus radioaktiven Ver-unreinigungen, die trotz aller Gegen-maßnahmen in den Kristall gelan-gen, noch wesentlich schärfer von

 WIMPs getrennt werden.Der Messaufbau von CRESST-2

wird dem des Vorläufers im Wesent-lichen gleichen, das heißt, mittels

 Wolframstreifen und SQUID soll dieminimale Temperaturerhöhung ge-messen werden, die auf den Durch-gang eines WIMPs folgt. Gleichzeitigwird das dabei entstehende Szintilla-tionslicht, das aus dem Kristall ent-weicht, mit Spiegeln gesammelt undauf einen zweiten Absorberkristallgelenkt. Dessen Erwärmung gibtdann Auskunft über die Menge deserzeugten Lichts. Das Verfahren wirdderzeit an einzelnen Kristallen getes-tet. CRESST-2 wird 30 so bestückteKalziumwolframat-Kristalle mit je-weils 300 Gramm, insgesamt alsoknapp zehn Kilogramm, enthalten.Die Kältebox des derzeitigen Auf-baus wurde von vornherein so kon-zipiert, dass sie diese Menge beher-bergen kann. Im Sommer 2002 wol-len die Physiker damit beginnen, denCRESST-2-Detektor im Gran-Sasso-Tunnel aufzubauen.

Primäres Ziel der CRESST-Gruppeist es, dem Rätsel der Dunklen Mate-rie auf die Spur zu kommen. Aber die Physiker blicken über ihr Fachge-biet hinaus. Sie planen, ihr bei der 

Entwicklung von Kryodetektoren er-worbenes technisches Know-how inden Dienst anderer Wissenschaftenzu stellen. Ein potenzielles Wir-kungsfeld der Detektoren ist die Bio-logie. Stodolsky: „In der Genom-und Proteomforschung beobachtenwir, dass Probleme bei der Identifi-zierung der Bruchstücke großer Mo-leküle auftauchen.“

ASTROPHYSIKER

HELFEN BIOCHEMIKERN

Biomoleküle werden gewöhnlich inFlugzeit-Massenspektrometern iden-tifiziert. Sie werden zunächst auseiner „Matrix“ freigesetzt, durch einHochspannungsfeld beschleunigtund treffen dann auf einen Detektor.

 Aus der Ankunftszeit lässt sich dieGeschwindigkeit der Moleküle unddaraus ihre Masse bestimmen.

Die derzeit verwendeten Detekto-ren, zum Beispiel Micro-Channel-Plates, weisen die Moleküle über de-ren Ionisationswirkung nach. Dieselässt aber mit steigender Masse, al-so langsameren Molekülen, immer mehr nach, wodurch das Verfahrenbei Makromolekülen wie DNA-Se-quenzen, Proteinen oder Polymerenrecht ineffizient wird. Kryodetekto-ren dagegen messen die Erwärmung,also die gesamte Energie, die durchden Aufprall eines solchen Molekülsentsteht. Der für die Messung vondunklen Teilchen entwickelte Detek-tor-Typ kann allerdings nicht ohneweiteres übernommen werden. Für den effektiven Nachweis großer Bio-moleküle wollen die Max-Planck-Physiker den Detektor an die räumli-chen und geometrischen Verhältnisseanpassen sowie hinsichtlich der Zählrate und Zeitauflösung optimie-ren. Dabei planen sie, auch mit der Industrie zusammenzuarbeiten.

 Aufgrund ihrer Eigenschaft, schonsehr kleine Energien mit hoherGenauigkeit nachzuweisen, bietendie Kryodetektoren auch ein hohes

 Anwendungspotenzial in der Rönt-genastronomie, das derzeit vonden großen WeltraumorganisationenNASA und ESA ausgelotet wird.

OLIVIA  MEYER

Unsichtbares UNIVERSU

40   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

können kleinste Spannungs- undStromänderungen erfassen.

In jahrelanger Tüftelarbeit schaff-ten es die Physiker, mit dieser An-ordnung schon minimale Energiede-positionen von nur 500 Elektronen-

 volt mit hoher Genauigkeit zu mes-sen. „Das Faszinierende dabei ist,dass ein einzelnes Elementarteilcheneine makroskopisch beobachtbare

 Veränderung hervorruft“, meint Sto-dolsky.

Da der Nachweis von WIMPs nur indirekt erfolgt, ist bei der Auswer-

und in einem langen „Kühlfinger“ indie Kältebox übertragen. Der Aufbaubefindet sich in einem Reinraumhöchster Qualität. Schon ein Finger-abdruck gilt hier als mögliche Quelle

 von Radioaktivität.

1400 METER FELS

ALS STRAHLENSCHUTZ

 Auch kosmische Strahlen – ener-giereiche, zumeist elektrisch gela-dene Teilchen, die aus dem Weltallzur Erde gelangen – können dieMessergebnisse verfälschen. Sie sind

genaue Zahl, die wir als Grenze an-geben können, hängt von ihrer Mas-se und Wechselwirkungs-Stärke ab.“

Nun ist die CRESST-Gruppe, wieeingangs erwähnt, nicht die Einzige,die nach diesen Dunklen Teilchensucht. In einer Nachbarhalle imGran-Sasso-Laboratorium experi-mentieren Physiker seit einigen Jah-ren mit einem 100 Kilogrammschweren Detektor aus Natrium-Iodid. Dieses Material wird durch dieEnergieabgabe eines WIMPs zumLeuchten („Szintillieren“) angeregt.

HWER punkt 

tung der Daten Vorsicht geboten.Denn auch der Durchgang anderer Partikel kann zur Erwärmung der Kristallwürfel und den daraus resul-tierenden Signalen führen. Störquel-len bilden zum Beispiel radioaktiveIsotope in der Umgebung. Die Kühl-box, in der sich die vier Kristalle be-finden, besteht daher aus Kupfer, dassich elektrolytisch sehr rein herstel-len lässt. Selbst die Schrauben sindaus Kupfer, weshalb bei der Montage

 viel Fingerspitzengefühl gefragt ist. Als weiteren Schutz gegen Radioakti- vität umhüllen mehrere Blei- (insge-samt 24 Tonnen) und Kupferplatten(10 Tonnen) die Kältebox.

Die extrem tiefen Temperaturenwerden in einem Helium-3/Helium-4-Entmischungskryostaten erzeugt

zwar selbst interessante Forschungs-objekte der Teilchenphysiker, dochbei der Suche nach WIMPs störensie. Denn sie stoßen unter Umstän-den beim Gang durch den Kristalldie Elektronen der Atomhülle an,was dann ebenfalls zu einer gering-fügigen Erwärmung führt. ZumGlück bildet das Massiv der Abruz-zen, unter dem sich der Gran-Sasso-Tunnel in etwa 1400 Meter Tiefe be-findet, einen wirksamen natürlichenSchild gegen kosmische Strahlen.

 Vor knapp zwei Jahren begann die Aufzeichnung der Daten, deren Aus-wertung zurzeit noch andauert.

„Wir können aber WIMPs oberhalbeiner Rate von mehreren Ereignissenpro Tag ausschließen“, erklärt der CRESST-Physiker Franz Pröbst. „Die

Im Frühjahr 2000 ließ die DAMA-Gruppe (für „Dark Matter“) verlau-ten, sie hätte überzeugende Indizienfür die Existenz von WIMPs im Be-reich von 44 bis 62 GeV. Ihre über mehrere Jahre gesammelten Datenweisen eine jahreszeitenabhängigeSchwankung auf, wie sie durch dieebenfalls jahreszeitlich bedingte Än-derung der Bewegung der Erde rela-tiv zur Galaxis, also zum WIMP-Fluss, erklärt werden könnte. Auf entschiedenen Widerspruch

stieß diese Interpretation der Datenbei der amerikanischen CDMS-Grup-pe („Cryogenic Dark Matter Search“).Diese hat in Stanford einen kryoge-nischen Detektor aus Germanium-und Silizium-Kristallen aufgebaut, indem durchgehende WIMPs sowohl

also sein, dass ein echtes WIMP-Er-eignis in der Flut kosmischer Strah-len untergeht. Vor kurzem legte auch die EDEL-

 WEISS-Gruppe erste Ergebnisse vor.Ihr Detektor, der ähnlich wie CDMSarbeitet, steht im Fréjus-Tunnel 1700Meter unter der Erde. Auch ihre imJuli 2001 veröffentlichten Daten zei-gen kein WIMP-Signal. Sie schließen

 vielmehr WIMPs im oberen Bereichder von DAMA angegebenen Massenmit hoher Wahrscheinlichkeit aus.„Wir können derzeit in die Diskussi-on zwischen den CDMS- und demDAMA-Experiment nicht eingreifen“,erklärt der Sprecher der CRESST-Gruppe, Wolfgang Seidel. Denn: „Der CRESST-Detektor ist in seiner gegen-wärtigen Form für WIMPs in dem

Auf den Spuren Dunkler Materie: die CRESST-Physiker

anz Pröbst, Wolfgang Seidel und Leo Stodolsky (von links).

Endmontage der Kältebox. Im Hintergrund

sind die Abschirmplatten zu sehen.

Page 22: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 22/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   43

Unsichtbares UNIVERSU

Der Standort von GEO600 in

Ruthe bei Hannover. Nur eine unscheinbareHütte zeugt von der Hightech-Anlage.

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   43

HWER punkt 

Kollisionen,die im Raum

 Wellen schlagen

Theoretikern am MAX-PLANCK-INSTITUT FÜR GRAVITATIONSPHYSIK

(ALBERT-EINSTEIN-INSTITUT) in Golm bei Potsdam ist es gelungen, Form und

Intensität von Gravitationswellen zu berechnen, die zwei miteinander ve rschmelzend

Schwarze Löcher abstrahlen. Diese Ergebnisse sind von entscheidender Bedeutung

für den Erfolg des deutsch-britischen Gravitationswellen-Detektors GEO600 mit

Standort Hannover, der kürzlich seinen ersten Test bestanden hat. Mit ihm wollen

Physiker erstmals die von Einstein vorhergesagten Gravitationswellen nachweisen.

Ende Oktober schlugen im kleinen Ort Ruthe bei

Hannover die Herzen des Teams um Karsten Danz-mann vom Max-Planck-Institut für Quantenoptik höher.

Zum ersten Mal schickten die Physiker einen Laserstrahl

in ihren Gravitationswellendetektor. Mit Lichtgeschwin-

digkeit traf der Strahl zunächst auf ein optisches Ele-

ment, das ihn aufspaltete und in zwei senkrecht zueinan-

der stehende Richtungen umlenkte. Anschließend wur-

den die beiden Teilstrahlen an mehreren Spiegeln reflek-

tiert und in einem Punkt wieder zusammengeführt. Das

war alles. Vier Tage lang lief das Experiment unver-

ändert, ohne dass etwas passierte. Genau das

hatte das Team erhofft, denn es zeigte:    F   O   T   O   S  :   M   P   I   F    Ü   R

   G   R   A   V   I   T   A   T   I   O   N   S   P   H   Y   S   I   K

  -   B   E   N   G   E   R

    /   G   E   O   6   0   0

Page 23: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 23/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   45

Unsichtbares UNIVERSU

44   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

len breiten sich mit Lichtgeschwin-

digkeit im Raum aus. Wo sie auftau-

chen, wird der Raum für den Bruch-

teil einer Sekunde gestaucht und ge-

dehnt und nimmt dann wieder seine

ursprüngliche Form an. Diese kurz-

zeitige Raumverzerrung wollen die

Forscher mit Laser-Interferometern

wie GEO600 messen. Herz einer sol-

chen Anlage ist ein sehr stabiler,

leistungsstarker Laser. Dessen Strahl

wird an einem halb durchlässigen

Spiegel in zwei Strahlen aufgespal-

ten, die nach links und rechts von-

einander wegstreben. Am Ende der 

beiden Laufstrecken hängt jeweils

ein Spiegel, der das Licht zurückre-

flektiert. Die beiden Strahlen gelan-

gen erneut auf den halb durchlässi-

gen Spiegel, der sie so umlenkt, dasssie in einem gemeinsamen Punkt zu-

sammentreffen und sich überlagern.

In diesem Punkt erzeugen die Strah-

len ein so genanntes Interferenzmus-

ter, dessen Helligkeit ein Instrument

misst.

WARTEN AUF

EIN KURZES  FLIMMERN

So lange die Anordnung ungestört

ist, leuchtet das Interferenzmuster 

unverändert. Rauscht aber eine Gra-

 vitationswelle über sie hinweg, wird

der Raum in kurzem zeitlichen Ab-

stand in den beiden Armen des In-

terferometers gestaucht und gedehnt.

In diesem Moment durchlaufen die

beiden Laserstrahlen nicht mehr ei-

nen ebenen, sondern einen verboge-

nen Raum – so wie ein Schiff bei

Sturm über hohe Wellen kreuzen

muss. Das hat zur Folge, dass diese

Strahlen einen etwas längeren bezie-

hungsweise kürzeren Weg zurückle-

gen als zuvor. Und das äußert sich in

dem Interferenzmuster als kurzes

Flimmern.

 Was sich im Prinzip einfach an-

hört, liegt an der Grenze des tech-

nisch Machbaren. Läuft der Laser-

strahl über eine Distanz von einem

Kilometer, so verändert eine Gravita-

tionswelle diese Strecke lediglich um

den milliardstel Teil eines Atom-

durchmessers, der seinerseits nur ei-

nen zehnmillionstel Millimeter misst.

Ein unglaubliches Unterfangen.

Doch jetzt wollen die Forscher damit

beginnen. Ein einzelner Gravitati-

onswellendetektor wäre jedoch noch

nicht aussagekräftig genug. Zum ei-

nen lässt sich mit ihm eine Quelle

am Himmel nicht lokalisieren. Zum

anderen wäre ein Flimmern im Inter-

ferenzmuster noch kein Beweis für 

den Durchgang einer Gravitations-

welle. Es könnte auch Folge einer 

Störung sein.

 Aus diesem Grund entstehen der-

zeit neben GEO600 weltweit noch

weitere Instrumente dieser Art. Kurz

 vor dem ersten Testlauf steht das

amerikanische LIGO mit zwei Anla-

gen jeweils in Hanford und Living-

ston (USA). Jedes dieser Interferome-

ter verfügt über vier Kilometer lange Arme. In der Nähe von Pisa entsteht

derzeit VIRGO mit drei Kilometer 

langen Armen. Es wird erst in zwei

bis drei Jahren fertig sein. Schließ-

lich läuft bereits ein 300-Meter-In-

terferometer mit Namen TAMA im

 japanischen Mitaka. Es ist jedoch

nicht empfindlich genug, um wirk-

lich astronomische Quellen nachwei-

sen zu können und dient vornehm-

lich dem Test neuer technischer 

Komponenten.

GEO600 besitzt zwei jeweils 600

Meter lange, komplett evakuierte

Röhren und wird letztlich mit den

weltbesten optischen Komponenten

bestückt sein. Es wird gemeinsam

mit LIGO die Pionierarbeit leisten.

„Vom 28. Dezember an wollen wir 

den ersten Koinzidenztest mit VIRGO

 versuchen“, sagt Karsten Danzmann.

Etwa zwei Wochen lang sollen die

 Anlagen dann laufen. So will man

erst einmal studieren, wie sie auf 

Umwelteinflüsse – wie Sonnenaus-

brüche oder kosmische Strahlungs-

teilchen – reagieren. Die erzeugen

zwar keine Gravitationswellen, kön-

nen aber eventuell in beiden Anla-

gen die empfindliche Elektronik 

stören und ein Gravitationssignal

 vortäuschen. Außerdem wollen die

Physiker eine Vielzahl von Software-

Paketen testen, die nach unterschied-

lichen kosmischen Gravitationssig-

nalen suchen. ❿

GEO600 funktioniert. Was sich we-

nig spektakulär anhört, ist das Er-

gebnis jahrelanger Studien, neuer 

Entwicklungen und aufwändiger Ex-

perimente (siehe auch M AXPLANCK 

FORSCHUNG 3/1999, S. 14f.). Ziel der 

 Anstrengungen ist es, erstmals die

 von Einstein vorausgesagten Gravi-

tationswellen zu messen.

Nach der Allgemeinen Relati-

 vitätstheorie lässt sich die Schwer-

kraft einer Materieansammlung, wie

eines Sterns oder Planeten, als

Raumkrümmung beschreiben. Man

kann sich dies an einer Billardkugel

 veranschaulichen, die auf einem

Gummituch liegt und es eindellt.

Gerät ein anderer Körper in diese

Mulde hinein, wird er scheinbar von

der Kugel angezogen und rollt auf sie zu. Bewegt sich nun ein Him-

melskörper beschleunigt, so strahlt

er Gravitationswellen ab: Die Raum-

krümmung dehnt sich wellenförmig

in alle Richtungen aus. Analog hieße

das, auf dem Gummituch würden

 Wellen vom Ort der Kugel fortlaufen.

Einstein selbst glaubte nicht daran,

dass man „seine“ Gravitationswellen

 je werde nachweisen können. Heute

ist der Traum in greifbare Nähe

gerückt, wenn auch nur für die ex-

tremsten Vorgänge im Universum.

Ein Zahlenbeispiel soll dies verdeut-

lichen: Die Erde strahlt bei ihrem

Umlauf um die Sonne Gravitations-

wellen mit einer Leistung von 200

 Watt ab, Jupiter bringt es immerhin

schon auf 5300 Watt. Das sind je-

doch äußerst bescheidene Werte im

 Vergleich zu den wahren Größen im

Universum. Zwei kompakte Neutro-

nensterne beispielsweise, die sich im

 Abstand von hundert Kilometern mit

einer Periode von einer hundertstel

Sekunde umkreisen, erzeugen eine

Leistung von 1045  Watt. In dieser 

Größenordnung liegt auch die in

Form von Gravitationswellen abge-

strahlte Leistung bei der Explosion

eines massereichen Sterns, einer Su-

pernova. Das sind die Ereignisse, auf 

die es die Gravitationsphysiker abge-

sehen haben.

Der Nachweis funktioniert nach

folgendem Prinzip: Gravitationswel-

Computersimulationen am Max-Planck-Institut für Gravitationsphysik

zeigen die Schwingungsform einer Gravitationswelle, die beim Verschmel

von zwei Schwarzen Löchern mit zusammen zehn Sonnenmassen entsteht

Eine der 600 Meter langen Röhren. Sie sind gegen äu

Erschütterungen schwingungsgedämpft aufgehä

Page 24: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 24/59

Unsichtbares UNIVERSU

merische Simulation für den Zusam-

menstoß und eine Näherungsmetho-

de aus der Störungstheorie zur Be-

rechnung der Strahlung, die das ent-

stehende Schwarze Loch abgibt.

Die Ergebnisse der Golmer For-

scher können ihren Kollegen bei

GEO600 Mut machen. Demnach sind

die Gravitationswellen nämlich deut-licher stärker als bislang vermutet.

Günstig ist auch der Frequenzbe-

reich. „Zwei Schwarze Löcher, die

zusammen 35-mal schwerer sind als

die Sonne, strahlen Gravitationswel-

len mit einer Frequenz zwischen 600

und 900 Hertz ab“, erklärt Bernd

Brügmann, ein Mitglied des Lazarus-

Teams. Dieses Frequenzband liegt

genau im Messbereich von GEO600

und den anderen Detektoren.

Zwar sind Zusammenstöße von

Schwarzen Löchern extrem selten.

Die Fachleute vermuten, dass sich

ein solches Ereignis in einer Galaxie

wie unserer Milchstraße nur etwa al-

le 100.000 Jahre einmal ereignet.

 Aber es schlägt sprichwörtlich so ho-

he Wellen, dass es sich noch bis in

Entfernungen von mehreren hundert

Millionen Lichtjahren nachweisen

lässt. Da sich in diesem Umkreis um

die Erde sehr viele Galaxien befin-

den, rechnen die Astrophysiker da-

mit, alle zwei Jahre die Kollision von

zwei Schwarzen Löchern registrieren

zu können.

„Die Achse Golm-Hannover funk-

tioniert ganz hervorragend“, resü-

miert Danzmann. Und am 1. Januar 

2002 wurden die Experimentatoren

und die Theoretiker auch verwal-

tungstechnisch zusammengeführt.

Dann hat das AEI offiziell zwei

Standorte in Golm und Hannover;

46   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

LIGO und GEO600 gehören der Li-

go Science Collaboration an, was be-

deutet, dass die Forscher von beiden

 Anlagen stets auf alle Daten zugrei-

fen können. Später wird auch VIRGO

zu der Kollaboration gehören, und

alle vier Anlagen werden wie ein

globales Gravitationswellen-Obser-

 vatorium behandelt. Erst wenn dieseGeräte etwa zur selben Zeit ein Sig-

nal registrieren, ist eine Gravitati-

onswelle als Auslöser wahrschein-

lich. Vier Instrumente haben darüber 

hinaus den Vorteil, dass man mit ih-

nen auch grob feststellen kann, aus

welcher Richtung die Welle gekom-

men ist. Die Methode funktioniert

ähnlich wie die Landvermessung, bei

der man einen Punkt von verschie-

denen Orten aus anpeilt. Nach dem

Probelauf Anfang 2002 werden die

Daten ausgewertet und die vorläufi-

gen optischen Elemente in GEO600

gegen die endgültigen ausgetauscht.

Den regelmäßigen Beobachtungsbe-

trieb sollen die Anlagen in Deutsch-

land und den USA dann schließlich

gegen Ende 2002 aufnehmen.

Die astronomische Interpretation

der erhofften Messsignale wird ganz

wesentlich von der Qualität theoreti-

scher Modelle abhängen. In dieser 

Hinsicht hat eine Gruppe junger 

Physiker am Max-Planck-Institut für 

Gravitationsphysik (Albert-Einstein-

Institut, AEI) in Golm bei Potsdam

bereits hervorragende Arbeit gelei-

stet. Das Lazarus-Team, wie sich die

 Wissenschaftler nennen, hat die

Form und Intensität von Gravitati-

onswellen berechnet, die entstehen,

wenn zwei Schwarze Löcher mit-

einander verschmelzen. Ein solcher 

 Vorgang hat eine längere Vorge-

HWER punkt 

schichte. Ausgangspunkt sind zwei

massereiche Sterne, die einander 

umkreisen. Wenn sie ihren Brenn-

stoff verbraucht haben, sprengen sie

ihre äußeren Hüllen ins All ab und

erstrahlen als Supernova. Ihre Kern-

bereiche aber brechen zu Schwar-

zen Löchern zusammen. Diese um-

kreisen sich nach wie vor. Sie strah-len aber Gravitationswellen ab, wo-

durch sie Bewegungsenergie verlie-

ren und sich einander langsam

annähern. Schließlich berühren sie

sich und verschmelzen innerhalb

des Bruchteils einer Sekunde mit-

einander. Bei diesem kosmischen

Crash werden rund drei Prozent der 

Masse der Schwarzen Löcher in

Energie von Gravitationswellen um-

gewandelt.

SCHWARZE  LÖCHER

IM C OMPUTER

Obwohl dies das gewaltigste nur 

denkbare Ereignis im Universum ist,

bleibt es gänzlich unsichtbar, denn

es werden weder Licht noch Radio-

wellen oder Röntgenwellen abge-

strahlt. Einzig Gravitationswellen

zeugen davon. Die Simulationen

sind daher unumgänglich, wenn

man von dem gemessenen Signal auf 

die Natur der Quellen schließen

will. Früher simulierte Kollisionen

Schwarzer Löcher konnten jedoch

nicht den gesamten Verschmel-

zungsprozess zeigen. Es trat

grundsätzlich das Problem auf,

gleichzeitig die abgestrahlten Wellen

und das Innere des Schwarzen Lochs

zu modellieren. Den entscheidenden

Fortschritt erzielte das Potsdamer 

Team, indem es zwei Methoden mit-

einander kombinierte: die volle nu-

bis dahin gehörte die Hannoveraner 

 Außenstelle offiziell zum Max-

Planck-Institut für Quantenoptik in

Garching bei München (vgl. Seite 109

dieser Ausgabe).

Neben verschmelzenden Schwar-

zen Löchern wollen die Forscher vor 

allem noch zwei andere Arten von

Ereignissen nachweisen. Zum einenSupernovae. In einer Galaxie wie der 

Milchstraße explodieren pro Jahr-

hundert etwa zwei oder drei „schwe-

re“ Sterne. Wenn man ein solches

Ereignis aber wie erhofft noch bis in

Entfernungen von einigen zehn Mil-

lionen Lichtjahren nachweisen kann,

so sollte man pro Jahr mehrere Er-

eignisse dieser Art registrieren. Noch

attraktiver sind möglicherweise ver-

schmelzende Neutronensterne. Das

sind sehr kompakte Sternüberreste

mit Durchmessern von etwa 20 Kilo-

metern, deren Materie so dicht ge-

packt ist, dass ein Teelöffel davonauf der Erde eine Milliarde Tonnen

wöge. Wenn sie sich umkreisen und

ähnlich wie die Schwarzen Löcher 

miteinander verschmelzen, werden

ebenfalls sehr starke Gravitations-

wellen frei. Auch von diesen Ereig-

nissen könnte man vielleicht eines

pro Jahr registrieren.

Mit der Entdeckung von Gravitati-

onswellen würden die Astrophysiker 

ein gänzlich neues Beobachtungs-

fenster zum Universum öffnen. „Dar-

über hinaus wäre der Nachweis auch

ein Meilenstein für Einsteins All-

gemeine Relativitätstheorie“, sagtBernard Schutz, Direktor am AEI

in Golm. Denn Gravitationswellen

gehören zu den wenigen von der

Relativitätstheorie vorhergesagten

Phänomen, die sich bislang nicht

nachweisen ließen.   THOMAS  BÜHRKE

Gravitationswellen rasen in dieser Computersimulation nach dem Zusammenprall zweier Schwarzer Löche

auf die Erde zu. Die Wellen entstehen nahe dem Zentrum der Kollision und breiten sich schalenartig aus.

Page 25: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 25/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   49

Unsichtbares UNIVERSU

48   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

Meter-Antenne des Max-Planck-In-stituts für Radioastronomie in Effels-berg nahe Bonn.

Dank erheblicher Fortschritte inder Beobachtungstechnik gewannendie Wissenschaftler in den vergange-nen Jahren immer feinere Einblickein kosmische Magnetfelder. Die Un-tersuchung von polarisierten (also ineiner bestimmten Ebene schwingen-den) Radiowellen und von Magnet-feldern sowohl in unserer Milch-straße als auch in anderen Galaxienist Schwerpunkt der Arbeitsgruppe„Radiokontinuum“ unter Richard

 Wielebinski, Direktor am Max-Planck-Institut für Radioastronomie

in Bonn. Unsere kosmische Heimat,die Milchstraße, birgt etwa 200 Mil-liarden Sonnenmassen sichtbarer Materie; mehr als 95 Prozent davonführen die Astronomen auf Sternezurück, der Rest ist interstellare Ma-terie. Denn der Raum zwischen denSonnen ist angefüllt mit Wolken vonGas und Staub. Aus diesen Wolkenwerden noch heute Sterne geboren.

 Am Ende ihres Lebens explodierenmassereiche Sterne als Supernovaeund schleudern dabei eine großeMenge ihres Materials in den inter-stellaren Raum zurück. Ein derartgewaltsamer „Tod“ setzt eine unvor-stellbar große Energie frei, die sich

 Welche Rolle spielen Magnet-felder bei der Entwicklung

 von Galaxien und Galaxienhaufen? Waren sie von Anfang an vorhandenoder sind sie erst im Lauf der Zeitentstanden? Welchen Einfluss habensie auf die Entstehung neuer Sterne?

 Wie wirken die Stoßwellen explodie-render Sterne auf das Magnetfeld ih-rer Umgebung und der gesamtenMilchstraße? Antworten auf dieseFragen zu finden ist Sache der Ra-dioastronomie. Denn Magnetfelder lassen sich am besten mit Radio-teleskopen untersuchen, deren „Au-gen“ den langwelligen Bereich desSpektrums sehen, wie etwa die 100-

auf Gas und Staub überträgt und auf diese Weise chaotische turbulenteBewegungen im interstellaren Raumantreibt. Diese wiederum halten den„galaktischen Dynamo“ in Schwung,ohne den es keine Magnetfelder gäbe(MPG-SPIEGEL 2/1996, Seite 8 f.). Vor allem das Gas lässt sich mit

Radiowellen gut erfassen. Dabei ent-steht diese Strahlung auf zwei Arten:1. Durch freie Elektronen, die sich inder Umgebung junger Sterne imelektrischen Feld von Protonen be-wegen und dabei so genannte ther-mische Radiostrahlung aussenden.2. Durch hoch energetische Elektro-nen, die aus den Überresten explo-

Sie sind im wahrsten Sinn „All“-gegenwärtig: Ob bei

der Sonne oder dem Planeten Jupiter, ob bei Sternen,

in der Milchstraße oder in fernen Galaxien – überall im

Kosmos findet man Magnetfelder. Der folgende Bericht

fasst die neuesten Ergebnisse der ARBEITSGRUPPE

„RADIOKONTINUUM“ am Bonner MAX-PLANCK-

INSTITUT FÜR RADIOASTRONOMIE zusammen.

Radioaugen musternMagnetfelder

im Weltall

dierter Sterne herrühren und auf ih-rer Reise im interstellaren Magnetfeld„Synchrotronstrahlung“ aussenden.

Um neue Erkenntnisse über Mag-netfelder in unserem Milchstra-ßensystem (Galaxis) zu gewinnen,„scannen“ die Astronomen ausge-dehnte Himmelsbereiche bei ver-schiedenen Wellenlängen. SolcheKartierungen, so genannte Surveys,erlauben detaillierte Analysen der galaktischen Ebene. In der vom Ra-dioteleskop empfangenen Gesamt-strahlung steckt stets auch ein ge-wisser Anteil an polarisierter - ineiner Schwingungsebene ausgerich-teter - Strahlung. Dabei funktioniert

der stabförmige Dipol im Empfänger des Teleskops im Prinzip ähnlich wiedie Antenne eines Kofferradios: Nur 

wenn sie exakt auf die jeweiligeSchwingungsrichtung der Radiowel-len zeigt, empfängt sie die polarisier-te Strahlung eines bestimmten Sen-ders; sonst hört man lediglich Rau-schen.

STRAHLUNG AUS

DER  C YGNUS-REGION

Besonders deutlich sichtbar wirddas galaktische Gas in Richtung desSternbilds Schwan (lat. Cygnus). Hier beobachten die Astronomen sichüberlagernde Objekte in Richtungdes benachbarten Spiralarms, des„Orion-Arms“ der Milchstraße, waszu einer sehr komplexen Struktur der Radiostrahlung in diesem Bereichführt. Eine Darstellung der Cygnus-Region aus der Radiokartierungbei 11 Zentimeter Wellenlänge mitdem 100-Meter-Teleskop zeigt Abbil-dung 1. Diese Radiokarte ist übrigensdas Motiv einer der Wohlfahrts-marken zum Thema „Der Kosmos“aus dem Jahr 1999 (M AXPLANCK FOR-SCHUNG 2/2000, S. 64).

Erst vor kurzem wurde eine neueUntersuchung der Milchstraße inRichtung des Sternbilds Schwan ver-öffentlicht (A STRONOMY  & A STRO-PHYSICS 371, 675, 2001). Sie ver-gleicht Radio- und Röntgenbeobach-tungen und zeigt ein kompliziertesBild aus vielen Blasen heißen Gases(„Bubbles“) sowie dazwischen lie-gendem, dichterem Material (Abb. 2).

Abb. 1: Ra diostrah lu ng aus der Ric htu ng des Stern bilds Sch wan (Cy gnus) bei 11 Zentimeter Wellenlänge. Abb. 2: Überlager ung von Radios trahlung bei 21 Zentimeter Wellenlänge(farbiges Bild) und Röntgenstrahlung (ROSAT, weiße Konturen).

   A   L   L   E   A   B   B   I   L   D   U   N   G   E   N  :   M   P   I   F    Ü   R

   R   A   D   I   O   A   S   T   R   O   N   O   M   I   E

Page 26: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 26/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   51

Unsichtbares UNIVERSU

50   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

 Arbeitsgruppe „Radiokontinuum“.Möglicherweise spielen Magnetfelder bei der Bildung der Spiralarme undder Entwicklung der Galaxien ins-gesamt eine wichtige Rolle (MPG-SPIEGEL 2/1996, S. 8 f.).

 Auf den ersten Blick besteht zwi-schen den Beobachtungen von Mag-netfeldern in der Milchstraße undin anderen Galaxien eine Diskre-panz. In unserer Galaxis werden Tur-bulenzen ohne zusammenhängendegrößere Struktur sichtbar, währenddie polarisierte Radiostrahlung vonexternen Galaxien im Wesentlichengeordnet erscheint und den Verlauf der Spiralstruktur der Galaxien auf-zeigt. Dieser Widerspruch besteht je-doch nur scheinbar: Die Astronomen

führen ihn zum einen auf die unter-schiedliche räumliche Auflösung vongalaktischen und extragalaktischenMagnetfeldbeobachtungen zurück,zum anderen auf das unterschied-liche Erscheinungsbild in Abhängig-keit von der Wellenlänge (Faraday-Rotation). Denn bei den Kartierun-gen des Magnetfelds ausgedehnter Bereiche der galaktischen Ebene do-minieren die längeren Wellenlängen,bei denen der Faraday-Effekt sehr stark zuschlägt, bei den extragalakti-schen Messungen dagegen die kür-zeren Wellenlängen, mit denen auchdie räumliche Auflösung entspre-chend ansteigt.

Es ist davon auszugehen, dass bei-de Resultate miteinander vergleich-bar sind: Die Messungen der Magnet-feldstruktur von Spiralgalaxien wieNGC 6946 geben einen Eindruck da-

 von, wie auch unsere Milchstraße ausgroßer Entfernung aussehen würde.Und die galaktischen Polarisations-messungen zeigen die Magnetfeld-struktur räumlich so detailliert, wiees für Galaxien in größerer Entfer-nung nicht erreicht werden kann.Erst beides zusammen liefert ein voll-ständiges Bild der Magnetfeldstruktur 

 von Galaxien - und beide Ansätzezur Untersuchung von Magnetfeldernin Galaxien werden in der „Kontinu-umsgruppe“ am Max-Planck-Institutfür Radioastronomie erfolgreich be-trieben. NORBERT JUNKES

xien am irdischen Firmament nur unter einem Winkel von wenigenBogenminuten. Da reicht selbst die

 Winkelauflösung des 100-Meter-Ra-dioteleskops oft nicht mehr aus, umEinzelheiten in der Magnetfeldstruk-tur dieser Sternsysteme zu erfassen.

BLICK AUF

FERNE  G ALAXIEN

Daher bedienen sich die Astrono-men des Max-Planck-Instituts für Radioastronomie eines Tricks: Siekombinieren Messungen mit der Ef-

40, 2001). Die Abbildung 4 zeigt diepolarisierte Radiostrahlung und die

 Ausrichtung der Magnetfeldlinien indieser Galaxie bei 3,6 Zentimeter 

 Wellenlänge. Zu einem großen Teilfolgt die Orientierung der Magnet-feldlinien der optischen Spiralstruk-tur; das stärkste ausgerichtete Mag-netfeld liegt im Zwischenarmbereich.In der südöstlichen Region tritt aller-dings eine deutliche Abweichungauf: Hier „kreuzen“ die Magnetfeld-linien die optische Spiralstruktur.Die beobachtete Struktur des Mag-

Die polarisierte Radiostrahlungstammt von Supernova-Überrestenwie dem bekannten „Cygnus Loop“,aber auch von ausgedehnten Struk-turen nördlich und südlich dergalaktischen Ebene.

In Abbildung 3 geht der Blick des100-Meter-Radioteleskops in eineganz andere Richtung. Das darge-stellte Gebiet überdeckt die Region

wächst quadratisch mit der Wellen-länge. Daher gestatten erst Beobach-tungen bei kleineren Wellenlängen(und damit höheren Frequenzen)Rückschlüsse auf die ursprüngliche

 Ausrichtung der Magnetfelder in un-serer Galaxis. Die „Sehtiefe“ für dieursprüngliche Polarisationsrichtungin der galaktischen Ebene ist bei

 Wellenlängen von 21 oder 11 Zenti-

felsberger Antenne, welche die un-terliegende Struktur und die kom-plette Radiostrahlung erfasst, mitBeobachtungen mittels eines Ra-diointerferometers, wie beispielswei-se des VLA (Very Large Array) in So-corro im US-Bundesstaat New Mexi-co, das die Details in der Radiostrah-lung bei wesentlich höherer räum-licher Auflösung zeigt. Auf diese

 Weise haben die Wissenschaftler dieMagnetfeldstrukturen vieler Radio-galaxien untersucht. Ergebnis dieser 

 Arbeiten ist der „Atlas of MagneticFields in Galaxies“. Als aktuelles Beispiel sei eine eben

erschienene Arbeit herausgegriffen, veröffentlicht von der Bonner Grup-pe gemeinsam mit Kollegen der Uni-

 versität von Krakau. Sie betrifft NGC3627, eine wechselwirkende Galaxieim Leo-Triplett im Sternbild Löwe(A STRONOMY & A STROPHYSICS, Vol. 378,

netfelds in NGC 3627 erklären dieForscher durch die Überlagerungzweier Magnetfeldkomponenten –die eine das Ergebnis eines Dy-namos, die andere vermutlich dasResultat einer Wechselwirkung miteiner anderen Galaxie. Während dieeine Komponente dem optisch sicht-baren Gas und Staub folgt, „stellt“sich die andere vermutlich als Er-gebnis der Wechselwirkung „quer“. Wesentlich symmetrischer er-

scheint das Magnetfeld in der nahenSpiralgalaxie NGC 6946 (Abb. 5): DieOrientierung der Magnetfeldvektorenzeichnet sehr schön die Spiralstruk-tur nach. Allerdings verlaufen die„magnetischen Arme“ genau zwi-schen den optischen Spiralarmen.„Die Magnetfelder werden nicht ein-fach vom Gas mitgeschleppt, son-dern entfalten durchaus ihre eigeneDynamik“, sagt Rainer Beck von der 

des galaktischen „Antizentrums“ bei21 Zentimeter Wellenlänge. Die Ge-samtintensität (Abb. 3, oben) zeigtgleichmäßig abfallende Emission mitzunehmender Breite, daneben aber nur wenige Schwankungen (Fluktua-tionen) auf großen Skalen. Das ent-spricht der Abnahme der turbulentenMagnetfeldstärke mit wachsendem

 Abstand von der Milchstraßenebene.Die vielen Punktquellen stammen

 von Objekten außerhalb der Galaxis- von fernen Quasaren und Radioga-laxien.

Ein völlig anderes Bild liefert die Verteilung der polarisierten Inten-

Abb. 3: Radiostrahlung bei 21 ZentimeterWellenlänge aus einem großen Gebiet imBereich des galaktischen Antizentrums(oben: gesamte Radiostrahlung, unten:polarisierter Anteil der Radiostrahlung).Das Bild zeigt einen Ausschnitt aus demEffelsberger „1,4 GHz Medium GalacticLatitude Survey“.

Abb. 4: Polarisierte Radiostrahlung derSpiralgalaxie NGC 3627 bei 3,6 ZentimeterWellenlänge.

sität (Abb. 3, unten). Hier brachtendie Messungen mit dem Effelsberger 100-Meter-Radioteleskop eine Über-raschung: Außer den polarisiertenEinzelquellen, wie zum Beispiel Su-pernova-Überresten, fanden die For-scher auch ausgedehnte Polarisati-onsmuster, die keine Übereinstim-mung mit der Gesamtintensität der Radiostrahlung zeigen und sicher nicht von Einzelquellen herrühren.

 Was verbirgt sich dahinter?Bei der Interpretation der Polarisa-

tionsmessungen spielt die „Faraday-Drehung“ eine wesentliche Rolle: DiePolarisationsrichtung der Strahlungwird durch eine in der Sichtlinie lie-gende Wolke aus ionisiertem Gas ge-dreht, wobei das Ausmaß dieser

Drehung von physikalischen Eigen-schaften – wie Elektronendichte undMagnetfeldstärke – der Wolke ab-hängt. Laufen die Radiowellen durch

 viele galaktische Wolken, werden dieSchwingungsrichtungen der Wellenunterschiedlich stark gedreht: Im Te-leskop kommt schließlich eine unge-ordnete Mischung an, die Schwin-gungsrichtungen sind chaotisch ver-teilt, die Wellen erscheinen durch dieÜberlagerung unpolarisiert und tre-ten somit als dunkle Bereiche in der polarisierten Intensität auf. „Wir er-warten aus den Daten neue Erkennt-nisse über die dreidimensionaleStruktur der galaktischen Magnetfel-der und über die Verteilung der in-terstellaren Materie in der Milch-straße“, sagt Wolfgang Reich von der 

 Arbeitsgruppe „Radiokontinuum“.Für die Beobachtung polarisierter 

Radiostrahlung sind zwei Parameter entscheidend, nämlich Wellenlängeund Winkelauflösung, die miteinan-der gekoppelt sind und für ein gege-benes Radioteleskop in einem festen

 Verhältnis stehen. Zum Beispiel kanndie 100-Meter-Antenne in Effelsbergbei einer Wellenlänge von 2,8 Zen-timetern noch Objekte im Abstand

 von rund einer Bogenminute trennen– was ziemlich genau der „Sehschär-fe“ des menschlichen Auges, alsoseiner Auflösung für sichtbaresLicht, gleichkommt. Das Ausmaßder geschilderten Faraday-Drehung

metern vergleichsweise gering. Erstdeutlich unterhalb von 10 Zentime-ter Wellenlänge schauen die Astro-nomen tiefer in die Milchstraße hi-nein und erreichen bei 9 Millimeter 

 Wellenlänge ihren zentralen Bereichin etwa 25.000 Lichtjahre Entfer-nung.

Das macht die Kartierungen großer Gebiete in der Milchstraße sehr auf-wändig. Denn um ein und dieselbeFläche am Himmel zu „scannen“,bedarf es bei einer Halbierung der 

 Wellenlänge bereits der vierfachenMesszeit. Dieses Problem tritt nichtbei der Beobachtung extragalakti-scher Systeme und deren Magnetfel-der auf. Doch erscheinen ferne Gala-

Abb. 5: Polarisierte Radiostrahlung der Spiralgalaxie NGC 6946 bei 6 Zentimeter Wellen-länge (rechts: gesamte Radiostrahlung, links: polarisierter Anteil der Radiostrahlung).

Page 27: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 27/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   53

UnsichtbaresUNIVERSU

52   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

„A ls ich zur Schule ging, lernte ich, das Weltall

wäre zwei Milliarden Jahre alt“, sagte mein

Freund Hans-Ludwig und schaute mich spöttisch an. „Vor 

zwanzig Jahren hast du mir erklärt, es wäre 20 MilliardenJahre alt. Gestern las ich, die Astronomen wären jetzt

überzeugt, dass es 12 Milliarden Jahre alt ist. Seid ihr in

eurem Geschäft zwischendurch auch manchmal sorg-

fältig?” Noch ehe ich antworten konnte, fuhr er fort:

„Da stand auch, im Weltall gäbe es wahrscheinlich zehn-

mal mehr Materie als ihr bis vor kurzem geglaubt habt.

Da betreibt ihr seit Jahrtausenden Astronomie, seit mehr 

als 100 Jahren Astrophysik und du wurdest nahezu ein

halbes Jahrhundert lang dafür bezahlt: Kannst du mir

erklären, wieso ihr in eurem Weltall fast alles übersehen

habt?“

Im Grunde hatte er Recht. Unsere Vorstellungen vom

 Weltall als Ganzem haben sich in den vergangenen 50

Jahren gewaltig verändert. Glücklicherweise gibt es in der 

 Astronomie auch Erkenntnisse, die ein für allemal richtig

sind. Die Himmelskörper bewegen sich so, wie die Astro-

nomen vorausberechnen. Unsere Vorstellungen vom in-

neren Aufbau der Sterne, vor allem der Sonne, scheinen

im Großen und Ganzen richtig zu sein. Mehr noch, die

Sonne hat uns erst kürzlich auf die Spur gebracht, eine

bis dahin unbekannte Eigenschaft eines Elementarteil-

chens, des Neutrinos, zu entdecken. Die Schwierigkeiten

beginnen erst, wenn wir Objekte in großer Entfernung be-

trachten. Es war noch recht unproblematisch, als die

Größe der Erde im 17. Jahrhundert zum ersten Mal ge-

nauer bestimmt wurde. Unser Milchstraßensystem, die

Galaxis, hat der amerikanische Astronom Harlow Shapley 

erst in der Zeit des Ersten Weltkrieges richtig ausgelotet.

Dabei haben wir gelernt, dass wir nicht in der Mitte der 

mit Milliarden von Sternen ausgefüllten galaktischen

Scheibe stehen, die uns das Band der Milchstraße an den

Himmel projiziert. Stattdessen kreisen wir mit der Sonne

weit draußen, Zehntausende von Lichtjahren von der Mit-

te entfernt, um das Zentrum. Um unseren Abstand von

dort zu erhalten, muss man den Durchmesser der Erde mit

einer 13stelligen Zahl multiplizieren. Diese unvorstellbar 

weite Entfernung mussten die Astronomen in den letzten

90 Jahren nicht merklich korrigieren.

 Wer das Weltall über große Entfernungen hin vermessen

will, muss nach Objekten Ausschau halten, deren Strah-lungsleistungen bekannt sind. Das sind zum Beispiel be-

stimmte Arten von Sternen, deren Helligkeit rhythmisch

schwankt und deren Rhythmus uns ihre Strahlungsleis-

tung verrät. Die Helligkeit, mit der wir sie am Himmel se-

hen, lässt uns dann ihre Entfernung berechnen. Diese

Sterne sind kosmische Standardkerzen, aber nicht die ein-

zigen. Eine spezielle Art von Art von Supernovae, das sind

explodierende Sterne, erreichen bei ihrem Ausbruch eine

ganz bestimmte maximale Strahlungsleistung. Deshalb

dienen sie gleichfalls als Standardkerzen. Aber auch diese

 Art der Entfernungsbestimmung ist nicht ohne Probleme.

Nicht nur der große Abstand lässt ferne Sterne schwächer 

erscheinen, das Licht der Standardkerzen kann auch durch

Staubschleier, die es auf dem Weg zu uns durchqueren

muss, geschwächt werden. Das macht die Entfernungs-

messung mit Hilfe von Standardkerzen unsicher. Je weiter 

wir in das Weltall vordringen, umso schwieriger wird die

Entfernungsbestimmung und damit auch die Berechnung

der seit dem Urknall vergangenen Zeit.

Kosmologieund ihre

Quintessenz

Die Welt im Großen und Ganzen zu beschreiben, ist Gegen-

stand der Kosmologie. In den vergangenen Jahrzehnten wurden

immer neue Theorien über die Geschichte und den Bau des

Universums entworfen. Dennoch knirscht es noch erheblich im

Weltgebäude der Kosmologen – und deshalb plädiert RUDOLF

KIPPENHAHN mit einem Augenzwinkern für einen „kosmolo-

gischen Faktor“ bei der Einrichtung entsprechender Planstellen.

Materie, die keiner sie

„Und dabei überseht ihr gelegentlich auch mal den

größten Teil der das Weltall ausfüllenden Materie?“ Hans-

Ludwig war unerbittlich. Also erklärte ich ihm, wie es da-

zu kam. Als die Astronomen die Entfernungen und die

Geschwindigkeiten der Sterne unserer Galaxis genauer 

bestimmen konnten, stellte der holländische Astronom

Jan Hendrik Oort schon in den frühen 30er Jahren des

20. Jahrhunderts fest, dass unser Milchstraßensystem sei-

ne Sterne mit einer viel stärkeren Schwerkraft an sich

bindet, als man von der Anziehungskraft der sichtbaren

Materie erwarten sollte. Auch in den Ansammlungen von

fernen Sternsystemen, in den Galaxienhaufen, scheint es

nicht ganz geheuer zu sein: Schon Alexander von Hum-

boldt hat die Ansammlung von Galaxien im Sternbild

Welteninseln am Horizont: Der Haufen

ell 902 mit den diffusen, bläulich schim-

mernden Galaxien bewegt sich – wegen

der Expansion des Universums – mit etwa

15 Prozent der LIchtgeschwindigkeit von

uns weg, also mit 47.000 Kilometer pro

Sekunde. Einige „Sterne“ auf dem Bildrscheinen auffällig rot; das sind Galaxien,

die zu einem weiter entfernten, bisher

noch unbekannten Haufen gehören.

   F   O   T   O   S  :   M   P   I   F    Ü   R

   A   S   T   R   O   N   O   M   I   E

Page 28: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 28/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   55

UnsichtbaresUNIVERSU

54   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

HWER punkt 

 Virgo in seinem 1850 erschienenen „Kosmos“ erwähnt.

Im Virgo-Haufen bewegen sich Sternsysteme wie in ei-

nem Mückenschwarm umeinander und werden, wenn sie

sich zu weit vom Zentrum entfernen, von der gemeinsa-

men Schwerkraft wieder in den Schwarm zurückgezogen.

Der in den USA arbeitende Schweizer Astronom Fritz

Zwicky bemerkte in den 30er Jahren des vergangenen

Jahrhunderts, dass diese Schwerkraft sehr viel stärker sein

muss, als die sichtbare Materie der Sternsysteme im Vir-

go-Haufen erwarten lässt. Es muss auch dort unsichtbare,

aber Schwerkraft ausübende Materie geben.

 Wir können es auch an der Bewegung der Sterne im

äußeren Bereich unserer Galaxis deutlich sehen: Sie

umkreisen das Zentrum der Scheibe so schnell, dass sie

eigentlich in den Raum hinausgeschleudert werden müss-

ten. Die Schwerkraft der sichtbaren Materie, also die An-

ziehungskraft der Sterne, der Gas- und Staubwolken,

würde nicht ausreichen, sie festzuhalten. Woher kommtdie zusätzliche Schwerkraft? Sie rührt von Materie her,

die wir nicht sehen, die aber Schwerkraft ausübt. Die

 Astronomen nennen sie Dunkle Materie. Von diesem rät-

selhaften Stoff muss es sehr viel mehr geben als von der 

sichtbaren Materie! Diese Geistermaterie ist aber nicht ir-

gendwo in den Fernen des Weltalls verborgen, wir haben

sie direkt vor der Haustür, denn sie beeinflusst auch die

Bewegung der Sterne der Milchstraße. Wir nehmen sie

aber hier an Ort und Stelle nicht direkt wahr, weil sie in

unserer unmittelbaren Umgebung recht gleichförmig ver-

teilt ist und ihre Schwerkraft uns gleichzeitig nach allen

Richtungen zieht, so dass sich hier ihre Wirkung aufhebt.

Zum Zentrum des Milchstraßensystems hin ist sie aber 

dichter, deshalb macht sich ihre Schwerkraft in der Bewe-

gung der Sterne in den Außenbereichen der Milchstraße

bemerkbar.

keiten legen nahe, dass die Expansion des Weltalls früher 

langsamer war als heute. Die Schwerkraft der sichtbaren

und der Dunklen Materie sollte die Expansionsbewegung

des Weltalls bremsen, stattdessen beobachten wir, dass sie

beschleunigt wird. Es muss also etwas geben, was über 

weite Distanzen die Galaxien auseinander treibt, obwohl

sie sich über kleinere Distanzen hinweg gegenseitig an-

ziehen. Also existiert anscheinend noch ein Stoff, der 

nicht anzieht, sondern abstößt. Diesen nennen die Astro-

nomen Dunkle Energie.“

„Wunderbar“, sagte mein Freund, „da habe ich gelernt,

dass Masse gleich Energie ist, und jetzt willst du mir 

weismachen, dass Dunkle Materie anzieht und Dunkle

Energie abstößt. Heißt das: Masse = Energie gilt nur im

Lichte, doch im Dunkeln gilt das nicht?“

„Die Bezeichnung ,Dunkle Energie‘ ist schlecht gewählt.

Manche Wissenschaftler nennen die Materie mit Ab-

stoßungskraft stattdessen Quintessenz, in Anlehnung andie vier Elemente, aus denen in der Vorstellung der alten

Griechen die Welt besteht. Der abstoßend wirkende neue

 Weltstoff ist dann das fünfte Element“, antwortete ich.

„... denn da, wo die Begriffe fehlen, da stellt ein Wort

zur rechten Zeit sich ein.“ Er hat immer ein passendes

Zitat bei der Hand.

 Wir unterhielten uns noch weiter darüber, warum die

Kosmologie, die Wissenschaft vom Weltall als Ganzem,

immer wieder so starken Wechseln unterworfen ist: Die

Physik versucht, die Gesetze zu verstehen, der die Be-

standteile der Welt gehorchen, seien es Atome, Steine

oder Sterne. Die Kosmologie dagegen hat sich zum Ziel

gesetzt, die Regeln zu ergründen, denen das Weltall als

Ganzes unterworfen ist. Diese Regeln zu finden ist un-

gleich schwieriger. Wir können nicht mit dem Weltall

herumexperimentieren wie mit Atomen. Zwar können wir 

auch keine Experimente mit Sternen machen, doch gibt

es in der Natur die verschiedensten Exemplare: Rote Rie-

sen, Weiße Zwerge, junge Sterne, alte Sterne. Wenn wir 

sie miteinander vergleichen, erfahren wir etwas über Ge-

setze, denen sie unterworfen sind.

 Wir kennen aber nur ein einziges Weltall, dessen Ge-

schehen vor unseren Augen abläuft. Wir können die Zeit

nicht zurückdrehen, wir können das Geschehen nicht

noch einmal mit veränderten Anfangsbedingungen ab-

spulen lassen. Wir können das Weltall nicht mit anderen

 vergleichen. So muss der Kosmologe versuchen, die Re-

geln der uns bekannten Physik auf das gesamte Weltall

anzuwenden und prüfen, ob er damit beobachtbare Er-

scheinungen erklären kann. Deshalb ist die Kosmologie

ein besonders schwieriger Teil der Physik.

In unserem Gespräch fanden wir es schon überra-

schend, dass die Astronomen von all der Materie im Welt-

all bis vor kurzem nur die Spitze des berühmten Eisbergs

kannten und dass sie auch heute nicht die leiseste Ah-

nung haben, was die Dunkle Materie eigentlich ist. Sind

es nichtleuchtende planetenartige Körper? Sind es durch

den Raum fliegende Elementarteilchen? Und was, um

Gottes willen, ist die Dunkle Energie?

 Wenn wir jetzt gemerkt haben, dass es in der Welt etwa

zehnmal so viel Materie gibt, als wir bisher annahmen,

gibt es für die Astronomen dann nicht zehnmal mehr zu

tun? Sollten die Direktoren der astronomischen Max-

Planck-Institute ihren Präsidenten nicht vielleicht bitten,

ihnen deshalb auch zehnmal mehr Planstellen zu be-

willigen? Die Kollegen der anderen Institute würden das

sicher einsehen.

... aber das hat mein Freund Hans-Ludwig gesagt.  

bstoßende Stoff, den keiner kennt 

Fast schien es, als ob ich meinen Freund beruhigt hätte.

„Wie sagt Bert Brecht?“, fragte er, „Heißt es nicht, ... und

die einen sind im Dunkeln und die andern sind im Licht,

und man siehet die im Lichte, die im Dunkeln sieht man

nicht.“ Also habt ihr jetzt Materie, die ihr nicht sehen

könnt und von der ihr nichts weiter wisst, als dass sie die

Sterne anzieht.” Ich merkte an seinem Ton, dass ein neuer 

 Angriff folgen würde. „Aber wenn ich es richtig gelesen

habe, dann habt ihr jetzt plötzlich auch noch andere

Materie, die ihr auch nicht seht, die aber nicht anzieht,

sondern abstößt – eine saubere Wissenschaft!“

„Das merken wir, wenn wir sehr entfernte Galaxien be-

obachten“, fuhr ich fort, „weil sich das Licht zwar mit un-

 vorstellbarer, aber doch endlicher Geschwindigkeit durch

den Raum bewegt, sehen wir die fernsten Sternsysteme

so, wie sie vor Milliarden Jahren waren und wie sie sich

damals bewegten. Die Messungen ihrer Geschwindig-    F   O   T   O  :   H   U   B   B   L   E   H   E   R   I   T   A   G   E   T   E   A   M

Wenn massereiche stellare Gasbälle am

Ende ihres Lebens explodieren, sehen wir

am Firmament als „neue“ Sterne aufblitzeSolche Supernovae wie SN 1987 A (das

rote Gebilde in der Mitte des Fotos) diene

den Astronomen als „Standardkerzen“, um

Entfernungen im Weltall zu bestimmen.

Page 29: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 29/59

SZINATION Forschung

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   57

Biologische KYBERNET

56   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

Patient im Innern

eines Tomographen.

Der Rettungswagen erreicht mitBlaulicht das Krankenhaus.

Jetzt muss alles sehr schnell gehen.Der Patient wird mit Symptomen für Schlaganfall eingewiesen. Innerhalbkürzester Zeit müssen die Ärzte eineDiagnose stellen. Eine der drin-gendsten Fragen: Welche Teile desGehirns sind von der Mangeldurch-blutung oder der Blutung geschädigtworden? Anhand dieses Befundswerden erste Rehabilitationsmaß-nahmen eingeleitet. Für die Diagnosesteht den Ärzten heute an einer wachsenden Zahl von Krankenhäu-sern die fMRT, die „funktionelleMagnet-Resonanz-Tomographie“, zur 

 Verfügung. Innerhalb weniger Minu-ten liefert sie den Medizinern Infor-mationen darüber, ob der Patient ei-

nen Schlaganfall erlitten hat undwelche Hirnregion betroffen ist.

Die Möglichkeiten der fMRT kön-nen gar nicht hoch genug einge-schätzt werden: Je schneller die Ärz-te reagieren, umso größer ist der An-teil des Gehirns, den sie retten kön-nen. Der Schlaganfall ist nach Herz-Kreislauf-Erkrankungen und Krebsdie dritthäufigste Todesursache inden westlichen Industrieländern. ProJahr erleiden in Deutschland schät-zungsweise 250.000 Menschen einenSchlaganfall. Etwa zehn Prozent der Betroffenen sind jünger als 40 Jahre.

 Was noch viel schwerer wiegt: Der Schlaganfall ist eine der Hauptursa-chen für ernsthafte Behinderungen;in Deutschland leidet jeder vierte Be-hinderte an den Folgen eines Schlag-anfalls. Mehr als eine Million Men-schen, die einen Schlaganfall über-lebt haben, sind berufsunfähig oder nicht mehr in der Lage, sich selbst zu

 versorgen.Der große Vorteil der fMRT liegt

darin, dass sie keine größeren Ein-griffe in den Organismus erfordert.Die Mediziner sprechen deshalb

 von einer nicht-invasiven Methode.Elektromagnetische Wellen wirkenhierbei auf den menschlichen Körper ein. Obwohl das von fMRT-Gerätenerzeugte Magnetfeld eine sehr hoheFeldstärke aufweist – es ist etwa eineMillion mal so groß wie das natür-liche Magnetfeld der Erde – können

Entwicklung der Magnet-Resonanz-

mographie (MRT) ist eine Erfolgsge-

ichte der Grundlagenforschung. Aus 

medizinischen Diagnostik ist die MRT heute nicht mehr wegzudenken. Aber diese Forschung 

Zeit gebraucht – mehr als ein halbes Jahrhundert ist vergangen, seit Physiker ihre e rsten

tersuchungen zur so genannten Kernspinresonanz starteten. Mit einem neuen metho-

chen Ansatz ist es NIKOS K. LOGOTHETIS und

nen Mitarbeitern vom MAX-PLANCK-INSTITUT

R BIOLOGISCHE KYBERNETIK in Tübingen

ungen, das Verständnis für die Grundlagen

funktionellen MRT maßgeblich zu

weitern und damit die kognitive 

urobiologie voranzutreiben.

In die Röhre geguckt

   F   O   T   O  :   O   K   A   P   I   A ,

   M    Ü   N   C   H   E   N

Page 30: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 30/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   59

Biologische KYBERNET

58   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

Schädigungen nach dem derzeitigenKenntnisstand ausgeschlossen wer-den. Das physikalische Phänomen,das der fMRT zu Grunde liegt, ist dieso genannte Kernspinresonanz. Der 

 Weg zu ihrer Entdeckung ist vonzahlreichen Nobelpreisen begleitet,und er beginnt bereits in der erstenHälfte des 20. Jahrhunderts mit der Beschreibung der Eigenschaften von

 Atomen: Planck, Rutherford, Bohr,Schrödinger und Heisenberg sind dieNamen der Physiker, die das Atom-

der Atomkern aus zwei Arten vonPartikeln besteht: positiv geladenenProtonen und ungeladenen Neutro-nen. Um den Kern herum bewegensich die negativ geladenen Elektro-nen. Alle diese Partikel besitzen ei-nen „Spin“ oder Eigendrehimpuls,das heißt, sie drehen sich wie einkleiner Kreisel um ihre eigene Achseund erzeugen dabei ein magneti-sches Moment. Ohne ein äußeresMagnetfeld sind die Drehachsenwillkürlich verteilt, so dass sich die

Magnetisierung gegen-seitig ausgleicht. Bringtman einen Atomkern je-doch in ein äußeresMagnetfeld, so richtetsich das magnetischeMoment des Kerns in

diesem Feld aus – wiedas Dipolmoment eineskleinen Stabmagnetenmit Nord- und Südpol.Die Ausrichtung kannparallel oder antiparallelzum äußeren magneti-schen Feld erfolgen,wobei die parallele Aus-richtung mit einemniedrigen, die antiparal-lele mit einem höherenEnergieniveau einher-geht.

Rabi und seine Mitar-beiter wollen jene Be-dingungen finden, unter denen es möglich ist,das magnetische Mo-ment eines Atomkernsund somit seine Aus-richtung umzukehren.Es gelingt ihnen Endeder dreißiger Jahre, in-dem sie einen Strahl

 von Lithiumchlorid-Molekülen durchein magnetisches Feld schicken unddabei Radiowellen aussetzen. Bei ei-ner bestimmten Frequenz, der so ge-nannten Resonanzfrequenz, lieferndie Radiowellen genau die Energie,die die Kerne benötigen, um auf einhöheres Energieniveau zu springenund sich im Magnetfeld neu aus-zurichten. Die dabei auftretendeSchwächung der Radiowellen liefertden Wissenschaftlern das Messsig-

nal. Rabi hat damit einen Weg ge-funden, um diesen Übergang nach-zuweisen. Die neue Technik bezeich-nen die Forscher als „molecularbeam magnetic resonance“. Rabis

 Arbeitsgruppe setzt diese Technik vor allem ein, um noch völlig unbekann-te Details über die Wechselwirkun-gen von Molekülen herauszufinden.Die Forscher können jetzt quasi„sehen“, wie individuelle Atome an-einander binden und wie ihre Kernedurch benachbarte Atome beeinflusstwerden. Im Jahr 1944 erhält Rabidafür den Nobelpreis für Physik.

EINFACH WASSERSTOFF

Nach dem Zweiten Weltkrieg su-chen unabhängig voneinander diePhysiker Edward Purcell an der Har-

 vard University und Felix Bloch ander Stanford University nach einer 

 Vereinfachung der Methode, um dieKernspinresonanz auch in Flüssig-keiten und Festkörpern messen zukönnen. Beide Wissenschaftler ent-scheiden sich für die Untersuchungdes Wasserstoffs, zum einen, weiles der einfachste Atomkern mit Spinist, und zum anderen, weil er immenschlichen Körper am häufigsten

 vorkommt (der Körper besteht zu 70Prozent aus Wasser, in jedem Trop-fen Wasser befinden sich etwa 1024

 Wasserstoffkerne).Nahezu zeitgleich gelingt es den

Forschergruppen, jene Bedingungenzu erzeugen, bei denen magnetischeResonanz eintritt. Ihre Experimenteliefern das Verständnis für die heuteals NMR-Spektroskopie bekannteMethode. Damit wird es unter ande-rem möglich, „Relaxationszeiten“ zumessen, also jene Zeitspanne, die einSystem benötigt, um in den Gleich-gewichtszustand zurückzukehren –und zwar im Bereich von Sekundenoder Bruchteilen von Sekunden. Pur-cell und Bloch werden 1952 eben-falls mit dem Physik-Nobelpreis aus-gezeichnet. Wurde die Kernspinresonanz in

den frühen fünfziger Jahren vorerstals physikalische Methode verstan-den, mit der sich die magnetischenEigenschaften von Kernen messenlassen, so führte die Beobachtung,

dass das NMR-Signal von der chemi-schen Umgebung beeinflusst wird,zu einer geradezu explosionsartigen

 Verbreitung. Die chemische Umge-bung der Atomkerne erzeugt näm-lich eine Verschiebung der Reso-nanzfrequenz gegenüber dem freienKern (bei gleicher Frequenz erfolgtdie Resonanz des abgeschirmtenKerns bei höherem äußeren Mag-netfeld). Diese „chemische Verschie-bung“ ist eine charakteristische Grö-ße für die unterschiedlichen Gruppeneines Moleküls. Sie kann dazu be-nutzt werden, um Substanzen zucharakterisieren.

Heute ist die NMR-Spektroskopieaus der chemischen Analyse nichtmehr wegzudenken, kein Industrie-oder Universitätslabor kommt ohne

ein NMR-Gerät aus. Zu Beginn der sechziger Jahre ist die NMR-Tech-nologie allerdings noch langenicht ausgereift: Ein entscheidender Schritt nach vorne ist der Einsatz ge-pulster Radiowellen an Stelle einer einzelnen kontinuierlichen Welle.Der Puls enthält verschiedene Fre-quenzanteile. Dabei gilt: je kürzer die gepulste Radiowelle, desto breiter ihr Frequenzspektrum. Die Wissen-schaftler müssen jetzt nicht mehr mühevoll Radiowellen verschiedener 

 Wellenlänge testen, um die Reso-nanzfrequenz zu bestimmen. DiePulstechnik wird zum Instrument der 

 Wahl für Physiker und Chemiker beider Untersuchung von Atomen undMolekülen. Nach wie vor ist die Aus-wertung des Messsignals jedochaußerordentlich zeitintensiv. Um denProzess zu beschleunigen, bedarf eseines mathematischen Hilfswerk-zeugs.

Ende der sechziger Jahre ist dieEntwicklung des Computers soweitfortgeschritten, dass es möglichwird, die komplexen NMR-Spektrenim Rahmen einer für den mathemati-schen Laien immer noch komplizier-ten Rechnung (Fourier-Transformati-on genannt) auszuwerten. RichardErnst und Weston Anderson gelingtes, Pulstechnik und Rechen-Werk-zeug erfolgreich miteinander zukombinieren. Die neue Methode istnicht nur tausendmal schneller als

ihr Vorläufer, die Forscher können jetzt auch Signale beobachten, dienur noch ein Zehntel so groß sind.Für seinen Beitrag zur Weiterent-wicklung der NMR-Spektroskopie er-hält Richard Ernst im Jahr 1991 denNobelpreis in Chemie.

Die Idee, die NMR als diagnosti-sches Instrument einzusetzen, tauchtebenfalls schon in den fünfzigerJahren auf. Aber es bedarf weiterer Entwicklungen, insbesondere in der Computertechnologie, bevor die Mag-net-Resonanz-Tomographie (MRToder englisch MRI für „magnet reso-nance imaging“) Realität wird: ImJahr 1971 verbindet der britische In-genieur Godfrey Hounsfield einRöntgengerät mit einem Computer und setzt diverse algebraische Ver-

fahren ein, um einen Körper von verschiedenen Seiten optisch abzu-tasten und schließlich entsprechendeSchnittbilder herzustellen. Er legtdamit den Grundstein für die Com-putertomographie (CT). Knapp zweiJahre später entwickelt der Chemiker Paul Lauterbur ein rechnerisches

 Verfahren, das es ermöglicht, mittelsKernspinresonanz Bilder zu erzeu-gen. Vorausgegangen waren Überle-gungen, wie sich das registrierteNMR-Signal innerhalb einer Probelokalisieren lässt. Wenn es gelänge,so Lauterbur, den Entstehungsortdes Signals punktgenau festzulegen,dann ließe sich eine Art „Landkarte“des Untersuchungsobjekts erstellen.In seinen Experimenten überlagerter daher das räumlich gleichförmigestatische Magnetfeld mit einemzweiten, schwächeren Magnetfeld-Gradienten.

INS  B ILD GESETZT

Da die Resonanzfrequenz der  Atomkerne in einem äußeren mag-netischen Feld proportional zur Stär-ke des Felds ist, liefert der Magnet-feld-Gradient für die verschiedenenTeile des Untersuchungsobjekts je-weils nur an einer Stelle die Reso-nanzbedingungen, so dass sich diePosition der Moleküle festlegen undein entsprechendes Bild konstruierenlässt (heute werden zur Erzeugung

 von MR-Bildern drei elektromagneti-

sche Gradienten angelegt). Es bleibtdem Engländer Peter Mansfield undseinen Kollegen vorbehalten, 1976das erste NMR-Bild eines menschli-chen Körperteils zu veröffentlichen:eines Fingers, bei dem sowohl Kno-chen und Nerven als auch Arteriensichtbar werden.

GESPANNTER  Z USTAND

 Was passiert nun unter den ebenbeschriebenen Bedingungen? Wennman einen Patienten in das starkeMagnetfeld eines Kernspin- oderMagnet-Resonanz-Tomographen hi-neinfährt, richten sich die vielen klei-nen „Wasserstoffmagnete“ im Körper teilweise aus. Diese Ordnung der ausgerichteten Teilchenmagnete wird

 jetzt durch einen hochfrequenten

Magnetsender beeinflusst. Aufgrunddieser „Störung“ klappen die kleinenTeilchenmagnete aus ihrer geordne-ten Position heraus. Sie befindensich jetzt in einem gespannten (ener-giereichen) Zustand, weil sie sich ei-gentlich wieder in dem großen Mag-netfeld ausrichten wollen. In demMoment, in dem die Störung abge-schaltet wird, begeben sich die Teil-chenmagnete deshalb schnell wieder in ihre Ausgangslage, den energie-armen Zustand, zurück. Dabei gebensie eine bestimmte Energiemengewieder ab. Diese entspricht einemRadiosignal bestimmter Wellenlänge(hierbei handelt es sich um die ein-gangs erwähnte Resonanzfrequenz).Durch „Spulen“ im MRT werden dieSignale der Teilchenmagnete aufge-fangen. Abhängig von der Anzahlund der näheren Umgebung der Teil-chenmagnete ist das Signal stärker oder schwächer, das Zurückklappendauert nur kurz (wenige Millisekun-den) oder länger (wenige Sekunden).Der Patient merkt von alledemnichts. Anhand des gewebsspezifi-schen Verhaltens der Teilchenmag-nete können Ärzte und Wissen-schaftler im MR-Bild schließlich dieGewebe des menschlichen Körpersunterscheiden.

Heute liefert der Tomograph nichtnur Bilder aus dem Innern unseresKörpers, wobei jede nur denkbareSchnittebene möglich ist, sondern

modell entworfen und damit dasFundament für eine der erfolgreich-sten Entwicklungen in der Grundla-genforschung bereitet haben.

MAGNETISCHE  M OMENTE

Im Jahr 1929 untersuchen Isaac Isi-dor Rabi und seine Mitarbeiter ander Columbia University in den USA die magnetischen Eigenschaften von

 Atomen und Molekülen. Die Physi-ker wissen zu diesem Zeitpunkt, dass

enschaftler des Max-Planck-Instituts für neurologische Forschung

ln haben MR-tomographische und spektroskopische Verfahren im

ersuch getestet. Dazu haben sie bei vier verschiedenen Versuchstieren

n 15-minütigen Herzstillstand ausgelöst und die Wiederbelebungehirns verfolgt. Die bildliche Darstellung erlaubt Aussagen über den

digungsgrad des Gehirns sowie eine genaue Analyse des Erholungs-

ufs. Bei der vorliegenden MR-Bildgebungsmethode werden die Durch-

ngsänderungen des aktivierten Hirnareals dargestellt. Die oberen

Reihen sind Beispiele für erfolgreiche und die unterste Reihe für eine

erfolgreiche Reanimation. Der Vergleich mit den Konzentrationsbil-

von ATP, Glucose und Laktat zeigt, dass die MR-Bilder tatsächlich eng

en biochemischen Veränderungen verknüpft sind. Auf der Basis sol-

Untersuchungen ist es möglich, den Verlauf eines Hirninfarktes sowie

Erfolg verschiedener therapeutischer Maßnahmen zu dokumentieren.

   F   O   T   O  :   M   P   I   F    Ü   R

   B   I   O   L   O   G   I   S   C   H   E   K   Y   B   E   R   N   E   T   I   K ,

   T    Ü   B   I   N   G   E   N

Page 31: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 31/59

1976 1990 20011964 1971 19721936 1937 1945

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   61

Biologische KYBERNET

60   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

erlaubt auch Aussagen über denFunktionszustand bestimmter Gewe-be. Der Durchbruch für diese funk-tionelle Magnet-Resonanz-Tomogra-phie, fMRT, gelang in den achtziger Jahren, als George Radda und seineKollegen im englischen Oxford he-rausfanden, dass sich die MRT aucheignet, um Änderungen im Sauer-stoffgehalt des Bluts nachzuweisen.Das Prinzip hinter dieser als BOLD(englisch: blood oxygen level depen-dent) bezeichneten Methode war be-reits 40 Jahre zuvor von Linus Pau-ling und Charles D. Coryell beschrie-ben worden. 1936 legen sie einePublikation vor, in der sie über diemagnetischen Eigenschaften vonHämoglobin berichten, dem Sauer-stoff transportierenden Pigment, das

den roten Blutkörperchen ihre Farbe verleiht.

ROTES ODER BLAUES  B LUT

Die beiden Chemiker hatten he-rausgefunden, dass sich die magneti-sche Empfindlichkeit von sauerstoff-beladenem arteriellen Blut um 20Prozent von dem sauerstoff-freien

 venösen Blut unterscheidet. Im Jahr 1990 zeigt Seiji Ogawa von den

 At&T Bell Laboratories in Tierver-suchsstudien, dass desoxygeniertesHämoglobin im Gegensatz zu oxyge-niertem Hämoglobin die Stärke desmagnetischen Felds, dem es ausge-setzt wird, in seiner unmittelbarenUmgebung erhöht. Regionen, die al-so viel desoxygeniertes Hämoglobinenthalten, verändern das magneti-sche Feld um die Blutgefäße herum,und dies wiederum spiegelt sich imMR-Bild wider.

 Was den Einsatz der fMRT anbe-langt, gibt es mittlerweile einen re-

gelrechten Boom – und zwar über den klinischen Bereich hinaus. Ins-besondere in der neurobiologischenForschung hat diese Technik den

 Wissenschaftlern neue Einblicke indas Gehirn verschafft. So ist dasfMRT ein Instrument geworden, umdie Entwicklung neuronaler Netz-werke für das Sehen, Sprechen undHören zu untersuchen. Bis auf weni-ger als einen Millimeter genau kön-nen Forscher die Aktivitätsmuster imGehirn studieren.

BEIM  D ENKEN ZUGESCHAUT

Nach einer Phase der Euphoriemacht sich unter den Wissenschaft-lern allerdings Skepsis breit, wie aus-sagekräftig die „bunten Bilder“ wirk-lich sind. Mit der fMRT lassen sich

zwar Unmengen von Daten produ-zieren, vielfach fehlt es aber an Hin-tergrundinformationen oder Grund-lagen, um die Messwerte überhauptrichtig interpretieren zu können. Soklafft eine große Lücke zwischen der räumlich aufgelösten Betrachtungder Hirnaktivität mittels fMRT undden vielen auf der Basis elektrophy-siologischer Ableitungen am Tier-modell erlangten Erkenntnissen. Dieshatte bisher vor allem technische Ur-sachen: Dem zeitgleichen Einsatzbeider Untersuchungsmethoden unddamit dem Brückenschlag vom Tier-

 versuch hin zu den am Menschengewonnenen Befunden stand dieInterferenz zwischen dem starkenMagnetfeld des Tomographen undden an den Elektroden gemessenenStrömen im Weg.

Dieses Hindernis konnten NikosLogothetis und seine Mitarbeiter 

 vom Max-Planck-Institut für biolo-gische Kybernetik in Tübingen nun

schen Reiz im visuellen Kortex vonnarkotisierten Affen zeitgleich mitdiesen drei verschiedenen Methodenuntersucht. Der Vergleich der Mess-reihen ergab, dass die fMRT-Datensignifikant mit den lokalen Feldpo-tenzialen und weniger mit den Ein-zelzell- und so genannten Multi-Unit-Ableitungen korrelieren. „Unse-re Untersuchungen deuten darauf hin, dass Änderungen des Sauer-stoffgehalts im Blut nicht unbedingtmit Ausgangssignalen, also dem,Feuern‘ der Neurone, einhergehen.

 Vielmehr sehen wir beim fMRT Än-derungen des lokalen Feldpotenzialsund damit das Einlaufen von Signa-len aus anderen Hirnregionen undderen Prozessierung“, sagt Nikos Lo-gothetis. Und: „Wir haben jetzt erst-

mals die Möglichkeit, zu verstehen,was einzelne Neurone tun und wiesie ihre Aufgabe im Kontext funkti-onsspezifischer neuronaler Netzwer-ke erfüllen.“

KOMBINIERTER S CHARFBLICK

Eine wichtige Erkenntnis aus denersten experimentellen Untersu-chungen der Tübinger ist, dass dieBOLD-fMRT-Daten – wohl aufgrundder großen Variabilität der Gefäßre-aktionen – einen viel kleineren Stör-abstand (Signal-Rausch-Verhältnis)haben als die elektrophysiologischen

 Ableitungen. „Dies hat zur Folge,dass bei der üblichen statistischen

 Auswertung menschlicher fMRT-Da-ten die Ausdehnung der neuronalen

 Aktivität im Gehirn unterschätztwird“, so Logothetis. Anders ausge-drückt: Das Fehlen eines fMRT-Sig-nals bedeutet also nicht unbedingt,dass in diesem Hirnbereich keineneuronale Informationsverarbeitung

überwinden: Mithilfe von Spezial-elektroden und einer aufwändigenDatenverarbeitung ist es ihnen nichtnur gelungen, zweifelsfrei nach-zuweisen, dass mit der BOLD-fMRTtatsächlich Veränderungen der Neu-ronenaktivität gemessen werden; dieForscher haben darüber hinaus fest-gestellt, dass das BOLD-Signal vor allem den Eingang neuronaler Infor-mation in die jeweilige Hirnregionsowie ihre dortige Verarbeitungwiderspiegelt und weniger die Aus-gangssignale, die an andere Hirnre-gionen weitergegeben werden.

Mit ihrer neuartigen experimentel-len Anordnung können die Tübinger 

 Wissenschaftler verschiedene Aspek-te neuronaler Aktivität untersuchenund auch zwischen den so genann-

ten Aktionspotenzialen und lokalenFeldpotenzialen unterscheiden. Akti-onspotenziale sind elektrische Im-pulse, die von einzelnen Neuronenoder einer relativ kleinen Gruppe

 von Neuronen stammen; es handeltsich um Alles-oder-Nichts-Signale,die nur auftreten, wenn der aus-lösende Reiz stark genug war. Im

 Wissenschaftlerjargon heißt es dann„die Neuronen feuern“. Die Aktions-potenziale spiegeln somit den Out-put, also das Ausgangssignal, wider.Registriert werden diese Signale von

 Ableitelektroden, die sich in unmit-telbarer Nähe der Nervenzellen be-finden. Die lokalen Feldpotenzialesind dagegen sich langsam verän-dernde elektrische Potenziale, die dasEingangssignal an den Synapsenund seine Weiterverarbeitung in ei-ner größeren Neuronenpopulationwiedergeben.

Die Max-Planck-Forscher habennun die Antworten auf einen opti-

stattfindet – die elek-trophysiologischen Mes-sungen belehren uns ei-nes Bessren. Und darauf werden sich auch dieKognitionswissenschaft-ler in Zukunft beider Interpretation ihrerfMRT-Daten einstellenmüssen.

Der größere Beitragdes lokalen Feldpotenzi-als zum fMRT-Signal istübrigens auch konsis-tent mit Untersuchun-gen zu seinen bioener-getischen Grundlagen.Schon lange wissen dieForscher, dass die neu-ronale Aktivität und der 

energetische Stoffwech-sel unmittelbar mitei-nander gekoppelt sind.Im Ruhezustand ver-braucht das menschli-che Gehirn 20 Prozentdes Sauerstoffs im Kör-per, obwohl es weniger als zwei Prozent der Körpermasse ausmacht.Ein kurzfristiger Anstieg der Hirnak-tivität (und damit des Energiebe-darfs) wird begleitet von einem ge-steigerten Blutfluss (Erhöhung der Durchflussrate) und einem ebenfallsgesteigerten Glucosebedarf. Letzterer spiegelt offensichtlich die synapti-sche Aktivität wider. Untersuchun-gen mittels NMR-Spektroskopie ha-ben nämlich gezeigt, dass sich 80 bis90 Prozent des gesamten kortikalenGlucose-Verbrauchs beim Menschenauf den Energiebedarf so genannter glutamerger Neurone zurückführenlassen – Neurone also, die sich des

Botenstoffs Glutamin bedienen. De-ren Aktivität wiederum wird bei denFeldpotenzial-Messungen erfasst.

Die Geschichte der funktionellenMagnet-Resonanz-Tomographie istnoch lange nicht zu Ende geschrie-ben. Sicher ist jedoch eines: DiefMRT ist Ergebnis jahrzehntelanger Grundlagenforschung, sie wurde im-mer wieder stimuliert durch For-scher, die über den Tellerrand ihrer eigenen Disziplin hinausgeschauthaben, und sie wäre wohl nie imRahmen bürokratischer Forschungs-planung entstanden. CHRISTINA  BECK

Ein Schachbrettmuster (links) als visueller Reiz löst Neuronenaktivität

im Gehirn aus, die mit Einzelzellableitungen (vorne) bzw. funktionellerMagnet-Resonanz-Tomographie (hinten) aufgezeichnet wird. Um die ve

schiedenen Signale zeitgleich registrieren zu können, haben die Wissenschaftler des Max-Planck-Instituts für biologische Kybernetik eine ganz

neuartige experimentelle Anordnung entwickelt. Damit ist es ihnen gel

gen nachzuweisen, dass mit BOLD-fMRT tatsächlich Veränderungen de

Neuronenaktivität gemessen werden. Das BOLD-Signal spiegelt danach

vor allem den Eingang neuronaler Information in die jeweilige Hirnregi

sowie ihre dortige Verarbeitung wider und weniger die Ausgangssignale

die an andere Hirnregionen weitergegeben werden.

   F   O   T   O  :   M   P   I   F    Ü   R

   B   I   O   L   O   G   I   S   C   H   E   K   Y   B   E   R   N   E   T   I   K

1936Linus Pauling undarles D. Coryell ent-ecken, dass sich dasgnetische Verhalten

on Hämoglobin mitnem Oxygenierungs-

status ändert.

Isaac Isidor Rabi undseine Mitarbeiter entwickeln

die Grundlagen derKernspinresonanz, indem

sie Lithiumchlorid-Moleküledurch ein Magnetfeld schicken

und dabei Radiowellenaussetzen.

Unabhängig voneinandergelingt es Felix Bloch

und Edward Purcell, dasPhänomen der Kernspin-resonanz in Flüssigkeiten

und Festkörpernnachzuweisen.

Richard Ernst undWeston Anderson können

durch Einsatz der sogenannten Pulstechnik

und der Fourier-Analysedie NMR-Technologie

entscheidend vorantreiben.

Godfrey Hounsfieldbaut den ersten Computer-

Tomographen (CT) undlegt damit den Grundstein

für nahezu alle bild-gebenden Verfahren,die heute zum Einsatz

kommen.

Paul Lauterbur verknüpftdie CT-Entwicklung mit Über-legungen zur Lokalisierung des

NMR-Signals; die Idee der Über-lagerung mit einem Magnetfeld-

Gradienten liefert die Grund-bedingungen zur Erzeugung von

Bildern mittels MRT.

Peter Mansfield undseine Mitarbeiter

veröffentlichen daserste mit einem MRTerzeugte Bild eines

menschlichen Körperteils –eines Fingers.

1937 1945 1964 1971 1972 1976 1990 20011964 1971 1972 1976 1990 2001Seiji Ogawa entdeckt,

dass sich gewebsspezifische Veränderungen im Sauerstoff-gehalt im MR-Bild nachweisenlassen. Das so genannte BOLD- Verfahren ermöglicht somit

eine Auswertung des Funktions-zustands der Gewebe.

Nikos K. Logothetis und seinenMitarbeitern gelingt es mit einer

neuartigen experimentellenAnordnung, zeitgleich elektro-physiologische Messwerte und

fMRT-Daten aufzuzeichnen unddamit die funktionsspezifischenZusammenhänge aufzudecken.

Page 32: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 32/59

SZINATION Forschung Bose-Einstein-KONDENSATIO

62   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

Den diesjährigen NOBELPREIS FÜR PHYSIK erhielten ein

deutscher und zwei amerikanische Physiker für Pionierarbeiten zur 

„BOSE-EINSTEIN-KONDENSATION“. Die Wissenschaftler

erforschen ultrakalte Gaswolken, deren Atome den gleichen „Quantenzustand“ besetzen.

Forscher des MAX-PLANCK-INSTITUTS FÜR QUANTENOPTIK in Garching lieferten schon

mehrfach wichtige Beiträge zu diesem faszinierenden Forschungsgebiet. Wie der Laser 

könnten Bose-Einstein-Kondensate die Entwicklung völlig neuer Technologien anstoßen.

Gleich takt im ultrakaltenQuanten-Orchester

   F   O   T   O   S  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

   F   O   T   O  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

nnes Schuster (rechts) und Andreas Marte aus dertsgruppe von Gerhard Rempe bei der Justage ihres

riments zur Erzeugung von Bose-Einstein-Kondensaten.

Bildschirm zeigt in Falschfarben-Darstellung typische

orptionsaufnahmen“ von Kondensaten.

Page 33: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 33/59

DER NOBELPREIS

FÜR PHYSIK 2001

Den Nobelpreis 2001 erhielten dreiPioniere der Bose-Einstein-Konden-sation: Wolfgang Ketterle vomMassachusetts Institute of Techno-logy (MIT), sowie Eric A. Cornell undCarl E. Wieman von der Universityof Colorado (Boulder). Zwei derNobelpreisträger haben enge persön-liche Beziehungen zum Max-Planck-Institut für Quantenoptik. WolfgangKetterles Doktorvater ist HerbertWalther, Direktor der Abteilung fürLaserphysik und Professor an der Lud-wig-Maximilians-Universität Mün-chen. Carl E. Wiemans Doktorarbeitbetreute Theodor W. Hänsch,während beide in den siebziger Jahrenan der Universität von Stanfordforschten.

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   65

Bose-Einstein-KONDENSATIO

64   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

nennen? Warum sind sie so wichtig?Eine Antwort gibt Theodor W.Hänsch. Der Direktor der AbteilungLaserspektroskopie am Max-Planck-Institut für Quantenoptik und Pro-fessor an der Ludwig-Maximilians-Universität in München ist einer der 

 Väter dieses jungen Forschungsge-biets (siehe auch Seite 69). Aus sei-ner Sicht bieten Bose-Einstein-Kon-densate eine wunderbare Möglich-keit, wichtige Experimente zum„Welle-Teilchen-Dualismus“ zu ma-chen. Diese janusköpfige Eigenschaftder Materie, die aus der Quantenme-chanik resultiert, muss jeder Physik-student erst einmal verdauen. Mate-rie zeigt nämlich zwei Verhaltens-weisen: Die einer Welle und zugleichdie eines Teilchens (siehe Kasten„Der Welle-Teilchen-Dualismus” auf 

Seite 66). Bose-Einstein-Konden-sate erlauben es auf einzigartige

 Weise, „in einem Grenzgebiet zu ex-perimentieren, wo wir entweder den

 Wellen- oder den Teilchencharakter in den Vordergrund rücken“, soHänsch. Und: „Damit können wir unser Verständnis der Quantenme-chanik trainieren.“

„Bose-Einstein-Kondensate ver-danken ihre Existenz allein der Un-unterscheidbarkeit quantenmechani-

scher Teilchen“, steckt Gerhard Rem-pe das Spielfeld ab. Das Verhalten

 von Atomen in einem BEC erinnertan das bestimmter Mitglieder einesSymphonieorchesters – etwa aller 

 Violinisten, die exakt dieselbe Melo-die spielen. Diese Musiker „schwin-gen“ im Gleichtakt. In einem BECbesetzen gleichartige Atome wie zumBeispiel Natrium gemeinsam denQuantenzustand mit der niedrigst-möglichen Energie, den „Grundzu-stand“. Hier sorgt eine „Materiewel-le“ für den Gleichtakt der Atome.Nun soll die stimmführende ersteGeigerin mit einem ihrer Kollegenden Platz tauschen. Weil die beidenMusiker hoch spezialisierte Individu-en sind, verändert das sofort den Ge-samtklang der Streichergruppe. Tau-schen hingegen zwei gleichartige

 Atome ihren Platz innerhalb einesQuantenzustands, dann passiert –absolut nichts! Atomen fehlen näm-lich von Natur aus jegliche individu-ellen Eigenschaften, sie sind unun-terscheidbar.

Diese Eigenart der Quantenwelthat Konsequenzen, auf die schonMitte der zwanziger Jahre der indi-sche Physiker Satyendra Nath Bosestieß. Gemeinsam mit Albert Einsteinentwickelte er für die nach ihm be-

nannten Bosonen, zu denen auch viele Atome gehören, eine neueQuantenstatistik. Eine Konsequenzdieser Quantenstatistik war einmerkwürdiges Verhalten: Knapp über dem absoluten Temperaturnullpunkt(bei minus 273 Grad Celsius) solltengleichartige Bosonen dazu neigen,gemeinsam in einen quantenmecha-nischen Grundzustand zu „konden-sieren“.

EIN MILLIONSTEL GRAD

ÜBER DEM NULLPUNKT

Damit Atome ein BEC bilden kön-nen, müssen sie auf Temperaturenunterhalb eines millionstel Grad Cel-sius über dem Nullpunkt abgekühltwerden. Wie erreicht man eine sol-che Ultrakälte im Labor? In den sieb-ziger Jahren schlugen Theodor W.

Hänsch und andere Forscher vor,zum Kühlen der Atome Laserlichteinzusetzen. Wenn das Licht richtigpräpariert ist, übt es auf die Atomeeinen „Lichtdruck“ aus und bremstsie ab. Das Abbremsen kühlt die Ato-me, weil die Wärme ihrer Bewe-gungsenergie entspricht.

In den achtziger Jahren entstandaus dieser ersten Idee schließlich die„magnetooptische Falle“ (MOT). Ab-bildung 1 zeigt stark vereinfacht

ihren Aufbau: Sie besteht aus min-destens sechs Laserstrahlen, von de-nen je zwei einander entgegenlaufen(rote Pfeile). Die Laser sind so ange-ordnet, dass das Atom (blaue Kugel)entlang jeder Raumrichtung abge-bremst wird. Die MOT kann auf diese

 Weise eine Wolke aus mehreren Mil-liarden Atomen kühlen. Außerdemproduzieren zwei elektrische Spulen(kupferfarben) ein Magnetfeld. Zu-sammen mit den Lichtkräften schiebtdieses Feld die gebremsten Atome inden Kreuzungspunkt der Laserstrah-len und hält sie dort fest (Abb. 2).Dann wird das Laserlicht abgeschal-tet und die Gaswolke in einer reinmagnetischen „Falle“ gefangen. DieIdee zum letzten Kühlschritt kamden Physikern vielleicht beim Kaf-feetrinken: Eine schwache Radio-

welle „bläst“ die heißesten Atomeder Gaswolke weg. Diese „Verdamp-fungskühlung“ sorgt dafür, dass dierestlichen Atome in der Falle in einBEC kondensieren (Abb. 3).

Bose-Einstein-Kondensate eröff-nen den Physikern neue Forschungs-möglichkeiten. Hänsch und seineMitarbeiter beschäftigen sich zumBeispiel mit einer völlig neuen Quel-le für Materiewellen – dem Atom-Laser. Er produziert einen Strahl aus

Abb. 1: Schematisch vereinfachte Darstellung

einer magnetooptischen Falle (MOT).

Abb. 2: Eine kalte Wolke aus 200 Milliarden

Rubidiumatomen leuchtet im Laserlicht einer MOT.

Abb. 4: Atomlaserstrahl in einer

„Materiedichte-Darstellung“. Der Berg

links markiert das BEC, der blaue

„Grat“ ist der Atomlaserstrahl. Er kommt

hier knapp 2 Millimeter weit.

„Eigentlich dürfte es Bose-Ein-stein-Kondensate gar nicht

geben“, scherzt Johannes Schuster.Er ist Doktorand in der Forschungs-gruppe von Gerhard Rempe, dem Ge-schäftsführenden Direktor des Max-Planck-Instituts für Quantenoptik inGarching. Schuster denkt an dieKonsequenzen der Thermodynamik,also der Wärmelehre. Bose-Einstein-Kondensate sind Ensembles ultrakal-ter Atome mit besonderen Quanten-eigenschaften. Nach den Gesetzender Thermodynamik dürften dieseultrakalten Gaswolken nicht existie-ren: Sie müssten in eine Flüssigkeitoder einen festen Körper ausfrieren.Trotzdem gelang es Wissenschaftlernim Jahr 1995 mit einer hoch ent-wickelten Technologie zum erstenMal, ein Bose-Einstein-Kondensat

herzustellen. Diese exotische Formder Materie blieb sogar für vieleSekunden stabil, bevor sie der ther-modynamische Tod ereilte.

Drei Physiker, darunter ein Deut-scher, erhielten für ihre Pionierarbeitüber Bose-Einstein-Kondensate dendiesjährigen Nobelpreis für Physik.Doch was sind Bose-Einstein-Kon-densate – oder BEC (vom englischen„Bose-Einstein-Condensate“), wie siedie abkürzungsfreudigen Physiker 

Eric A. Cornell

Wolfgang Ketterle

Carl E. Wieman

   F   O   T   O  :   J   I   L   A

   F   O   T   O  :   M   I   T

   F   O   T   O  :   J   I   L   A

Abb. 3: „Absorptionsbilder“

zeigen die Entstehung eines

Bose-Einstein-Kondensats

(BEC). Von links nach rechts

sinkt die Temperatur und

ein spitzer „Berg“ bildet sich:Die Atome rücken immer

dichter zusammen und

kondensieren.

Page 34: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 34/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   67

Bose-Einstein-KONDENSATIO

66   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

 Atomen, dessen Eigenschaften anLaserlicht erinnern. Die wichtigstedieser Eigenschaften ist die hoheKohärenz von Laserstrahlen. Ihre

 Wellenzüge sind sehr lang, sie bauensich aus vielen einander abwechseln-den Wellenbergen und Wellentälernauf. Hinzu kommt ihre scharfe Fre-quenz: Laserlicht ist einfarbig. Des-halb kann man Laserstrahlen auftei-len und mit sich selbst so überlagern,dass sie sich teilweise auslöschenoder verstärken. So entstehen bei-spielsweise Hologramme.

Beim Atomlaser übernehmen Ato-me die Rolle der Lichtquanten. Siebilden eine Materiewelle, in der die

 Atome einen Quantenzustand beset-zen. Allerdings braucht ein Atomla-ser – anders als ein echter Laser – ei-nen „Vorratsbehälter“, aus dem er seine Materiewelle speisen kann.Dieses Reservoir muss Atome enthal-ten, die bereits alle in einem Quan-tenzustand präpariert sind: Genaudas bietet ein BEC.

Im Jahr 1998 stellten Hänsch undseine Mitarbeiter Immanuel Blochund Tilman Esslinger zum ersten Maleinen kontinuierlichen Atomlaser-

strahl her. Dazu bohrten sie ein BECmit einem Radiowellenpuls an.Durch das „Loch“ fielen Atome ausdem Kondensat heraus, weil sie vonder Schwerkraft der Erde angezogenwurden. Im Fallen blieben sie eine

 Weile im Quantenzustand des Kon-

densats und formten so eine Mate-riewelle, die sich ausdehnt.

Das Beispiel des Geiger-Ensemblesmacht das Experiment wieder ver-ständlich. Dazu führt es eine zeit-genössische Musikperformance auf:

 Während des Stücks verlassen einige Violinisten den Konzertsaal. Sie ent-fernen sich, ohne dabei das Spiel zuunterbrechen. Die beiden getrenntenMusikergruppen können sich nocheine Weile gegenseitig hören undbleiben so im Gleichtakt – also imgleichen Zustand. Mit wachsender Entfernung reißt jedoch die akusti-sche Verbindung ab und der gemein-same Zustand „zerfällt“. Das passiertauch dem Atomlaserstrahl (Abb. 4).

Physiker interessiert nun zum Bei-spiel, wie weit ein Atomlaserstrahlkommt, bevor diese Kohärenz verlo-ren geht. Dazu manipuliert das Teamum Hänsch den Strahl mit Magnet-feldern, die auf ihn wie Spiegel wir-ken. Abbildung 5 zeigt einen beson-ders faszinierenden Versuch. DieMünchner Physiker „sperrten“ einenTeil des Atomlaserstrahls in einenmagnetischen „Resonator“ ein. DieBildfolge demonstriert eindrucksvoll,

wie die Atome wie Perlen an einer Kette zwischen den zwei magneti-schen Spiegeln hin- und herlaufen.Solange ihre Messgeräte die Materie-welle verfolgen konnten, haben diePhysiker bis zu 35 Reflexionen be-obachtet.

„Schauen Sie, hier hängt es“, sagtJakob Reichel, Postdoktorand inTheodor Hänschs Quantenoptik-Gruppe an der Universität München.Reichel deutet stolz auf eine recht-eckige Glaszelle, die nur einige Zen-timeter groß ist. Darin glänzt eine et-wa briefmarkengroße, verspiegelteFläche (Abb. 6). Hinter ihr verbirgtsich ein Mikrochip (Abb. 7), an des-sen Entwicklung auch die Doktoran-den Wolfgang Hänsel und Peter Hommelhoff beteiligt waren. Der Chip stellt eine technische Revoluti-on in der Herstellung der Bose-Ein-stein-Kondensate dar: Er erzeugt einBEC viel einfacher als bisher und er-laubt es obendrein, das BEC einfachzu manipulieren.

Eine herkömmliche MOT hat zweiNachteile. Sie erzeugt ihr Magnetfeldmit Spulen, die meistens außerhalbder Probenkammer liegen. Um die

relativ weit entfernte Atomwolke zubeeinflussen, braucht sie ein unprak-tisch starkes Magnetfeld. Deshalbkann sie auch nur simple magneti-sche Fallen formen. Das beschneidetdie Möglichkeiten, das eingefangeneBEC zu manipulieren.

ATOMFALLE

AUF DEM MIKROCHIP

Der Atomchip bringt nun die Quel-le des Magnetfelds möglichst nahean die Atomwolke. Dabei überneh-men elektrische Leiterbahnen dieFunktion der Spulen; sie können beider Produktion des Chips fast belie-big gestaltet werden und auf diese

 Weise sehr komplexe Magnetfelder an der Chipoberfläche erzeugen.Durch Umschalten zwischen ver-schiedenen Leiterschleifen könnendie Münchner Physiker die Form der magnetischen Falle während des Ex-periments breit variieren.

Bei der Konstruktion des Atom-chips mussten sie jedoch ein prinzi-pielles Problem lösen: Der Chip wür-de einen Teil der sechs Laserstrahlenabschirmen, die für den Atomfangnötig sind. Theodor Hänsch nimmt

einen Zettel und zeichnet: Bei ge-schickter Anordnung kann die Chip-oberfläche das Laserlicht so spiegeln,dass es eine optische Falle nahe der Chipoberfläche bildet. Das Magnet-feld des hängend eingebauten Chipszwingt dann die Atome in ein BEC,das nur wenige Mikrometer unter-halb seiner Oberfläche schwebt. DieChipoberfläche hat dabei Raumtem-peratur – aus Sicht des BEC eine Artheißer Herdplatte. Trotzdem bleibt eserfreulich stabil.

Nun probierten die Experimenta-toren aus, was in ihrem Chip steckt.

 Abbildung 8 zeigt in überlagertenMomentaufnahmen die verschiede-nen Phasen eines solchen Experi-ments. Die blaue Wolke mit rotemKern ist das BEC. Im ersten Teil desExperiments transportierte ein mag-netisches Förderband das BEC vonlinks nach rechts. Im zweiten Teilschalteten die Physiker das Magnet-feld ab und ließen das Kondensatfallen. Die Wolke expandierte zwar während des Experiments, dochselbst während des Falls blieb dasKondensat lange erhalten. „Ver-dünnte Bose-Einstein-Kondensate

Abb. 5: Ein Atomlaserstrahl ist in einem magnetischen

Resonator gefangen und läuft darin hin und her.

Die elliptische Wolke in der Mitte der Bilder ist das BEC.

Abb. 6: Glaszelle mit dem

Münchner „Atomchip“

(verspiegelte Fläche). Während des

Betriebs ist die Zelle evakuiert.

DER WELLE-TEILCHEN-DUALISMUS

Im Alltag erleben wir Materie entwederals Welle oder als Teilchen, aber niemalsals beides zugleich. Schall dringt umEcken, weil er sich als räumlich ausge-dehnte Welle um Hindernisse herum„beugen“ kann. Einem Tennisball ist dasnicht möglich, weil er sich als klassisches„Teilchen“ nur so weit in den Raum aus-

dehnt, wie er groß ist. Schon wenn erknapp an der Ecke vorbeifliegt – sie alsonicht direkt berührt – spürt er sie nichtmehr. In der Quantenwelt könnenmikroskopische Teilchen nicht nur umdie Ecke fliegen, sondern andere unmög-liche Kunststücke vollbringen. Sie sindnämlich zugleich eine Welle, die sich inden Raum hinein ausdehnt. So spüren sieHindernisse schon aus der Ferne: Eine –natürlich mikroskopisch kleine – Eckekann die Flugbahn eines Teilchens ablen-ken, ohne dass es der Ecke sehr nahekommt.

Abb. 7: Herzstück des Atomchips sind

die feinen Strukturen in seinem Zentrum.

Dort wird das BEC erzeugt und manipuliert.

Abb. 8: Grafik des experimentellen Aufbaus. In sie sind

Kamerabilder des BEC in Falschfarben-Darstellung einmon-

tiert (Wolken mit rotem Kern auf der blauen Fläche). Diese

„Schnappschüsse“ zeigen den Ablauf eines Experiments.

Page 35: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 35/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   69

Bose-Einstein-KONDENSATIO

68   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

„Es ist kaum zu glauben, dasser schon sechzig ist. Für 

mich ist er immer noch the youngkid of the block“, meinte NormanRamsey am Beginn seiner Rede über Theodor Hänsch. Dabei ist aus dem

 jungen „Postdoc“ aus Heidelberg

längst ein vielfach preisgekrönter Forscher, Direktor am MPQ und Phy-sikprofessor an der LMU geworden.Der 86-jährige Ramsey, einer der Träger des Nobelpreises für Physik 1989, gehörte zu der Schar promi-nenter Physiker, die der Einladungdes MPQ und der LMU nach Mün-chen gefolgt waren. Zu den Festred-nern zählten auch zwei der drei dies-

 jährigen Nobel-Laureaten, WolfgangKetterle vom Massachusetts Instituteof Technology (MIT) und Carl E.

 Wieman von der University of Colo-rado (Boulder, USA). Auch zwei No-belpreisträger von 1987, Claude Co-hen-Tannoudji vom Collège de Fran-ce (Paris) und Steven Chu von der Stanford University, boten eine Mi-schung aus Anekdoten und neuestenForschungsergebnissen.

Hänsch und seine Kollegen be-schäftigen sich mit der „Wechselwir-kung“ zwischen Licht und Materie.Das ist die Domäne der modernenLaserspektroskopie, die Thema desSymposiums war. Herbert Walther,ebenfalls Direktor am MPQ und Pro-fessor an der LMU, machte in seiner Begrüßungsrede deutlich, dassHänsch einer der kreativsten Köpfeder Laserszene ist. Seine wissen-schaftlichen Leistungen reichen vomLaser mit durchstimmbarer Licht-farbe über die Idee, Atome mit Laser-licht zu kühlen, die Bose-Einstein-Kondensation auf dem „Atomchip“

bis zum optischen „Frequenzkamm“.Dieses Verfahren zur genauen Be-stimmung von Lichtfrequenzen kanndie Übertragungskapazität optischer Nachrichtenleitungen erheblich ver-bessern. Hänsch wurde deswegenfür den diesjährigen Deutschen Zu-

kunftspreis nominiert.Die nachfolgenden Redner bewie-

sen, dass erfolgreiche Forscher oftüber eine gehörige Portion an Humor und Spieltrieb verfügen. Steven Chuspielte vom Tonband Klaviermusik 

 vor, die er über einen Teilchenbe-schleuniger als „Telefonleitung“ ge-schickt hatte: Nicht Elektronen –sondern ihre Antiteilchen, die Po-sitronen – hatten die Musik übertra-gen. Das Band rauschte gewaltig,aber das Publikum war begeistert.Schließlich passte der Sound zu Chusnicht ganz ernst gemeintem Vor-tragsmotto: „Spektroskopie mit vielRauschen und geringer Auflösung“.Das ist genau das Gegenteil dessen,was Experimentalphysiker normaler-weise anstreben. Wie die anderenRedner präsentierte auch er ernsthaf-te Forschungsergebnisse, die zeigen,wie fruchtbar das Feld der Laserphy-sik ist. Ihm gelang es 1992 zum ers-ten Mal, ein einzelnes DNS-Molekülmit zwei „Pinzetten“ aus Laserlichtzu greifen und auseinander zu zie-hen. Daraus entstanden inzwischenfaszinierende Arbeiten zum Verhal-ten einzelner Biomoleküle.

„Erfolgreiche Forscher tun Dinge,die sie lieben“, sagte Hänsch in sei-ner Dankesrede. Er riet den anwesen-den Studentinnen und Studenten,eher dieser Devise zu folgen als sich

 vom „launischen Arbeitsmarkt“ irri-tieren zu lassen. ROLAND WENGENMAYR

„The young Kid

of the Block“ Zur Feier des 60. Geburtstags von

THEODOR W. HÄNSCH luden das

MAX-PLANCK-INSTITUT FÜR

QUANTENOPTIK (MPQ) und die

LUDWIG-MAXIMILIANS-UNIVERSITÄT

(LMU) zu einem Festsymposium

nach München ein. Diesem Ruf folgten

renommierte „Laser-Physiker“ aus aller 

Welt. Fünf Nobelpreisträger hielten in d

voll besetzten Aula der LMU Vorträge.

sind mittlerweile gut verstanden“,resümiert Hänsch. Nun hält er BEC-

 Wolken für besonders interessant,in denen die Atome sehr dicht bei-einander schweben und sich gegen-seitig stark beeinflussen. „Wenn wir das Verhalten von solchen Vielteil-chensystemen beobachten, könnenwir noch eine ganze Menge lernen.Unsere Interpretation der Quanten-mechanik wird sich möglicherweisestark verändern“, sagt der Wissen-schaftler.

INELASTISCHE STÖSSE

BESCHLEUNIGEN ATOME

Gerhard Rempe und seine Dokto-randen Johannes Schuster, AndreasMarte und Bernhard Sang „wollengerne Kondensate im hydrodynami-schen Regime präparieren“. Damitmeint Marte ein BEC, das eine ge-wisse Mindestgröße und Mindest-dichte hat. In solchen Kondensatenstoßen Atome häufiger zusammen.Dabei gibt es eine besondere Art vonStößen, die „inelastischen Stöße“. Siesetzen eine zusätzliche Energie frei,welche die beteiligten Atome heftigbeschleunigt. Wenn das BEC klein

ist, verlassen diese schnellen Atomedie Gaswolke ohne weitere Zusam-menstöße. In einem großen, dichtenBEC kann jedoch eine Art „Kettenre-aktion ablaufen – aber in der Ener-gieskala ganz, ganz unten“, so Rem-pe. Diese Kettenreaktion hat natür-lich nichts mit der Kettenreaktion zutun, die durch eine Kernspaltungausgelöst werden kann.

Die plötzlichen „Energieaus-brüche“ der inelastischen Stöße ver-ursacht das Innenleben der Atome,das aus Elektronen und Kern besteht.

 Äußerlich sind die Atome – RempesGruppe arbeitet mit Rubidium – zwar ultrakalt. Doch wenn zufällig drei

 Atome zusammenstoßen, können sieein Molekül bilden. Das setzt eineEnergie frei, die der „Bindungsener-gie“ des Moleküls entspricht. Siebeschleunigt die Stoßpartner auf Ge-schwindigkeiten, die der tausend-fachen Temperatur des BECs entspre-chen. Treffen diese „rasenden Ato-me“ auf genügend andere Atome, solösen sie eine „kalte Kettenreaktion“aus, die weitere Atome aus dem BECherauskickt. In einem BEC aus vielenMillionen Rubidium-Atomen identi-

fizierte Rempes Gruppe lawinenarti-ge Ereignisse, die auf solchen „kaltenKettenreaktionen“ beruhen.

BAUTEILE FÜR

DEN „QUANTENCOMPUTER“

Die ultrakalte Quantenwelt derBose-Einstein-Kondensate hält si-cher noch manche Überraschung be-reit. Als Anfang der sechziger Jahredie ersten Rubinlaser kurze Licht-blitze produzierten, spekulierten

 viele über neue Strahlenwaffen. Siesind bis heute Science-fiction geblie-ben. Dafür ist der Laser zur friedli-chen Alltagstechnik geworden: Ohneihn gäbe es keine CD-Spieler undCD-Brenner, keine optische Nach-richtenübertragung oder Lasermedi-zin. Was wird uns die Bose-Einstein-Kondensation bringen? Die For-scherfantasien reichen schon vonkleinen, extrem empfindlichen Navi-gationsgeräten über tragbare Atom-uhren bis zu Bauteilen für den„Quantencomputer“. Vielleicht wer-den die ultrakalten Quanten-Ensem-bles aus dem Alltag unserer Enkelnicht mehr wegzudenken sein.

ROLAND WENGENMAYR

Theodor W. Hänsch im Kreis der Physik-Nobelpreisträge

die mit ihm feierten. Von links: Claude Cohen-Tannoudj

Wolfgang Ketterle, Theodor Hänsch, Rudolf Mößbauer,

Norman Ramsey, Carl Wieman und Steven Chu.

Sei es die Festorganisation oder das Anschneiden

der Geburtagstorte – auch links von ihm bleibt sie seine

„rechte Hand“: Rosemarie Lechner, Hänschs Sekretärin

am Max-Planck-Institut für Quantenoptik. Das Ehepaar

Ramsey (sitzend) beobachtet fasziniert die Operation.

   F   O   T   O   S  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

Gerhard Rempe erläutert den Aufbau einer magnetooptischen

Falle. Sie fängt Rubidiumatome ein und kühlt sie für die

Erzeugung von Kondensaten vor, wie in Abb. 1 und 2 gezeigt wird.

   F   O   T   O  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

Page 36: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 36/59

 AtmosphärenCHEM

70   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung AtmosphärenCHEM

Brütende Hitze, Luftfeuchtigkeit von nahezu hundert Prozent und Heerscharen

von Stechfliegen, die ständig um Kopf und Körper schwirren: Mitarbeiter des Mainzer 

MAX-PLANCK-INSTITUTS FÜR CHEMIE haben für mehrere Wochen Labor und

Schreibtisch gegen einen Arbeitsplatz im Tropenwald getauscht. Ziel der Expedition war 

es, die Atmosphärenchemie im brasilianischen Amazonasgebiet besser zu verstehen.

 Atemtest

am Regenwald

IBAMA-Camp am Rio Machado

Die Satellitenaufnahme in Falschfarbendarstellungzeigt die Landnutzung in Süd-Rondônia. Grün:

Primärwald östlich von Rio Machado, rot: Weide-flächen, entstanden durch (Brand-)Waldrodung

insbesondere seit 1970. Die Feldexperimente desMax-Planck-Instituts für Chemie werden an denStandorten Reserva Biologica Jaru (Primärregen-

wald) und IBAMA-Camp (Sekundärwald) sowieFazenda Nossa Senhora Aparecida (Weide) durch-

geführt. Das Logistikzentrum stand in Ji-Paraná.

 Welche chemischen Prozesse laufen

unberührten Tropenwald ab?  verändern sich diese nach großflächBrandrodungen? Die Auswertung der gebnisse ist noch in vollem Gang. Aschon jetzt steht fest: Die mühevolle Arder Forscher hat sich gelohnt. „So schwie der Regenwald zerstört wird, bleibt nur noch wenig Zeit für Forschung“, Jürgen Kesselmeier, Gruppenleiter am MPlanck-Institut für Chemie in Mainz. Uder Botaniker weiß, warum er und viele Klegen die Strapazen einer Expedition in wegsame Urwaldregionen immer wiedersich nehmen: „Dass die Tropenwaldstörung das Weltklima beeinflusst, gilt zwischen als sehr wahrscheinlich. Abermüssen genauer untersuchen, wie klimwirksame Gase und Aerosole im Wald estehen und vor allem, welche Mengen

 von gebildet werden. Nur so können Wsenschaftler zu einer nachhaltigen Nutzdes Regenwalds beitragen.“

Rund zwei Dutzend Forscher aus Mreisten deshalb im Jahr 1999 nach BrasilGeleitet wurde die Expedition von Mein

 Andreae, Direktor der Abteilung Biogeomie am Max-Planck-Institut für ChemIm Rahmen des noch bis 2003 dauernForschungsprogramms „European Stuon Trace Gases and Atmospheric Chemias a Contribution to the Large Scale Bsphere-Atmosphere Experiment in Ama   F

   O   T   O   S  :   A   L   T   E   R   R   A

Page 37: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 37/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   73

 AtmosphärenCHEM

72   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

nia“ (EUSTACH-LBA) unddes von der Max-Planck-Gesellschaft gefördertenProjekts „Biosphere-At-mosphere Interactions in

 Amazonia“ (BAIA) wollendie Wissenschaftler unter-

suchen, welche Folgen dieZerstörung des Regen-walds und die Verwand-lung großer Flächen inFelder und Viehweiden inder Amazonasregion ha-ben. Besonders interessiertdie Forscher der Austausch

 von klimawirksamen Ga-sen – wie Ozon (O3) oder Stickoxide (NOx) – und Aerosolenzwischen Pflanzen, dem Boden undder Atmosphäre.

ZOLL ERFORDERT

STARKE  NERVEN

Die Vorbereitungen für das auf-wändige Projekt begannen bereitszwei Jahre vor der Abreise nach Bra-silien. Experimente mussten geplantund die Gerätschaften dafür zusam-mengetragen werden. Schließlichgalt es, vom Reagenzglas bis zumGaschromatographen alles Notwen-dige von Mainz in den brasiliani-schen Urwald zu transportieren. Dreigroße Container wurden mit Messin-strumenten, Stahlgerüsten, Labor-geräten und Computern gefüllt, 270einzelne Importlizenzen mühevollbeschafft. Bereits damals zeichnetesich ab, dass der brasilianische Zollmitunter starke Nerven fordert. „Seitich an diesem Projekt arbeite,schlucke ich Medikamente gegenBluthochdruck“, klagt Franz Meix-ner, Gruppenleiter am Max-Planck-

Institut für Chemie. Auf Besorgniserregende Höhen kletterte der Blut-druck des Forschers wohl das ersteMal nach Ankunft des Mainzer Teams in Brasilien im März 1999.Denn trotz penibler Vorbereitungweigerten sich die Behörden einenMonat lang, die Einfuhrgenehmi-gung für die technischen Geräte zuerteilen. „Wenn Sie über vier Wo-chen lang mit zehn Leuten nur Däumchen drehen können, dannsind Sie kurz vorm Wahnsinnigwer-den“, erzählt Meixner. Nachdem diekostbare Fracht aus Deutschlandschließlich doch freigegeben wordenwar, hieß es für die Forscher: Arbeitrund um die Uhr. Denn nur so konn-ten sie die verlorene Zeit aufholen.

Den ersten Messturm errichtetendie Mainzer direkt in ihrem For-schungscamp im RegenwaldreservatRebio Jaru. Das geschützte Gebietliegt im brasilianischen BundesstaatRondônia im Südwesten des Amazo-nasbeckens. Das Camp, das norma-lerweise von der Naturschutzbehörde

genutzt wird, ist von der KleinstadtJi-Paraná aus lediglich über den RioMachado zu erreichen. So musstendie Forscher zwölf Tonnen Gepäck über den Fluss mit all seinen Stei-nen, Stromschnellen und Piranhasschippern – ein Abenteuer, das nur mit erfahrenen einheimischen Füh-rern ohne größere Zwischenfälleglückte.

ZYLINDERFÖRMIGE  S ÄCKE

AUS TEFLONFOLIE

Sobald das Stahlgerüst des achtMeter hohen Messturms im Campstand, begann ein Teil des Expediti-onsteams um Jürgen Kesselmeier den Gasaustausch zwischen denBlättern von Bäumen und der At-mosphäre zu messen. Dazu überzo-gen sie einzelne Zweige mit zylin-derförmigen Säcken aus dünner,lichtdurchlässiger Teflonfolie, so ge-nannten Pflanzenküvetten. WährendUmgebungsluft hindurch gepumptwurde, entnahmen die Wissenschaft-ler Gasproben. Ein Vergleich der In-

haltsstoffe mit denjenigen aus leerenReferenzküvetten sollte zeigen, wel-che Gase von den Bäumen aufge-nommen und abgegeben wurden.„Aufgrund früherer Analysen der Luftzusammensetzung in ähnlichenÖkosystemen wussten wir, dass wir 

 vor allem auf Essigsäure, Formalde-hyd, Isopren und Monoterpenestoßen würden“, erklärt Kesselmeier.

Isopren ist ein in der Natur weit verbreiteter gasförmiger Kohlenwas-serstoff. Monoterpene bestehen prin-zipiell aus zwei Isopren-Bausteinenund lassen sich aus Pflanzenteilenals ätherische Öle gewinnen. Limo-nen und Pinen sind beispielsweiseBestandteile vieler Koniferenöle, diedafür sorgen, dass Nadelwälder be-sonders an heißen Tagen aromatischduften. Ob und wie viel Isopren oder Monoterpene ein Baum emittiert,hängt von vielen Faktoren ab, bei-spielsweise von der Baumart, vom

 Alter der Blätter, von der Temperatur und der einfallenden Lichtintensität.Klimaforscher interessieren sich für diese Kohlenwasserstoffe, weil siedie Chemie der Atmosphäre in Rein-luftgebieten beeinflussen und im Zu-sammenspiel mit anthropogenenSchadgasen die Luftverschmutzungund den Treibhauseffekt verstärkenkönnen: Nach mehrfacher chemi-scher Umsetzung führen die Kohlen-wasserstoffe unter anderem zur Er-

höhung der Konzentrationen vonOzon, Kohlenmonoxid und Aeroso-len in der Atmosphäre. Strittig ist al-lerdings, welche Mengen durchPflanzen emittiert werden und damitdie Frage, wie relevant vor allemIsopren auch für den weltweitenKohlenstoffkreislauf ist. Übrigens:Da sich auch im Tropenwald vielepflanzenphysiologische Vorgängenach Jahreszeiten richten, musstendie Mainzer Wissenschaftler 1999zweimal nach Brasilien reisen – ein-mal im März zur Regenzeit und einzweites Mal im September zur Trockenzeit.

Zur Bestimmung der Konzentratio-nen absorbierten die Forscher Iso-pren und Monoterpene zunächst auf 

 Aktivkohle ähnlichem Material. Ur-sprünglich sollten diese Stoffe dannstichprobenartig direkt im Urwaldla-bor analysiert werden. Aber diedafür vorgesehenen Gaschromato-graphen hielten dem feuchtheißenKlima nicht stand und fielen nachkurzer Zeit aus. „Die Geräte solltenuns zeigen, ob wir überhaupt imrichtigen Konzentrationsbereichmessen“, sagt Kesselmeier, „ohne siemussten wir uns auf Erfahrungswer-te verlassen.“ Die Vorkenntnisse der Forscher erwiesen sich zum Glück als ausreichend und die rund 2000Proben als chemisch stabil, sodasssie in Koffern nach Mainz verfrach-

tet und dort analysiert werden konn-ten. Das Ergebnis: Zwei der drei un-tersuchten Baumarten gaben Isoprenüber ihre Blätter ab. Überraschender-weise stieg die Menge des emittiertenGases während der Trockenzeit stark an, was auch zu einer deutlich er-höhten Konzentration in der Atmo-sphäre führte. Aus der genauen Aus-wertung ihrer Daten schließen dieForscher, dass die emittierten Men-gen weltweit so groß sind, dass sieim globalen Kohlenstoffkreislauf ei-ne Rolle spielen - eine Tatsache, diein Zukunft bei Klimarechnungenberücksichtigt werden muss.

BÄUME NEHMEN

AMEISENSÄURE AUF

Bei den Gasen Formaldehyd und Ameisensäure beobachteten die For-scher dagegen ganz andere Trends.

 Weil in dem Bundesstaat Rondônia jedes Jahr während der Trockenzeitrund ein Fünftel des noch bestehen-den Regenwalds staatlich kontrolliertdurch Brandrodung zerstört wird,steigt die Konzentration vieler Schadstoffe in der Luft in dieser Zeitstark an - die von Formaldehyd und

 Ameisensäure auf das Drei- bis Vier-fache der Werte, die während der Re-genzeit gemessen werden. Die unter-suchten Bäume reagieren darauf, in-dem sie vor allem tagsüber verstärktFormaldehyd und Ameisensäure auf-

pausen gab es für dieenschaftler meist nur währendahrt auf dem Fluss.

Inkubation eines Zweigesvon Hymenaea coubaril,eines tropischen Baumes, dzur Familie der Leguminos

gehört. Im Vordergrund sind einige junge Blätter von Apeiba tibourbou

zu sehen. Küvetten wie diese dienen zum Einschluss ganzer intakter Zweizur Untersuchung des Austausches verschiedener Spurengase zwischen

 Vegetation und Atmosphäre. Gleichzeitig erfolgen Messungen von primäphysiologischen Vorgängen wie Fotosynthese und Transpiration.

Das Bild zeigt Ultraschall-Anemometer und ein schnelles Ozongerät,die über dem etwa 30 Meter hohen Kronendach an der Spitzedes 53 Meter hohen Messturms im Reserva Biologica Jaru montiertwurden, um die turbulenten Flüsse von Impuls, Wärme, Kohlenmonoxid,Wasser, Stickstoffmonoxid, Aerosolpartikeln und Ozon zu messen.

Schematische Darstellung der Untersuchungen am Messturm im Primärregenwald.

Page 38: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 38/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   75

 AtmosphärenCHEM

74   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

Senke für leicht flüchtige Verbindun-gen wie Formaldehyd und Amei-sensäure darstellen könnte. „Aller-dings hängt dies wohl stark vonden Umweltbedingungen ab. Unter Stress, beispielsweise während Dür-reperioden oder Überflutungen, wiesie im Amazonasgebiet regelmäßig

 vorkommen, könnte der Wald solche Verbindungen auch abgeben.“

nehmen. „Unter den gegebenen Be-dingungen haben wir ausschließlicheine recht heftige Aufnahme der bei-den Gase beobachtet. Das ist er-staunlich, weil bisher angenommenwurde, dass Pflanzen diese Stoffeauch abgeben“, sagt Kesselmeier. Für den Botaniker steht deshalb fest,dass Regenwald – entgegen bisheri-ger Annahmen – prinzipiell eine

 Während Kesselmeiers Mitarbeiter  viele Daten „bequem“ im Camp sam-meln konnten, musste ein Teil vonFranz Meixners Team jeden Morgen20 Minuten per Motorboot noch wei-ter in den Tropenwald hineinfahren.Ziel war ein 53 Meter hoher Mess-turm, auf dem in acht verschiedenenHöhen unterschiedliche Gassensorenund Analysegeräte installiert waren.Die Stromversorgung dafür liefertenzwei Dieselaggregate auf einem rund400 Meter entfernten Hausboot.„Wären wir damit näher an den Turmherangegangen, hätten wir dort un-sere eigenen Abgase gemessen“, soMeixner. Dabei kostete es die For-scher viel Mühe, im Urwald eine über 

mehrere Wochen stabile Energiequel-le für ihre Messgeräte zu installieren:„Im Endeffekt hatten wir aber be-stimmt die beste Stromversorgung inganz Brasilien. Bei einem anderenMessturm mussten wir dagegen los-rennen und die Geräte abschalten,sobald auch nur eine Cumulus-Wolkeam Horizont auftauchte.“

Den Meteorologen interessiertewährend dieser Expedition vor allembiogenes Stickstoffmonoxid, alsoNO-Gas, das im Tropenwald nicht

durch Brandrodung freigesetzt, son-dern von der Natur selbst produziertwird. Verantwortlich dafür sind Mik-roorganismen, die im Boden leben.Meixners Mitarbeiter ermittelten NO-Konzentrationen deshalb nicht nur entlang des hohen Messturms, son-dern auch im und direkt über demBoden. Auch bei diesem Gas geht esunter anderem darum abzuschätzen,wie viel weltweit produziert wird.Denn NO gilt als indirektes Treib-hausgas. In der Atmosphäre reagiertes vor allem mit Ozon unter Bildung

 von NO2. Am Ende langer Reaktions-ketten wird dann wieder Ozon frei-gesetzt – oft in erhöhten Mengen.

 All diese Gase bestimmen letztlich

die Konzentration des OH-Radikalsin der Luft. Als wichtigstes „Wasch-mittel“ der irdischen Lufthülle sorgtdieses dafür, dass viele klimarele-

 vante Spurengase unschädlich ge-macht werden.

GASE GUT

DURCHMISCHT

 Wie erwartet maßen die Forscher die höchsten NO-Konzentrationenam Boden, die niedrigsten über den

 Wipfeln der Bäume. Die Ozonwertewaren dagegen am Boden niedrigund über den Baumkronen amhöchsten – schließlich entsteht O3

photochemisch vor allem über denBäumen. Das Erstaunliche daran:Tagsüber war die Durchmischung der beiden Gase im Tropenwald so hoch,dass das gesamte NO zu NO2 oxidiertwurde; es gelangte folglich keinbiogenes NO in die Atmosphäre.Lediglich nachts konnten die Wis-senschaftler auch über den BäumenStickstoffmonoxid nachweisen.

Um herauszufinden, wie sich diebiogene NO-Produktion verändert,wenn Tropenwald abgebrannt unddas Land in Viehweiden verwandeltwird, verglichen die Forscher dieseErgebnisse mit denen eines zweitenMessturms, der auf der Rinderfarm„Fazenda Nossa Senhora Aparecida“in der Nähe der Provinzstadt OuroPreto stand. Es stellte sich heraus,dass die NO-Bildung im Boden einer 

20 Jahre alten Weide sechs- bisneunmal geringer war als im Wald.„Eine höhere NO-Produktion im

 Wald bedeutet aber nicht, dass dortauch mehr NO in die Atmosphäregelangt“, sagt Franz Meixner. Diedichte Vegetation im Tropenwaldsorgt nämlich dafür, dass die GaseNO und O3 länger „in Kontakt blei-ben“ und deshalb NO effektiver zuNO2 abreagieren kann. „Dieser so ge-nannte Canopy-Reduction-Factor ist seit mehr als zehn Jahren be-kannt“, berichtet Meixner, „mitgroßem Aufwand konnten wir diebeteiligten Prozesse jetzt aber erstmals vom Boden bis über dieBaumkronen nachweisen.“ Die

Messungen der Mainzer sollendeshalb einen wesentlichenBeitrag zur Quantifizierungdes Effekts beitragen.

Zurück in Deutschland ge-lang es Meixner und seinenMitarbeitern, noch ein ande-res, bisher kaum bekanntesPhänomen in Zahlen zu fas-sen: die Abhängigkeit der bio-genen NO-Freisetzung vom

 Alter der Weidefläche. Mithil-fe von Laboruntersuchungenim Regenwald und Com-putersimulationen in Mainzstellte sich heraus, dassdie NO-Produktion der Mikroorganismen in denersten Monaten nach der ersten Brandrodung im

 Vergleich zur NO-Emissionin Waldböden um bis zu ei-nem Faktor fünf erhöht ist. DieErklärung: Während der Brände ent-stehen große Mengen Asche und da-mit Nährstoffe. Ohne Vegetation sinddie Mikroorganismen im Bodenzunächst alleinige Konsumenten –die NO-Produktion läuft auf Hoch-touren. Erst ab dem zweiten Jahr nach der Zerstörung des Tropen-walds klingt die NO-Emissionschnell ab; nach 20 Jahren erreichtsie etwa ein Zehntel des Werts für ei-nen gesunden Regenwald. „Brandro-dungen erhöhen also die Emissiondes indirekten Treibhausgases Stick-

stoffmonoxid, und zwar nicht nur direkt über das NO, das bei der Ver-brennung von Holz entsteht, sondernauch über eine erhöhte biogene NO-Produktion“, folgert Meixner. Nacheiner genauen Auswertung von Sa-tellitenbildern, auf denen Tropen-wald und Weideflächen erkennbar waren, errechneten die Forscher diegesamte Emission an biogenem NOfür einen 26.000 Quadratkilometer 

erblick über die unter Tageslichtbedingungen (6.00 bis 18.00 Uhr) beobachteten mittlerennzentrationen verschiedener Spezies der flüchtigen organischen Verbindungen in der AtmosphäreIBAMA-Camp sowie am hohen Messturm in verschiedenen Höhen (Mittelwerte).

Tägliche Schwankungen atmosphärischer Konzentrationen von Isoprenoiden (Isopren und Monoterpene)sowie von Carbonylen (Formaldehyd und Acetaldehyd), gemessen am Standort IBAMA-Camp (8 bis 10 Meter hoch)während der Regen- und Trockenzeit. Angegeben ist das Datum des jeweiligen Monats.

(durch Satellitenbild erfassten) Teil von Rodônia mit rund 1300 Tonnen– allein für das Jahr 1999. Hätte dieProvinz zu dieser Zeit noch vollstän-dig aus unberührtem Regenwald be-standen, wären laut Meixner 40 Pro-zent weniger biogenes NO in die At-mosphäre gelangt.

Im Forschungscamp war der Me-teorologe nicht nur für wissenschaft-

Darstellung der atmosphärischen Formaldehyd-, Ozon-,Stickstoffmonoxid- und Kohlendioxid-Mischungsverhältse während der Regenzeit (Mai 1999) in verschiedenenHöhen in und über dem Regenwald. Die gestrichelte Lini

bezeichnet die mittlere Baumbestandshöhe.

   M   A   C   R  =

   M   E   T   A   C   R   O   L   E   I   N ,

   M   V   K  =

   M   E   T   H   Y   L   V   I   N   Y   L   K   E   T   O   N

Page 39: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 39/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   77

 AtmosphärenCHEM

76   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SZINATION Forschung

liche Belange zuständig, sondern er organisierte auch die Kommunikati-on mit der Außenwelt – vor allemüber Satellitentelefon. „Wenn es umtechnische Probleme geht, telefoniertman allerdings schnell eine halbeStunde lang“, erinnert sich Meixner,„bei fünf US-Dollar pro Minute hätteunser Budget das auf Dauer nicht

 verkraftet.“ Die Devise lautete folg-lich: auf E-Mails beschränken. Beider Frage nach den größten Schwie-rigkeiten während der Arbeiten imTropenwald muss Meixner nicht lan-ge überlegen: „Unser größter Feindwar die Feuchtigkeit. Sobald einelektronisches Gerät nicht ausrei-chend geschützt war, wuchsen im Nu

Pilze aus den Platinen.“ Nahezu 100Prozent Luftfeuchtigkeit bei Tempe-raturen von bis zu 30 Grad rund umdie Uhr – solche Bedingungen warenauch für die Wissenschaftler mitun-ter kaum erträglich. Dazu machtenMoskitos und kleine Fliegen denForschern das Leben schwer. „Auchdie Verpflegung war für manchengewöhnungsbedürftig“, erzählt Kes-selmeier, „neben Hühnerfüßen und

 Ähnlichem kamen vor allem Bohnenund Reis, die Grundnahrungsmittelder Brasilianer, auf den Tisch.“

Bei den Trinkgewohnheiten be-ließen es die Wissenschaftler aller-dings ganz bei Gewohntem. „Als ichin Ji-Paraná einmal beim Zahnarztwar, wurde ich gefragt, ob ich viel

 Alkohol trinke“, erinnert sich Kessel-meier, „es hatte sich anscheinend inder ganzen Stadt herumgesprochen,dass wir mehrmals eine größereMenge Bier ins Camp verfrachtethatten.“ Am meisten haben sich dieEinheimischen dort wohl gewundert,als die Fremden tagelang durch dieStadt zogen und nach Damen-Ny-lonstrümpfen fragten. Des Rätsels

Lösung: Die Wissenschaftler suchten Verpackungsmaterial für Silica-Trockengel, mit dem sie technischeGeräte gegen die Feuchtigkeit schüt-zen wollten. Während die Deutschensolch „simple“ Angelegenheitenselbst vor Ort lösen konnten, warensie bei unzähligen logistischen Prob-lemen und bei den Verhandlungenmit den staatlichen Behörden auf dieHilfe ihrer brasilianischen Forscher-

kollegen angewiesen. „Vor allemPaulo Artaxo von der UniversitätSão Paulo sind wir zu großem Dank 

 verpflichtet. Ohne seinen Einsatzwäre das gesamte Forschungspro-gramm gefährdet“, betont Meinrat

 Andreae.

EINFLUSS AUF

DEN WASSERKREISLAUF

Dies gilt auch für Andreaes Unter-suchungen zur Entstehung und Ver-teilung von Aerosolen im Amazonas-becken. Während Aerosole in Indus-trieländern vor allem bei der Ver-brennung von Treibstoffen entstehen,entwickeln sie sich in den kaum be-siedelten Gebieten Südamerikas über-

wiegend dort, wo riesige Flächen Wald der Brandrodung zum Opfer fallen. Sie bestehen aus einer stabilenSuspension fester oder flüssiger Parti-kel in Luft, können deshalb Strahlungabsorbieren, emittieren und streuenund dienen vielfach als Reaktionsme-dium, in dem sich wichtige Prozesseder Atmosphärenchemie abspielen.Schließlich haben sie erheblichenEinfluss auf den globalen Wasser-kreislauf, da sie als Kondensations-keime für Wolken- und Nebeltröpf-chen dienen. Viele klimarelevanteFragen können deshalb nur beant-wortet werden, wenn die Rolle der 

 Aerosole berücksichtigt wird. Während eines Waldbrands richten

sich Zusammensetzung und Mengeder entstehenden Aerosole nach der 

 Art des Brennmaterials und der Effi-zienz der Verbrennung. In heißen,aufsteigenden Luftsäulen werden diechemischen Gemische aus vielentausend Substanzen in die Atmo-sphäre verfrachtet und dann über weite Entfernungen transportiert.Um die Verteilung von Aerosolen im

 Amazonasgebiet zu analysieren, rüs-teten die Mainzer Forscher gemein-sam mit brasilianischen Kollegen ei-ne zweimotorige Propellermaschinemit Messgeräten aus. Die Flugrouteführte die Wissenschaftler im Sep-tember 1999 von São Paulo in meh-reren Etappen tausende Kilometer über das Amazonasbecken nach

Rondônia und wieder zurück. Dabei

überquerten sie Gebiete im Südwes-ten, in denen die jährlichen Brandro-dungen bereits begonnen hatten so-wie Flächen im Nordosten, nahe der 

 Amazonasmündung, wo keine Feuer brannten. Vor allem dort wollten dieForscher Aerosole messen, die der Tropenwald in geringen Mengenselbst produziert. Denn wo Pflanzenwachsen, gelangen zum BeispielSporen, Bakterien und Blattabrieb indie Luft. Außerdem emittieren Pflan-zen Spurengase, die sich in der At-mosphäre in schwer flüchtige Ver-bindungen verwandeln und teilweisezu Aerosolen kondensieren.

ANALYSEGERÄTE IN

VERSCHIEDENEN  HÖHEN

Um diese biogenen Aerosole auchim Wald und über einer Weideflächeanalysieren zu können, nutzten

 Andreaes Mitarbeiter auch die Mess-türme in der Nähe des Camps undauf der Rinderfarm bei Ouro Preto.

 Auch sie montierten Analysegerätein verschiedenen Höhen, um die ver-tikale Verteilung der Aerosole mes-sen zu können. Bei all dem konzen-trierten sich die Mainzer auf „CloudCondensation Nuclei“ (CCN), alsoPartikel, die als Kondensationskeimefür Wolken dienen. Wie erwartet fanden die Mainzer 

in der Nähe der Rodungsfeuer ex-trem hohe CCN-Werte von bis zu20.000 Partikeln pro Kubikzentime-

ter Luft. „Die Sicht beträgt dann nur 

ein paar hundert Meter“, berichtet Andreae, „Flugzeuge können zumTeil nicht landen und ganze Flughä-fen müssen geschlossen werden.“Überraschend waren für die Forscher dagegen die geringen CCN-Werteüber Regionen, in denen keine Flam-men loderten. „Hier haben wir ledig-lich rund 400 Wolkenkondensations-keime pro Kubikzentimeter gemessen– das widerspricht einem zentralenDogma der Wolkenphysik“, so Mein-rat Andreae.

Denn die Experten nahmen bis-lang an, dass es lediglich zweigrundsätzlich verschiedene Szenari-en gibt, die zur Bildung von Regen-wolken führen: Zum einen marineBedingungen mit sehr wenig Kon-densationskeimen (CCN-Werte um200 pro Kubikzentimeter); hier kön-nen sich nur wenige Wassertröpf-chen bilden, die dafür schnell wach-sen und dann aus geringer Höhe ab-regnen. Zum anderen kontinentaleBedingungen mit CCN-Werten ab1000; hier entstehen viele kleine

 Wolkentröpfchen, die zu leicht sindum abzuregnen. Die Wolken steigendeshalb in große Höhen, das Wasser gefriert und es bilden sich geladeneTeilchen. Die Folge sind Blitzentla-dungen und kräftige Gewitterregen.„Die biologischen Aerosol-Bildungs-mechanismen im Amazonasbeckensind aber offenbar so schwach, dasswir dort eher marine Bedingungen

Schematische Darstellung der Wechselwirkung zwischen Biosphäre und Atmosphäre über den Tropunter natürlichen Bedingungen (links) und als Folge der Waldrodung und Luftverschmutzung (rec

für die Wolkenbildung haben“, sagt

Meinrat Andreae, „der Amazonas verhält sich also quasi wie ein grü-ner Ozean.“

Das Beunruhigende an diesemFund: Sind die natürlichen CCN-

 Werte extrem niedrig, die durchBrandrodung verursachten aber ex-trem hoch, bedeutet dies eine maxi-male Störung des natürlichen CCN-Haushalts und damit der Wolken-bildung über dem Amazonasgebiet.„Paradoxerweise wird es aber inSüdamerika wohl kaum mehr oder weniger regnen, sehr wahrscheinlichwerden wir aber in ganz anderenGebieten der Erde die Auswirkungender Waldverbrennungen beobach-ten“, vermutet Andreae. Denn die

 Wolken über Regionen nahe des Äquators gelten quasi als Motor der  Atmosphäre und damit als wesent-licher Faktor, der das weltweiteKlima bestimmt.

 Wissenschaftler am Max-Planck-Institut für Meteorologie in Hamburghaben bereits berechnet, wie sich die

 veränderte Wolkenphysik in denTropen auswirken könnte. Sie ver-muten, dass dadurch erzeugte El-Nino-ähnliche Phänomene die Inten-sität von Niederschlägen und Stür-men weltweit beeinflussen werden.„Letztendlich kann das bedeuten,dass die Brandrodung in den Tropenauch für mehr Stürme in Europa sor-gen wird“, sagt Meinrat Andreae.

UTE  HÄNSLER

Die Emission von Stickstoffmonoxid (normiert auf Stickstoff in 10-9g/m2s) in Abhängig-keit vom Alter einer Weide, die nach der ersten Brandrodung (zwischen Jahr 0 und 1)entstanden ist, berechnet mit einem bodenökologischen Modell. Der Farbcode symbolisiertdie Landnutzungsgeschichte von Fazenda Nossa Senhora Aparecida, die bei den Modell-rechnungen als repräsentativ für ganz Rondônia betrachtet wurde. Die 1999 in ReservaBiologica Jaru (RBJ) und Fazenda Nossa Senhora Aparecida (FNS) gemessenen mittlerenNO-Emissionen sind ebenfalls eingezeichnet. Hierbei repräsentiert FNS eine Weide alsFolge einer Brandrodung vor 22 Jahren und RBJ den ungestörten Regenwald.

Page 40: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 40/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   79

Klima beeinflusst hat und es in Zukunft noch stärker be-einflussen wird.

Fast rituell erschien zeitgleich mit den letzten beidenIPCC-Berichten jeweils ein Buch – von international eher unbekannten Autoren und ohne wissenschaftliche Begut-achtung –, das diesen IPCC-Befund anzweifelte, da er dieSonnenaktivität nicht hinreichend berücksichtige. Der Te-nor lautete, die beobachtete Erwärmung sei auf Variatio-nen der Sonneneinstrahlung zurückzuführen, und es habeauch früher schon Warm- und Kaltzeiten gegeben, diedas, was der Mensch verursachen könne, in den Schattenstellten.

Dieser auf den ersten Blick harmlos anmutende wissen-schaftliche Disput hat handfeste politische Konsequen-

METEOROLOG

Etwa alle fünf Jahre wird vom Intergovernmental Pa-nel on Climate Change (IPCC), einer von der Weltor-

ganisation für Meteorologie (WMO) und dem Umweltpro-gramm der Vereinten Nationen (UNEP) getragenen Orga-nisation, in einem dicken Buch der Stand des Wissensüber das Klima zusammengefasst und veröffentlicht. Zudem jetzt erschienenen dritten Bericht haben hunderte

 von Wissenschaftlern aus dem In- und Ausland beigetra-gen, darunter auch Forscher verschiedener Max-Planck-Institute. Wie eine wissenschaftliche Veröffentlichungdurchläuft dieser Bericht eine Begutachtungsprozedur. Er ist im Buchhandel erhältlich und kann auch über das In-ternet gelesen werden (www.ipcc.ch). Quintessenz dieses

 Werkes ist, dass der Mensch seit der Industrialisierung das

78   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SSEN aus erster Hand 

Seit kurzem liegt der dritte Bericht des Intergovernmental Panel on Climate Change vor. Und so

haben sich, wie auf die beiden ersten Berichte, wieder jene Kritiker gemeldet, die den Einfluss des Menschen

auf das Klima nicht wahrhaben wollen und die beobachtete Erwärmung auf eine veränderte Sonnen-

strahlung zurückführen. Im folgenden Beitrag erläutert ULRICH CUBASCH vom MAX-PLANCK-INSTITUT

FÜR METEOROLOGIE in Hamburg, was von dieser „Solarhypothese“ zu halten ist.

Sonne, Menschund Klima

   A   L   L   E   A   B   B .  :

   M   P   I   F    Ü   R   M   E   T   E   O   R   O   L   O   G   I   E  -   C   U   B   A   S   C   H

    /   I   L   L   U   S   T   R   A   T   I   O   N  :   R   O   H   R   E   R

zen: Wenn das IPCC Recht hat, dann muss man durchgeeignete Maßnahmen den Einfluss des Menschen auf dasKlima reduzieren, um es zu stabilisieren. Liegen aber die

 Vertreter der Solarhypothese richtig, dann braucht dieMenschheit nichts zu unternehmen. Vor diesem Hinter-grund ist auch die „kleine Anfrage“ an die Bundes-regierung im Frühsommer dieses Jahres zu sehen(http://dip.bundestag.de/btd/14/065/1406529.pdf).

Nun ist es nicht so, wie von den Vertretern der Solar-

hypothese vermutet, dass die anderen Klimaforscher denEffekt der Sonne aus Unwissenheit vernachlässigen oder absichtlich ignorieren. Verschiedene Forschergruppen be-schäftigen sich damit schon seit langem, und ihre Er-kenntnisse sind mit in den IPCC-Bericht eingeflossen;es wird sogar explizit auf die Kritikpunkte der Vertreter der Solarhypothese eingegangen.

Um das Dreiecksverhältnis zwischen Sonne, Menschund Klima realistisch einzuschätzen, muss man zunächstdas Klimasystem und seine Komponenten betrachten. ImLehrbuch steht: Das geographische Klima ist die für einenOrt, eine Landschaft oder einen größeren Raum typischeZusammenfassung der erdnahen und die Erdoberflächebeeinflussenden atmosphärischen Zustände und Witte-rungsvorgänge während eines längeren Zeitraums – ge-kennzeichnet durch eine charakteristische Verteilung der häufigsten, mittleren und extremen Werte. Die Atmo-sphäre ist kein isoliertes System, sondern steht mit der Hydrosphäre (Ozean und Wasserkreislauf), der Kryosphäre(Eis und Schnee), der Biosphäre (Pflanzen und Tiere), der Pedosphäre (Boden) und der Lithosphäre (Gestein) in

 Wechselwirkung. Diese „Sphären“ bilden die Subsystemedes Klimasystems.

Die unterschiedlichen Zeitskalen, in denen die Klima-subsysteme schwanken, bestimmen die Dynamik des Kli-masystems. Die Schwankungen des Subsystems Atmo-sphäre beispielsweise sind gemeinhin als „Wetter“ be-kannt: Wolken und Luftdruckgebiete verändern sich in-nerhalb weniger Stunden und Tage. Die Tiefenströmungs-systeme der Ozeane oder die Zustände großer Eismassendagegen wandeln sich in Zeitskalen von Jahrhundertenbis Jahrtausenden. Die Schwankungen innerhalb der Sphären sowie die gegenseitige Beeinflussung der Klima-subsysteme bezeichnet man als „Klimarauschen“. Im Kli-masystem können kleine interne Störungen durch nicht-lineare Wechselwirkungen potenziell große Wirkungenhervorrufen.

 Außerdem spielen auch externe Anregungsfaktorenmit. Dazu gehören Veränderungen in der Sonneneinstrah-lung, bedingt dadurch, dass sich die Bahn der Erde um dieSonne sowie die Lage der Erdachse mit der Zeit ändern.

 Auch ist die Sonneneinstrahlung zeitlich nicht konstant,sondern unterliegt Schwankungen. Und schließlich zähltder Vulkanismus zu den externen Antrieben, die in der aktuellen Klimadebatte den anthropogenen Faktoren – al-so dem zusätzlichen Treibhauseffekt und der Schadstoff-

belastung der Atmosphäre – gegenübergestellt werden.Doch wird dabei oft vergessen, die einschlägigen Zeitska-len zu berücksichtigen – und das bringt allerlei Verwir-rung in die Schlussfolgerungen.

FLECKEN IM   11-JAHRES-RHYTHMUS

Die Bahnparameter und die Lage der Erdachse unter-liegen den Gesetzen der Physik, sie bergen keine Über-raschungen. Anders die veränderliche Sonnenintensität:Schon seit dem Mittelalter weiß man, dass Sonnenfleckenin einem 11-Jahres-Rhythmus auftreten. Zahl und Größeder Flecken wurden seit dem 17. Jahrhundert regelmäßigan vielen Sternwarten aufgezeichnet. Doch zeigten erst Sa-tellitenmessungen, dass die Sonnenflecken mit der Inten-sität der Sonneneinstrahlung zu tun haben: Mit der Fleckenzahl steigt auch die Strahlungsintensität der Sonne.

Direkte Messungen der Sonnenstrahlung liefern seit et-wa 20 Jahren verschiedene Satelliten – und das unabhän-gig von Fehlern, die durch Absorption in der Atmosphäreentstehen. Schon früher hatten Aufzeichnungen der Son-nenflecken gezeigt, dass es neben dem 11-Jahres-Zyklus(Schwalbe-Zyklus) auch eine etwa 80-jährige Periodizität– den Gleissberg-Zyklus – gibt, den man auch bei son-nenähnlichen Sternen beobachtet hat. Der 11-Jahres-Zyk-lus macht eine Schwankungsbreite von etwa 0,10 Prozentder Solarkonstante aus, der Gleissberg-Zyklus etwa 0,24bis 0,30 Prozent. Und es gibt noch eine Reihe weiterer Zyklen, die man in Daten für die Solarintensität – in 14Cund 10Be-Schwankungen in Baumringen und Eisbohrker-nen – sowie bei sonnenähnlichen Sternen findet. Verschiedene Forschergruppen bemühen sich, aus den

Sonnenflecken und weiteren Parametern – etwa der Län-ge des Sonnenfleckenzyklus, der Anzahl der Sonnen-flecken, des veränderlichen Durchmessers der Sonne so-wie aus dem Vergleich mit sonnenähnlichen Sternen –und mittels solar-dynamischer Modelle die historischeund zukünftige Schwankung der Sonnenstrahlung zu

Page 41: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 41/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   81

Die Sonnenstrahlungsvariationen des 80-jährigenGleissberg-Zyklus führen zu einer Variabilität der an der Erdoberfläche absorbierten Sonneneinstrahlung von 0,50bis 0,75 Watt/m2. Diese Zahl muss man im Vergleich zuder Abschätzung des Strahlungsantriebs durch das An-wachsen der anthropogenen Treibhausgase von der vor-industriellen Zeit (1850) bis heute sehen – der ungefähr 2,4 Watt/m2 (Abb. 2) ausmacht.

Berechnungen mit Klimamodellen zeigen, dass Ände-rungen im solaren Strahlungsantrieb die Oberflächen-temperatur der Erde in der Größenordnung von einigenzehntel Grad beeinflussen können. Allerdings machendiese Rechnungen auch deutlich, dass die von der Sonneausgelösten Änderungen nicht ausreichen, die beobach-tete Erwärmung des vergangenen Jahrhunderts zu repro-duzieren, sondern sie nur zu etwa 20 bis 30 Prozent er-klären. Den besten Erfolg hat man, wenn man Sonnenva-riabilität, Vulkanismus und den anthropogenen Einflussgleichermaßen berücksichtigt (Abb. 3). Eine weitere Mög-lichkeit festzustellen, inwieweit die beobachtete Klima-

METEOROLOG

sicherte wissenschaftliche Grundlage besteht. Es gibt je-doch Pläne, diese Hypothese bei CERN im Strahlenlabor zu überprüfen (Projekt CLOUD, im Internet unter:http://xxx.lanl.gov/abs/physics/0104048).

Bei den Modellierern wuchs das Interesse an der Rolleder Sonneneinstrahlung im Zusammenhang mit der Fragedes anthropogenen Einflusses auf das Klima. Man möchteüberprüfen, ob die beobachtete Klimaänderung durch die(natürlichen) Solarschwankungen oder durch menschli-che Aktivitäten hervorgerufen wurde. Diese Veränderun-gen spielen sich auf Zeitskalen ab, die länger als der 11-Jahres-Zyklus sind. Die Amplitude des 11-Jahres-Zyklus(etwa ein Drittel des 80-jährigen Gleissberg-Zyklus) sowiesein UV-Anteil (davon sieben Prozent) sind klein gegen-über den Unsicherheiten, die entstehen, wenn man dieSolarvariabilität aus Isotopen-Zeitserien des Berylliumsund Kohlenstoffs sowie den Sonnenflecken herleitet (Abb.1). Deshalb, und auch aus ökonomischen Gründen, wer-den die im vorhergehenden Abschnitt genannten Effektenicht explizit „in Rechnung gestellt“.

80   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

bestimmen. Abbildung 1 zeigt entsprechende Ergebnisse verschiedener Forschergruppen für die letzten 1000 Jahre.Sie weisen, je weiter es in der Zeit zurückgeht, deutlicheUnterschiede und sogar unterschiedliche Vorzeichen auf.

Mit diesen Solardaten kann man die Klimamodelle „an-treiben“ und die Rechnungen mit Beobachtungen verglei-chen, um sich ein Bild zu machen, wie gut die Simulatio-nen sind. Der Übersichtlichkeit halber betrachtet man je-weils die Ergebnisse für verschiedene Zeiträume.

Für die Zeit von 1980 bis 2000 liegen Satellitenmes-sungen vor, die gesicherte direkte Informationen über dieSolarvariabilität liefern, und es gibt Beobachtungen, dieeinen Effekt der Solarvariabilität auf die Zirkulation der hohen Atmosphäre beschreiben. So fand man, dass in al-len Monaten des Jahres in der geopotenziellen Höhen-fläche der unteren Stratosphäre – in der Schicht von 16bis 30 Kilometer Höhe – südlich von ungefähr 50 GradNord ein konsistentes Muster auftritt, das sich im 11-Jah-res-Zyklus der Sonnenflecken hebt und senkt. Dieses

Muster verschiebt sich mit den Jahreszeiten in Richtungder Meridiane, also der Längenkreise. Die Stratosphärereagiert auf die schwankende Sonnenstrahlung in Ab-hängigkeit von der Phasenlage der QBO (quasi-biannualoscillation: einer Windumkehrung in der Stratosphäre miteiner annähernd zweijährigen Periode) unterschiedlichstark. In der östlichen Phase der QBO ist der Effekt stärker als in der westlichen Phase.

 Am Boden lässt sich eine Temperaturvariation mit dem11-Jahres-Zyklus nicht sicher nachweisen; doch gibt es

 Anzeichen, dass die geänderte Stratosphäre die Tropo-sphäre beeinflusst. Auch im Ozean finden sich Hinweiseauf eine Wirkung des 11-jährigen Sonnenflecken-Zyklus.

Um diese Effekte wirklichkeitsnah „nachzuspielen“,muss man die Klimamodelle mit einer hoch auflösendenDarstellung der Stratosphäre versehen. Derartige Modelle,die jüngst auch die QBO simulieren, wurden in den ver-gangenen Jahren entwickelt. Sie stellen extreme Anforde-

SSEN aus erster Hand 

rungen an die Großrechner, sodass man bisher nur Ein-zelfälle durchrechnen konnte.

Eine positive Rückkopplung und damit eine Verstär-kung des solaren Signals wird derzeit in der Fachliteratur diskutiert, und dazu liegen erste Modellergebnisse vor: InZeiten mit überdurchschnittlicher Sonneneinstrahlung

 verschiebt sich das Spektrum des Sonnenlichts in denUV-Bereich. Das führt zu einer deutlichen Erwärmung der Stratosphäre infolge der verstärkten Absorption der UV-Strahlung durch das stratosphärische Ozon. Gleichzeitigentsteht zu Zeiten erhöhter UV-Strahlung auch mehr Ozon, das wiederum mehr Sonnenstrahlung absorbiert.Insgesamt verändert dieser Effekt die Vertikalstrukur der 

 Atmosphäre und beeinflusst damit nicht nur die strato-sphärische, sondern auch die troposphärische Zirkulation,was für längerfristige Wetterprognosen von Bedeutungsein kann.

INTERAKTIVES C HEMIEMODELL

Um diesen Effekt vollständig zu erfassen, muss man eininteraktives Chemiemodell und eine spektral hoch auflö-sende Strahlungsparameterisierung an die Klimamodelleankoppeln. Das wird derzeit in einigen Forschungslaborsdurchgeführt und vom Bundesforschungsministerium imProgramm AFO 2000 unterstützt.

Ein heftig diskutiertes Problem stellt der Einfluss voninterstellaren Teilchenströmen dar, die von der Son-nenaktivität abhängen. Einige Veröffentlichungen zeigen,dass diese Teilchenströme auf die Bewölkung wirken unddamit das Klima beträchtlich – mit etwa 1,5 Watt/m2 –beeinflussen könnten. Andere Publikationen stellen dieseHypothese in Frage, denn der dahinter vermutete physi-kalische Mechanismus konnte bisher nicht nachgewiesenwerden. Auch ist die Korrelation zwischen Temperaturän-derung und Sonnenzyklus in den vergangenen fünf Jah-ren schwächer geworden. Der Teilcheneffekt wird zurzeitnicht in Modellen berücksichtigt, da dafür noch keine ge-

Abb. 1: Beispiel für Rekonstruktionen der solaren Variabilität (Abweichung vom Mittelwert), die auf Messungen von Isotopen des Kohlen-stoffs und des Berylliums beruhen. Sie werden ab Mitte des 17. Jahrhunderts durch die Rekonstruktionen aus Beobachtungen der Sonnen-flecken und in den vergangenen 20 Jahren durch direkte Satellitenmessungen ergänzt. Man sieht deutlich, dass die Rekonstruktionenumso weiter auseinander laufen, je weiter man in der Zeit zurückgeht, und dass sogar Unterschiede in den Vorzeichen auftreten.

Abb. 2: Die Strahlungsantriebe des Klimasystems für das Jahr 2000, relativ zum Jahr 1750: Änderungen in den Strahlungsantrieben rührenvon Änderungen in der Zusammensetzung der Atmosphäre, in der Landnutzung und der Sonneneinstrahlung her. Menschliche Aktivitätenbeeinflussen jeden dieser Faktoren – mit Ausnahme der Sonnenaktivität. Die Balken geben den Beitrag der einzelnen Faktoren zum Antrieban: Einige bewirken eine Erwärmung, einige eine Abkühlung. Änderungen des Antriebs durch Vulkanismus sind nur episodisch, erzeugen alsoeine nur wenige Jahre dauernde Abkühlung und werden deshalb hier nicht gezeigt. Die vertikale Linie an jedem Balken zeigt die Unsicher-heit der Abschätzung. Der wissenschaftliche Erkenntnisstand für die verschiedenen Antriebsfaktoren ist unterschiedlich hoch.

Page 42: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 42/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   83

METEOROLOG

82   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

SSEN aus erster Hand 

änderung anthropogenen oder solaren Ursprungs ist, bie-tet die „Fingerabdruck-Methode“. Sie bedient sich des Um-stands, dass der Treibhauseffekt ein etwas anderes Erwär-mungsmuster in der Horizontalen und der Vertikalen er-zeugt als eine vermehrte Sonneneinstrahlung. Und auchhier zeigt sich deutlich, dass in den vergangenen Jahr-zehnten das anthropogene Muster überwog.

So kommt das IPCC zu der Schlussfolgerung: „The ba-lance of evidence suggests a discernible human influenceon global climate.“ Und weiter: „In the light of new evi-dence and taking into account the remaining uncertain-ties, most of the observed warming over the last 50 yearsis likely to have been due to the increase in greenhousegas concentrations.“

Mittlerweile sind die Rechenanlagen so schnell gewor-den, dass man die Modelle, mit denen man vor fünf Jah-ren die 100-jährigen Klimahochrechnungen durchgeführthat, auch für die Simulation des Klimageschehens der letzten 1000 Jahre einsetzen kann. Man geht davon aus,

dass zu Beginn dieses Zeitraums der Einfluss des Men-schen, global gesehen, gering war. Zwar gibt es keine

direkten Temperaturmessungen, doch eine Vielfalt von Aufzeichnungen (Ernteerträge, Deichreparaturkosten, Se-gelzeiten von Schiffen) sowie Proxy-Daten (also etwaBaumringe oder Sedimentbohrkerne), aus denen man dashistorische Klima rekonstruieren kann. Eine in diesemJahr erschienene Arbeit präsentiert eine Berechnung desKlimas der vergangenen 1000 Jahre mit einem eindimen-sionalen Klima-Modell, wobei die Sonnenaktivität undder Vulkanismus, beide aus Proxy-Daten hergeleitet, als

 Antrieb vorgeschrieben werden. Mit diesem Modell istman in der Lage, die globale Temperaturentwicklung zusimulieren (Abb. 4).

DREIDIMENSIONALE S IMULATIONEN

Diese Antriebsdaten werden in dem Projekt KIHZ(Klimaänderungen in historischen Zeiten) der Helmholtz-Gesellschaft unter Federführung des GKSS-Forschungs-zentrums und mit Beteiligung des Max-Planck-Institutsfür Meteorologie genutzt, um ein volles dreidimensiona-

les Klima-Modell anzutreiben. Das gestattet unter ande-rem, die europäische Temperaturverteilung am Ende des

Maunder-Minimums realistisch zusimulieren. Eine wesentliche Ursa-che dieser kleinen Eiszeit scheintim Wechselspiel zwischen Solar-

 variabilität, Vulkanismus und At-mosphäre-Ozean-Meereis-Kopp-lung zu liegen.

Derartige dreidimensionale Si-mulationen bieten eine Möglich-keit, vereinzelte Proxy-Daten zu-sammenzufassen und globale Kli-mazusammenhänge in zeitlicher 

 Abfolge darzustellen. Sie sind da-mit nicht nur für die Klimafor-

scher und Geologen, sondern auch für die Geschichtswis-senschaftler interessant.

Rechnet man noch weiter in die Erdgeschichte zurück,so muss man auch die Änderung der Erdbahnparameter sowie die Kontinentaldrift berücksichtigen. Und es gehtum die Frage, welche Rückkopplungsmechanismen zu-sammenspielen müssen, um aus den Strahlungsänderun-gen große Klimaschwankungen wie zum Beispiel Eiszei-ten zu erzeugen. Bisher hat man mit den vollen komple-xen Modellen nur Episoden (zum Beispiel 1000 JahreEem, also die letzte Warmzeit vor 130.000 Jahren) rech-nen können; mit weniger komplexen Modellen lässt sichwegen fehlender Prozesse der Klimaablauf nicht vollstän-dig nachbilden. Auch hier stellt sich das Problem vonpunktuellen Proxy-Messdaten, die man gerne mit einemdreidimensionalen Modell zusammenfassen möchte. Der Rechenaufwand ist erheblich, andererseits aber vergleich-bar mit Aufwendungen für geologische Messkampagnen.Eine Überlegung ist, durch Modell-Rechnungen die geo-logische Datenerfassung zu optimieren. Häufig wird inder Diskussion über den Klimawandel derzeitiges und

zukünftiges Klima verwechselt. Um die zukünftige Klima-entwicklung zu berechnen, wurden so genannte Szenari-en entworfen, die das Bevölkerungswachstum, die Indust-rialisierung sowie den Energieverbrauch und Energiemixder nächsten 100 Jahre prognostizieren. Diese Abschät-zungen rechnet man in Änderungen von Treibhausgas-konzentrationen um, mit denen man dann die Klimamo-delle „füttert“. Die derzeit gültigen, von einer UN-Tochter-organisation herausgegebenen Szenarien liefern je nachihren unterschiedlichen Vorgaben Temperaturprojektio-nen von 1,4 bis 5,8 Grad Celsius über dem derzeitigenNiveau (Abb. 4). Der Maximalwert dieser Projektionenliegt um fast eine Größenordnung höher als das, was die

 Vertreter der Solarhypothese für die solaren Effekte der  vergangenen 100 Jahre veranschlagen (etwa 0,6 GradCelsius), und er übersteigt auch das, was man für die

 Warmzeit im Mittelalter rekonstruiert hat. Man kann alsoaus den Unsicherheiten in der Berücksichtigung der Son-nenintensität kein Argument dagegen ableiten, Maßnah-men zur Stabilisierung der Treibhausgase zu ergreifen.

Im Rahmen der Forschungen zur anthropogenen Kli-mabeeinflussung zeigte sich schon vor Jahren, dass manauch mehr über die Sonnenvariabilität und ihre Auswir-kungen auf das Klima wissen muss. Es wurden deshalbForschungsinitiativen entwickelt, um den Schwankungender Solarintensität auf die Spur zu kommen, so etwadurch weitere Satelliten-Messungen, durch verbesserteSonnen- und Klimamodelle sowie durch vermehrteSammlung von Proxy-Daten.

Dank des vom BMBF finanzierten Ausbaus des Deut-schen Klimarechenzentrums wächst inzwischen auch dieLeistung der Rechner. Das macht es möglich, die Strato-sphäre in Modellen feiner aufzulösen, die Chemie interak-

DR. HABIL. ULRICH CUBASCH leitet die Gruppe

„Modelle und Daten“ am Max-Planck-Institut

für Meteorologie in Hamburg. Sein Interesse gilt

der Aufgabenstellung, historische und aktuelle

Klimaschwankungen mittels dreidimensionaler

Modelle des Klimasystems möglichst realistisch

zu berechnen und diese Modelle dazu zu nutzen,

um Hochrechnungen für die zukünftige Klima-

entwicklung durchzuführen. Cubasch war feder-

führend an der Erstellung der IPCC-Berichte der Arbeitsgruppe I –

„The scientific basis of climate change“ beteiligt – und ist Mitautor

des Buchs „Anthropogener Klimawandel“. Die Gruppe „Modelle

und Daten“ ist ein vom BMBF gefördertes Projekt zur Unterstützung

der Klimaforschung in Deutschland.

Abb. 3: Man kann Klimamodelle nutzen, um getrennt die Tem-peraturänderungen zu berechnen, die durch natürliche oder anthro-

pogene Ursachen hervorgerufen werden. Abb. 3a zeigt nur die na-türlichen Antriebe, also die solare Variabilität und den Vulkanismus.

Abb. 3b weist die anthropogenen Anteile (Treibhausgase und Sul-fat-Aerosole) aus. Abb. 3c stellt sowohl natürliche als auch anthro-pogene Faktoren dar. Das blaue Band gibt die Modellhochrechnun-

gen einschließlich einer Abschätzung ihrer Unsicherheiten wieder,die rote Kurve den beobachteten Klimaverlauf. Man erhält die beste

Annäherung an die Beobachtungskurve, wenn man sowohl anthro-pogene als auch natürliche Antriebsfaktoren berücksichtigt.

Abb. 4: Die Änderung der global gemittelten bodennahenLufttemperatur in Bezug auf das Jahr 1990. Vom Jahr 1000bis zum Jahr 1860 wurde nur die Nordhemisphäre gemittelt,da für die Südhemisphäre keine Daten vorliegen. Die Datenfür diesen Zeitraum wurden aus Baumringen, Korallen, Eis-

bohrkernen und historischen Überlieferungen abgeleitet.Die rote Linie zeigt das 50-Jahres-Mittel, das graue Band das

95-Prozent-Vertrauensintervall der Jahresdaten. Von 1860bis 2000 sieht man die mit Instrumenten gemessenen Werte,die rote Linie zeigt das 10-Jahres-Mittel. Vom Jahr 1990 biszum Jahr 2100 wird die Temperaturhochrechnung für sechs

Standard-SRES-Szenarien sowie das IS92a-Szenarium desvorletzten IPCC-Berichts gezeigt, die auf einem Modell

mittlerer Klimasensitivität beruhen. Das graue Band mit derBezeichnung „alle Szenarien, alle Modelle“ zeigt die

Ergebnisbandbreite, wenn man alle 35 SRES-Szenarien undalle unterschiedlichen Modelle in Betracht zieht. Ebenfalls

eingezeichnet: Das Ergebnis zweier Simulationen mit einemEnergiebilanzmodell (blaue und beige Kurve), die verschiedene

Abschätzungen (14C, 10Be) für solare Schwankungen und Vulkanismus sowie die beobachtete CO2-Konzentration alsEingangsparameter nutzen. Man erkennt deutlich die durch

 Vulkanismus ausgelösten kurzzeitigen negativen Temperatur-abweichungen sowie den Anstieg Ende des 20. Jahrhunderts.

tiv zu errechnen und längere Simulationen durchzu-führen. Verschiedene BMBF-Projekte (AFO 2000, DE-KLIM), ferner EU-Projekte sowie das HGF-Projekt KIHZbringen die Modellierer und Geologen zusammen undschaffen damit die Voraussetzungen, die Klimaproblema-tik interdisziplinär anzugehen. Außerdem werden Projek-te geplant, die das Zusammenspiel des interstellaren Teil-chenflusses mit dem Klima ergründen wollen.

Es werden noch einige Jahre vergehen, ehe zu allenFragen in Sachen Klima, Sonne und Mensch gesicherte

 Antworten vorliegen. Auch auf diesem Forschungsfeld,wie in jeder Wissenschaft, müssen immer wieder Einzel-ergebnisse und Arbeitshypothesen hinterfragt werden.Die naive – oder bewusste? – Missinterpretation solcher kritischer Forschung sowie die Verwechslung von „Hypo-thesen“ mit „Fakten“ hat in letzter Zeit zu einiger Verwir-rung geführt und den falschen Eindruck erweckt, die Kli-maforschung und ihre Erkenntnisse seien als Ganzes inFrage zu stellen.  

Page 43: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 43/59

ONGRESSbericht 

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   85

PsychoLINGUIST

84   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

„Computer, sag’ mir alles überden Planeten Erde!“ In der 

Fernsehserie „Raumschiff Enterprise“erteilt Captain Kirk seinen Bordgerä-ten Befehle per Zuruf. Maus und Tas-tatur sind überflüssig. IntelligenteComputer, die unsere Sprache verste-hen und mit Menschen problemlossprechen können, haben nicht nur Fernsehproduzenten und Filmema-cher wie Stanley Kubrick in Bann ge-schlagen, dessen legendäre Denkma-schine „HAL“ in „2001: Odyssee im

 Weltraum“ den Menschen von denLippen lesen konnte und zum Leid-wesen der Astronauten bald auch einEigenleben entwickelte.

 Was lange Zeit als kühne Visiongalt, beginnt allmählich Wirklichkeitzu werden. Für die automatischeSpracherkennung und für dieSprachsynthese, also die künstlicheSpracherzeugung, interessieren sichneben den Forschern auch Wirt-schaftsunternehmen. Die Erwartun-gen an neue Technologien sind groß:Spracherkennung sei „die Zukunftdes Computers“ hat Microsoft-Grün-der Bill Gates unlängst verkündet.Doch bei aller Euphorie über Wachs-tumschancen und Wissensgewinnmüssen sich die Wissenschaftler ein-gestehen: Von menschlicher Sprach-

kompetenz sind die Maschinen nochein gutes Stück entfernt.

Solange es keinen intelligenten, verständigen Computer wie „HAL“gibt, müssen die Maschinen bei denMenschen in die Lehre gehen. DasErstaunliche dabei ist: Sie müssengenau die Sprachsysteme lernen, diesich kleine Kinder im Alter von we-nigen Monaten scheinbar mühelosaneignen. Das erste, was Kleinkinder 

 verstehen lernen, sind Sprachlaute,die einfache Wörter wie „Mama“oder „Papa“ bilden. Schon bald er-kennen Kinder unbewusst, dass die

 Aussprache dieser ganz elementaren Äußerungen auf bestimmten Sprach-mustern beruht. Auch wenn es nichtdie Mutter ist, die ein Wort aus-spricht, sondern ein Fremder, kön-nen Kinder das Wort „Mama“ erken-nen – ganz egal, wer das Wort aus-spricht. Ein solches Muster („M-a-m-a”) muss zu allen möglichen Aus-sprachevarianten passen, egal, obder Sprecher nun einen sächsischen,schwäbischen oder bayerischen Dia-lekt hat – solange die Dialekte nichtzu extrem sind. Andernfalls kann dieÜbersetzung der akustischen Signalein sinnvolle Wort- und Satzeinheitennicht funktionieren.

Schon ein so scheinbar einfacher Befund stellt die Wissenschaftler, diesich mit automatischer Spracherken-nung befassen, vor erhebliche Prob-leme. Im Zeitalter der globalisierten

 Welt verändert sich unsere Sprachetäglich; gleichzeitig wird es immer wichtiger, rasch miteinander zukommunizieren und Sprachbarrierenzu überwinden. Menschliche undmaschinelle Spracherkennung spieltdabei eine erhebliche Rolle, wennwir wissen wollen, wie Spracherken-nung eigentlich funktioniert. Erst-mals haben deshalb rund 40 Wis-senschaftler ganz unterschiedlicher Fachrichtung auf Einladung desMax-Planck-Instituts für Psycholin-guistik im niederländischen Nijme-gen drei Tage lang über das Thema„Spracherkennung als Klassifizie-

rung von Mustern“ diskutiert. Diespannende Frage vor Beginn der Konferenz war: Gibt es überhauptGemeinsamkeiten zwischen Linguis-ten, Psychologen, Ingenieuren, Tech-nikern und Computerspezialisten, diesich allesamt mit Teilaspekten der Spracherkennung beschäftigen?

ALLE LERNEN

VONEINANDER

Das Ergebnis der Konferenz in Nij-megen ist ermutigend. Wissenschaft-ler, die sich ausschließlich mit auto-matischer Spracherkennung beschäf-tigen, können von ihren Kollegen,die auf menschliche Hörer speziali-siert sind, eine Menge lernen. Umge-kehrt lässt sich das Gleiche feststel-len. Der Psycholinguist Roel Smits,der am Max-Planck-Institut in Nij-megen forscht und das Treffen mit-organisiert hat, fasst ein Ergebnis der Tagung zusammen: „Seit den achtzi-ger Jahren gab es einen hohen Gradder Spezialisierung in der Spracher-kennungsforschung. Jetzt ist die Dis-kussion zwischen den Fachbereichenwieder in Gang gekommen.”

In Nijmegen wurde deutlich, dassdie Wissenschaftler eine gemeinsameBasis haben. Die Forscher stimmendarin überein, dass Sprache nur funktioniert, wenn es bestimmte

 Wahrscheinlichkeiten und Regelngibt, die Sprecher und Hörer glei-chermaßen verstehen. Erst mithilfe

ache funktioniert nur, weil es bestimmte Wahrscheinlichkeiten und Regeln gibt, die Sprecher und

rer gleichermaßen verstehen. Erst mithilfe dieser grundlegenden Muster kann der Mensch einzelne

te zu Wörtern zusammensetzen und den Sinn erkennen. So lautet die zentrale These der rund

Wissenschaftler, die sich auf Einladung des MAX-PLANCK-INSTITUTS FÜR  PSYCHOLINGUISTIK

holländischen Nijmegen zum Workshop „Spracherkennung als Klassifizierung von Mustern“ trafen.

Wenn der Computer

aufs Wort gehorcht

   F   O   T   O  :   D   E   F   D  -   M   O   V   I   E   S

Mann und Maschine, insGespräch vertieft: Was inStanley Kubricks Science-

Fiction-Film „2001: Odyssee imWeltraum“ noch ein Gedanken-spiel war, wird nun Wirklichkeit.

Computer, die menschlicheKommunikation immer besser

verstehen, sollen in dennächsten Jahren auf den Markt

kommen. Linguisten habenentdeckt, dass maschinelle

Spracherkennung nach dengleichen Mustern wie beim

Menschen funktioniert.

Page 44: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 44/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   87

PsychoLINGUIST

86   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

ONGRESSbericht 

dieser Regeln kann der Empfänger 

einer sprachlichen Äußerung einzel-ne Laute zu Wörtern zusammenset-zen und den Sinn erkennen. Der Schritt vom Muster zu einer Katego-rie ist für jeden, der sich eine Spra-che aneignet, das Ergebnis vielerErfahrungswerte. Das gilt für Men-schen wie für Maschinen. KleineKinder etwa müssen akustische Sig-nale immer wieder hören, bis sie

 Worte und später ganze Sätze verste-hen und irgendwann eigenständigbilden können: Sie lernen, einzelneMuster („b“, „a“, „l“) einer bestimm-ten Kategorie („Ball“) zuzuordnen.Grundlage sind Wahrscheinlichkei-ten, nach denen schon Kinder lernen,Kategorien zu bilden. „Menschensind geborene Statistiker“, sagt RoelSmits.

COMPUTER

WERDEN GEFÜTTERT

Etwas ganz Ähnliches macht einSpracherkennungscomputer. Damiteine Maschine sprachliche Muster und Kategorien erkennen kann, musssie mit einer gewissen Datenmenge„gefüttert“ worden sein. Viele hun-dert Stunden an Aufnahmen sindnötig; dabei müssen sprachliche

 Äußerungen unterschiedlicher Spre-cher abgespeichert werden. Die Ma-schine soll schließlich in der Lagesein, genau das zu leisten, was einMensch täglich leistet: Etwa imStimmengewirr eines Kaufhauses

einen bestimmten Sprecher heraus-

zufiltern. Oder einen nuschelndenGesprächspartner zu verstehen. Undwas ist mit einer im Flüsterton ge-haltenen Liebeserklärung? Auch die-se muss der Sprachcomputer erken-nen, wenn er es mit den Menschenaufnehmen will. Im Wettlauf zwi-schen Mensch und Maschine sindErstere noch immer klar im Vorteil:

„Hörer passen sich schnell an eine veränderte Umwelt an. Maschinenreagieren dagegen sensibel auf einenSprecherwechsel oder ein veränder-tes Sprechtempo. Sie lassen sich zusehr durch Hintergrundgeräuscheablenken“, sagt der Linguist Smits.

Maschinen, die den natürlichenRedefluss verstehen und sprachlicheEigenheiten wie Akzente oder Dia-lekte erkennen, sind schon verfüg-bar, aber noch stark verbesserungs-fähig. Der Markt für solche Pro-gramme ist zweifellos vorhanden:

 Amerikanische Unternehmen versu-chen bereits, mittels automatischer 

Spracherkennung Kosten zu kürzenund Personal zu sparen. Wenn solche

 Voice-Systeme einmal reibungslosfunktionieren, werden teure Call-Center der Vergangenheit angehören,und die Telefonistin, zu Beginn des20. Jahrhunderts ein Symbol deskommunikativen Fortschritts, wäreendgültig Geschichte. Stattdessen

würden Sprachcomputer detaillierteKundenwünsche bearbeiten, Bestel-lungen aufnehmen, Fragen beant-worten, Beschwerden abwickeln –und dabei nie die Geduld verlieren.

Schon jetzt gibt es erste Systeme,die auf automatischer Spracherken-nung basieren: Wer etwa in denNiederlanden eine Zugverbindungbuchen will, spricht mit einer Ma-schine, die mit freundlicher Stimmedie Bestellung entgegennimmt. Nur wenn die automatische Bestellungauch beim zweiten Versuch nichtgeklappt hat, greift ein Mitarbeiter zum Hörer. Offenbar funktioniert der 

Dialog zwischen Mensch und Ma-schine nur in sehr engen sprachli-chen Bahnen.

DIE  KONKURRENZ

DER WÖRTER

Noch ist es notwendig, sich mitGrundlagenforschung zu beschäfti-gen, wie bei der Tagung in Nijmegendeutlich wurde. Denn von der Flexi-bilität menschlicher Hörer könnendie Maschinen viel lernen. Ein Bei-spiel dafür lieferte der Sprachwissen-schaftler Gareth Gaskell von der University of York. Gaskell be-schrieb, wie Erwachsene neue Wörter in ihr Vokabular einfügen. Folgt manseinen Annahmen, dann funktioniertSpracherkennung beim Menschenfast so wie bei einem digitalen Lexi-kon, das mit einer Suchmaschine ar-beitet. Wenn ein Hörer nur den An-fang eines Worts wahrnimmt, wer-den gleichzeitig alle Wörter, die mitdiesem Laut beginnen, aktiviert – siekonkurrieren in diesem frühen Stadi-um miteinander. Die Silbe „spek“ ak-tiviert etwa die Wörter „Spektakel“,„Spektrum“, „Spekulant“ oder „Spe-kulatius“. Diese Wörter werden erstdeaktiviert, wenn der Input nichtmehr zur gespeicherten Form passt.Folgt nach der Silbe „spek“ ein „u“,so bleiben nur noch „Spekulant“ und„Spekulatius“ übrig. Dies alles läuftim Gehirn des Hörers in Sekunden-bruchteilen ab. Der Kreis der mögli-

chen Wörter wird immer enger, bisdas richtige Wort identifiziert ist.

 Ähnlich arbeiten im Prinzip auchSprachcomputer: Sie berechnen beider Worterkennung die Wahrschein-lichkeit, dass eine bestimmte Laut-folge ein Wort ergibt. Eine Vielzahllexikalischer Varianten wird dabeiständig als unwahrscheinlich ver-worfen und ausgeschlossen. Wie aber werden nun neue Wörter 

in diesen lexikalischen „Wettbewerb“eingeführt? Was geschieht, wenn einneues Wort mit denselben Lauten be-ginnt wie ein bereits existierendes?Gareth Gaskell fand heraus, dass eszunächst einmal keine Konkurrenzgibt, sofern der Hörer das neue Wortnicht mehrere Tage hintereinander hört. Der vorhandene Wortschatzpasst sich nur allmählich an neueEingaben an – wahrscheinlich, umzuvor gelernte Wörter gegen eineübermäßige Beeinträchtigung zuschützen. James McQueen und AnneCutler vom Max-Planck-Institut für Psycholinguistik fanden andererseitsBeweise dafür, dass Hörer ihre Krite-rien für die Identifizierung vonSprachlauten immer wieder flexibelanpassen, wenn die Umstände daserfordern.

Eine Testreihe im Sprachlabor brachte Gewissheit: Die Hälfte der Probanden hörte einen Laut, der 

Es gibt ihn nicht, den perfekten Spracherkennungscomputer – aber mit viel Übung sinktdie Fehlerquote kontinuierlich. Nach dieser von Anne Cutler und Roger Moore erstelltenBerechnung müsste das Programm zehn Millionen Stunden lang mit Daten gefüttert werdenum bei der Spracherkennung eine Fehlerquote unter einem Prozent zu erreichen. Die obereLinie zeigt den Versuchsverlauf mit ungefilterten Daten aus der Alltagskommunikation, beieinem weiteren Test war das Trainingsmaterial selektiert, die Fehlerquote daher geringer.

zweideutig zwischen „s“ und „f“ amEnde einer Reihe von Lauten wie„kara-“ vorkam, was dem niederlän-dischen Wort „karaf“ (Karaffe)ähnelt. Sie hörten auch eindeutige„s“-Laute am Ende von Wörtern wie„karkas“ (Kadaver). Die andere Hälfteder Versuchspersonen hörte das Ge-genteil: ein eindeutiges „f“ in Wör-tern, die mit „f“ enden wie „karaf“ –und den zweideutigen Laut am Endeder Reihe wie „karka-“. Der Kontrastzwischen den zweideutigen Lauten„s“ oder „f“ und die Kenntnis nieder-ländischer Wörter bei den Hörern

 veranlasste die erste „f“ zu hören,während die zweite Gruppe ein „s“

 vernahm.

HÖRER SIND TOLERANT

UND FLEXIBEL

Das Ergebnis zeigt: Eine radikale Veränderung in der Aussprache einesSprachlauts, der ein Wort von einemanderen unterscheidet, stellt den Hö-rer vor keine Schwierigkeiten, soferner genug Informationen bekommt,um den Laut in ein bestehendes Worteinzureihen. Hörer – das wurde inNijmegen in mehreren Vorträgenklar – tolerieren unterschiedliche

 Aussprachen von existierenden Wör-tern und sie passen sich an neueSprachäußerungen an. Sie habenschon so viele verschiedene Aus-

Linguisten vom Max-Planck-Institut für Psycholinguistik haben dieFehlerquoten bei verschiedenen Textsorten verglichen und herausgefunden,dass menschliche Hörer den Maschinen noch immer weit überlegen sind,selbst bei realitv einfachen Aufgaben wie dem Erkennen von Zahlenreihen.

Sprachcomputer zeichnen menschliche Äußerungen spektrografisch auf. Die drei Wörter„votes or something“ sind an ihrer Frequenz erkennbar, die dunklen Stellen weisen aufdie Vokale hin. Der Sprecher – das zeigt das Spektrogramm – hat allerdings die Worte nurkryptisch ausgesprochen: „votes ‘r som’ing“. Solche Verschleifungen stellen Spracherken-nungsprogramme vor riesige Herausforderungen. Empfindlich reagiert der Computerauch auf unregelmäßige Sprechpausen.

Zeit

v o tes (o)r s o m(eth)i ng

       F     r     e     q     u     e     n     z

   A   B   B .  :

   M   P   I   F    Ü   R

   P   S   Y   C   H   O   L   I   N   G   U   I   S   T   I   K

Page 45: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 45/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   89

PsychoLINGUIST

88   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

ONGRESSbericht 

sprachen gehört, dass sie leicht undschnell eine neue Verbindung zwi-schen einem Signalmuster und einer gespeicherten Kategorie herstellenkönnen.

Um mehr über das Wesen der Spracherkennung zu erfahren, müs-sen die Wissenschaftler das Systemin ihrer Entstehungsphase beleuch-ten. Schon sehr kleine Kinder lernen,Sprachsignale nach Muster und Ka-tegorien zu ordnen. Linguisten kön-nen die Reaktion von Babys testen,indem sie das Saugverhalten der Probanden beobachten. Dazu wirddas Kind im Sprachlabor verschiede-

nen Lauten ausgesetzt. Wenn dasBaby etwa den Wechsel in der Abfol-ge „da da da“ und „pa pa pa“ ver-standen hat, saugt es automatischschneller. Über komplizierte Ver-suchsanordnungen lassen sich diekindlichen Reaktionen elektronischmessen. Bei einem anderen Versuch

sitzen die Kinder vor Bildschirmen,auf denen Begriffe wie „Blume“ oder „Ball“ auftauchen. Wird das passen-de Wort von einem Sprecher artiku-liert, können die Forscher an der Blickrichtung der Kinder sehen, obsie die Worte verstehen oder nicht.

VERTRAUTHEIT

STEUERT  LERNEN

Im Alter von sechs bis zwölf Mo-naten werden Kinder für unter-schiedliche Laute empfänglich. Siekönnen den Klang der Wörter verste-hen – vorausgesetzt, der Sprecher istihnen vertraut. Schwierigkeiten tra-

ten im Versuch immer dann auf,wenn die Wörter von unterschiedli-chen Personen gesprochen wurden.

 Wird ein bereits bekanntes Wort so-fort von einem zweiten Sprecher wiederholt, dann können es bereitssieben Monate alte Kinder verstehen.Der Wiederholungseffekt hat funk-

tioniert. Experimente zeigen aber auch: Liegt zwischen den Äußerun-gen desselben Worts ein Tag, kanndas Kind dieses Wort nicht mehr er-kennen, weil es den zweiten Spre-cher nicht kennt. Es ist auf eine ganzbestimmte Stimmfrequenz gepolt.

Menschen lernen also in der frühen Kindheit, Sprachsignale zuentschlüsseln und diese Signale zueinem sinnvollen Ganzen zusam-menzusetzen. Bis das Puzzle gelöstist, vergehen einige Jahre. AuchSprachcomputer benötigen eine sol-che Lernphase. Um eine Maschinedazuzubringen, erst Laute, dann

ganze Wörter und Sätze und zuletztTexte zu erkennen, müssen die Wis-senschaftler Algorithmen entwerfen– das sind komplizierte Zeichenrei-hen, die nach einer mathematischenLogik funktionieren. Das Sprachsig-nal wird dabei digitalisiert und in ei-ne Form gebracht, die ein Computer 

 verarbeiten kann. Aus jedem Lautmuss die Maschine ein Referenzmus-ter erzeugen, sie muss akustischeEinheiten bilden. Diese Lautsignalewerden in einem weiteren Schrittin Worte umgewandelt. Technischfunktioniert das, vereinfacht gesagt,indem der Computer bereits beste-hende Frequenzdiagramme ständigmit den gerade erkannten akusti-schen Signalen abgleicht.

Übung macht den Meister – dasgilt auch für die Sprachmaschine. Jebesser ein Erkennungssystem trai-niert ist, desto weniger Fehler passie-ren. Viele der bisher auf dem Markt

erschienenen Programme basierenallerdings meist auf einem relativ bescheidenen Wortschatz. Sie kön-nen nur ganz bestimmte Arten vonInformationen verstehen – etwa ein-fache Bestellungen. „Wenn Sie reser-

 vieren wollen, dann sagen Sie bitte„eins“, wenn Sie einen Mitarbeiter sprechen wollen, sagen Sie „neun“:Nach diesem Muster funktioniert diederzeit gängige Form der Spracher-kennungsprogramme, die man alsKommando-Empfänger bezeichnenkönnte. Wesentlich größer ist der 

 Wortschatz von automatischen Dik-tiergeräten, die allerdings einen ent-scheidenden Nachteil haben: Sie sindfast immer auf einen individuellenSprecher eingestellt und reagierenäußerst empfindlich, wenn dieStimmfrequenz plötzlich wechselt.Um unbekannte Sprecher zu verste-hen, muss die Maschine ein Vielfa-ches an Trainingseinheiten absolvie-ren. „Automatische Spracherken-nung basiert auf Statistik“, sagt RoelSmits, „je mehr Daten, desto genauer das Verständnis.“

Menschen sind offenbar besser inder Lage, die sprachlichen Nuanceneines Alltagsgesprächs zu erkennenund phonetischen Fallstricken ausdem Weg zu gehen. Gerade die deut-sche Sprache ist voller Mehrdeutig-keiten. Homophone – also gleichklingende Wörter – sind häufig, wasFremdsprachler vor große Probleme

stellt. Um die Unterscheidung zwi-schen dem Adjektiv „viel“ und dem

 Verb „fiel“ zu verstehen, muss der Computer den Kontext begreifen.

 Ähnliche Schwierigkeiten machenDoppelpaare wie „Meer/mehr“,„wieder/wider“ oder „Lerche/Lärche“.Selbst Muttersprachler sind da oft ir-ritiert, Spracherkennungsprogrammeerst recht.

Es gibt aber auch Bereiche, in de-nen Maschinen den Menschen schonheute überlegen sind. Bei der bloßenIdentifizierung von unbekanntenSprechern können Computer be-stimmte Signale sehr präzise ent-

schlüsseln. Die Gefahr, sich vonStimmenimitationen überrumpeln zulassen, ist bei ihnen fast ausge-schlossen: Die Frequenzdiagrammesprechen eine klare Sprache. Kein

 Wunder, dass automatische Sprach-erkennung und vor allem Sprech-erkennung in der Kriminologie eineimmer wichtigere Rolle spielen.

THEORIE IST

DER P RAXIS VORAUS

Doch was das Erkennen kompli-zierter Sprecheinheiten angeht, müs-sen die Sprachcomputer noch stark 

 verbessert werden. Wie lange es dau-ern würde, bis eine Maschine eineIrrtumsrate von nahezu null Prozenterreichen würde, haben Anne Cutler 

 vom Max-Planck-Institut und Roger Moore von der englischen Firma20/20 Speech in England modellhaftausgerechnet: Zwischen zwei bisneun Millionen Übungsstundenwären theoretisch nötig, um einenComputer so zu schulen, dass er dieKapazität eines nahezu perfektenmenschlichen Hörers erreicht. VonPerfektion kann bei der jetzigen Ge-neration der Computerprogrammenoch keine Rede sein. Doch die Kon-zerne – etwa IBM mit seinem System

 ViaVoice – arbeiten mit Hochdruck daran, Spracherkennung verlässli-cher zu machen. Noch nutzen weni-ger als ein Prozent der Bevölkerungautomatische Spracherkennung –

Im Alter von wenigen Monaten lernen Kleinkinder, einfache Sprachmuster zu unterscheidenund nach Wahrscheinlichkeiten zu kategorisieren. Besonders leicht lernen Kinder neue Worte,wenn ihnen die Stimme vertraut ist.

doch das dürfte sich bald ändern.In einigen Jahrzehnten, glaubt der Psycholinguist Roel Smits, werdenMikrochips in Haushaltsgerätenmenschliche Befehle erkennen undan intelligente Maschinen weiter-leiten. Fernbedienungen werdenebenso auf Zuruf funktionieren wiePCs. Mobiltelefone verfügen bereitsüber Chips mit Spracherkennungs-technologie. Erhebliche Fortschrittesind außerdem bei automatischenHörhilfen zu erwarten.

 Wie so oft ist die Theorie der Pra-xis weit voraus, und bei der Sprach-erkennung gilt das besonders. Hynek 

Hermansky, der an der OregonHealth and Sciences University inPortland lehrt, stellte in Nijmegenein Erkennungssystem vor, das auf der Struktur des menschlichenGehörs basiert. Dieses System ver-wendet Intervalle von einer SekundeSprechdauer, die bis zu 15 Sprach-laute enthalten. Eine solch differen-zierte automatische Spracherken-nung wäre weit weniger anfälliggegenüber Hintergrundgeräuschenoder Verzerrungen als bisherige Sys-teme, die Energiemengen in Inter-

 vallen von der Länge eines einzigenSprachlauts aufweisen.

 Wann also werden wir künftig mitSprachcomputern so kommunizie-ren, wie es Captain Kirk im Raum-schiff Enterprise vorgemacht hat?

 Auf dem Workshop in Nijmegenging es weniger um konkrete An-wendungen und auch nicht um vi-sionäre Projekte, die den Bereich der künstlichen Intelligenz streifen. Die

 Wissenschaftler wollten vielmehr den Stand der Grundlagenforschungdarstellen. Denn ohne einen Wis-senstransfer zwischen menschlicher und automatischer Spracherkennungwird es keine wesentlichen Fort-schritte bei den neuen Technologiengeben, glaubt Roel Smits. „Wir stoßen an eine Grenze – auch wennes gelingt, die Datenkapazität der Computer weiter zu steigern.“

CHRISTIAN  MAYER

   F   O   T   O  :   C   O   R   B   I   S  -   S   T   O   C   K   M   A   R   K   E   T

Page 46: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 46/59

PsychoLINGUIST

90   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

ONGRESSbericht 

sekunden (je nach Rahmenbedingun-gen). Dieser „semantische Verzöge-rungseffekt“ trat in einer Vielzahl

 von Experimenten auf.Der Zeitverlauf der Lemma-Selek-

tion wurde außerdem gemeinsam mit Wissenschaftlern am Max-Planck-Institut für neuropsychologischeForschung in Leipzig mittels derMagnetenzephalographie (MEG) ge-messen – und bestätigt. Hierbei fan-den die Forscher außerdem heraus,dass bei der Lemma-Auswahl Regio-nen im linken lateralen temporalenLobus aktiv sind.

Nach der Lemma-Selektion erfolgtder zweite Schritt, die Wortformpla-nung oder Wortformen-Codierung.Dazu muss zuerst der phonologische

Code abgerufen werden; er bestehtaus einer Reihe phonologischer Seg-mente oder Phoneme, zum Beispiel„p, f, e, r, d“. Bei geläufigen Wörternwird der phonologische Code schnel-ler (bis zu 40 Millisekunden) abgeru-fen als bei selten benutzten Wörtern.

schrittweise Zusammenstellen der Silben dauert etwa 25 Millisekundenpro Phonem. Sind mehrsilbige Wörter zu bilden, verändert sich die Reakti-onszeit: Testpersonen brauchten beimBenennen für mehrsilbige Wörter länger als für einsilbige.

Die letzte Stufe der Wortformen-Codierung ist das phonetische Codie-ren, das Abrufen eines artikulato-risch-motorischen Programms für

 jede neugebildete Silbe. Die Max-Planck-Wissenschaftler nehmen an,dass dazu ein mentaler Silbenvorratexistiert, gleichsam ein Lager anGesten oder motorischen Program-men für häufig benutzte Silben. Die

 Vermutung liegt nahe, dass beimSpeichern häufig gebrauchter Silben

Hirnareale wie der prämotorischeCortex und das Broca-Zentrum be-teiligt sind. Die faktische Aus-führung der aufeinander folgendenSilbenprogramme vom Artikulati-onssystem generiert letztendlich dasgesprochene Wort.

Bei der Bildbenennung kann derZugriff dadurch erleichtert werden,dass der Versuchsperson zeitgleichphonologisch verwandte Wörter prä-sentiert werden. Probanden nennen„Pferd“ schneller, wenn sie währendder Bildanbietung das phonologisch

 verwandte Wort „Pfeil“ hören als dasphonologisch unterschiedliche Wort„Stuhl“. Auch den Zeitverlauf dieser phonologischen Suche konnten die

 Wissenschaftler mit dem Computer-modell „WEAVER++“ exakt voraus-sagen.

Ist das Abrufen des Codes aus demmentalen Lexikon abgeschlossen, er-folgt die Silbenbildung. Diese wirdPhonem für Phonem zusammenge-stellt, aus „p, f, e, r, d“ zum Beispiel

wird „pfert“. Wird das Zielwort jedochim Plural benötigt (wenn zwei Pferdeauf dem Bild zu sehen sind), werdennacheinander zwei Silben – „pfer“-de“ – gebildet. Anders gesagt: Obdie Silbe „pfert“ oder „pfer“ gebildetwird, ist situationsbedingt. Das

 Wortsuche

im MillisekundentaktSprachproduktion ist das Ergebnis zweier sehr schnell ablaufender

Vorgänge im Gehirn: dem Abruf geeigneter Einträge aus einem „mentalen

Lexikon“ sowie der Vorbereitung dieser „Einträge“ für das eigentliche Sprechen.

Das berichten Wissenschaftler des MAX-PLANCK-INSTITUTS FÜR  P SYCHO-

LINGUISTIK im niederländischen Nijmegen in der renommierten US-Fachzeit-

schrift PROCEEDINGS OF THE  NATIONAL ACADEMY OF  SCIENCES (6. November 2001).

Jeder Mensch lernt sprechen, unddas bedeutet vor allem: Wörter 

zu produzieren. Wächst er in der westlichen Kultur auf, hat er als Er-wachsener bereits bis zu 50 Millio-nen Wörter gesprochen. Es gibtkaum eine andere Tätigkeit, die wir so oft praktizieren. Bei einer Unter-haltung liegt die durchschnittlicheSprechgeschwindigkeit bei zwei bis

 vier Wörtern pro Sekunde. Die Wör-ter dazu werden fortlaufend aus un-serem mentalen Lexikon abgerufen,das mehrere zehntausend Einträgeenthält. Bei diesem Vorgang machenwir erstaunlich wenig Fehler (undsagen zum Beispiel „links“ statt„rechts“). Durchschnittlich passiertuns das nicht mehr als einmal protausend Wörter. Doch wie ist dieser so robuste und schnelle Sprachme-chanismus organisiert?

 Wissenschaftler erklären dieSprachproduktion als ein Systemzweier aufeinander folgender Verar-beitungsschritte. Zunächst erfolgt die

 Wortauswahl: Erhält das Gehirn ei-nen bestimmten inhaltlichen Reiz,zum Beispiel von den visuellen Zent-ren, wählt es einen dazu passendenlexikalischen Eintrag aus dem men-talen Lexikon. Der zweite Schritt be-handelt die Formenkodierung undberechnet die artikulatorischen Ges-ten, die für die Aussprache des Ziel-

worts benötigt werden. Es ist der Forschergruppe um Willem Levelt,

 Antje Meyer und Ardi Roelofs inlangjähriger Teamarbeit gelungen,das Modell experimentell zu be-stätigen. Roelofs konnte diese Theo-rie in einem umfassenden Com-puterprogramm mit dem Namen„WEAVER++“ umsetzen.

Ein wichtiges experimentelles Ver-fahren zur Erforschung des lexikali-schen Zugriffs im Gehirn ist das Be-nennen von Bildern. Auf dem Moni-tor erscheint ein Bild, zum Beispiel

 von einem Pferd, das die Versuchs-person so schnell wie möglich be-nennen soll. Hierbei wird die Reakti-onszeit, also die Zeit zwischen demErscheinen des Bilds und dem Be-ginn des Sprechens, exakt gemessen.Diese liegt normalerweise bei 600Millisekunden (tausendstel Sekun-den, ms). Für die Auswahl und Aus-sprache eines Worts brauchen wiralso weniger als zwei Drittel einer Sekunde. Die Wortauswahl selbst er-folgt in zwei Stufen: Zuerst wird dasBild erkannt und ein Zielkonzept für die Benennungsaufgabe ausgewählt.Die Tests können so gesteuert wer-den, dass die Versuchspersonen ent-weder „Pferd“, „Tier“ oder „Hengst“selektieren, um das Bild zu benen-nen. In der zweiten Stufe – der sogenannten Lemma-Selektion – wird

der hiermit übereinstimmende Ein-trag gewählt, also zum Beispiel nur „Pferd“. Diesen Eintrag nennt man„Lemma“, was soviel bedeutet wie„syntaktisches Wort“; dieses enthältalle syntaktischen Eigenschaften wie

 Wortklasse (Substantiv, Verb) undsyntaktische Merkmale (Geschlechtbei Substantiven, transitive Beschaf-fenheit bei Verben). Diese Wortaus-wahl erfolgt in Konkurrenz zu an-deren Wörtern.

Die Max-Planck-Wissenschaftler konnten messen, dass semantisch

 verwandte Wörter, wie „Tier“ oder „Hengst“, bei diesem Schritt ebenfallsaktiviert werden. Mit Hilfe der quan-titativen Computertheorie wird dieReaktionszeit für eine Wortauswahlunter Konkurrenz vorausgesagt.Überprüft werden diese Voraussagenin spezifischen Bildbenennungsexpe-rimenten: Dabei werden den Ver-suchspersonen beim Bildbenennen –

 visuell oder akustisch – andere Wör-ter präsentiert. Diesen Ablenkungs-reiz müssen sie ignorieren. Ist bei-spielsweise „Pferd“ das Zielwort, rea-giert die Versuchsperson beim Hörendes damit nicht verwandten Wortes„Stuhl“ etwas langsamer. Hört die

 Versuchsperson jedoch das seman-tisch verwandte Wort „Kuh“, wird ei-ne viel stärkere Verzögerung gemes-sen, zusätzlich etwa 50 bis 100 Milli-    A

   B   B .  :

   M   P   I   F    Ü   R

   P   S   Y   C   H   O   L   I   N   G   U   I   S   T   I   K

Page 47: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 47/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   93

Islamisches STRAFREC

92   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

RSCHUNG & Gesellschaft 

Der Terroranschlag auf das World Trade 

Center am 11. September hat zum Krieg 

in Afghanistan geführt und die islami-

sche Gedankenwelt in den Blickpunkt des Interesses gerückt. Buchhandlungen

melden steigende Umsätze bei Werken,

die über die jüngste der großen Welt-

religionen informieren. Viele wollen mehr 

erfahren über Ethik und Politik des Islam,

beschränkt sich die Kenntnis darüber 

doch meist auf Berichte über Delikte, die 

mit grausamen Strafen bedroht sind: 

Handabhacken für Diebstahl, Steinigung 

für Ehebruch, Auspeitschen für Alkohol-

genuss. Am MAX-PLANCK-INSTITUT

FÜR AUSLÄNDISCHES UND INTER-

NATIONALES  STRAFRECHT in Freiburg

untersucht SILVIA T ELLENBACH

die unterschiedlichen Rechtsordnungenislamischer Staaten. Sie arbeitet an

einer Monografie, die zu einem differen-

zierteren Bild vom islamischen Straf-

recht in der modernen Welt und seiner 

häufig bestrittenen Entwicklungs-

fähigkeit beitragen möchte als es bis-

her westlichen Lesern zugänglich ist.

Mitarbeiter der ausländischen Hilfsorganisation„Shelter Now“ wurden im August in Afghanistan

wegen des Vorwurfs der Missionierung festgenommenund ein Strafverfahren gegen sie eingeleitet. Es dauerte

 Wochen, bis ein Anwalt Kontakt zu ihnen aufnehmendurfte. Widersprüchliche Meldungen kursierten in der Presse, welche Strafe sie möglicherweise zu gewärtigenhätten. Von der Todesstrafe bis zur Abschiebung schienalles denkbar. Auch über Gericht und Ablauf des Verfah-rens blieben viele Unklarheiten. Nur eines hörte man im-mer wieder: die Berufung auf islamisches Recht.

Die Vielfalt derRechtsmeinungen gilt

dem Islam als Gnade

Das islamische Kernstrafrecht besteht aus den hadd-De-likten (oder im Plural hudud-Delikten), die im Prinzipmitsamt ihren Strafen im Koran festgelegt sind. Dazuzählen Diebstahl, Straßenraub, unerlaubter Geschlechts-

 verkehr, üble Nachrede mit dem Inhalt unerlaubten Ge-schlechtsverkehrs und Alkoholgenuss, nach einigen auchder Abfall vom Glauben, die so genannte Apostasie undRebellion. Neben den hadd-Delikten stehen die qisas-De-likte, Tötungs- und Körperverletzungsdelikte, die schon

 vor dem Islam nach dem Prinzip „Auge um Auge, Zahnum Zahn“ bestraft wurden und die im Koran auf Vorsatz-

   F   O   T   O   S  :   D   P   A

Page 48: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 48/59

94   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

RSCHUNG & Gesellschaft 

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   95

Islamisches STRAFREC

taten und auf den Täter selbst – nicht mehr auf seine Sip-pe – beschränkt werden. Alle anderen Straftaten sollenals ta‘zir-Straftaten oder Züchtigungsstraftaten von der 

 jeweiligen Obrigkeit je nach den Bedürfnissen von Ortund Zeit bestraft werden, mit der Maßgabe, dass diesesich im Rahmen der allgemeinen islamischen Prinzipienzu halten haben. Jede dieser Gruppen hat ihre eigenendogmatischen Regeln. Einen gleichsam vor die Klammer gezogenen allgemeinen Teil des Strafrechts, der für alleDelikte gilt, gibt es nicht.

Die Geschichte zeigt, dass sich aber schon früh in der is-lamischen Welt ein Strafrecht neben dem islamischenKernstrafrecht herausbildete, das zunehmend die Grenzen

der islamischen Prinzipien überschritt und eher die Staats-räson zur Richtschnur hatte. Auch lokale Rechte undStammesrechte blieben von Bedeutung. Als seit dem 19.Jahrhundert viele muslimische Staaten unter europäischenEinfluss gerieten, übernahmen fast alle europäische Straf-und Strafprozessrechtsnormen. Das heutige Saudi-Arabienblieb eine der wenigen Regionen, wo weiterhin islami-sches Strafrecht galt und im Prinzip bis heute gilt.

Nach dem Arabisch-Israelischen Krieg von 1967(Sechstagekrieg) entstand die häufig als Re-Islamisierungbezeichnete Bewegung. Ihren Anhängern ging und gehtes darum, dem Islam in Staat und Gesellschaft wieder denherrschenden Stellenwert zu verschaffen. Eine Kernforde-rung war darum die Wiedereinführung des islamischenRechts. Dabei scheint gerade dem islamischen Strafrechtein besonderer Bekenntniswert zuzukommen. Das führtedazu, dass seit den siebziger Jahren einige Länder – vor allem Iran, Sudan, Pakistan, Jemen, Li byen und Maureta-

nien, zuletzt auch Afghanistan – das islamische Straf-recht wieder zur Gesetzesgrundlage machten. Dabei sind

 jedoch aus Libyen und Mauretanien Fälle, in denen diedrastischen islamischen Strafen tatsächlich angewendetwurden, bisher nicht bekannt geworden. Und manchesspricht dafür, dass mit der offiziellen Wiedereinführungdes islamischen Strafrechts – ebenso wie mit Entwürfeneines islamischen Strafrechts in Ägypten, die jedoch imParlament versandet sind – letztlich von Staatsseite das

 Anliegen verfolgt wurde, islamistische Bewegungen ab-zufangen, nicht aber tatsächlich das islamische Strafrechtwieder anzuwenden.

Für das islamische Recht ist der Koran zwar die vor-nehmste Quelle, dem Umfang nachaber ist seine Bedeutung begrenzt.Mit dem Strafrecht befassen sich un-gefähr 30 Verse. Der größte Teil des

islamischen Rechts ergibt sich alsoaus anderen Quellen. Das ist zunächstdie Überlieferung über das Handeln,Sagen und Dulden des ProphetenMuhammad, die Sunna. Sehr baldnach seinem Tode setzte eine intensi-

 ve Sammler-, aber auch Fälscher-tätigkeit ein, und die Prüfung der Glaubwürdigkeit einer Propheten-überlieferung begründete eine ganze

 Wissenschaft. Tatsache ist aber, dasswir vom historischen Muhammad

 viel mehr wissen als vom historischenJesus. Die dritte Rechtsquelle ist der Konsens der Rechtsgelehrten, wobeischon streitig geblieben ist, wie dieser Kreis zu verstehen ist. Die vierteRechtsquelle ist für die Sunniten die

 Analogie, für die Schiiten der Ver-stand. Zu diesen Hauptrechtsquellen kommen noch eineReihe von Rechtsprinzipien und Verfahrensweisen. Bereitsdie Art dieser Quellen deutet darauf hin, dass sie zu höchstunterschiedlichen Interpretationen führen können.

Darüber hinaus gibt es im Islam nicht nur die Teilungin Sunniten (rund 90 Prozent der Muslime) und Schiiten,sondern innerhalb dieser Konfessionen noch verschiedeneRichtungen, die so genannten Rechtsschulen. Bei diesensind heute bei den Schiiten die _a‘faritische Rechts-schule und bei den Sunniten die vier Rechtsschulen der Hanefiten, Schafiiten, Hanbaliten und Malekiten diebedeutendsten. Aber auch innerhalb einer Rechtsschulesind die Meinungen nicht immer gleich. Eine Instanz, dieeine Frage unfehlbar und damit ein für alle Mal entschei-den könnte, gibt es nicht, auch wenn die Stellung, die

 Ayatollah Khomeini vor seinem Tod innehatte, von fernetwas anderes nahe zu legen scheint. Einigkeit bestehtaber über ein Prophetenwort, das man mit „in der Unter-

schiedlichkeit der Meinungen liegt eine Gnade“ wiederge-ben könnte.

Ein Gelehrter des islamischen Rechts muss die Rechts-quellen und den Umgang mit ihnen viele Jahre studieren,ehe er das Recht hat, eine Stellungnahme zu einer Fragedes islamischen Rechts, eine Fetwa, abzugeben. Eine Fet-wa ist also ein Gutachten, das ein gläubiger Muslim zu ei-ner Frage des islamischen Rechts von dem Gelehrten er-bittet, kein vollstreckbares Urteil. Wenn dem Gläubigendas Gutachten des einen Gelehrten nicht behagt, so ist er frei, einen Gelehrten zu suchen, der eine Stellungnahmeabgibt, die eher nach seinem Sinn ist. Und es kann durch-aus sein, dass beide Gelehrte nach bestem Wissen undGewissen ihre Fetwa erstellen und dennoch zu entge-gengesetzten Ergebnissen kommen. Bereits diese kurzeSkizze zeigt, dass islamisches Recht, selbst islamischesStrafrecht, dynamischer sein kann als man gemeinhin

 vermutet.Gewiss trifft es zu, dass ein Satz, der im Koran steht, als

solcher ewig und unveränderlich ist und nicht von einemGesetzgeber gestrichen werden kann, wenn er nicht mehr zeitgemäß erscheint. So heißt es in Vers 38der 5. Sure: „Der Dieb und die Diebin, hacktihnen die Hände ab.“ Daran ist nicht zurütteln. Aber was ist ein Diebstahl im Sinnedieser koranischen hadd-Strafe? Hier tut sichdas weite Feld von Interpretation und Auslegung auf,durch die die islamische Rechtswissenschaft bereits seitJahrhunderten das Verständnis von Texten beeinflussenkonnte.

So hat sie zum Beispiel den Begriff des Diebstahls mehr und mehr eingeengt: Sicher, eine fremde, beweglicheSache muss heimlich weggenommen worden sein. DieseSache muss aber einen nicht geringen Mindestwert ge-habt haben: Damit fallen Bagatelldiebstähle aus dem Tat-bestand heraus. Die gestohlene Sache muss außerdemdurch ein Behältnis, und zwar ein angemessenes, gesi-chert gewesen sein. Hochwertige Ware, die in einem Ba-sar oder einem Kaufhaus offen ausgelegt wird, erfüllt die-ses Merkmal nicht. Schmuck gehört in einen Schmuck-kasten, nicht in eine leicht zu öffnende Truhe. Der Diebdarf den gestohlenen Gegenstand auch nicht etwanachträglich durch Kauf oder Schenkung erworben ha-ben. Das sind nur einige der einschränkenden Merkmale.Insgesamt kann man jedoch sagen, dass ein Diebstahl imSinne des Korans nur bei einer Tat vorliegt, die erheblichekriminelle Energie erfordert. Die Diebstähle, die unterdieser Schwelle bleiben, sind aber nicht etwa erlaubt,sondern werden als ta‘zir-Delikt mit leichteren Strafen,zum Beispiel Freiheitsentzug, belegt. Aber auch heute haben sich verschiedene Möglichkei-

ten der Weiterentwicklung des islamischen Rechts he-rausgebildet. So der „talfiq“, was man mit „patchwork“wiedergeben könnte: Für eine Rechtsmeinung ist der Ge-

lehrte nicht an eine einzige Rechtsschule gebunden, son-dern er kann aus allen Rechtsschulen die Argumentatio-nen zusammenführen, die ihm für den Fall besonders ge-eignet erscheinen. Während sich die Forderungen der Fundamentalisten

auf Wiedereinführung des islamischen Strafrechts meistauf wenige plakative Sätze beschränken, müssen es dieLänder, die es in ihrem Recht verankert haben, tatsächlichim Alltag anwenden und sich mit Problemen des moder-nen Lebens auseinander setzen. Es stellen sich Fragen, diegebieterisch eine Antwort verlangen und zwar eine prak-tikable – immer im Rahmen des islamischen Strafrechts.Das sei als Beispiel an den Tötungsdelikten gezeigt.

Nach dem klassischen Recht sind bei Tötungsdelikten vorsätzliche, quasivorsätzliche und fahrlässige Taten zuunterscheiden. Auf vorsätzliche Taten steht die so ge-nannte Wiedervergeltung, die bedeutet, dass dem Täter 

genau das gleiche angetan wird wie dessen Opfer. Diesgilt jedoch nur dann, wenn Täter und Opfer einander gleichwertig sind, insbesondere nach Geschlecht und Re-ligion. Sonst ist nur ein Blutgeld zu zahlen. Auch in an-

deren Fällen sind Täter und Bluträcher frei, sich anstelleder Vergeltung auf ein Blutgeld zu einigen, Bluträcher können aber auch verzeihen. Das Prinzip des Blutgeldesgilt auch bei quasivorsätzlichen und fahrlässigen Tötun-gen, auch hier können die Bluträcher aber auf einen Teiloder gar das gesamte Blutgeld verzichten.

Nach diesem Modell wird also die Bestrafung einer Tö-tung in private Hand gelegt, der Staat ist nur insofern be-teiligt, als er dem Bluträcher durch richterliches Urteil dasRecht bestätigt, eine bestimmte Person als Täter anzuse-hen und mit ihr entsprechend zu verfahren. Das wirdheute insofern als nicht mehr hinnehmbar angesehen, alses theoretisch möglich ist, dass eine Tat ungesühnt bleibt,wenn die Bluträcher verzeihen. Länder mit islamischemStrafrecht haben heute meist einen staatlichen Strafan-spruch nachgeschaltet, der für den Fall eines Verzichtsder Bluträcher auf die Vergeltungsstrafe oder auf eineStrafe überhaupt zur Verurteilung des Täters zu einer lan-gen Freiheitsstrafe (nicht aber der Todesstrafe!) führt. Auch das Erfordernis, dass Täter und Opfer gleichwertig

zu sein haben, wird verschiedentlich vorsichtig aufge-weicht. Es bedeutet ursprünglich, dass ein Mann nichtwegen der Tötung einer Frau, ein Muslim nicht wegen der Tötung eines Nichtmuslim getötet werden kann und dassein Blutgeld in diesen Fällen nur die Hälfte beträgt. Dasiranische Strafrecht bleibt zwar beim Prinzip, legt aber an

 versteckter Stelle, aber doch ausdrücklich fest, dass eszulässig ist, für eine Frau ein Blutgeld im Verhandlungs-

„Eine Instanz, die eine Frage unfehlbar und damit

ein für alle Mal entscheiden könnte, gibt es nicht.“ 

Page 49: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 49/59

96   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

RSCHUNG & Gesellschaft 

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   97

Islamisches STRAFREC

wege festzulegen, welches das gesetzliche Blutgeld über-steigt. Eine Obergrenze ist nicht festgelegt; es wäre alsomöglich, für eine getötete Frau ein höheres Blutgeld aus-zuhandeln als für einen getöteten Mann. Das jemenitischeStrafrecht erklärt, dass Vergeltung oder Blutgeld dann ge-schuldet werden, wenn eine geschützte (ma‘sum) Persongetötet wird. An anderer Stelle wird der Geschützte defi-niert als ein jemenitischer Staatsangehöriger gleich wel-chen Glaubens und ein Muslim gleich welcher Staatsan-gehörigkeit. Es ist also durchaus möglich, dass ein Mus-lim wegen des Mordes an einem jüdischen, jemenitischenSilberschmied mit dem Tode bestraft wird.

Das Blutgeld ist bei vorsätzlicher Tat von dem Täter zuzahlen, bei quasivorsätzlicher und fahrlässiger Tat vonseiner „‘aqila“, einem Haftungsverband der männlichenFamilienangehörigen. Dieser Haftungsverband wird heute

 verschiedentlich über die Familien hinaus ausgeweitet: So

gilt im Sudan der Autohaftpflichtversicherer ebenfalls alsMitglied der ‘aqila, denn der typische Fall einer fahrlässi-gen Tötung ist auch in den Ländern mit islamischenStrafrecht heute der Tod bei einem Verkehrsunfall. Selbst

der Arbeitgeber ist bei Arbeitsunfällen Mitglied der ‘aqila.Im iranischen Strafgesetzbuch heißt es abstrakter, im Er-gebnis aber ähnlich, dass Mitglied der ‘aqila ist, wer eineentsprechende Haftung vertraglich übernommen hat.

Ein anderer Streitpunkt rückte in den letzten Jahren inIran bei Körperverletzungen in den Blickpunkt, bei denenähnlich wie bei Tötungsdelikten Vergeltungsstrafen undBlutgeldzahlungen möglich sind. Angenommen, bei ei-nem Verkehrsunfall wird ein Mensch schwer verletzt, dieHeilung dauert Monate und kostet ein Vermögen, das Ge-schäft des Verletzten geht derweilen ein, kurz, der materi-elle Schaden geht weit über das Blutgeld hinaus, das ihmnach islamischem Strafrecht zusteht: Kann er dann nebendem Blutgeld noch einen Schadenersatz verlangen? Ur-sprünglich sollte das Blutgeld sehr wohl eine abschlie-ßende und befriedende Regelung sein, und es ist nochnicht lange her, dass der Oberste Gerichtshof trotz desBlutgeldes einen Schadenersatzanspruch anerkannt hat.

 Auch beim unerlaubten Geschlechtsverkehr werden Ver-änderungen in der rechtlichen Behandlung deutlich. Der Grundtatbestand ist der Geschlechtsverkehr zwischen Un-

 verheirateten, der mit Auspeitschung bedroht ist. Der Ehe-bruch ist ein qualifizierendes Merkmal, das zur Strafe der Steinigung führt, und zwar gleichermaßen für Frauen undMänner – die Besserstellung des Mannes bei derartigenDelikten stammt aus dem europäischen Recht. Die Steini-gungsstrafe kann aber nur verhängt werden, wenn die Tatmit den vorgeschriebenen Beweismitteln bewiesen wurde.

Diese sind klassischerweise vier Geständnisse in vier Ge-richtssitzungen oder vier Zeugen, die unbescholten, musli-misch und männlich sein müssen. Besonders im sunniti-schen Recht wird heute argumentiert, das Beibringen von

 vier Zeugen, die alle diese Voraussetzungen erfüllen, seipraktisch unmöglich. Das zeige, dass Gott von vornhereineine Anwendung dieser Strafe nicht gewollt habe, sondernsie nur gleichsam symbolisch angedroht habe. Auch bei den Schiiten gelten Geständnis und Zeugen

als Beweismittel. Darüber hinaus wird aber von einigennoch ein weiteres Beweismittel anerkannt; die Sunnitenlehnen es zwar ab, es birgt aber eine gewaltige Spreng-kraft für das gesamte islamische Beweissystem in sich:nämlich das Wissen des Richters (‘ilm al-qadi), das er auf „allgemein üblichen“ Wegen erlangt hat. Die – allerdingsnoch umstrittene – Anerkennung des Wissens des Rich-ters als Beweismittel hat teilweise an versteckter Stelle

Eingang ins iranische Strafgesetzbuch gefunden und er-laubt in Iran künftig die Einbeziehung aller modernenBeweismittel von der Spurensicherung bis zum geneti-schen Fingerabdruck, denn der Richter kann ja dann sei-

ne Erkenntnisse über die Tat aus diesenQuellen schöpfen und sie auch offen undnachvollziehbar darlegen. Die klassischenBeweismittel Geständnis oder vier Zeugenwürden damit an Bedeutung erheblich ver-

lieren. Das sunnitische Argument, die Ehebruchsvor-schrift sei bedeutungslos, weil die Tat tatsächlich nicht zubeweisen sei, sticht hier nicht mehr.

Das iranische Recht hat aber auch andere Wege ge-sucht, die Steinigungsstrafe nicht anzuwenden und auf diese Weise zurückzudrängen. Aufbauend auf dem reli-giösen Gebot, eine Sünde aus Barmherzigkeit möglichstmit Schweigen zu bedecken und kein Zeugnis gegen ei-nen Sünder abzulegen, schränkt die neue iranische Straf-prozessordnung die Zulässigkeit von Ermittlungen von

 vornherein in derartigen Fällen stark ein.Ein Umdenken hat sich auch bei der Apostasie, dem Ab-

fall vom Islam, eingesetzt. Sie ist verboten. Nach klassi-schem Recht waren zumindest Männer mit dem Tode zubestrafen, wenn sie nicht nach einer einzuräumenden Be-denkzeit zum Islam zurückfanden. Was Abfall vom Islambedeutet, ist zwar eindeutig, wenn sich der Abtrünnige of-fen zu einer anderen Religion bekehrt, sonst aber schwer zu fassen. So ist abtrünnig, wer die verpflichtende Wir-kung der wichtigsten Glaubensprinzipien leugnet. Welchedas aber sind, ist wiederum der Interpretation offen undkann leicht zu einem politischen Missbrauch führen. Imselben Atemzug wird von Vertretern des islamischenStrafrechts aber die Gewissensfreiheit im Islam behauptet.Der Abfall vom Islam sei kein Ausdruck der Gewissens-freiheit, sondern ein hochverratsähnlicher Angriff auf dieislamische Staats- und Gesellschaftsordnung. Diese Ausle-gung bietet aber gleichzeitig das stärkste innerislamische

 Argument, um die Strafbarkeit der Apostasie zurückzu-drängen: Liegt der Strafgrund in dem Angriff auf Staatund Gesellschaft des Islam, so soll der Tatbestand nur er-füllt sein, wenn die Glaubensabkehr tatsächlich diesesRechtsgut gefährdet. Der Abfall vom Islam, dessen Folgensich nur auf den privaten Lebensbereich des Abtrünnigenbeschränken, soll demzufolge den Tatbestand nicht erfül-len; damit wäre die weitaus größte Zahl aller Fälle von

 Apostasie nicht mehr strafbar. Aus der Strafbarkeit des Abfalls vom Islam erklärt sich auch das Missionsverbot.Missionierung ist die Anstiftung zu einer Straftat. Da imBereich der hadd-Delikte die Rechtsfigur der Anstiftungnicht entwickelt ist, ist sie nur über eine eigenständigeStraftat, ein ta‘zir-Delikt, zu erfassen. Wie bereits erwähnt, hat bei ta‘zir-

Delikten die Obrigkeit eine große Frei-heit. Im Idealfall ist es der gerechte

und gelehrte Richter, der als Vertreter des Herrschers weiß, welches Tun wiezu bestrafen ist. In der Praxis habenheute die Staaten mit islamischemStrafrecht im Bereich der ta‘zir-Straftaten sehr wohl auch niederge-schriebene Gesetze. Das Nulla-poena-sine-lege-Prinzip (also keine Strafeohne Gesetz), wird häufig als festeNorm des islamischen Rechts postu-liert und hat zum Beispiel in Iran Ver-fassungsrang, wo es allerdings gleich-zeitig eine zweideutige Verfassungs-norm gibt, die nach einer Interpreta-tion eine richterliche Rechtsschöpfungzuzulassen scheint. So ist bis heuteein Spannungsverhältnis zwischenden ta‘zir-Straftaten und dem Nulla-poena-Satz unverkennbar.

In Iran gab es nach der islamischen Revolution starkeStrömungen, die eine gesetzliche Festlegung von ta‘zir-Straftaten ablehnten und dem Richter überlassen wollten.Die Gegenseite argumentierte, die Richter in Iran seienkurz nach der Revolution noch zu wenig im islamischenRecht bewandert, um danach richten zu können; manmüsse ihnen daher Gesetze mit Straftatbeständen undStrafrahmen an die Hand geben. Es war Khomeini, der diesen Streit entschied, indem er den Erlass eines ta‘zir-Gesetzes verfügte. Die Möglichkeit der richterlichenSchöpfung von Straftatbeständen und Strafen ist aber auch in Iran noch an einer Stelle ausdrücklich verblieben:im Gesetz über die Sondergerichte für die Geistlichkeit.

Der große Spielraum bei den ta‘zir-Gesetzen erklärt,warum auch in den Verfahren gegen die „Shelter Now“-Mitarbeiter solche Unsicherheit herrschte. Der religiöseFührer kann Dekrete erlassen und abändern. Dabei mussman zu den Taliban und ihrer Führung wissen, dass hinter 

ihrer Interpretation des islamischen Rechts nicht die Ge-lehrsamkeit steht, die in den großen theologischen Hoch-schulen Irans, Ägyptens oder Pakistans vermittelt wird.Die afghanischen Taliban haben ihre theologische Bildungmeist aus pakistanischen Lehreinrichtungen für Dorfmul-lahs bezogen, wo auch das islamische Recht nur noch inhöchst dürftiger und vergröberter Form gelehrt wird. DasPashtunwali, der Ehrenkodex der Paschtunen, spielt bisheute eine weit größere Rolle im Denken der Taliban alsdas Wissen um das hoch entwickelte islamische Recht.

Die Bestrebungen nach einer Weiterentwicklung des is-lamischen Strafrechts und einer weit gehenden Neuschaf-fung eines islamischen Strafprozessrechts finden sich an-

derswo, vor allem in Iran. Der Rückgriff auf allgemeinePrinzipien wie Gerechtigkeit oder Gemeinwohl, die Aus-arbeitung einer Lehre vom Unveränderlichen und Verän-derlichen im islamischen Recht unter Heranziehung ganzneuer Gesichtspunkte gewinnen zunehmend an Bedeu-tung. Ayatollah Khomeini, der weitaus nüchterner undpragmatischer war als im Westen oft wahrgenommen, er-ließ kurz vor seinem Tod eine Direktive, dass bestimmteNormen des islamischen Rechts außer Kraft gesetzt wer-den können, wenn es für den Bestand des islamischenStaates notwendig ist. Die Folgen dieser Direktive sind bisheute noch nicht ausgelotet. Sie scheinen aber den Wegzu einem Strafrecht zu erleichtern, das danach strebt, is-lamische Prinzipien unter Wahrung ihres Wesenskerns ineiner Weise zu interpretieren, dass sie das für die Gestal-tung des heutigen Lebens Nützliche erlauben. Eine weite-re Beobachtung der Entwicklung des islamischen Straf-rechts bleibt spannend.   SILVIA  TELLENBACH

„Der Rückgriff auf allgemeine Prinzipien wie Gerechtigkeit

oder Gemeinwohl gewinnt zunehmend an Bedeutung.“ 

Page 50: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 50/59

Richard Wielebinski

98   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1 4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   99

RadioASTRONOMPERSON

Richard Wielebinski

Den Beweis, dass er sich schon

früh für die Wirkung magneti-

scher Felder im Weltall interessiert

hat, trägt Richard Wielebinski immer 

bei sich. Manchmal zeigt er ihn: Er 

zückt während des Gesprächs ganz

unvermittelt seine Geldbörse und

entnimmt ihr eine australische 50-

Dollar-Note. „Sehen Sie sich mal die

Schmalseiten an, auf einer ist eine

Messkurve abgebildet – das Signal

des ersten Pulsars, der 1968 von

 Australien aus am Südhimmel ent-

deckt wurde.“ Und zwar von ihm.

So konnte er, als bald nach seiner 

Rückkehr die Pulsararbeit in der 

Zeitschrift N ATURE publiziert wurde,

das Radioteleskop des Parkes Obser-

 vatoriums mit derartigen Empfän-

gern ausrüsten und erstmals auch

 von Australien aus Pulsare auf-

spüren. Diese Beobachtung, deren

Messkurve die 50-Dollar-Note ziert,

führte zu einer wahren Jagd nach

solch rotierenden Objekten. Wiele-

binski selbst entdeckte binnen kurzer 

Zeit mit seinen Empfängern 25 Pul-

sare am Südhimmel.

NAZIS DEZIMIERTEN

FÜHRUNGSSCHICHT

Doch warum ist der gebürtige Pole

 Wielebinski überhaupt nach Austra-

lien gekommen und dort auf die

noch junge Radioastronomie ge-

stoßen? Richard Wielebinski wurde

am 12. Februar 1936 im polnischen

Pleszew, Provinz Posen, geboren. Am

1. September 1939 überfielen die

Deutschen das Land. Ein Teil des er-

oberten Territoriums wurde als War-

thegau dem Reich einverleibt und

der Rest Polens, sofern nicht von der 

Sowjetunion oder Litauen bean-

sprucht, zum Generalgouvernement

erklärt. Da im Warthegau „Volks-

deutsche“ angesiedelt werden soll-

ten, dezimierten die Nazis ganz ge-

zielt die polnische Führungsschicht

durch Deportationen und Erschie-

ßungen.

Zu den damals ins Generalgouver-

nement Vertriebenen gehörten die

 Wielebinskis – der Vater hatte an ei-

ner Berufsschule Mathematik und

Buchführung unterrichtet, die Mutter 

war Grundschullehrerin. Der Familie

stand eine zehnjährige Lagerzeit be-

 vor, die in der Nähe von Krakau be-gann und nach Kriegsende bei Lipp-

stadt in einem Camp für „displaced

persons“ in der britischen Zone en-

dete. 1949 wanderte die Familie

nach Australien aus. Per Vertrag

musste sich damals jeder Einwande-

rer verpflichten, zunächst zwei Jahre

in dem Bundesstaat zu arbeiten, in

dem die Familie eine Wohnung be-

kommen konnte und wo es Arbeit

gab. Damit fielen zwei der ursprüng-

lich anvisierten Städte weg, nämlich

Sydney in New South Wales und

Melbourne in Victoria: „In beiden

bestand nur bis zum 14. Lebensjahr 

Schulpflicht und ich hätte sofort

nach unserer Ankunft einen Job an-

nehmen müssen”, erzählt Wielebinski.

Die Eltern bemühten sich deshalb,

 Arbeit auf der im Süden des australi-

schen Kontinents gelegenen Insel

Tasmanien zu finden, denn hier war 

Schulbesuch bis zum 16. Lebensjahr 

Pflicht. Es gelang ihnen, und so

konnte Richard Wielebinski in Ho-

bart, der Hauptstadt von Tasmanien,

als 14-Jähriger endlich eingeschult

werden. Damit war die erste Voraus-

setzung für ein späteres Universitäts-

Richard Wielebinski hat

im Jahr 1968 den ersten

Pulsar am Südhimmel

entdeckt. Das Signal des

Objekts ziert die austra-

lische 50-Dollar-Note.

Seit vier Jahrzehnten untersucht

RICHARD  W IELEBINSKI , Direktor am

MAX-PLANCK-INSTITUT FÜR

ADIOASTRONOMIE in Bonn, kosmische 

Magnetfelder. Seine Arbeitsgruppe

nimmt eine weltweit führende Position

auf diesem Gebiet ein.

   F   O   T   O   S  :   W   O   L   F   G   A

   N   G   F   I   L   S   E   R

sterbender Sterne – gedeutet werden.

Durch die Volumenverminderung

beim Zusammenstürzen eines Sterns

erhöht sich dessen Umdrehungsge-

schwindigkeit und sein Magnetfeld

 verdichtet sich. Unter der Wirkung

des verstärkten Feldes kommt es zu

einer Bündelung der elektrisch gela-

denen Partikel, die vom Neutronen-

stern weggeschleudert werden. Da-

durch entstehen an beiden Magnet-

polen Strahlkegel; bei jeder Umdre-

hung des Neutronensterns überstrei-

chen sie die Erde – wie das Leucht-feuer eines Leuchtturms.

 Wielebinski, damals als Senior 

Lecturer (C3-Professor) an der Uni-

 versität von Sydney tätig, war 

1966/67 von Otto Hachenberg einge-

laden worden, während eines „Sab-

baticals“ als Gastprofessor an das

 Astronomische Institut der Univer-

sität Bonn zu kommen. In dieser Zeit

besuchte er seine Alma mater in

Cambridge und hörte dort von einer 

wichtigen neuen Beobachtung: der 

zu jener Zeit noch nicht veröffent-

lichten Pulsarentdeckung. In Sydney 

hatte Wielebinski hoch empfindliche

Empfänger entwickelt, die sich auch

für Pulsarmessungen eignen sollten.

Leider, so flachst er, gebe es „keine

Lizenzgebühren“ für diesen Abdruck.

 Wenige Monate zuvor hatte die

Doktorandin Jocelyn Bell in Cam-

bridge bei der Durchsicht von Mess-

streifen, die bei der Suche nach Ra-

diosignalen aus dem All angefallen

waren, eine Entdeckung gemacht: Ihr 

war aufgefallen, dass verschiedene

kosmische Objekte regelmäßig wie-

derkehrende Impulse aussenden. Die-

se Pulsare, wie man die Objekte spä-

ter nannte, konnten als rotierende

Neutronensterne – kollabierte Reste

Page 51: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 51/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   101

RadioASTRONOM

100   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

PERSON

studium – dem großen Traum seiner 

Eltern – erfüllt. Vier Jahre später be-

stand er an der Hobart State High-

school das Abitur, und zwar mit der 

neuntbesten Note in ganz Tasmani-

en. Da den zehn besten Schülern die

Studiengebühren erlassen und für 

die ersten Semester ein kleines Sti-

pendium gewährt wurde, war es

 Wielebinski möglich, ein Ingenieur-

studium an der University of Tasma-

nia zu beginnen. 1958 legte er hier 

sein Bachelorexamen ab.

Den zweiten Studienabschnitt bis

zur Masterprüfung finanzierte Wie-

lebinski, indem er sich bei der

australischen Post verdingte. „Es

herrschte damals ein Mangel an In-

genieuren, und das Unternehmen verpflichtete deshalb seinen Nach-

wuchs schon während des Studiums.“

Er unterschrieb einen Ausbildungs-

 vertrag und übte in der vorlesungs-

freien Zeit alle Tätigkeiten eines

Postlers aus – „vom Briefmarkenver-

kauf bis zur Telefoninstallation“.

Bei der australischen Post trat der 

frischgebackene „Master of Enginee-

ring Science“ auch seine erste Stelle

an: Als Fernmeldeingenieur wurde er 

1959 mit dem Bau eines Fernsehsen-

ders betraut. Während dieser Tätig-

keit lernte er zufällig einen Pionier 

der Radioastronomie kennen, den

amerikanischen Ingenieur Grote Re-

ber. Der hatte 1937 eine spezielle

 Antenne für kosmische Radiowellen

gebaut: eine parabolförmige Metall-

schüssel von zehn Meter Durchmes-

ser. Der Spiegel konzentrierte die aus

dem All kommende Strahlung im

Brennpunkt, wo ein Dipol ange-

bracht war, der die Radiowellen auf-

nahm und an einen Empfänger wei-

terleitete. Mit dieser Antenne gelang

es Reber, eine erste Radio-Himmels-

karte aufzunehmen; sie wurde 1940

 veröffentlicht und gab die Intensität

der kosmischen Radiostrahlung bei

1,9 Meter Wellenlänge wieder; das

entspricht einer Frequenz von 162

Megahertz, also kosmischer Ultra-

kurzwelle.

Nach Tasmanien war Reber ge-

kommen, weil sich die Insel in der 

Nähe des in der Antarktis gelegenen

Magnetpols der Erde befindet. Diese

bevorzugte Lage wollte er nutzen,

um von hier aus die niederfrequente

Radiostrahlung zu messen, die über 

diesem Pol durch die Ionosphäre

tritt. Wielebinski half ihm beim Auf-

hängen einer 600 Meter langen An-

tenne, die auf einem vulkanischen

Hügel installiert wurde – sein erster 

Kontakt mit der Radioastronomie.

PROMOTION

IN CAMBRIDGE

Das hatte Konsequenzen: Noch

während er Fernsehsender für die

Post baute, bewarb sich Wielebinski

um ein Stipendium. Und er hatte Er-

folg. Denn die University of Cam-

bridge, die ein Stipendium landes-

weit ausgeschrieben hatte, wählte

ihn aus und bot ihm die Möglichkeit,

an der britischen Traditionsuniver-

sität eine Doktorarbeit zu beginnen.

In Cambridge lehrte Martin Ryle, der 

Gründer und Direktor des Mullard

Radioastronomischen Observatori-

ums. Ihm war es gelungen, durch das

Zusammenschalten mehrerer Radio-

teleskope deren Auflösungsvermö-

gen entscheidend zu verbessern.

 Wielebinski fragte bei Ryle nach ei-

nem Promotionsthema und bekam

prompt eine Aufgabe gestellt: Er soll-

te die Struktur der Magnetfelder in

unserer Milchstraße bestimmen.

 Was haben Magnetfelder mit Ra-

dioastronomie zu tun? Die galak-

tische Kontinuumsstrahlung im Ra-

diowellenbereich besteht aus zwei

Komponenten. Zum einen aus der so

genannten thermischen Radiostrah-

lung. Sie bildet sich, wenn das inter-

stellare Gas der Milchstraße von

heißen Sternen extrem aufgeheizt

wird. Dadurch verlieren die Atome

ihre Elektronen, die sich nun frei und

mit großer Geschwindigkeit durch

den Raum bewegen können. Aller-

dings stoßen sie hier immer wieder 

mit Atomen zusammen und werden

dabei abgebremst. Jeder Bremsvor-

gang aber führt zum Aussenden von

Strahlungsquanten. Die Wellenlänge

dieser Strahlung, die keinerlei Infor-

mation über Magnetfelder enthält,

liegt im Zentimeterbereich.

Interessanter für Radioastronomen

ist die zweite Komponente, die nicht-

thermische Strahlung. Sie entsteht,

wenn fast lichtschnelle Elektronen

aus der kosmischen Höhenstrahlung

das interstellare Magnetfeld durch-

fliegen. Als elektrisch geladene Par-

tikel bekommen sie die magneti-

schen Kräfte zu spüren: Die Elektro-

nen werden auf Spiralbahnen um die

Magnetfeldlinien gezwungen. Auf 

solch gekrümmten Wegen strahlen

sie Energie in Form von Radiowellen

ab. Diese Strahlung wird Syn-

chrotronstrahlung genannt, nach

den Synchrotron-Teilchenbeschleu-

nigern, an denen sie erstmals be-

obachtet werden konnte. Sie hat ihr 

Maximum im Dezimeter-Wellenlän-

genbereich. Gerade diese – 1932 von

Karl Jansky in den USA entdeckte –

Strahlung war es, die zur Geburt der 

Radioastronomie geführt hatte.

Die kosmische Synchrotronstrah-

lung ist polarisiert. Das heißt, sie

besitzt eine bevorzugte Schwin-

gungsrichtung und gilt deshalb als

wichtigste Informationsquelle für in-

terstellare Magnetfelder. Aus ihrer 

wurde er mit dieser Arbeit promo-

 viert.

 Anschließend kehrte Richard Wie-

lebinski an die Universität von

Sydney zurück und wurde an der 

dortigen School of Electrical En-

gineering zunächst Lecturer, 1966

Senior Lecturer. Als im selben Jahr 

die Wissenschaftler Otto Hachenberg

und Wolfgang Priester vom Astro-

nomischen Institut der Universität

Bonn Australien besuchten, über-

nahm Wielebinski deren Betreuung.

Diese Bekanntschaft führte später

zu der erwähnten Einladung nach

Bonn, die er 1966/67 wahrnahm.

Damit wären wir wieder am Anfang

unserer Geschichte.

Institut errichtete bei Effelsberg in

der Eifel ein voll bewegliches Radio-

teleskop von 100 Meter Durchmesser.

Für dieses neue Instrument wurde

ein Experte für die Entwicklung

neuer Empfänger gesucht – und in

diesem Ruf stand Wielebinski seit

langem.

RADIOKARTE

DES SÜDLICHEN HIMMELS

 Wielebinski kam nach Bonn, ver-

handelte, sagte zu und wurde zum

Direktor des Instituts und zum Wis-

senschaftlichen Mitglied berufen. Als

Einstiegsgeschenke brachte er eine

Radiokarte des südlichen Himmels

mit, die mit dem 64-Meter-Parkes-

Radioteleskop in Australien aufge-nommen worden war, und Pläne für 

neue Polarisationsmessgeräte (Pola-

rimeter), die später in Effelsberg er-

folgreich zum Einsatz kamen.

 An dem neuen Radioteleskop, das

heute, 30 Jahre später, immer noch

das weltweit größte voll bewegliche

Teleskop dieser Art ist, wurde An-

fang 1971 mit der Erprobung begon-

nen. Nach diversen Optimierungs-

arbeiten konnte eineinhalb Jahre

später der volle Betrieb aufgenom-

men werden. Bereits im Dezember 

desselben Jahres erschien die erste

 Veröffentlichung über die schwachen

Signale eines Pulsars mit der höchs-

ten bis dahin gemessenen Radio-

frequenz. Solche schwachen Signale

sind von großer Bedeutung für die

Interpretation der Emissionsmecha-

nismen von Pulsaren und werden

deshalb weiterhin in Effelsberg er-

forscht. Dagegen überlässt man die

aufwändige Suche nach neuen

Pulsaren eher Einrichtungen mit

Teleskopen, die über viel freie Be-

obachtungszeit verfügen. Denn in

Effelsberg, so Wielebinski, „sind viele

Projekte institutseigener und auswär-

tiger Arbeitsgruppen anhängig, mit

der Folge, dass die Beobachtungszeit

nach wie vor sehr knapp ist.“

Richard Wielebinski widmete sich

in Effelsberg wieder intensiv der Er-

forschung von Magnetfeldern und

zwar vor allem in fernen Galaxien.

Mit dem Werkzeug der Radioastronomen – Antennen, hoch empfindlichen

Empfängern und Verstärkern – ist Richard Wielebinski bestens vertraut.

Intensität lässt sich die Stärke und

aus ihrer Polarisationsrichtung die

Orientierung des Magnetfelds in der 

Himmelsebene bestimmen. Wiele-

binski musste für die Radioteleskope

also Empfänger entwickeln, die es

ermöglichten, die Polarisation der 

Synchrotronstrahlung zu messen.

Eine schwierige Aufgabe, die er je-

doch nach drei Jahren gelöst hatte:

Er konnte 1962 nachweisen, dass die

Strahlung und damit auch das Mag-

netfeld ungefähr entlang der galakti-

schen Ebene ausgerichtet sind. 1963

Doch sie geht weiter: „Zwei Tage

 vor meinem 33. Geburtstag, also am

10. Februar 1969“, so erinnert sich

 Wielebinski, „wurde ich in Sydney 

überrascht durch einen Brief des

damaligen Präsidenten der Max-

Planck-Gesellschaft, Adolf Bute-

nandt.“ Er fragte an, ob Wielebinski

nicht zu Berufungsverhandlungen

nach Deutschland kommen wolle.

In Bonn war 1965 ein Max-Planck-

Institut für Radioastronomie gegrün-

det worden, mit Otto Hachenberg als

Geschäftsführendem Direktor. Das

Page 52: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 52/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G   103

RadioASTRONOM

102   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

PERSON

räumliche Auflösung des VLA als

auch die hohe Empfindlichkeit des

Einzelteleskops in der Eifel zur Gel-

tung.

Um auch die Linienstrahlung

astrophysikalisch interessanter Mo-

leküle – etwa die des Kohlendioxids

bei 2,6 Millimeter Wellenlänge – un-

tersuchen zu können, wurde bereits

1972 der Bau eines weiteren Radio-

teleskops für Beobachtungen im Mil-

limeterbereich diskutiert. Die Pla-

nung lief schließlich auf ein In-

strument mit 30 Meter Durchmesser 

hinaus, das bis zu einer unteren

 Wellenlänge von 0,8 Millimetern

brauchbar sein sollte. Da die Milli-

meter-Radiostrahlung von Wasser-

Denn über Magnetfelder in unserer 

Milchstraße können die Radioastro-

nomen nach wie vor nur wenig aus-

sagen. Da die Sichtlinie hier viele

Magnetfelder kreuzt und es zu

Feldüberlagerungen kommt, „sieht

man den Wald vor Bäumen nicht”,

so der Wissenschaftler. Bei anderen

Galaxien hingegen gibt es eine klare

Sicht auf das gesamte Magnetfeld.

Deshalb „wissen wir mehr über frem-

de Galaxien als über die eigene

Milchstraße“. Die zentrale Fragestel-

lung lautet: Welchen Einfluss haben

die Magnetfelder auf die Entstehung

der Galaxien?

 Als Beobachtungsgerät steht dem

 Wissenschaftler und seinen Mit-

arbeitern vor allem das voll beweg-liche 100-Meter-Radioteleskop zur 

 Verfügung. Es erfüllt Wielebinski mit

Stolz, dass aus Polarisationsmessun-

gen mit diesem Gerät bei 11 und 6

Zentimeter Wellenlänge schon früh

erstmals Struktur, Richtung und

Größe (einige Millionstel Gauß) des

Magnetfelds der nächsten großen

Spiralgalaxie – des Andromeda-

nebels – ermittelt werden konnten.

Ursprünglich war das Effelsberger 

Radioteleskop nur für den Empfang

solcher Zentimeterwellen konzipiert,

doch hat sich inzwischen gezeigt,

dass es dank seiner hohen Reflektor-

genauigkeit bis zu einer kürzesten

 Wellenlänge von sechs Millimetern

zu nutzen ist. Zusammen mit den am

Institut entwickelten Hochleistungs-

empfängern gilt das Effelsberger Te-

leskop deshalb auch heute noch als

das beste Instrument zum Nachweis

polarisierter Radiostrahlung.

EINE ANLAGE AUS27 PARABOLANTENNEN

Die Aussagekraft der mit diesem

Instrument gewonnenen Daten lässt

sich allerdings noch steigern: Wenn

man die in Effelsberg gemachten Be-

obachtungen mit denen des Very 

Large Array (VLA) im amerikani-

schen New Mexico – einer Anlage

aus 27 verschiebbaren Parabolanten-

nen von je 25 Meter Durchmesser –

 verknüpft, kommen sowohl die gute

französische Centre National de la

Recherche Scientifique (CNRS) ein

gemeinsames Institut für Radio-

 Astronomie im Millimeterbereich

(IRAM) mit Sitz in Grenoble.

IRAM betreibt das in der spani-

schen Sierra Nevada am Pico Veleta

in 2800 Meter Höhe errichtete 30-

Meter-Teleskop und dazu eine auf 

dem fast gleich hohen Plateau de

Bure südlich von Grenoble installier-

te Anlage, die heute fünf 15-Meter-

Parabolantennen umfasst. Ein weite-

res Teleskop, das Heinrich-Hertz-Te-

leskop von 10 Meter Durchmesser,

das über eine äußerst präzise Ober-

fläche verfügt und sich daher für 

Untersuchungen im Submillimeter-

Emissionslinien im Radiowellenbe-

reich angeregt. Da die Häufigkeit

solcher Stöße von der Anzahl der 

 Wasserstoffmoleküle pro Kubikzenti-

meter und von der Temperatur ab-

hängt, kann man aus der Intensität

dieser Spektrallinien beide Werte ab-

schätzen.

 Auf diese Weise wird es also

möglich, über die Spektroskopie auf 

die in den dichten Molekülwolken

 vorhandene Masse und damit auf

die Gesamtmasse der Galaxie zu

schließen. Da aus den Polarisations-

messungen außerdem Struktur, Rich-

tung und Stärke der interstellaren

Magnetfelder bekannt sind, hat man

zwei Parameter zur Verfügung, um

das immer noch ungelöste Problemanzugehen: Wie koppeln die Mag-

netfelder mit den Molekülwolken?

Denn das ist die entscheidende Frage

für Wielebinski: „Folgt das Magnet-

feld den Gasbewegungen einer sich

selbst organisierenden Galaxie? Oder 

wirken die Magnetfelder wie Spiral-

federn und nehmen die Materie

mit?“ Seine Magnetfeld-Forscher-

gruppe, die nahezu alle Galaxien in

unserer Nachbarschaft untersucht

hat und von Gutachtern als „world

leading group“ auf diesem Gebiet

eingestuft wurde, bringt die besten

 Voraussetzungen mit, diese Frage

eines Tages zu beantworten.

 Aber auch die Anziehungskraft,

die kosmische Magnetfelder seit fast

 vier Jahrzehnten auf Wielebinski

ausüben, spricht dafür, dass das Rät-

sel irgendwann gelöst wird. In letzter 

Zeit ist der Radioastronom zur Un-

tersuchung von Magnetfeldern der 

Milchstraße zurückgekehrt. Die Fas-

zination, die er bei der ersten Ent-

deckung solcher magnetischer Felder 

in unserer Galaxis verspürte, zeigt

offensichtlich nach wie vor Wirkung,

und so greift er nun die immer noch

attraktiven Originalthemen seiner 

Doktorarbeit wieder auf. „Es ist selt-

sam“, sagt er, „wenn man sich ein-

mal intensiv mit einem Thema aus-

einander gesetzt hat, kehrt man

irgendwann offenbar unweigerlich

zu ihm zurück.“ MICHAEL GLOBIG

Spiralarme ausgerichtetes Magnet-

feld.“ Die Magnetfelder erweckten

den Eindruck, als ob sie „in der gas-

förmigen Materie eingefroren sind

und den Spiralarmen folgen.“ Es

sieht so aus, als machten sie nahezu

 jede Bewegung mit und würden da-

bei beträchtlich verbogen. Eine ähn-

liche Beobachtung gelang den Bon-

ner Radioastronomen bei ihren vor 

wenigen Jahren begonnenen Unter-

suchungen so genannter Balkengala-

xien; das sind Milchstraßensysteme

mit einer balkenförmigen Sternan-

ordnung. Das in den Balken stürzen-

de Gas wird gestaut und dadurch um

fast 90 Grad abgelenkt. Eine derartig

abrupte Richtungsänderung ist auch

beim Magnetfeld zu beobachten.

Folgt das Feld der Materieströmung?

Oder ist es umgekehrt: Hängen Spi-

ralarme oder Balken an den Magnet-

feldern?

Neben der Kontinuumsstrahlung

analysieren die Bonner Astronomen

auch Spektrallinien im Radiobereich,

 vor allem mit den IRAM-Teleskopen

und mit dem Heinrich-Hertz-Tele-

skop auf dem Mount Graham. Solche

Messungen liefern Informationen

über die interstellare Materie, den

„Stoff“, aus dem die Sterne werden.

Die Sternbildung geschieht in dich-

ten Wolken aus interstellarer, zwi-

schen den Sternen befindlicher Ma-

terie. In unserer Milchstraße besteht

der größte Teil dieses Mediums aus

atomarem Wasserstoff. Die 21-Zenti-

meter-Linie der Wasserstoffatome

war schon 1951 entdeckt worden

und hatte die Hoffnung geweckt,

über sie die Verteilung der interstel-

laren Materie ermitteln und den Pro-

zess der Sternentstehung verstehen

zu können. Doch diese Erwartung er-

füllte sich nicht: Die gemessene Kon-

zentration der Wasserstoffatome war 

zu gering, als dass es sich dabei um

dichte Wolken hätte handeln können.

UNSICHTBARE

WASSERSTOFFMOLEKÜLE

In den dichten Wolken wandelt

sich der atomare Wasserstoff an der 

Oberfläche von winzigen, mit dem

Gas vermischten Staubpartikeln in

 Wasserstoffmoleküle um. Sie aber 

haben keine beobachtbaren Spekt-

rallinien im Radiowellenbereich, sind

also für Radioteleskope unsichtbar.

Später stellte sich jedoch heraus,

dass außer den Wasserstoffmole-

külen in geringen Mengen auch eini-

ge Dutzend andere Moleküle entste-

hen, zum Beispiel Kohlenmonoxid

(CO). Die CO-Moleküle werden durch

Zusammenstöße mit den Wasser-

stoffmolekülen zum Aussenden von

Bis Richard Wielebinski Karten von kosmischen Magnetfeldern

in Händen halten kann, ist viel Computerarbeit notwendig.

dampf in der irdischen Atmosphäre

stark vermindert wird, muss ein

solches Radioteleskop allerdings an

einem Ort errichtet werden, der nicht

nur viele klare Nächte aufweist, son-

dern auch einen geringen Wasser-

dampfgehalt. Dieser Standort ist in

Deutschland nicht zu finden. Der

Betrieb eines Teleskops im Ausland

hätte aber das Budget des Bonner 

Max-Planck-Instituts überzogen. So

gründeten die Max-Planck-Gesell-

schaft und das ebenfalls an einem

solchen Radioteleskop interessierte

 Wellenbereich eignet, wurde gemein-

sam mit der University of Arizona

auf dem 3400 Meter hohen Mount

Graham errichtet. Damit haben die

Bonner Radioastronomen Zugriff auf 

eine breite Palette von Teleskopen.

Die genauesten Radiokarten naher 

Galaxien werden durch die erwähnte

 Verknüpfung von Polarisationsmes-

sungen in Effelsberg und New Mexi-

co mit dem VLA gewonnen. Bei Spi-

ralgalaxien, so Wielebinski, zeigten

sie meist „ein hochgradig geordne-

tes, entlang der optisch sichtbaren

Page 53: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 53/59

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 105

NEU erschie

Platz hat? Dass es auf dem Mond irr-lichtert? „Ich hoffe, die Texte brin-gen etwas von dem Spaß, den mir das Schreiben bereitete, zu den Le-sern hinüber“, heißt es im Vorwort.Die Hoffnung hat sich erfüllt: DasBuch ist ein echter „Kippenhahn“ ge-worden, ein Stück originelle Wissen-schaftsprosa mit Humor und Hinter-grund – eine leider allzu selteneKombination.   HELMUT  HORNUNG

Der Brief des

Edwin Hubble

Thomas Bührke, STERNSTUNDEN DER

ASTRONOMIE, Von Kopernikus bis

Oppenheimer, 220 Seiten, 24 Abbildungen,

 Verlag C.H. Beck, München, 9,90 Euro.

 Wissenschaft wird von Men-schen gemacht! Diese Fest-

stellung mag banal klingen. Sichdessen bewusst zu sein erscheintaber notwendig, wenn Forschungnicht Gefahr laufen soll, in den Ruf zu geraten, im luftleeren Raum jen-seits der Gesellschaft zu agieren. Wiewichtig diese Bodenhaftung ist, be-weist die Gentechnik-Diskussion. Während sich der Mensch also

heute anschickt, seinen biologischenBauplan zu entziffern, rang er Jahr-hunderte lang um seine eigene Stel-lung im Kosmos. Hier setzt das Buch

 von Thomas Bührke an. Der Autor,promovierter Astrophysiker und

 Wissenschaftsjournalist, beschreibtdie Geschichte vom Werden unseres

 Weltbilds nicht chronologisch mitFakten, sondern exemplarisch an-hand von Personen: Nikolaus Ko-pernikus, Johannes Kepler, GalileoGalilei, Friedrich Wilhelm Herschel,Friedrich Wilhelm Bessel, Urbain Jo-seph Leverrier, John Couch Adams,Edwin Powell Hubble, Julius RobertOppenheimer.

Die Porträtgalerie beginnt natür-lich mit Kopernikus, der die Erde ausdem Zentrum des Universums ver-bannt und das heliozentrische Sys-tem erstmals in mathematisch ge-schlossener Form darstellt – wenn-gleich er noch viele Hilfskonstrukte

104   M A X P L A N C K F O R S C H U N G   4 / 2 0 0 1

U erschienen

machen, ebenso. Hat man einmal dieeinleitenden Kapitel gelesen, kannman also je nach Laune und Interes-se durchaus von einer Anekdote zur nächsten springen und sich die Un-terkapitel herauspicken, deren Über-schriften sozusagen am meisten Ap-petit machen. SUSANNE BEER

Die Nägel des

Kopernikus

Rudolf Kippenhahn, AMOR UND DER

ABSTAND ZUR SONNE, Geschichten aus

meinem Kosmos, 186 Seiten mit etwa

80 Abbildungen, Piper Verlag, München,

Zürich, 17,90 Euro.

Nur wenige Wissenschaftler ver-

stehen es, verständlich, span-nend und zugleich präzise über For-schung zu schreiben. Rudolf Kippen-hahn, von 1975 bis 1991 Direktor amMax-Planck-Institut für Astrophysik,beherrscht dieses schwierige Geschäftwie kaum ein Zweiter. Hunderte Vor-träge hat er gehalten und zehn po-pulärwissenschaftliche Bücher veröf-fentlicht. Der vor rund zwanzig Jah-ren erschienene Titel „Hundert Milli-arden Sonnen“ zählt mittlerweile zuden Klassikern dieses Genres. Kip-penhahns Vortrags- und Schreibstilist neben dem großem Fachwissengeprägt von Anekdoten und Apercus.Diese Kunst des „amüsierenden Be-lehrens“ zelebriert er besonders inseinem neuesten Buch Amor und der 

 Abstand zur Sonne. Darin begibt sichder Autor auf Spurensuche durch 500Jahre Astronomie.

Nicht die großen Geschichten sindes, die Kippenhahn reizen, sonderndie „Geschichtchen“ drumherum. Ei-nem Archäologen gleich, hebt Kip-penhahn so manchen (kunst)histori-schen Schatz. Und das ist gelegent-lich wörtlich zu nehmen. Da ist zumBeispiel die „Himmelfahrt Mariae“des Ludovico Cigoli in der Paulini-schen Kapelle von Santa Maria Mag-giore in Rom. Die Madonna nämlich,so erfährt der Leser, steht deshalb auf einer kraterübersäten Mondsichel,weil der Maler die 1610 erschienene

 Abhandlung Sidereus Nuncius seines

Das Zahngold

der Etrusker

Dierk Raabe, MORDE, MACHT,

MONETEN, Metalle zwischen Mythos und

High-Tech, 235 Seiten, Abbildungen,

Wiley-VCH Verlag, Weinheim, 24,90 Euro.

Lehrende an der Hochschule ken-nen das: Mitten in der Vorle-

sung stehen immer mal wieder ein-zelne Studenten auf und verlassenden Hörsaal – ob aus wichtigen Ter-mingründen oder weil sie sich lang-weilen, wer weiß das schon. Dierk Raabe hat ein Rezept dagegen gefun-den. Der Wissenschaftler bemerkte,dass sich die mittlere Verweildauer 

 von Studierenden in einer Vorlesungüber Metalle steigern lässt, wenn

man die Zuhörerschaft mit Hinter-grundanekdoten unterhält. Warumsollte, was bei Studenten funktio-

niert, nicht auch für interes-sierte Laien gelten? Aus seiner Sammlung solcher Geschich-ten stellte der 36-Jährige, der als Direktor am Max-Planck-Institut für Eisenforschung inDüsseldorf arbeitet, ein Buchzusammen. Es soll dem Leser die Welt der Metalle zwischenMythos und Hochtechnologienäher bringen und einen Ein-

blick in ihre kulturgeschichtlicheund technische Bedeutung als uralteBegleiter des Menschen geben.

Um es vorweg zu nehmen: DasUnterhalten funktioniert wirklichauch bei interessierten Laien. Mandenke sich einen schönen Titel ausund schon ist das Interesse für die

 Wissenschaft zwischen den Buch-klappen geweckt – zumindest wennman keine Abneigung gegen Allite-rationen hat. Denn das Werk heißt„Morde, Macht, Moneten“. Und dasPaperback-Päckchen (!), das der Ver-lag in seiner Reihe Erlebnis Wissen-schaft anbietet, hält, was der Titel

 verspricht.Dabei ist es logisch, dass das Buch

eine enorme Bandbreite geheimnis- voller, fesselnder und informativer Geschichten liefert. Denn, so lernenwir, von den mehr als 100 Elementenim Periodensystem gehören etwa 80

zu den Metallen. Da kann man sichgut vorstellen, dass es kaum ein Pro-dukt, einen Stoff auf der Welt gibt,in dem nicht irgendeines davon ver-steckt wäre. Staunend liest man, dassMetalle sogar schäumen können,dass sie ein Erinnerungsvermögenbesitzen, dass unter anderem Geister 

 Anteil an der Namensgebung be-stimmter Metalle hatten und Goldnicht das wertvollste Metall ist. Manerfährt, warum der Stahl des Titanic-Schiffsrumpfes aus heutiger Sicht

 von schlechter Qualität war, wie dieKonservendose entstand und dassetruskische Zahnärzte bereits 600Jahre vor unserer Zeitrechnung Goldals Zahnersatz verwendeten.

Metalle sind mehr als chemischeElemente. Sie sind Namensgeber ge-

schichtlicher Epochen, Werkzeugefür und bisweilen sogar Anlass vonInvasion und Krieg, Basis großer Kunstwerke und als Schmuck sinnli-che Begleiter des Körpers. Vor allemGold hat immer wieder Menschen inseinen Bann gezogen, selbst gestan-dene Wissenschaftler wurden biswei-len vom Goldrausch erfasst – zumBeispiel Fritz Haber. Im Jahr 1925segelte er auf Wunsch der deutschenRegierung streng geheim an Borddes Forschungsschiffes „Meteor“ mitin Richtung Südatlantik, um demMeer ein Vermögen abzutrotzen.Man wusste aus Arbeiten zum Me-tallgehalt des Meerwassers, dassauch Gold darin vorkommt. DochHabers Annahme, jeder Kubikkilo-meter könne mehrere Kilo des Edel-metalls enthalten, stellte sich bei denUntersuchungen als viel zu optimis-tisch heraus. Tatsächlich war es nur etwa ein Tausendstel der erwartetenMenge – zu wenig, um damit sovielzu gewinnen, wie es die Reparations-leistungen nach dem verlorenen Ers-ten Weltkrieg erfordert hätten. Denngenau das war das eigentliche Zieldieser Mission gewesen.

Die Aufzählung könnte lange soweitergehen. Der Anspruch des Au-tors, etwas über Metalle zumSchmökern anzubieten, ist mehr alserfüllt, der Wunsch, auf die Querver-bindungen zwischen Geschichte undNaturwissenschaften aufmerksam zu

Freundes Galileo Galilei kannte, der darin den Erdbegleiter mit vielenKratern zeichnet, die er kurz zuvor inseinem Fernrohr entdeckt hat. Apropos Teleskop: Friedrich Wil-

helm (William) Herschel war einer der besten Beobachter seiner Zeit. Er begründete die „Stellarstatistik“ undentdeckte im März 1781 den PlanetenUranus. Soweit die Geschichte, wieman sie im Lexikon nachlesen kann.

 Aber kennen Sie William J. Herschel?Er war der Enkel des berühmten

 Astronomen, hatte mit Sternen aber nichts am Hut. Als Kolonialbeamter in Rangoon in Indien gehörte es zuseinen Pflichten, den pensioniertenindischen Beamten monatlich ihrePension auszuzahlen. Das war schwierig, den die Männer sahen sich

– für europäische Augen jedenfalls –recht ähnlich und hatten oftmals so-gar denselben Namen. Herschel war 

aufgefallen, dass sich inden Abdrücken schmut-ziger Finger für jedenMenschen charakteristi-sche Muster zeigen. Da-her mussten die Pen-sionäre die Auszahlungmit Fingerabdrückenquittieren – William J.Herschel wurde so ganznebenbei zum Erfinder 

einer der wichtigsten kriminalisti-schen Methoden.

Der Satz „... und das weiß kaumein Astronom“, mit dem das Kapitelüber den Detektiv endet, könnte pro-grammatisch über dem gesamtenBuch und seinen vier Abschnitten(„Geschichten aus der Geschichte“,„Finstere Geschichten“, „Geschichten

 von heute“ und „Geschichten vom Weltall“) stehen. Was selbst Fach-leute erstaunt, überrascht Laien erstrecht. Oder hätten Sie gewusst, dassSie das Fenster zu Kippenhahnsehemaligem Arbeitszimmer in derGöttinger Sternwarte oft mit sichherumgetragen haben – auf einemZehnmarkschein? Dass Karl Fried-rich Zöllner, der „Vater der Astro-physik“, Geister aus der vierten Di-mension beschwor? Dass NikolausKopernikus auf einem berühmtenBild die Fingernägel am falschen

benötigt, um die Theorie der Praxisanzupassen. Auf diesem Fundamenterrichten Kepler und Galilei ihre

 Weltgebäude. Dabei müssen sie mitharten Lebensumständen kämpfenwie Johannes Kepler, der – häufigam Rand des Existenzminimums – inZeiten des Dreißigjährigen Kriegsunstet durch die Lande zieht, oder werden wie Galileo Galilei für ihrewissenschaftliche Überzeugung mas-siv angefeindet.

Ende des 18. Jahrhunderts findetHerschel heraus, dass die Sonne nur einer von unzähligen anderen Ster-nen in der Milchstraße ist. Die Gala-xis wiederum ist nur eine unter Mil-liarden anderen Galaxien, und allediese „Welteninseln“ streben vonei-nander fort. Diese Erkenntnisse ver-

danken wir Edwin Powell Hubble(1889 bis 1953), der sich zunächstals Boxer profiliert, im englischenOxford ein Jurastudium ab-bricht, danach an einer HighSchool im US-BundesstaatKentucky Spanisch unterrich-tet und sich 1914 schließlichder Astronomie verschreibt.

 Am damals größten Teleskopder Erde, am 2,5-Meter-Spie-gelfernrohr auf dem Mount

 Wilson, wird er wenige Jahrespäter den menschlichen Ho-rizont erweitern. „Hier ist der Brief,der mein Universum zerstört hat“,sagt der Astronom Harlow Shapley,als er von Hubbles Entfernungs-messung des „Andromeda-Nebels“erfährt, der demnach eine eigen-ständige Galaxie sein muss.

In sehr angenehmen Stil schildertThomas Bührke nicht nur die Wegeund Irrwege der Forschung (die sichbesonders drastisch im Streit um dieBerechnung des Planeten Neptunspiegeln). Stets zeichnet der Autor auch die Wege und Irrwege der For-scher, ihre Mühsal, ihre Zweifel –und ihre „Sternstunden“ nach. Sogerät das Buch zu einer anregendenEntdeckungsreise durch die Ge-schichte der Himmelskunde. Bührkehebt den Vorhang und lässt denLeser hinter die Kulissen blicken –auf die Menschen, die Wissenschaftmachen. HELMUT  HORNUNG

Page 54: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 54/59

INSTITUTE akt

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 107106   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

INSTITUTEaktuell aktuell 

Gleich vier Jubiläen auf ein-mal – sozusagen eine Fusionbesonderer Art – haben EndeOktober die Mitarbeiter desMax-Planck-Instituts fürPlasmaphysik (IPP) in Gar-ching gefeiert, das sich seitnun 40 Jahren der Erfor-

schung der Kernfusion wid-met, um sie zur Energiege-winnung auf der Erde nutz-bar zu machen. In Anwesen-heit des bayerischen Minis-terpräsidenten EdmundStoiber und Max-Planck-Präsident Hubert Markl so-wie Vertretern des Bundes-forschungsministeriums,der Europäischen Union undvielen Ehrengästen wurdenaußerdem die 30-jährigeMitgliedschaft in der Max-Planck-Gesellschaft, dieweltweit erste Demonstrationreinen Stellaratorbetriebseines Fusionsexperimentsvor 20 Jahren sowie der 10- jährige erfolgreiche Betriebvon ASDEX Upgrade, dergrößten deutschen Fusions-anlage, gewürdigt.

Die Fusionsforschung begannEnde der vierziger Jahre mitdem Ziel, ein Kraftwerk zu ent-

wickeln, das – ähnlich wie dieSonne – Energie aus der Ver-schmelzung von Atomkernengewinnt. Zum Zünden desFusionsfeuers muss es gelingen,ein dünnes Plasma aus denWasserstoffsorten Deuteriumund Tritium in Magnetfeldernwärmeisolierend einzuschließenund auf mehr als 100 MillionenGrad aufzuheizen. 1960 wurdedas IPP als Institut für Plasma-physik GmbH durch die Max-

Planck-Gesellschaft und WernerHeisenberg als Gesellschaftergegründet und 1961 per Asso-ziationsvertrag mit Euratom indas europäische Fusionspro-gramm integriert und im Jahr1971 in das Max-Planck-Insti-tut für Plasmaphysik umge-wandelt. Heute ist es mit rund1000 Mitarbeitern eines dergrößten Fusionszentren Europas– und erfolgreich. Man feierewichtige Meilensteine mit deram IPP immer weiter ent-wickelten Stellarator- und To-kamak-Technik, um Plasmeneinzuschließen, erläuterteAlexander Bradshaw, wissen-schaftlicher Direktor am Insti-

tut, beim Jubiläumsfest. Und:„Kurz vor dem Ende des 20.Jahrhunderts ist es der welt-weiten Fusions-Communitygelungen, die Machbarkeit derKernfusion als Energiequellezu demonstrieren, indem eineerhebliche Leistung durch dieFusionsreaktion experimentellnachgewiesen wurde.“Die Arbeiten des IPP waren beider Gründung sehr breit ange-legt; man studierte das Verhal-

ten des Plasmas mit verschie-densten Methoden magneti-schen Plasmaeinschlusses.Schon 1961 ging der erste Stel-larator, WENDELSTEIN 1a, inBetrieb. Während in den sechzi-ger Jahren die experimentellenResultate trotz großer Kennt-nisfortschritte weltweit unbe-friedigend blieben, funktionier-te der kleine Stellarator in Gar-ching, das „Munich mystery“,gut. Und WENDELSTEIN 2akonnte 1969 mit relativ kaltenModellplasmen von geringerDichte nachweisen, dass in Stel-laratoren der gute Plasmaein-schluss, den die Theorie erwar-ten lässt, wirklich möglich ist.

Doch die internationale For-schung ging in eine andereRichtung. Im Jahr 1968 melde-ten sowjetische Fusionsforscheraußerordentlich gute Ergebnis-se ihres Tokamaks T3. Ihre Erfin-dung sollte wesentlich bessereEinschluss- und Stabilitätsei-genschaften besitzen als allebisherigen Anlagen. Dies warder Auslöser für ein weltweites„Tokamak-Fieber“. Doch wegender eigenen guten Ergebnisse

wurden im IPP die Stellaratorar-beiten weitergeführt. Zusätzlichbegann aber 1970 die Planungfür den ersten Tokamak, Pulsator,der 1973 in Betrieb ging. Seitherist das Institut das einzige welt-weit, das beide im Vergleichuntersucht.Tokamaks erzeugen den Mag-netfeldkäfig sowohl durch Mag-netspulen außerhalb des Plasmasals auch durch einen im Plasmafließenden elektrischen Strom.Da der Strom auch für die An-fangsheizung des Plasmas sorgt,gilt das Tokamak-Prinzip als be-sonders effektiv. Stellaratorendagegen schließen das Plasmadurch Magnetfelder ein, die aus-schließlich durch äußere Mag-netspulen erzeugt werden.

Im Jahr 1980 nahm das IPP sei-nen neuen Tokamak ASDEX (Axi-alsymmetrisches Divertor-Experi-ment) in Betrieb und entdecktedamit 1982 das so genannteH-Regime (High-confinementregime), mit dem die erzielbareWärmedämmung verdoppeltwerden konnte. Erreicht wurdedies durch eine besondere Mag-netfeldanordnung – den Divertor.Aber auch die Stellaratoren wa-ren erfolgreich: 1980 konnte inGarching weltweit zum erstenMal das reine Stellaratorprinzip –Einschluss ohne Plasmastrom –mit einem heißen Plasma de-monstriert werden. Aufbauendauf diesen Erfolgen betreibt dasIPP seit 1988 den weiter ent-wickelten Stellarator WENDEL-STEIN 7-AS. Er hat inzwischenalle Rekorde seiner Größenklassegebrochen.Parallel ging 1983 der europä-ische Tokamak JET (Joint Euro-pean Torus) als Gemeinschafts-

experiment mit IPP-Beteiligungin Betrieb. Weil JET bereits in derersten Betriebsphase sehr gutePlasmawerte erzielte, verständig-ten sich die Regierungschefs derSowjetunion, Frankreichs und derUSA 1985 auf das Fusionsexperi-ment ITER, den InternationalenThermonuklearen Reaktor. Er sollzeigen, dass es möglich ist, durchKernverschmelzung Energie zugewinnen und erstmals ein fürlängere Zeit brennendes und

PLASMAPHYSIK  Vier Jahrzehnte

Energieforschung für die Zukunft

energielieferndes Plasma zu er-zeugen. Zudem sollen wesentlichetechnische Funktionen einesKraftwerks getestet werden. Von1988 bis 1990 arbeitete die eu-ropäisch-japanisch-amerikanisch-russische ITER-Planungsgruppeam IPP in Garching am Entwurf des Testreaktors.1991 gelang es mit dem europä-ischen Tokamak JET zum erstenMal in der Geschichte der Fusi-onsforschung, die in einem Kraft-werk vorgesehene Reaktion zuverwirklichen: In einem „ver-dünnten“ Deuterium-Tritium-Plasma wurde mehr als ein Mega-watt Fusionsleistung freigesetzt.1997 schaffte JET die Erzeugungvon 14 Megawatt Fusionsleistungfür zwei Sekunden; 65 Prozent

der zum Heizen aufgewandtenLeistung wurde dabei per Fusionzurückgewonnen. Voraussetzungfür diese Resultate war die Um-rüstung auf Divertorbetrieb nachdem Vorbild des IPP-ASDEX. Dieinzwischen erneut verbesserteDivertorkonstruktion ASDEX Up-grade schien darum unter denAnlagen des europäischen Fu-sionsprogramms besonders ge-eignet für ITER. Und tatsächlich:Die vor drei Jahren fertig gestell-ten ITER-Baupläne muten inwesentlichen Teilen wie eine ver-größerte Kopie der GarchingerAnlage an. Derzeit wird einStandort für den Bau des Test-reaktors gesucht. Das IPP führteaber auch die Stellaratorstudienweiter. So entsteht der nächsteStellarator WENDELSTEIN 7-Xderzeit im Teilinstitut in Greifs-wald. Das Teilinstitut wurde 1994gegründet, um zum Aufbau Ostim Forschungssektor beizutragen.Schon zwei Jahre zuvor war in

Berlin nach Auflösung des frühe-ren DDR-Zentralinstituts fürElektronenphysik der Forschungs-bereich Plasmadiagnostik gegrün-det worden. „Damit gelang es,die Forschungspotenziale derehemaligen DDR auf dem Gebietder Plasmaforschung zu erhaltenund in neue Zukunftsprojekteeinzubinden“, sagte PräsidentHubert Markl beim Jubiläums-festakt. Das IPP stehe heute„sicher auf zwei Beinen“.

Prominente

Geburtstagsgäste,

von links: Karl

Tichmann, adminis-

trativer Geschäfts-

führer des IPP,

Fritz Vahrenholt,

 Vorstandsvorsitzen-

der der REpower

Systems AG,Hermann Schunck,

Bundesministerium

für Bildung und

Forschung, Max-

Planck-Präsident

Hubert Markl und

der bayerische

Ministerpräsident

Edmund Stoiber –

im Bild linkswährend seiner

Ansprache.

Heiß begehrt war der Science-Tunnel der Max-Planck-Gesellschaft 2001 im Reich der Mitte.Auf der Tournee durch China machte die etwa170 Meter lange Mulitmedia-Ausstellung, diein die Welt der Forschung führt, in Peking undShanghai Station. Den Science-Tunnel hattedie Max-Planck-Gesellschaft zum ersten Mal imThemenpark auf der EXPO 2000 in Hannovergezeigt.

 Vom 29. April bis zum 10. Oktober 2001 war dieAusstellung im Pekinger Science and TechnologyMuseum zu sehen, wo sie den Einmillionsten Besu-cher verzeichnete. Mit Unterstützung durch dieShanghai Association for Science and Technologyund die Shanghaier Stadtregierung reiste der„Tunnel der Erkenntnis“ anschließend auf zweiLastzügen von Peking nach Shanghai und wurdedort vom 8. November bis 4. Dezember 2001gezeigt. In einer Art „Zoom“ bietet der Science-Tunnel Einblicke in den Mikro- und Makrokosmos.Der Weg verläuft über zwölf Stationen von denkleinsten Teilchen bis zu den größten Strukturen

im Universum. Diese ganzheitliche Darstellungmoderner Forschung zwischen Mikro- und Makro-kosmos entspricht durchaus chinesischer Denktra-dition und vermittelt den Besuchern zugleich einBild von der internationalen Leistungsfähigkeitund Attraktivität der Forschung in Deutschland.Im Jahr 2002 macht der Science-Tunnel in ver-schiedenen europäischen Städten Station. Unterwww.sciencetunnel.de/ können Interessierte jeder-zeit einen „virtuellen Rundgang“ durch die Aus-stellung unternehmen und unter http://2000plus.mpg.de/ in den „Forschungsperspektiven 2000+“der Max-Planck-Gesellschaft blättern.    F

   O   T   O  :   A   R   C   H   I   M   E   D   E   S

SCIENCE-TUNNEL

 Attraktion imReich der Mitte

   F   O   T   O   S  :   M   P   I   F    Ü   R   P   L   A   S   M   A   P   H   Y   S   I   K ,

   I   P   P

Früh übt sich, wer einmal ein bedeutender Wissen-

schaftler werden will: Dieser Pekinger Schüler jedenfalls

ließ sich vom Science-Tunnel begeistern und gab bereit-

willig ein Interview für das Chinesische Staatsfernsehen.

Page 55: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 55/59

Der Senat der Max-Planck-Gesellschaft hat auf seinerSitzung am 23. Novemberin Düsseldorf beschlossen,in Hannover ein Teilinstitutdes Max-Planck-Institutsfür Gravitationsphysik (Sitz:Golm bei Potsdam) zu grün-den. Das Teilinstitut soll ex-perimentell forschen unddamit die Arbeit des theore-tisch ausgerichteten GolmerHauptinstituts ergänzen.In enger Kooperation mitdem Laserzentrum und der

Universität Hannover willdie Max-Planck-Gesellschaftmit dem neuen Teilinstitutin der niedersächsischenLandeshauptstadt zukünftigein internationales Zentrumfür Gravitationswellen-Astronomie betreiben.

 Vor mehr als 80 Jahren sagteAlbert Einstein die Existenz vonGravitationswellen voraus, abererst heute steht die notwendi-ge Technologie zur Verfügung,um diese kleinen Krümmungenvon Raum und Zeit nachzuwei-sen und zur Beobachtung derdunklen Seite des Universumszu nutzen. Die Max-Planck-Ge-sellschaft hat seit der Pionier-zeit der experimentellen Gravi-tationswellenforschung in den1970er Jahren eine internatio-nale Spitzenstellung inne. ImJahr 1994 errichtete das Gar-chinger Max-Planck-Institutfür Quantenoptik gemeinsam

mit der Universität Hannoverzunächst eine experimentellarbeitende Außenstelle in derniedersächsischen Landes-hauptstadt. In enger Koopera-tion wurde dann das ProjektGEO600 zur experimentellenErforschung von Gravitations-wellen gestartet. Der in diesemRahmen gebaute Gravitations-wellendetektor ist zwar sechs-mal kleiner als die in den USAund Italien entstehenden Anla-

gen. Doch dank des Einsatzesmodernster Technologie er-reicht er eine mit den größerenAnlagen vergleichbare Leis-tungsfähigkeit. Darüber hinauswurde der erste Testlaufbereits abgeschlossen.Im Jahr 1994 wurde auch dasMax-Planck-Institut für Gravi-tationsphysik in Golm gegrün-det. Das Forschungsprogrammdieses theoretisch ausgerich-teten Instituts erstreckt sichüber das gesamte Spektrumder Gravitationsphysik. Die drei

Abteilungen widmen sich vorallem den folgenden Themen:allgemeine Relativitätstheorie,astrophysikalische Anwendun-gen der Relativitätstheorieund Quantengravitation sowie Vereinheitlichte Theorien.Große Computersimulationenan institutseigenen Anlagengehören ebenso zum wissen-schaftlichen Alltag wie dieZusammenarbeit mit anderenGruppen und die Teilnahme anmehreren internationalen Pro- jekten, wie zum Beispiel denoben erwähnten Gravitations-wellendetektoren GEO600 undLISA. Darüber hinaus koordi-niert das Institut ein EU-Netz-werk über die theoretischenGrundlagen der Gravitations-wellenastronomie und ist Part-ner in zwei weiteren EU-Netz-werken zur Quantengravitationund Stringtheorie.Die Universität Hannover istweiterhin eng in das For-

schungskonzept eingebunden:Ein Kooperationsvertrag siehtvor, das Teilinstitut mit zweiexperimentellen Abteilungenauszustatten. Dabei bringt dieMax-Planck-Gesellschaft eineAbteilung unter der Leitungeines hauptamtlichen Direktorsein, die Universität Hannoverstellt mit Prof. Karsten Danz-mann (Jahrgang 1955), der ander Hochschule seit 1993 denLehrstuhl für Atom- und Mo-

lekülphysik innehat, den Leiterder zweiten Abteilung im Ne-benamt.Danzmann führt seit 1990 dieGravitationswellengruppe amGarchinger Max-Planck-Insti-tut für Quantenoptik. Alshauptverantwortlicher Wissen-schaftler von GEO600 – dasProjekt wird gemeinsam mitden britischen Universitäten inGlasgow und Cardiff betrieben– koordinierte Karsten Danz-mann seit 1994 erfolgreich dieEntwicklung und den Bau des

Gravitationswellendetektors.Außerdem ist der Forscher seitrund sieben Jahren feder-führender Wissenschaftler desLISA-Gravitationswellenexperi-ments und hat jetzt im Auftragder Europäischen Raumfahrt-agentur ESA dessen Leitungübernommen. Das Gemein-schaftsprojekt zwischen derESA und der US-amerikani-schen Raumfahrtbehörde NASAsoll im Jahr 2011 gestartetwerden.Die beiden Abteilungen desMax-Planck-Instituts für Gravi-tationsphysik in Hannover sol-len in frei werdende Räume derUniversität einziehen. Das LandNiedersachsen hat zugesagt,die Umbaukosten in Höhe vonrund 25 Millionen Mark zutragen; im Gegenzug wird dieMax-Planck-Gesellschaftanteilig Miete zahlen.

INSTITUTE akt

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 109

Der Senat der Max-Planck-Gesellschaft hat auf seiner Sit-zung am 23. November in Düs-seldorf Professor Peter Grusszum Präsidenten der For-schungsorganisation für dieAmtsperiode 2002 bis 2008gewählt. Der 52-jährige Ent-wicklungsbiologe ist Direktoram Göttinger Max-Planck-In-stitut für biophysikalischeChemie und folgt im Amt Hu-bert Markl nach, dessen Präsi-dentschaft Mitte nächstenJahres regulär enden wird.

Markl hatte bereits im Februarunter Hinweis auf Altersgrün-de seinen Verzicht auf einezweite Amtsperiode erklärt.Die Amtsübergabe wird imRahmen der 53. Hauptver-sammlung der Max-Planck-Gesellschaft im Juni 2002in Halle stattfinden.

Peter Gruss ist seit 1986 Direktoram Max-Planck-Institut für bio-physikalische Chemie in Göttin-gen. Dort leitet er die Abteilungfür molekulare Zellbiologie. Mitder Wahl von Gruss folgten dieSenatoren der Max-Planck-Gesellschaft dem Vorschlag derSenatskommission zur Vorbe-reitung der Präsidentenwahl.Das Gremium unter Leitungvon Max-Planck-VizepräsidentProf. Günther Stock hatte denWissenschaftler als einzigenKandidaten empfohlen.Peter Gruss wurde 1949 im hes-sischen Alsfeld geboren. Im Jahr

1968 nahm er das Biologiestu-dium an der Technischen Hoch-schule in Darmstadt auf undging im Anschluss daran an dasDeutsche Krebsforschungszent-rum nach Heidelberg, um dortam Institut für Virusforschungan seiner Dissertation zu arbei-ten. 1977 wurde Gruss an derHeidelberger Universität in Bio-logie promoviert. Im folgendenJahr wechselte er an das Labora-tory of Molecular Virology der

National Institutes of Health inBethesda, Maryland (USA). 1982nahm er einen Ruf der Heidel-berger Universität auf eine Pro-fessur am Institut für Mikrobio-logie an. Im Jahr darauf wurde erzudem in das Direktorium desZentrums für Molekulare Biolo-gie Heidelberg (ZMBH) berufen.1986 schließlich folgte er demRuf zum Direktor am Max-Planck-Institut für biophysikali-sche Chemie in Göttingen undzum Wissenschaftlichen Mitgliedder Max-Planck-Gesellschaft.

Seit 1990 hat er eine Honorar-professur an der Göttinger Uni-versität inne.Peter Gruss ist ein internationalausgezeichneter Forscher undakademischer Lehrer. Im Rahmenseiner Forschungsarbeiten be-schäftigt er sich vor allem mitden molekularen Mechanismender Wirbeltierentwicklung: Wieentsteht aus einer befruchtetenEizelle ein ganzer Organismus?Welche „Choreografie“ liegt derEmbryonalentwicklung zugrun-de? Wie wird festgelegt, welcheZelle zu welchem Zeitpunktund an welchem Ort gebildetwird? Und wie finden sich dieZellen dann zu funktionsfähigenOrganen zusammen? In umfang-reichen Forschungen konntenPeter Gruss und seine Mitarbei-ter Entwicklungskontrollgeneidentifizieren, die bei der Mausdie Bildung bestimmter Organesteuern. Im Vordergrund standenStudien zur Augenentwicklung

sowie zur Entwicklung undRegeneration der Bauchspei-cheldrüse.Für seine herausragenden For-schungsleistungen erhielt PeterGruss 1994 den Leibniz-Preisder Deutschen Forschungs-gemeinschaft und 1995 denrenommierten Louis-Jeantet-Preis für Medizin. Für die anwen-dungsorientierte Umsetzung vonErgebnissen aus der Grundlagen-forschung wurde ihm gemein-

sam mit seinem Kollegen Prof.Herbert Jäckle im Jahr 1999 derWissenschaftspreis des Stifter-verbands und der mit einerhalben Million Mark dotierte

Deutsche Zukunftspreis desBundespräsidenten verliehen.Peter Gruss engagiert sich da-rüber hinaus intensiv in der For-schungspolitik der verschiedenennationalen und internationalenGremien. So ist er Mitglied imLenkungsgremium „NationalesGenomforschungsnetz“ des Bun-desministeriums für Bildung undForschung und war deutscherRepräsentant des wissenschaft-lichen Gremiums des HumanFrontier Science Program.Daneben gehört er der Interna-tional Society for DevelopmentalBiology an, deren Präsident ervier Jahre lang war.Derzeit führt Gruss den Vizevor-sitz der European DevelopmentalBiology Organisation (EDBO)und ist Mitglied in der EuropeanMolecular Biology Organisation(EMBO) sowie der DeutschenAkademie der NaturforscherLeopoldina. Darüber hinaus ister Vorsitzender des Rates des

European Molecular BiologyLaboratory (EMBL). Auch inner-halb der Max-Planck-Gesell-schaft hat Peter Gruss in seinerFunktion als Vorsitzender derKommission für Forschungsper-spektiven, des ArbeitskreisesGenomforschung der Biologisch-Medizinischen Sektion sowieals stellvertretender Vorsitzen-der dieser Sektion wichtigeforschungspolitische Impulsegegeben.

STITUTE aktuell 

108   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

   F   O   T   O  :   M   P   I   F    Ü   R   B   I   O   P   H   Y   S   I   K   A   L   I   S   C   H   E   C   H   E   M   I   E

Peter Gruss

wird im Sommer

2002 sein Amt

als Präsident der

Max-Planck-

Gesellschaft an-treten.

NAT

eter Gruss nächster Präsident

er Max-Planck-Gesellschaft

GRAVITATIONSWELLEN-ASTRONOMIE

Neues Teilinstitut

in Hannover gegründet

Diese Spiegel

gehören zurMessanlage de

Gravitations-

wellendetekto

GEO600.

   F   O   T   O  :   W   O   L   F   G   A   N   G   F   I   L   S   E   R

Page 56: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 56/59

INSTITUTE akt

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 111

STITUTE aktuell 

110   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

Nicht nur in DeutschlandForschung zu betreiben, son-dern sich auch internationalzu engagieren, Kontakteweltweit zu knüpfen undNachwuchs zu fördern: DieseZiele verwirklichen Mitarbei-ter des Max-Planck-Institutsfür ausländisches und inter-nationales Strafrecht inFreiburg und des GöttingerMax-Planck-Instituts fürGeschichte mit zwei neuenForschungsvorhaben. DieJuristen arbeiten an einem

Projekt zur „Polizei im latein-amerikanischen Rechtsstaat“;die Historiker laden nachder erfolgreichen Premierein diesem Jahr für 2002 zueiner deutsch-russischenSommerschule für Dokto-randinnen und Doktorandender Geschichte und Wissen-schaftsgeschichte zumThema „Historische Anthro-pologie – Geschichte vonHaushalt, Familie und Ver-wandtschaft“ ein.

Am Max-Planck-Institut fürausländisches und internatio-nales Strafrecht haben Kai Am-bos und Teresa Manso bereitsmit der Arbeit am neuen Pro- jekt begonnen, das von denzwei externen Beratern LuisGómez Colomer (UniversitätCastellon, Spanien) sowie Rich-ard Vogler (Universität Sussex,Großbritannien) begleitet wird.Bei einem Workshop mit weite-

ren Kollegen aus 14 lateiname-rikanischen Staaten stellten siees im August parallel zum Kon-gress über aktuelle Themen desStrafverfahrens in Sao Paulo(Brasilien) vor. Zu dieser Veran-staltung hatte das Max-Planck-Institut in Kooperationmit der Generalstaatsanwalt-

schaft (Ministerio Público)des Bundesstaats Sao Pauloeingeladen. Auf dem Kongresswurden vier Hauptvorträge zuFragen des strafprozessualenErmittlungsverfahrens, der(staatsanwaltschaftlichen)Kontrolle der Polizei, der Un-tersuchungshaft und Formenkonsensualer Streiterledigunggehalten, die jeweils vonzwei brasilianischen Kollegenkommentiert wurden.Im begleitenden Workshopzum Projekt „Die Polizei imlateinamerikanischen Rechts-staat“ wurde mit den Kollegenaus Argentinien, Bolivien, Bra-silien, Chile, Ecuador, El Salva-dor, Guatemala, Kolumbien,Mexiko, Nicaragua, Paraguay,Peru, Uruguay und Venezuelaein Gliederungsvorschlag fürdie Landesberichte diskutiertund in einer erheblich modifi-

zierten und erweiterten Formverabschiedet. Bis Ende März2002 müssen die insgesamt16 Landesberichte – neben dengenannten Staaten beteiligensich auch noch Kuba und CostaRica – nun erstellt und an dasFreiburger Institut geschicktwerden. Dort werden sie in

gemeinsamer Redaktion mitden externen Beratern geprüftund anschließend ausgewertet.Die Länderuntersuchung istein Nachfolgeprojekt eines inKooperation mit der Konrad-Adenauer-Stiftung (KAS) un-ternommenen Forschungsvor-habens zur „Strafverfahrens-reform in Lateinamerika“, dasim vergangenen Jahr beendetwurde. Es schließt inhaltlichdaran an und wurde von Teil-nehmern des ersten Projektsübereinstimmend für notwen-dig gehalten – zum einen an-gesichts der in Lateinamerikaalltäglichen polizeilichen Will-kür und den damit verbunde-nen Menschenrechtsverletzun-gen, zum anderen wegen derIneffizienz und Bestechlichkeitder Polizei. Außerdem, so derProjektleiter Kai Ambos, ent-schieden im Hinblick auf das

Strafverfahren Qualität undGewicht der polizeilichen Er-mittlungen maßgeblich überErfolg oder Misslingen derlateinamerikanischen Reform-bestrebungen.Noch nicht abschließend ge-klärt ist bislang die Finanzie-rung des Forschungsprojekts,

INTERNATIONALE PROJEKTE

Engagements in Lateinamerika

und Russland

Luis Gómez

Colomer von

der Universität

Castellon während

seines Vortrags.

das unter anderem mit Eigen-mitteln gefördert wird. DerKongress sowie der Workshopwurden vom Ministerio Públicound vom Auswärtigen Amtfinanziell unterstützt. DieFriedrich-Ebert-Stiftung (FES)hat drei nationale Experten ausGuatemala, El Salvador undKolumbien unter Vertrag ge-nommen, die Gesellschaft fürtechnische Zusammenarbeit(GTZ) die Teilnahme von para-guayischen Kollegen ermög-licht. Die Projektverantwort-lichen und die Landesbericht-erstatter beabsichtigen überdie Erarbeitung der Landesbe-richte hinaus einen intrakonti-nentalen Diskussionsprozessdurch ähnliche Veranstaltun-

gen auf nationaler Ebene inGang zu setzen. Dazu bedarfes freilich einer besseren Ver-netzung und der Hilfe interna-tionaler und nationaler Insti-tutionen, die eine lokale Infra-struktur besitzen – ein stärke-res Engagement von FES undGTZ wäre dafür notwendig.International agiert auch dasMax-Planck-Institut für Ge-schichte in Göttingen. Gemein-sam mit der Europäischen Uni-versität St. Petersburg hat es indiesem Jahr die erste deutsch-russische Sommerschule fürDoktorandinnen und Dokto-randen der Geschichte undder Wissenschaftsgeschichteausgerichtet. Gefördert wurdedie Sommerschule, die unterder Überschrift „Mikroge-schichte – Mikrokosmen desWissens“ stand, von der Volks-wagen-Stiftung.30 Doktorandinnen und Dokto-randen aus deutschsprachigen

Ländern und aus Russland –von St. Petersburg bis Barnaulin Sibirien – haben sich zweiWochen lang intensiv mitneuen Tendenzen der Mikro-und Alltagsgeschichte sowieder Wissenschaftsgeschichtebefasst. Geleitet wurde die Ver-anstaltung von drei Lehrenden

aus Deutschland, JürgenSchlumbohm vom Max-Planck-Institut für Geschichte, MichaelHagner vom Max-Planck-Insti-tut für Wissenschaftsgeschich-

te und Thomas Sokoll von derFernuniversität Hagen, sowievon drei Professoren der jun-gen Europäischen UniversitätSt. Petersburg, Daniel Alexan-drov, Elena Campbell undMichail Krom. Alle Nachwuchs-wissenschaftler stellten ihreForschungsprojekte vor. Jedeseinzelne wurde unter den Dok-toranden und mit den Lehren-den über die Grenzen der na-tionalen Wissenschaftskulturenhinweg intensiv diskutiert.Auch zwischen den Disziplinender Geschichte und der Wis-senschaftsgeschichte entspannsich ein lebhafter Dialog. Dabeiging es um so unterschiedlicheThemen wie das spannungsrei-che Zusammenleben zwischenKatholiken und Juden in einemSchweizer Dorf, die Durchset-zung von Zeitdisziplin in einersowjetischen Fabrik in den1930er Jahren, den Einfluss derWissenschaft auf den Umgang

mit dem Tod im 19. Jahrhun-dert oder die Beschäftigungmit Geschichte in einer sibiri-schen Provinzstadt um 1900.Es blieb aber nicht bei derArbeit in den Räumen derEuropäischen Universität St.Petersburg, die in einem Adels-palais des 19. Jahrhunderts

untergebracht ist. Unter fach-kundiger Führung wurde dieBeziehung von Macht, Wissen-schaft und Städtebau bei derGründung von St. Petersburgim frühen 18. Jahrhundert er-kundet. Besichtigt wurde dieKunstkammer, die seit der ZeitPeters des Großen Sammlungenaus allen Wissensgebieten be-herbergt. Vor den in Weingeistkonservierten Objekten sprachMichael Hagner über die Be-deutung von Monstergeburtenfür die Wissenschaft im 18.

Jahrhundert.Wegen des großen Erfolgs der Veranstaltung ist für August2002 bereits der nächste Som-merkurs in St. Petersburg ge-plant. Er wird sich der histori-schen Anthropologie widmen –der Geschichte von Haushalt,Familie und Verwandtschaft.

Deutsche und russische Dok-

torandinnen und Doktoranden

bewundern den „Großen Globus

von Gottorp“, der 1664 in

Deutschland gebaut und zu Be-

ginn des 18. Jahrhunderts dem

Zaren Peter den Großen vomHerzog von Holstein geschenkt

wurde. Sein Durchmesser beträgt

über drei Meter. Auf der Innen-

seite des Globus ist der Sternen-

himmel dargestellt. Im Globus

befinden sich außerdem ein Tisch

und eine Bank, sodass man beim

Speisen den künstlichen Ster-

nenhimmel bewundern konnte,der von einem kunstreichen

Mechanismus gedreht wurde.

   F   O   T   O  :   M   P   I   F    Ü   R   N   A   T   I   O   N   A   L   E   S   U   N   D   I   N   T   E   R   N   A   T   I   O   N   A

   L   E   S   S   T   R   A   F   R   E   C   H   T

   F   O   T   O  :   A .

   K   U   P   R   I   J   A   N   O   V

Das Projekt

im Internet:

www.iuscrim.mpg.

de/de/forsch/straf/ 

projekte/ambos.html

www.iuscrim.mpg.

de/de/forsch/straf/ projekte/ambos3.

html

@

Page 57: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 57/59

INSTITUTE akt

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 113

STITUTE aktuell 

112   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

   F   O   T   O  :   M   P   G

Mit einem Startkapital vonrund 7,2 Millionen Mark hatdie iOnGen AG in Göttingenihre Arbeit aufgenommen.Das Unternehmen wurde vonden Wissenschaftlern WalterStühmer und Luis Pradovom Max-Planck-Institut fürexperimentelle Medizin inGöttingen gegründet und willneuartige Nachweissystemezur Früherkennung bestimm-ter Krebskrankheiten undentsprechende Medikamenteentwickeln.

Das zunehmende Wissen ausder Grundlagenforschung überdie komplexen Eigenheiten vonKrebszellen ermöglicht die Ent-wicklung neuartiger und ge-zielter Therapien. Diesem Zielhat sich auch die seit Mai 2001bestehende iOnGen AG ver-pflichtet. Die Firma ist bereitsdas vierte „spin-off“-Unterneh-men eines Göttinger Max-Planck-Instituts. Es wurde vonder Garching InnovationGmbH, einem Tochterunter-nehmen der Max-Planck-Ge-sellschaft, in der Konzept- undGründungsphase betreut.iOnGen ist in der ersten Finan-zierungsrunde mit 7,2 Millio-nen Mark ausgestattet wordenund wird darüber hinaus durchdas BioChance-Programmdes Bundesministeriums fürBildung und Forschung unter-stützt. Die wissenschaftlichenGründer sind Walter Stühmer,

Direktor am Max-Planck-Insti-tut für experimentelle Medizin,und Luis Pardo, der vom selbenMax-Planck-Institut als wis-senschaftlicher Leiter zuriOnGen AG wechselte.Die wissenschaftliche Expertiseder Gründer liegt in der Struk-tur- und Funktionsaufklärungvon Ionenkanälen. Ionenkanälesind Membranproteine, dieden Ionenaustausch auf beidenSeiten der Zellmembran kon-

trollieren und vor allem anSignalverarbeitung und -wei-terleitung beteiligt sind. Sieeignen sich besonders alsAngriffspunkte, da sie in derZellmembran für Therapeutikaleicht zugänglich sind und ihreFunktion auf der Ebene ein-zelner Moleküle in Echtzeit ge-nau bestimmt werden kann.Im Mittelpunkt der Aktivitätender iOnGen AG steht dermenschliche EAG-Ionenkanal,der in der von Stühmer geleite-ten Abteilung des Max-Planck-

Instituts als neuartiges „Tumor-protein“ identifiziert und cha-rakterisiert wurde und der sichin einzigartiger Weise als Zielneuer Krebsdiagnose- und–therapieverfahren eignet. DerEAG-Ionenkanal kommt im ge-sunden Organismus fast aus-schließlich im zentralen Ner-vensystem vor und wird inmehr als 90 Prozent der bishergetesteten menschlichen Tu-more vermehrt gebildet. UnterZellkulturbedingungen lässtder EAG-Ionenkanal Zellen zuKrebszellen entarten und trägtauch im Maustumormodellzu einem aggressiven Wachs-tum der Tumorzellen bei.„Wir beobachteten, dass wirdas Tumorzellwachstum sogarunter Zellkulturbedingungenerheblich hemmen konnten,indem wir den EAG-Ionenkanalspezifisch blockierten oderseine Expression verhinderten.Fasst man diese Beobachtun-

gen zusammen, sollten wirnicht nur in der Lage sein,einen Großteil der menschli-chen Tumore in einem frühenStadium mithilfe des EAG-Ionenkanals zu erkennen, son-dern auch durch eine gezielteTherapie gegen den Ionenkanalden Tumor bekämpfen kön-nen”, sagt Luis Pardo.

AUSGRÜNDUNG

iOnGen AG

hat Krebs im Visier

Auf eine lange Forschungs-geschichte kann das Max-Planck-Institut für auslän-disches und internationalesPrivatrecht in Hamburgzurückblicken: Es feierte imJahr 2001 sein 75-jährigesBestehen. Zunächst solltedas Institut mit seiner For-schung bei der Abwicklungder juristischen Folgen desErsten Weltkriegs helfen.Deutsche Richter und An-wälte wussten nur wenigüber die Rechtsentwicklungim Ausland während desKriegs. Der Versailler Vertragwar jedoch von den Begriffenausländischer Rechtsnormengeprägt. Gemischte Schieds-gerichte mit deutschen Bei-sitzern sollten unter anderem

über privatrechtliche Strei-tigkeiten entscheiden, diesich aus Vorkriegsverträgenergaben.

Dabei war es für die deutschenJuristen schwierig, mit ihrenausländischen Kollegen mitzu-halten, denen die Auslegungs-grundsätze des Common Law

und des französischen Rechtsgeläufig waren. Schon 1924forderte deshalb Ernst Rabel,der Gründungsdirektor des Pri-vatrechtsinstituts: „Das Haupt-bedürfnis aber scheint mir,dass ein genügender Stammvon deutschen Juristen um die juristische Mentalität des Aus-lands wisse.“Auch der Reichsverband derdeutschen Wirtschaft hatte an-gesichts der wachsenden Ver-flechtung der Weltwirtschaft inden zwanziger Jahren ein In-teresse an Forschung zum aus-ländischen und internationalen

Privatrecht: Welche Rechtsord-nung gilt beispielsweise, wennein deutscher Händler in Lon-don mit einem Italiener Verträ-ge schließt? Welche Rechtskol-lisionen ergeben sich dabei?Der Verband beteiligte sichdeshalb neben der Kaiser-Wil-helm-Gesellschaft an dem Trä-gerverein, der das Institut fürausländisches und internatio-nales Privatrecht finanzierte.Als Gegenleistung für die fi-nanzielle Unterstützung liefer-te das Institut dem Reichsver-band Gutachten zu allgemei-nen privatrechtlichen Fragen.Ursprünglich sollte aus finan-ziellen Gründen lediglich eineAbteilung für internationalesPrivatrecht im „Kaiser-Wil-helm-Institut für ausländischesöffentliches Recht und Völker-recht“ geschaffen werden.Am 1. April 1926 nahm dannschließlich doch ein eigen-ständiges „Institut für auslän-

disches und internationalesPrivatrecht“ seine Arbeit imBerliner Stadtschloss auf.Dessen prägende Figur war seinGründungsdirektor Ernst Rabel.Er schuf die noch heute ver-folgte Verbindung von juristi-scher Grundlagenforschung mitpraktischer Gutachtertätigkeitfür Gesetzgeber und Wirt-

schaft. Rabel war beteiligt ander Gründung des Internatio-nalen Instituts für die Verein-heitlichung des Privatrechts(UNIDROIT) in Rom. Sein Werk„Das Recht des Warenkaufs“stellt bis heute eine wesent-liche Grundlage für das UN-Kaufrecht dar. Und die vom In-stitut herausgegebene „Zeit-schrift für internationales undausländisches Privatrecht“ wur-de von Rabel gegründet. We-gen seiner jüdischen Abstam-mung wurde Ernst Rabel 1937gezwungen, sein Amt als In-stitutsdirektor niederzulegen;

zwei Jahre später emigrierteer in die USA. Nach dem Kriegkehrte Rabel – inzwischen66-jährig – jedoch als wissen-schaftlicher Berater undGastwissenschaftler wiederan „sein“ Institut zurück.Unter Rabels Nachfolger ErnstHeymann passte sich das Insti-tut politisch an und blieb auchdeswegen vor weiteren direk-ten politischen Eingriffen derNationalsozialisten verschont.Durch die Evakuierung nachTübingen im Jahr 1944 konntedie umfangreiche Bibliothek –die heute rund 400.000 Bändeumfasst – über den Krieg ge-rettet werden. Im Jahr 1949wurde das Institut Teil derMax-Planck-Gesellschaft undmietete als Provisorium Anfang1950 ein ehemaliges Korpora-tionshaus an, das jedoch baldzu klein für Mitarbeiter undBibliothek wurde. Zwar ver-suchten Frankfurt und Mün-

chen, die Privatrechtler fürsich zu gewinnen, doch wurdeHamburg von 1956 an neuerInstitutsstandort. Die Hanse-stadt baute auf eigene Kostenein neues Gebäude, das zugroßzügigen Konditionen andie Max-Planck-Gesellschaftvermietet wurde. Außerdemerschien Hamburg wegen sei-

PRIVATRECHT

75 Jahre in der Tradition Ernst Rabels

Gründungs-

direktor Ernst

Rabel, 1924

ner weltweiten Handelsbezie-hungen als neuer Sitz des Insti-tuts besonders geeignet. DessenLeitung übernahm in den erstenJahrzehnten der NachkriegszeitHans Dölle (1946 bis 1963),gefolgt von Konrad Zweigert(1963 bis 1979).Im Lauf der Jahre erweitertedas Institut sein Forschungs-spektrum: Neben dem Pri-vatrecht entwickelte sich aus-ländisches und internationalesWirtschaftsrecht zu einem neu-en Schwerpunkt. Die Leitungdes Instituts obliegt deshalb seit1979 einem Kollegium aus meh-reren Direktoren, das heute dieProfessoren Klaus J. Hopt undJürgen Basedow bilden. Sieverstärkten die Forschung auf 

Gebieten wie Gesellschafts-,Bank- und Kapitalmarktrechtsowie Verkehrs-, Transport- und Versicherungsrecht. Ein aktuel-les Forschungsthema ist dieHarmonisierung des europäi-schen Privat-, Gesellschafts-und Stiftungsrechts. Doch auchdie Förderung des wissenschaft-lichen Nachwuchses – in derTradition Ernst Rabels – ist eineAufgabe des Instituts: Es grün-dete in diesem Jahr zusammenmit dem Max-Planck-Institutfür ausländisches öffentlichesRecht und Völkerrecht unddem Max-Planck-Institut fürMeteorologie sowie der Uni-versität Hamburg eine Fortbil-dungsstätte für Postgraduierte.Die gemeinsa m betriebeneInternational Max Planck Re-search School for MaritimeAffairs in Hamburg befasst sichaus interdisziplinärer Sicht mitden Fragen der Nutzung, desSchutzes und der Ordnung der

Weltmeere, deren Bedeutungals Lebensraum, Transportwegund Rohstoffquelle in Zukunftwachsen wird. Natur- undwirtschaftswissenschaftlicheErkenntnisse sollen dabeiin der Research School mitden rechtlichen Aspekten derMeeresnutzung verknüpftwerden.

Page 58: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 58/59

STITUTE aktuell 

114   M A X  P  L A N C K F  O R S C H U N G   4 / 2 0 0 1

STANDo

4 / 2 0 0 1 M A X P L A N C K F O R S C H U N G 115

MAXPLANCKFORSCHUNG

wird herausgegeben vom Referatfür Presse- und Öffentlichkeitsarbeitder Max-Planck-Gesellschaft zurFörderung der Wissenschaften e.V.

 Vereinsrechtlicher Sitz: Berlin.ISSN 1616-4172

Redaktionsanschrift:

Hofgartenstraße 8, 80539 MünchenTel. 089/ 2108-0 (-1276)Fax 089/2108-1207E-Mail: [email protected]: http://www.mpg.de.

 Verantwortlich für den Inhalt:

Dr. Bernd Wirsing (-1276)

Leitender Redakteur:

Helmut Hornung (-1404)

Biologie, Medizin:

Dr. Christina Beck (-1306)Walter Frese (-1272)

Chemie, Physik, Technik:

Eugen Hintsches (-1257)Helmut Hornung (-1404)

Geisteswissenschaften:

Susanne Beer (-1342)

Online-Redaktion:Dr. Andreas Trepte (-1238)

Gestaltung: Rudi GillDTP-Operating: Franz PagelSenftlstraße 1, 81541 MünchenTel. 089/448 21 50E-Mail: [email protected]

Litho: kaltnermediaDr.-Zoller-Str. 186399 Bobingen

Druck+Vertrieb:

Druckhaus BeltzTilsiter Straße 17

69502 Hemsbach

Anzeigen:Brigitte Bell

 Verlagsgruppe BeltzPostfach 10015469441 WeinheimTel. 06201/6007-380Fax 06201/18 46 84

Für Mitarbeiter der MPG ist einemTeil der Auflage die Mitarbeiterzeit-schrift MAXPLANCKINTERN beigefügt:Dr. Christina Beck (-1306/Redaktion)Carin Gröner (-1231/Personalien)

MAXPLANCKFORSCHUNG will Mitar-beiter und Freunde der Max-Planck-Gesellschaft aktuell informieren. DasHeft erscheint in deutscher und eng-lischer Sprache (MAXPLANCKRESEARCH)

 jeweils in vier Ausgaben pro Jahr. DieAuflage beträgt zurzeit 28.000 Exem-plare. Der Bezug des Wissenschafts-magazins ist kostenlos.

Alle in MAXPLANCKFORSCHUNG ver-tretenen Auffassungen und Meinun-gen können nicht als offizielleStellungnahme der Max-Planck-

Gesellschaft und ihrer Organeinterpretiert werden.

MAXPLANCKFORSCHUNG wird auf chlor-frei gebleichtem Papier gedruckt.Nachdruck der Texte unter Quellen-angabe gestattet. Bildrechte könnennach Rücksprache erteilt werden.

Die Max-Planck-Gesellschaft zurFörderung der Wissenschaften unter-hält 80 Forschungsinstitute, in denenrund 11.200 Mitarbeiter tätig sind,davon etwa 3100 Wissenschaftler.Hinzu kamen im Jahr 2001 rund 7900

Stipendiaten, Gastwissenschaftlerund Doktoranden. Der Jahresetat um-fasste insgesamt 1245 Millionen Eurodavon stammten 1186 Millionen Euroaus öffentlichen Mitteln.

Die Forschungsaktivität erstrecktsich überwiegend auf Grundlagen-forschung in den Natur- und Geistes-wissenschaften. Da die Max-Planck-Gesellschaft ihre Aufgabe vor allemdarin sieht, Schrittmacher der For-schung, insbesondere in Ergänzungzu den Hochschulen zu sein, kann sie

nicht in allen Forschungsbereichentätig werden. Sie versucht daher, ihreMittel und Kräfte dort zu konzentrie-ren, wo besondere Forschungsmög-lichkeiten erkennbar sind.

Die Max-Planck-Gesellschaftist einegemeinnützige Organisation des pri-vaten Rechts in der Form eines einge-tragenen Vereins. Ihr zentrales Ent-scheidungsgremium ist der Senat, indem eine gleichwertige Partnerschaftvon Staat, Wissenschaft und sach-verständiger Öffentlichkeit besteht.

NIEDERLANDE

NijmegenITALIEN

Rom

Florenz

SPANIEN

AlmeriaFRANKREICH

Grenoble

BRASILIEN

Manaus

Forschungseinrichtungen der 

Max-Planck-Gesellschaft 

Institut/ 

Forschungsstelle Teilinstitut/ 

Außenstelle

❍ Sonstige

Forschungs-

einrichtungen

WISSENSCHAFTSMAGAZIN

MPF jetzt

ls PDF-Version

ne Angst: Die MAXPLANCKFORSCHUNG wird esch weiterhin vier Mal pro Jahr in gedruckterm geben. Darüber hinaus bieten wir jetzt einenätzlichen Online-Service und stellen ab der

sgabe 1/2001 jedes Heft als PDF-Version insernet. „Surfer“ können entweder das gesamtegazin in diesem Format laden oder jeweilsr einen einzelnen Artikel. Unter der Adressew.mpg.de/deutsch/aktuell/forschung/gibt es

elbild und Inhaltsverzeichnis eines jeden Hefts.Klick auf eine dieser Seiten führt zur Listeeinzelnen Artikel. Diese sind nach Rubriken

ordnet und lassen sich jeder für sich aufrufen.r hoffen, dass die MAXPLANCKFORSCHUNG durchse Synergie mit dem Internet noch attraktiverworden ist.

100 JAHRE WERNER HEISENBERG

 Ausstellung, Symposium

und eine Briefmarke

Mit einer Gedenkfeier,einem wissenschaftlichenSymposium und einer Aus-stellung hat die Max-Planck-Gesellschaft den 100. Ge-burtstag von Werner Heisen-berg gefeiert. Die Post ehrteihn mit einer Sonderbrief-marke. Heisenberg begründe-te die Quantentheorie undhat mit späteren Pionierar-beiten zur Theorie der Fest-körper, Atomkerne und Ele-mentarteilchen die Entwick-lung der Physik im 20. Jahr-

hundert entscheidend beein-flusst. Von 1942 bis 1970leitete er das Max-Planck-Institut für Physik.

Werner Heisenberg wurde am5. Dezember 1901 in Würzburggeboren. Mit herausragendenLeistungen schloss er dasMünchner Maximilians-Gym-nasium ab. Er studierte Physik,Mathematik und Astronomiean den Universitäten Münchenund Göttingen. Zu seinen Leh-rern gehörten Arnold Sommer-

feld, Niels Bohr und Max Born.Heisenbergs Arbeit vom Juli1925 begründete eine neueAtomtheorie: Der Wissen-schaftler entdeckte Naturge-setze, in denen Begriffe wieOrt und Geschwindigkeit einesatomaren Teilchens ihre Be-deutung verloren. So lassensich der „Unschärferelation“zufolge Impuls und Ort einesTeilchens nicht gleichzeitig be-liebig genau bestimmen. Damitrührte der Forscher, der fürdiese Arbeiten im Jahr 1933

den Nobelpreis erhielt, an denGrundfesten der Kausalitätallen Naturgeschehens.Trotz Anfeindungen durch dieNationalsozialisten und ver-lockender Angebote aus denUSA blieb Werner Heisenbergauch nach 1933 in Deutsch-land. Nach Ausbruch des Zwei-ten Weltkriegs widmete ersich der großtechnischen Ge-winnung von Energie aus derAtomkernspaltung. Bis 1942war er Professor für theore-tische Physik in Leipzig, danachbis 1945 Direktor am BerlinerKaiser-Wilhelm-Institut fürPhysik, wo er auch an einerneuen Theorie der Elementar-teilchen arbeitete.Nach Ende des Zweiten Welt-kriegs trug Heisenberg wesent-lich zum Wiederaufbau derWissenschaften im westlichenTeil Deutschlands bei: als Direk-tor des Max-Planck-Institutsfür Physik in Göttingen (ab

1946), als Präsident des Deut-schen Forschungsrates (1949bis 1951) und als Präsident derAlexander von Humboldt-Stif-tung (seit 1953). In seinen letz-ten Lebensjahren suchte derForscher nach einer einheitli-chen Theorie der Elementarteil-chen und der zwischen ihnenwirkenden fundamentalen

Kräfte. Doch der Traum bliebunerfüllt: Werner Heisenbergstarb am 1. Februar 1976 inMünchen.Aus Anlass von Heisenbergs100. Geburtstag war vom4. Dezember bis 7. Januar imMünchner Max-Planck-Hausam Hofgarten eine von HelmutRechenberg (Max-Planck-Insti-tut für Physik) arrangierte Aus-stellung über Leben und Wir-ken des Forschers zu sehen.Zusätzlich organisierte dasMax-Planck-Institut für Physikgemeinsam mit der Bayeri-schen Akademie der Wissen-schaften am 5. Dezember eineGedenkfeier und veranstalteteam 6. und 7. Dezember unterdem Motto „Developments inModern Physics“ ein „WernerHeisenberg CentennialSymposium“.Außerdem gab die Post eine

Sonderbriefmarke (Tag derErstausgabe: 8. November2001) heraus. Das Motiv zeigtein Foto Werner Heisenbergsund, oben rechts, seine be-rühmte „Unschärferelation“.Die Briefmarke hat den Wertdrei Mark oder 1,53 Euro, derEntwurf stammt von demKieler Designer Ingo Wulff.

Die Sonder-briefmarke zum

100. Geburtstag

von Werner

Heisenberg.

Page 59: MPF_2001_4 Max Planck Forschung

7/23/2019 MPF_2001_4 Max Planck Forschung

http://slidepdf.com/reader/full/mpf20014-max-planck-forschung 59/59

Im FOKUS

Neuer „Hightech-Schmuck“ für Meister Adebar: Anfang Juni wurden in Schloss Möggingen, dem Sitz der Vogelwarte Radolfzell, die ers-

ten Weißstörche mit einem neuartigen Kunststoffring versehen, der die herkömmlichen Metallringe ablösen soll. Der neue ELSA-Ring – „European

Laser Signed Advanced Ring“ – wurde am Fraunhofer-Institut für Chemische Technologie (ICT) in Pfinztal bei Karlsruhe entwickelt, und zwar auf Anre-

gung von Walther Feld, einem Weißstorch-Spezialisten und Vogel-Beringer, der seit langem mit der Vogelwarte Radolfzell verbunden ist. Der ELSA

Ring besteht aus einem Kunststoff, der sich mittels eines Laserstrahls – durch Farbumschlag des Materials – beschriften lässt und gegenüber Alumini-

um- oder Stahlringen viele Vorzüge aufweist: Er verschmutzt und verkrustet nicht und kann deshalb nicht die Beine der Störche abschnüren; er bleibt

dauerhaft und deutlich lesbar, und das auch aus größeren Entfernungen; er lässt sich durch einen Schnappverschluss einfach und sicher anlegen; er er-

laubt den Einsatz verschiedener Farben und Farbkombinationen zur eindeutigen Markierung des Vogels; und er heizt sich bei Sonnenbestrahlung weni-

ger stark auf als Metallringe. Von diesem Fortschritt erhoffen sich die Forscher Aufschluss über die in den vergangenen zwei bis drei Jahrzehnten ver-

änderten Zuggewohnheiten der Störche. Außerdem sollen auch Kraniche und Falken mit ELSA-Ringen markiert werden. FOTO: WOLFGANG FILSER