28
Kapitel 7 Abbildungstheorie In diesem Kapitel wollen wir uns basierend auf den in den vorangegangenen Kapitel erarbeiteten Kenntnisse zur Beugung und Interferenz sowie zur Koh¨ arenz von Licht mit der Abbildungstheorie besch¨ aftigen, um die Erzeugung von Bildern mit optischen Instrumenten und die dabei auftretenden Aufl¨ osungsgrenzen zu verstehen. Wir beschreiben dabei die physikalischen Grundlagen, die zu grundle- genden Beschr¨ ankungen in der Leistungsf¨ ahigkeit optischer Systeme f¨ uhren. Wir wollen auch andeuten, wie man diese grundlegenden Beschr¨ ankungen ¨ uberwinden kann. Die meisten optischen Systeme werden zur Bilderzeugung verwendet. Abgesehen von der Lochka- mera benutzen alle Linsen und/oder Spiegel, deren Eigenschaften wir bereits in Kapitel 4 zur geo- metrischen Optik ausf¨ uhrlich behandelt haben. In diesem Kapitel nehmen wir bei der Diskussion des Aufl¨ osungsverm¨ ogens abbildender optischer Systeme an, dass der geometrisch optische Teil eine per- fekt scharfe Abbildung liefert. Das Aufl¨ osungsverm¨ ogen des Systems, d.h. die F¨ ahigkeit zwei sehr nahe beeinanderliegende Objektpunkte noch getrennt abzubilden, h¨ angt dann nur von der Beugung des Lichts an den in dem optischen System auftretenden Strahlbegrenzungen (Pupillen) ab. Die geometrische Optik hat uns kein Konzept vermittelt, die Leistungsf¨ ahigkeit optischer Systeme ab- zusch¨ atzen. Tats¨ achlich glaubten auch die Mikroskophersteller bis zu den Arbeiten von Abbe in der Mitte des 19. Jahrhunderts, dass die einzige Begrenzung des r¨ aumlichen Aufl¨ osungsverm¨ ogens durch die technischen F¨ ahigkeiten der Linsenhersteller gegeben ist. Auf der Basis der Wellenoptik wissen wir heute aber, dass die grundlegende L¨ angenskala f¨ ur die Aufl¨ osungsgrenze optischer Systeme die Wel- lenl¨ ange des verwendeten Lichtes ist. 1 Allerdings wurden in der j ¨ ungeren Vergangenheit auch Methoden entwickelt, das Aufl ¨ osungsverm¨ ogen ¨ uber diese Grenze hinaus zu verbessern (z.B. Nahfeldmikroskopie). In diesem Kapitel wollen wir die Wellenoptik dazu benutzen, die Bilderzeugung durch eine Einzellinse zu beschreiben. Die dabei verwendeten Konzepte beruhen auf der Fraunhofer’schen Beugungstheorie und f¨ uhren direkt zu einem Verst¨ andnis der Grenzen der Bildqualit¨ at von abbildenden optischen Syste- men. 1 Die Vorhersagen der geometrischen Optik und der Wellenoptik sind ¨ aquivalent zu den Aussagen der klassischen Physik und der Quantenmechanik. W¨ ahrend in der klassischen Physik keinerlei prinzipielle Grenzen f¨ ur die Messgenauigkeit existieren, hat man in der Quantenphysik aufgrund der Heisenberg’schen Unsch¨ arferelation eine Grenze vorliegen. 317

Physik 3 2001 - alt.wmi.badw.de

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Kapitel 7

Abbildungstheorie

In diesem Kapitel wollen wir uns basierend auf den in den vorangegangenen Kapitel erarbeitetenKenntnisse zur Beugung und Interferenz sowie zur Koharenz von Licht mit der Abbildungstheoriebeschaftigen, um die Erzeugung von Bildern mit optischen Instrumenten und die dabei auftretendenAuflosungsgrenzen zu verstehen. Wir beschreiben dabei die physikalischen Grundlagen, die zu grundle-genden Beschrankungen in der Leistungsfahigkeit optischer Systeme fuhren. Wir wollen auch andeuten,wie man diese grundlegenden Beschrankungen uberwinden kann.

Die meisten optischen Systeme werden zur Bilderzeugung verwendet. Abgesehen von der Lochka-mera benutzen alle Linsen und/oder Spiegel, deren Eigenschaften wir bereits in Kapitel 4 zur geo-metrischen Optik ausfuhrlich behandelt haben. In diesem Kapitel nehmen wir bei der Diskussion desAuflosungsvermogens abbildender optischer Systeme an, dass der geometrisch optische Teil eine per-fekt scharfe Abbildung liefert. Das Auflosungsvermogen des Systems, d.h. die Fahigkeit zwei sehr nahebeeinanderliegende Objektpunkte noch getrennt abzubilden, hangt dann nur von der Beugung des Lichtsan den in dem optischen System auftretenden Strahlbegrenzungen (Pupillen) ab.

Die geometrische Optik hat uns kein Konzept vermittelt, die Leistungsfahigkeit optischer Systeme ab-zuschatzen. Tatsachlich glaubten auch die Mikroskophersteller bis zu den Arbeiten von Abbe in derMitte des 19. Jahrhunderts, dass die einzige Begrenzung des raumlichen Auflosungsvermogens durchdie technischen Fahigkeiten der Linsenhersteller gegeben ist. Auf der Basis der Wellenoptik wissen wirheute aber, dass die grundlegende Langenskala fur die Auflosungsgrenze optischer Systeme die Wel-lenlange des verwendeten Lichtes ist.1 Allerdings wurden in der jungeren Vergangenheit auch Methodenentwickelt, das Auflosungsvermogen uber diese Grenze hinaus zu verbessern (z.B. Nahfeldmikroskopie).

In diesem Kapitel wollen wir die Wellenoptik dazu benutzen, die Bilderzeugung durch eine Einzellinsezu beschreiben. Die dabei verwendeten Konzepte beruhen auf der Fraunhofer’schen Beugungstheorieund fuhren direkt zu einem Verstandnis der Grenzen der Bildqualitat von abbildenden optischen Syste-men.

1Die Vorhersagen der geometrischen Optik und der Wellenoptik sind aquivalent zu den Aussagen der klassischen Physik undder Quantenmechanik. Wahrend in der klassischen Physik keinerlei prinzipielle Grenzen fur die Messgenauigkeit existieren,hat man in der Quantenphysik aufgrund der Heisenberg’schen Unscharferelation eine Grenze vorliegen.

317

318 R. GROSS Kapitel 7: Abbildungstheorie

7.1 Fourier-Optik und Abbe’sche Theorie der Bildentstehung

Im Jahr 1867 schlug Ernst Carl Abbe2 eine Theorie vor, die die Grenzen des Auflosungsvermogens vonoptischen Systemen und deren Verbindung mit der Wellenlange des Lichts verdeutlicht. Wir wollen indiesem Abschnitt die Grundzuge dieser Theorie diskutieren.

Wir betrachten dazu stark vereinfacht die Bildentstehung bei der Abbildung durch eine Linse (sieheAbb. 7.1). Das Objekt sei eben und habe eine raumliche Transmissionsfunktion fO(x,y). Das Objekt wirdvon links mit koharenten, monochromatischen ebenen Wellen beleuchtet. Durch die Linse mit Brennwei-te f wird gemaß der geometrischen Optik ein Bild fB(X ,Y ) in der Bildebene erzeugt. Beim Vorgang derBildentstehung laufen dabei die folgenden Prozesse ab: Das Objekt beugt das einfallende Licht, so dasshinter dem Objekt gestorte Wellenfronten mit unterschiedlichen Raumfrequenzen (Richtungen) auftre-ten. Die gestorten Wellenfronten werden von der Linse nochmals gebeugt, so dass das Bild durch einenzweifachen Beugungsvorgang entsteht. Betrachten wir die Beugungsvorgange genauer, so sehen wir,dass Lichtbundel, die in die gleiche Richtung gebeugt werden, durch die Linse alle auf gleiche Punk-te in der Brennebene F der Linse fokussiert werden. In der Brennebene entsteht ein Fraunhofer’schesBeugungsbild Ψ(u,v). Gemaß der Fraunhofer’schen Beugungstheorie (siehe Abschnitt 5.4) ist Ψ(u,v)mit der zweidimensionalen Fourier-Transformation der Objektfunktion fO(x,y) verknupft. Die Punkte inder Brennebene stellen selbst wieder Lichtquellen dar, von denen aus das Licht zur Objektebene lauft,dort interferiert und somit das Bild fB(X ,Y ) aufbaut. Dieser zweite Prozess kann als Rucktransformationaufgefasst werden. Die Funktion der Linse ist also zweifach. Zum einen lenkt sie das Licht so, dass dasFraunhofer’sche Beugungsbild ins Endliche kommt. Zum anderen bewirkt sie gleichzeitig die Fourier-Rucktransformation zur Bildentstehung in der Bildebene.3

Der Zusammenhang zwischen optischer Abbildung und zweifacher Fourier-Transformation ist am ein-fachsten fur eine symmetrische Anordnung zu erkennen, wie sie in Abb. 7.1b gezeigt ist. Hier wird dieAbbildung durch zwei Linsen gleicher Brennweite erzielt. Die erste Fourier-Transformation (FT) erfolgtmit der Linse L1 in die gemeinsame Brennebene. Die Rucktransformation erfolgt dann durch die LinseL2, die zur Abbildung in der Bildebene fuhrt. Der ideale Abbildungsvorgang lauft also in zwei Teilschrit-ten ab:

fO(x,y) FT−−−−−−−−−−−−→ Ψideal(u,v) Ruck-FT−−−−−−−−−−−→ fB,ideal(X ,Y ) . (7.1.1)

Die Beugung am Objekt liefert die Fourier-Transformierte Ψideal(u,v), die dann in die ideale BildfunktionfB,ideal(X ,Y ) zurucktransformiert wird. Wir konnen insgesamt Folgendes feststellen:

Ein optisches Bild kann als Fourier-Transformierte der Fourier-Transformierten desObjekts dargestellt werden.

Diese Regel gilt streng genommen nur dann, wenn die Linse im Hinblick auf alle Abbildungsfehlerkorrigiert ist.

In einer realen Abbildung, die weiter unten in Abb. 7.4 dargestellt ist, wird allerdings die ideale Fourier-Transformierte gar nicht erzeugt. Die Linse besitzt namlich nur einen begrenzten Durchmesser und

2Eine Zusammenfassung der Leistungen von Ernst Abbe finden sich in H. Volkmann, Ernst Abbe and His Work, Appl. Opt.5, 1720 (1966).

3Diese Gedanken wurden erstmals 1973 von Ernst Abbe vorgetragen. Ein anderer, im Prinzip jedoch gleichbedeutenderAnsatz stammt von Lord Rayleigh (1996), der jeden Punkt des Gegenstands als koharente Lichtquelle betrachtete, deren Wellevon der Linse zu einem Airy-Muster gebeugt wird. Die Mittelpunkte jedes Airy-Scheibchens liegen im idealen Bildpunkt.

c© Walther-Meißner-Institut

Abschnitt 7.1 PHYSIK III 319

kann somit nur niedrige Raumfrequenzen (kleine Beugungswinkel) verarbeiten.4 Das Abschneiden vonhohen Raumfreuquenzen durch den endlichen Durchmesser der Linse oder andere den Strahlengangbegrenzende Pupillen berucksichtigen wir dadurch, dass vor die Rucktransformation noch ein Filte-rungsprozess geschaltet wird. Dieser Filterungsprozess fuhrt zu einer gefilterten Fourier-TransformationΨreal(u,v) = TFilter ·Ψideal fuhrt. Damit erhalten wir

fO(x,y) FT−→ Ψideal(u,v) Filterung T (u,v)−−−−−−−−−−−→ Ψreal(u,v) Ruck-FT−−−−−−→ fB,real(X ,Y ) . (7.1.2)

Das erhaltene Bild entspricht dann nach dem Faltungstheorem5 der Faltung von idealer Bildfunktion undFilterfunktion (die auch Transferfunktion genannt wird):

fB,real = fB,ideal ⊗TFilter . (7.1.3)

4Zusatzlich treten naturlich immer Linsenfehler auf, die wir hier aber nicht berucksichtigen wollen. Wir gehen von eineridealen geometrischen Optik ohne Linsenfehler aus.

5Faltungstheorem: FT (A⊗B) = FT (A) ·FT (B).

fgb

Objektebene

fO(x,y)Brennebene

Ψ(u,v)Bildebene

fB(X,Y)Linse

Objektebene

fO(x,y)Linse 1 Linse 2Brennebene

Ψ(u,v)Bildebene

fB(X,Y)

ff f f

(a)

(b)

Abbildung 7.1: Abbe’sche Abbildungstheorie: (a) Die Abbildung eines beleuchteten Objekts mit Trans-missionsfunktion fO(x,y) durch eine Linse wird in eine Sequenz von Fourier-Transformation (in die Bren-nebene der Linse) und Rucktransformation in die Bildebene zerlegt. (b) Direkt verstandlich wird dieRucktransformation, wenn man die Abbildung mit Hilfe von zwei Linsen durchfuhrt, die im Abstand 2 fstehen.

2003

320 R. GROSS Kapitel 7: Abbildungstheorie

Durch Einbringen von zusatzlichen Blenden in der Brennebene der Linse kann die Fourier-Transformierte modifiziert werden. Dadurch kann man gezielt z.B. niedrige oder hohe Raumfrequenzen(Beugungswinkel) ausblenden. Diesen Vorgang nennt man raumliche Filterung.

.

Ernst Carl Abbe (1840 - 1905):

Ernst Carl Abbe wurde am 23. Januar 1840 in Eisenach geboren.Er besuchte die Volkshochschule in Eisenach, in der er sichdurch uberdurchschnittliche Leistungen hervortat. Gegen En-de des 4. Schuljahres wurde er von seinen Lehrern fur einehohere Schulbildung am Realgymnasium empfohlen, an demdie mathematisch-naturwissenschaftlichen Facher und die neu-en Sprachen, also Englisch und Franzosisch, verstarkt unterrich-tet wurden. Aufgrund hervorragender Leistungen konnte Abbediese Schule bereits nach 7 statt 8 Jahren verlassen. Am 21.April 1857 begann er an der Friedrich-Schiller-Universitat in Je-na ein Mathematik- und Physikstudium. Abbe studierte 4 Seme-ster in Jena und horte außer Mathematik und Physik auch Vorle-sungen uber Botanik, Kristallographie, Padagogik, Psychologie,Philosophie und neueste Geschichte. Im Fruhjahr 1859 wechsel-te Ernst Abbe nach Gottingen, wo er bis 1859 weiterstudierte.Er promovierte am 23. Marz 1861. Nach einer Anstellung alsDozent am Physikalischen Verein in Frankfurt am Main zog Ab-be nach Jena. Hier arbeitete er an seiner Habilitationsschrift undkonnte sich in den Lehrgebieten Mathematik und Physik habili-tieren. Er wurde daraufhin Privatdozent an der Großherzoglichenund Herzoglich-Sachsischen Gesamtuniversitat Jena. Am 5. Mai1870 wurde Abbe zum außerordentlichen Professor und am 25. Juli 1878 zum außerordentlichen Honorarprofes-sor ernannt. In dieser Zeit erfand er eine Reihe optischer Gerate und arbeitete mit Carl Zeiss zusammen, der ihn1875 zum Teilhaber seiner optischen Werkstatten machte. Mit ihm entwickelte er die Grundlage fur die Herstel-lung von Linsen. 1878 erhielt er einen ehrenvollen Ruf des großen Helmholtz als Professor fur Optik, konnte ihnaufgrund der starken Bindung zu Zeiss jedoch nicht annehmen. 1882 baute er zusammen mit Carl Zeiss und OttoSchott die “Jenaer Glaswerk Schott und Gen.” auf. Nach Zeiss Tod im Jahre 1889 zum Alleininhaber der Firmageworden, fuhrte er Mitbestimmung, Achtstundentag, Gewinnbeteiligung, bezahlten Urlaub und fortlaufendesEinkommen fur sechs Monate nach erfolgter Kundigung ein. Schließlich grundete er die Carl-Zeiss-Stiftung, derer 1891 die Firma und Teile seines personlichen Vermogens ubergab und der er bis 1893 vorstand.

Der Physiker, Industrielle und Sozialreformer starb am 14. Januar 1905 in Jena.

Das Phasenproblem

Es soll nun kurz auf die Frage eingegangen werden, ob man die beiden Schritte des Bildentstehungs-prozesses voneinander trennen kann. Nehmen wir z.B. an, wir versuchen das Beugungsmuster in derBrennebene der Linse zu photographieren und beleuchten in einem getrennten Schritt diese Photogra-phie mit koharentem Licht, um ihr Beugungsmuster zu beobachten. Es stellt sich dann die Frage, ob wirnicht auf diese Weise das Beugungsmuster des Beugungsmusters erzeugen und somit das Originalbildrekonstruieren konnen. Dies kann man gerade nicht tun, da der Fehler bei derUberlegung darin besteht,dass auf der Photographie keine Information uber die Phase des Beugungsmusters enthalten ist. Die Pho-tographie stellt nur ein Intensitatsbild |Ψ(u,v)|2 ohne Phaseninformation dar, man verliert deshalb beimPhotographieren der Intensitatsverteilung des Beugungsmusters Information. Der zweite vorgeschlage-ne Beugungsprozess wurde in Unkenntnis der Phasen ausgefuhrt und wurde somit ein falsches bzw.unvollstandiges Bild hervorbringen.

Das Problem, dass die Phasen in einem aufgenommenen Beugungsmuster im Allgemeinen unbe-kannt sind, heißt Phasenproblem. Seine Losung ist von zentraler Bedeutung fur die Interpretation vonRontgenbeugungsbildern, bei denen man die Struktur eines Kristalls aus den aufgenommenen Beugungs-

c© Walther-Meißner-Institut

Abschnitt 7.1 PHYSIK III 321

bildern rekonstruieren will. Dabei sind verschiedene Ansatze moglich. Einer davon besteht darin, diePhasen auf plausible Art und Weise aus der im Beugungsmuster enthaltenen Information abzuleiten,wenn man bereits ein gewisses Vorwissen uber das Objekt hat. Diesen Prozess nennt man Phasenwie-dergewinnung.

Es gibt allerdings eine sehr wichtige Klasse von Beugungsbildern, die direkt zurucktransformiert werdenkonnen, da bei ihnen die Phasen im Beugungsbild tatsachlich null sind.6 Daraus folgt, dass sich alle ge-beugten Wellen im Ursprung des Realraumes konstruktiv uberlagern und dass die Objektfunktion daheran dieser Stelle ein Maximum hat. In der Sprache der Kristallographie bedeutet dies, dass am Ursprungein stark streuendes Atom sitzt. Viele Molekule oder Atome lassen sich tatsachlich als so aufgebaut den-ken. In einem solchen Fall ergibt die Rucktransformation der Photographie des Beugungsbildes ein gutesBild der ursprunglichen Kristallstruktur.

Wir werden in Abschnitt 7.5 mit der Holographie eine Technik kennenlernen, mit der man die Phasenin-formation auf einer Photoplatte als Intensitatsmuster abspeichern kann.

6Eine Beleuchtung der Photographie des Beugungsbildes mit koharentem Licht entspricht gerade dem Rucksetzen allerPhasen auf null.

2003

322 R. GROSS Kapitel 7: Abbildungstheorie

7.2 Auflosungsgrenze optischer Instrumente

Wir wollen nun die Abbe’sche Theorie zur Herleitung des Auflosungsvermogens optischer Instrumenteanwenden. Dabei werden wir die beiden Grenzfalle einer vollig inkoharenten und vollig koharentenBeleuchtung diskutieren, die relativ einfach behandelbar sind.

7.2.1 Das Rayleigh-Kriterium fur ein inkoharentes Objekt

Das einfachste und am besten bekannte Auflosungskriterium ist das von Lord Rayleigh formulierte. Esbezieht sich auf ein selbstleuchtendes oder inkoharent beleuchtetes Objekt. Es wird normalerweise aufastronomische Teleskope angewendet, da zwei Sterne sicherlich die Bedingungen selbstleuchtend undinkoharent erfullen.

Betrachten wir einen einzelnen Objektpunkt, so wissen wir aus der Fraunhofer’schen Beugungstheorie,dass wir in der Bildebene das Fraunhofer Muster der Aperturblende beobachten, dessen Abmessungenvon der Bildweite abhangen. Dieses Beugungsmuster wird als Punktantwort bezeichnet. Ein ausgedehn-tes Objekt kann immer als Ansammlung von Punktobjekten betrachtet werden, wobei jedes Punktobjektin der Bildebene eine ahnliche Punktantwort erzeugt. Da die einzelnen Punktquellen inkoharent sind,mussen wir die Intensitaten der jeweiligen Beugungsmuster addieren, um das Bild zu erhalten. Das Bildist also eine Faltung der Objektfunktion mit der Punktantwort.

Das Rayleigh-Kriterium fur die Auflosung lasst sich herleiten, indem man zwei benachbarte Punkte desObjekts betrachtet, die einen kleinen Winkelabstand voneinander entfernt sind. Hat die Aperturblendeden Durchmesser D = 2R, so besitzt ihr Beugungsmuster folgende Intensitatsverteilung als Funktion desWinkels (vergleiche hierzu (5.4.32) und die daran anschließende Diskussion):

I(θ) =

(2J1(1

2 k0Dsinθ)12k0Dsinθ

)2

. (7.2.1)

Rayleigh nahm nun an, dass zwei Objektpunkte gerade dann noch zu trennen sind, wenn das zentraleMaximum des einen Beugungsmusters im ersten Minimum des anderen liegt (siehe Abb. 7.2a). DieFunktion J1(x) in (7.2.1) hat ihre erste Nullstelle bei x = 3.83 oder x/π = 1.22. Daraus folgt

12π

k0Dsinθ1 = Dsinθ1/λ = 1.22 . (7.2.2)

Der Winkelabstand θ1 ist der minimale Winkelabstand, der noch aufgelost werden kann. Fur inkoharenteQuellen gilt deshalb das Auflosungsvermogen7

θmin =3.83

πλD

= 1.22λD

(Rayleigh) . (7.2.3)

c© Walther-Meißner-Institut

Abschnitt 7.2 PHYSIK III 323

- 2 -1 0 1 2 30 .0

0 .2

0 .4

0 .6

0 .8

1 .0

I ( θ

)

k0D s in θ / 2 π

-2 -1 0 1 2 3-0 .2

0 .0

0 .2

0 .4

0 .6

0 .8

1 .0

1 .2

A (

θ )

k0D s in θ / 2 π

(a)

(b)

Abbildung 7.2: Uberlagerung der Bilder zweier (a) inkoharent beleuchteter und (b) koharent beleuchteterLochblenden. Die gestrichelten Linien stellen in (a) die Einzelintensitaten und in (b) die Einzelamplitudendar, die durchgezogenen Linien entsprechend die Gesamtintensitat und die Gesamtamplitude.

Wichtig an diesem Ergebnis ist, dass nur der Winkelabstand der Quellen vorkommt. Um eine guteAuflosung zu erzielen, muss also die Wellenlange moglichst klein und die den Strahlengang einengendeAppertur (z.B. der Linsendurchmesser) moglichst groß sein.

Wir wollen das Auflosungsvermogen eines Fernrohrs anhand eines Zahlenbeispiels diskutieren. Dazuwollen wir mit einem Fernrohr mit D = 5 m den Mond beobachten. Mit dem Abstand Erde-Mond vonx = 385.000 km kann man den minimalen Abstand a von Gegenstanden auf dem Mond abschatzen,der noch aufgelost werden kann. Fur θmin erhalten wir a/x. Bei λ = 500 nm ergibt sich daraus a ≥1.22λx/D = 47 m. Fur die Astronomie ist im Allgemeinen die Winkelauflosung von Bedeutung. FurD = 5 m erhalt man bei λ = 500 nm eine Winkelauflosung von 1.2×10−7rad.

7.2.2 Das Sparrow-Kriterium fur ein inkoharentes Objekt

Obwohl das Rayleigh-Kriterium das bekannteste Mass fur das Auflosungsvermogen ist, funktioniertes unter bestimmten Bedingungen nicht, die wir spater noch kennen lernen werden (siehe z.B. Ab-schnitt 7.4.2). Ein alternatives Kriterium, das vor allem der Eigenschaft des menschlichen Auges, In-tensitatsunterschiede gut wahrzunehmen, Rechnung tragt, ist das Sparrow-Kriterium. Bei diesem Kri-

7Da die auftretenden Winkel ublicherweise klein sind, wurde der Sinus durch sein Argument ersetzt.

2003

324 R. GROSS Kapitel 7: Abbildungstheorie

-2 -1 0 1 2 30.0

0.2

0.4

0.6

0.8

1.0

I ( θ

)

k0D sinθ / 2π

-2 -1 0 1 2 30.0

0.2

0.4

0.6

0.8

1.0

1.2

I ( θ

)

k0D sinθ / 2π

(a) (b)

Abbildung 7.3: Uberlagerung der Bilder zweier inkoharent beleuchteter Lochblenden entsprechend dem(a) Rayleigh und (b) Sparrow-Kriterium. Die gestrichelten Linien stellen die Einzelintensitaten, die durch-gezogenen Linien die Gesamtintensitat dar.

terium gelten zwei Punkte als raumlich aufgelost, wenn ihre gemeinsame Intensitatsfunktion entlangihrer Verbindungslinie ein Minimum besitzt. Haben beide Punkte die gleiche Intensitat, so ergibt dasSparrow-Kriterium einen Minimalabstand θmin, wenn gilt

(d2Idθ2

)θ=θmin/2

= 0 . (7.2.4)

Verwendet man als Intensitatsfunktion die Bessel-Funktion (7.2.1), so folgt fur θmin

θmin =2.98

πλD

= 0.95λD

(Sparrow) . (7.2.5)

Abb. 7.3 zeigt einen Vergleich des Intensitatsverlaufs zweier inkoharent beleuchteter Lochblenden nachdem Rayleigh und dem Sparrow-Kriterium.

7.2.3 Rayleigh Kriterium fur ein koharent beleuchtete Objekt

Besteht das Objekt aus zwei Punkten, die Licht mit der gleichen Phase emittieren, so mussen die Am-plituden ihrer Punktantwort addiert werden (und nicht wie bei inkoharenten Objektpunkten die Inten-sitaten). Entsprechend (7.2.1) erhalt man

A(θ) =J1(1

2k0Dsinθ)12k0Dsinθ

. (7.2.6)

Das Rayleigh-Kriterium ergibt dann das gleiche Resultat wie in (7.2.3). In Abb. 7.2b sind die Einzelam-plituden und die Gesamtamplitude von zwei koharent beleuchteten Lochblenden gezeigt. Man erkennt,

c© Walther-Meißner-Institut

Abschnitt 7.2 PHYSIK III 325

dass fur die koharent beleuchteten Lochblenden das Rayleigh-Kriterium offensichtlich nicht mehr ausrei-chend ist. Dies liegt daran, dass wir jetzt die Einzelamplituden und nicht die Einzelintensitaten addierenmussen. Bei koharenter Beleuchtung erhalt man dann die Gesamtintensitat durch Quadrieren der Ampli-tudensumme, I(θ) = [A(θ)+ A(θ −θmin)]2.

Die Diskussion legt nahe, dass man fur inkoharent beleuchtete Objekte auf jeden Fall eine bessereAuflosung erhalt als fur koharent beleuchtete. Dies liegt aber nur daran, dass wir eine spezielle Phasen-beziehung zwischen den beiden koharenten Quellen angenommen haben (beide hatten dieselbe Phase).Wir konnten aber auch annehmen, dass beide Quellen einen Phasenunterschied von π haben sollen. Indiesem Fall ergabe sich die Gesamtintensitat zu I(θ) = [A(θ)−A(θ − θmin)]2. Man sieht sofort, dassdiese Intensitatsfunktion immer genau zwischen den Maxima der Einzelintensitaten ein Minimum be-sitzt, egal wie eng benachbart die beiden Quellen sind. Naturlich werden die Bilder durch die destruktiveInterferenz immer schwacher, je naher die beiden Quellen zusammenrucken. Dieser Fall findet in mo-dernen Lithographietechniken Anwendung. Man verwendet bei der Herstellung von kleinen Strukturenfur mikroelektronische Schaltkreise mittels Photolithographie so genannte Phasenmasken. Dabei werdenbeieinanderliegende Objekte auf einer Photomaske abwechselnd mit einem transparenten Film bedeckt,der zu einer Phasenschiebung von π fuhrt. Dadurch wird sichergestellt, dass eine dunkle Linie zwischenden Bilder der benachbarten Elemente entsteht. Im Allgemeinen gilt aber tatsachlich, dass inkoharenteBeleuchtung zu einem besseren Auflosungsvermogen fuhrt.

7.2.4 Anwendung der Abbe’schen Theorie auf das Auflosungsvermogen

Wir haben oben gesehen, dass es eigentlich gunstig ware, eine inkoharente Beleuchtung zu verwenden,um ein moglichst hohes Auflosungsvermogen zu erhalten. Allerdings arbeiten die meisten Mikroskopeaufgrund der kleinen Abmessungen der Objekte und der praktischen Schwierigkeiten, wirklich raumlichinkoharentes Licht zu erzeugen, mit koharenter bzw. zumindest teilweise koharenter Beleuchtung.

+2. Ordnung

-2. Ordnung

+1.

-1.

0.

0.

-1.

+1.

fgb

Gitter

Abbildung 7.4: Auflosungsvermogen nach Abbe. Damit die Periodizitat einer Struktur richtig wiederge-geben wird, muss das abbildende optische System neben der 0-ten Ordnung auch die ±1-te Ordnungdurchlassen.

2003

326 R. GROSS Kapitel 7: Abbildungstheorie

Wir wollen nun die Abbe’sche Theorie der Bildentstehung auf koharent beleuchtete Objekte anwenden.Hierzu betrachten wir die in Abb. 7.4 gezeigte Situation. Wir verwenden als Objekt ein Strichgitter mitkleinem Strichabstand a. Das Gitter beugt das einfallende Licht in die unterschiedlichen Ordnungen.Je nach Offnungswinkel des Objektivs werden unterschiedliche Beugungsordnungen ausgefiltert bzw.zum Aufbau des Bildes verwendet. Lasst man nur die 0-te Ordnung passieren, so entspricht dies einemeinzigen Punkt in der Fourier-Ebene (Brennebene der Linse), der nur zu einer gleichmaßigen Helligkeitin der Bildebene Anlass gibt. Verwendet man zusatzlich die ±1-te Ordnung, so entsteht ein Bild desObjekts, das die Periodizitat des Gitters richtig wiedergibt. Mit zunehmend hoheren Ordnungen nimmtdie Scharfe der Abbildung zu.

Um das Auflosungsvermogen eines optischen Instruments abzuschatzen, kann man den Gitterabstandbetrachten, fur den gerade noch die 0-te und ±1-te Ordnung durchgelassen werden. Bei weiterer Ver-ringerung des Gitterabstandes wurden die Beugungswinkel großer und man hatte nur noch die 0-te Ordnung vorliegen. Diese Uberlegung wurde erstmals von Abbe gemacht und fuhrt direkt zumAuflosungsvermogen bei der Abbildung eines Objekts, das mit senkrechtem Licht bestrahlt wird. Furden Fall, dass sich vor dem Objektiv ein Medium mit dem Brechungsindex n befindet, lautet die Bedin-gung fur das Auftreten der ±1-ten Beugungsordung a nsin θ = ±λ (vergleiche (5.5.13)). Damit ergibtsich das erreichbare Auflosungsvermogen zu

a ≥ λnsin θ

NA. (7.2.7)

Hierbei wird NA = nsin θ numerische Apertur genannt.

In unserer Diskussion haben wir angenommen, dass die Beleuchtung parallel zur optischen Achse erfolgtund dass das Empfangen der 0-ten und ±1-ten Ordnungen fur die Bildentstehung notwendig ist. In derTat reicht es aber, nur die 0-te und die +1-te oder −1-te Ordnung zu verwenden. Wir konnen deshalbdas Auflosungsvermogen verbessern, indem wir das Objekt mit Licht beleuchten, das einen Winkel αzur optischen Achse hat, so dass die 0-te Ordnung gerade noch durchgelassen wird. Die Bedingung, dassdann die 1-te Ordnung auf einer Seite auch noch durchgelassen ist, ergibt dann

a ≥ λ2nsin θ

2 NA. (7.2.8)

Dieses Ergebnis stellt die maximale Auflosung dar, die mit einer gegebenen Linse erzielt werdenkann. Um sie in der Praxis zu erreichen, beleuchtet man mit einem Lichtkegel, der einen halbenOffnungswinkel von mindestens α hat, wie in Abb. 7.5 gezeigt ist.

Die Auflosungsgrenze, die durch eine endliche Offnung zustande kommt, kann auch als Anwendung desFaltungssatzes (vergleiche (5.5.1) in Abschnitt 5.5) interpretiert werden. In einem System mit koharenterBeleuchtung resultiert die Begrenzung der Fourier-Transformierten durch eine Blende in einer Punkt-antwort in der Bildebene, deren Amplitude mit der des Objekts gefaltet werden muss, wenn das Bildentsteht (vergleiche (7.1.3)). Das Resultat ist ein Verschmieren des Bildes. Da aber hierbei die Ampli-tuden verwendet werden mussen, konnen benachbarte Teile des Bildes interferieren. Das Ergebnis wirddann deutlich komplizierter als im Fall einer inkoharenten Beleuchtung, wo die gleicheUberlegung furdie Intensitaten gilt. Insbesondere konnen durch die Interferenzeffekte Bildartefakte entstehen, die hiernicht diskutiert werden sollen.

c© Walther-Meißner-Institut

Abschnitt 7.2 PHYSIK III 327

Kondensor Objektiv

Objekt

zumOkular

Quelleα

Abbildung 7.5: Kegelformige Beleuchtung eines Objekts, um die großte mikroskopische Auflosung zuerhalten.

Quelle

KondensorHilfslinse Objekt

fbg

Abbildung 7.6: Kohler’sche Beleuchtung zur Erzeugung einer inkoharenten Objektbeleuchtung.

7.2.5 Kohler’sche Beleuchtung

Fur viele praktische Falle ist eine vollig inkoharente Beleuchtung eines Objekts am gunstigsten. In-koharentes Licht erhalten wir im Allgemeinen von einer Quelle mit großer raumlicher Ausdehnung (z.B.Tageslicht von Himmel). Solche Lichtquellen sind allerdings meist zu schwach und man muss zur Stei-gerung der Intensitat eine Linse verwenden, um das Licht der Quelle auf das Objekt zu fokussieren. EinAbbildungssystem ist allerdings nie perfekt und somit erzeugt jeder Punkt der Quelle ein Bild endlicherGroße auf dem Objekt. Das bedeutet, dass benachbarte Bereiche auf dem Objekt wiederum mit teilweisekoharentem Licht beleuchtet werden. Man muss das Beleuchtungssystem nun so gestalten, dass dieseteilweise koharent beleuchteten Bereiche moglichst klein werden.

Als Beispiel ist in Abb. 7.6 die Kohler’sche Beleuchtung gezeigt. Dabei wird eine ausgedehnte Lichtquel-le benutzt. Obwohl jeder Punkt der Quelle paralleles koharentes Licht unter einem bestimmten Winkelerzeugt, ist die Gesamtstrahlung an jedem Punkt des beleuchteten Objekts vollig inkoharent. Dies kommtdadurch zustande, dass sich an jedem Punkt des Objekts koharente ebene Lichtwellen mit zufallsverteil-ten Phasen uberlagern, die von unterschiedlichen Punkten der Quelle kommen.

Die Beleuchtungsanordnung ergibt ein Feld mit einem raumlichen Koharenzbereich mit Radius rc ∝λ/NAc, wobei NAc die numerische Apertur des Kondensors ist. Ist NAc großer als die numerischeApertur des Objektivs und ist die optische Qualitat der Kondensorlinse genugend hoch, so ist rc klei-ner als die raumliche Auflosungsgrenze, so dass aufgeloste Punkte im Wesentlichen inkoharent beleuch-tet werden und deshalb unkorreliert sind. In diesem Fall ist die Auflosungsgrenze wirklich durch dasRayleigh-Kriterium gegeben. Es sei noch darauf hingewiesen, dass eine Reduktion von NAc meist zu

2003

328 R. GROSS Kapitel 7: Abbildungstheorie

einer Erhohung des Bildkontrastes, dafur aber zu mehr Artefakten durch Korrelationen fuhrt.

c© Walther-Meißner-Institut

Abschnitt 7.3 PHYSIK III 329

7.3 Anwendungen der Abbe’schen Theorie

Die Abbe’sche Theorie der Bildentstehung fuhrt direkt zu einigen interessanten Moglichkeiten der Bild-bearbeitung, die wir hier kurz vorstellen wollen. Durch Anbringen von geeigneten Masken und Filtern inder Fourier-Ebene der abbildenden Linse kann man eine raumliche Filterung des Bildes vornehmen. Da-durch kann man z.B. den Kontrast erhohen oder erniedrigen, storende Bildelemente unterdrucken oderKantenuberhohungen ausfuhren. Die Bezeichnung raumliche Filterung wird deshalb verwendet, da beikoharenter Beleuchtung eines Objekts in der hinteren Brennebene der abbildenden Linse hauptsachlichdas Spektrum der Raumfrequenzen des Bildes vorliegt, das durch Blenden und Filter modifiziert werdenkann. Zum Beispiel konnen, wie in Abb. 7.7 gezeigt ist, die großen Raumfreuqenzen durch eine Mas-ke herausgefiltert werden, die somit die Bildebene nicht erreichen konnen. Eine solcheAnderung desFrequenzspektrums eines Bildes nennen wir raumliche Filterung.

Wird eine inkoharente Beleuchtung verwendet, so konnen wir die Fourier-Transformierte in der hinterenBrennebene der abbildenden Linse naturlich nicht beobachten. Die im Folgenden diskutierten Prinzipiengelten aber trotzdem. Die verwendeten Methoden sind sowieso meistens nur Naherungsmethoden. Wirwollen im Folgenden einige Methoden diskutieren, die darauf basieren, dass in die Brennebene der 1.Linse bestimmte Blenden- und/oder Filteranordnungen eingebracht werden.

Objektebene

fO(x,y)Linse 1 Linse 2Brennebene

Ψ(u,v)Bildebene

fB(X,Y)

ff f f

Maske

Abbildung 7.7: Zur Veranschaulichung der raumlichen Filterung: Durch Einbringen in die hintere Bren-nebene der 1. Linse, in der die Fourier-Transformierte des Gegenstands entsteht, konnen bestimmteraumliche Frequenzen herausgefiltert werden.

7.3.1 Dunkelfeldabbildung

Wir betrachten zuerst den Fall, dass wir ein sehr kleines, nichtleuchtendes Objekt z.B. unter einem Mi-kroskop betrachten wollen. Verwenden wir eine ubliche Beleuchtungsmethode, so werden wir den sehrkleinen Beitrag des von dem kleinen Objekt gestreuten Lichts gegenuber der hohen Intensitat des un-gestreuten Lichts nicht wahrnehmen konnen. Dieses Problem konnen wir aber dadurch umgehen, dasswir die Probe schrag beleuchten, so dass das ungestreute Licht nicht auf das Objektiv trifft. Deshalb wirddiese Methode Dunkelfeldabbildung genannt. Dadurch gelangt nur das von dem kleinen Objekt gestreuteLicht in unser Auge. Wir konnen dann das kleine Objekt (z.B. Bakterium) gut lokalisieren und eventuellseine Bewegung verfolgen.

Bei der Dunkelfeldabbildung wird also das ungebeugte Licht nicht zur Abbildung verwendet. Dies istgleichbedeutend damit, dass man in der Fourier-Ebene der abbildenden Linse die 0-te Beugungsordnungausblendet. Dies kann durch das Einbringen einer scheibenformigen Blende geschehen (siehe Abb. 7.8a).

2003

330 R. GROSS Kapitel 7: Abbildungstheorie

(a) (b) (c) (d)

Abbildung 7.8: Filter in der Fourier-Ebene der Objektivlinse fur die (a) Dunkelfeldabbildung und dieErzeugung von (b) Phasen-, (c) Schlieren- und (d) Beugungskontrast.

Diese Methode eignet sich auch sehr gut zur Darstellung von so genannten Phasenobjekten mit geringerAbsorption.

7.3.2 Die Phasenkontrast-Mikroskopie

Die Phasenkontrast-Mikroskopie ist eine Methode, den schwachen Kontrast eines Phasenobjektes8 zuerhohen. Da große Phasenanderungen aufgrund ihrer Brechungseffekte normalerweise gut sichtbar sind,wird die Phasenkontrast-Mikroskopie nur bei kleinen Phasenanderungen verwendet. Die Methode desPhasenkontrasts wurde bereits 1934 von dem niederlandischen Physiker Fritz Zernicke vorgeschlagenund in seinem Phasenkontrast-Mikroskop umgesetzt.

Die Phasenkontrastmethode kann man analytisch beschreiben, wenn die Phasenvariationen φ(x) � 1sind. Wir wollen uns hier auf diesen Fall, bei dem die Transmissionsfunktion f (x) entwickelt werdenkann, beschranken. Es gilt dann9

f (x) = A exp[iφ(x)] � A+ iAφ(x)| f (x)|2 � A2 . (7.3.1)

Man erkennt, dass die transmittierte Intensitat etwa konstant ist und man deshalb ein sehr kontrastschwa-ches Bild erwartet.

Verandert man allerdings die Phase der 0-ten Ordnung, d.h. des von x unabhangigen Terms, um π/2, soerhalt man die Funktion:

f (x) = iA+ iAφ(x) � iAexp[φ(x)]| f (x)|2 = A2 exp[2φ(x)] � A2 [1+ 2φ(x)] . (7.3.2)

Das heißt, man erhalt eine reelle Variation der Intensitat mit einer linearen Abhangigkeit von φ .

In der Praxis ist die Anwendung der Phasenkontrastmethode auf eine inkoharent beleuchtete Probeschwierig, da es keine wohldefinierte Fourier-Transformierte gibt, deren verschiedene Ordnungen man

8Ein ideales Phasenobjekt andert nur die Phase einer Welle aber nicht ihre Amplitude.9Unter Benutzung der Naherung ex � 1+x.

c© Walther-Meißner-Institut

Abschnitt 7.3 PHYSIK III 331

Kondensor

Qu

elle

Objekt

ObjektivPhasenplatte

Ringblende

F1 F2

zum

Oku

lar

Abbildung 7.9: Strahlengang in einem Phasenkontrast-Mikroskop. Die Phasenplatte liegt in der Ebenedes Bildes der Ringblende, das vom Kondensor-Objektiv-Linsensystem geformt wird.

identifizieren konnte. Man behilft sich mit der in Abb. 7.9 gezeigten Anordnung. Dabei wird der be-leuchtende Strahl durch eine ringformige Blende geleitet. Ein reelles Bild dieser Blende wird in derhinteren Brennebene des abbildenden Objektivs erzeugt. Die Platte, die die Phasenschiebung erzeugt, istein dunner Film der Dicke λ/4, dessen laterale Abmessungen denen des Bildes der Ringblende ange-passt sind. Das Bild wird schließlich durch Interferenz des Lichts, das durch die Platte gegangen ist, unddem, das an der Platte vorbeigegangen ist, erzeugt.

Erzeugt die Probe selbst nur kleine Phasenunterschiede, so ist meist die 0-te Ordnung im Beugungsmu-ster zu hell und eine Veranderung ihrer Phase fuhrt zu ubertriebenen Veranderungen des Bildes. Manstellt deshalb die Phasenplatte so her, dass nur etwa 10 - 20% der 0-ten Ordnung transmittiert werden.Diese sieht dann wie ein dunkler Ring vor einem hellen Hintergrund aus (siehe Abb. 7.8b) und erzeugtein Bild, das einen Kompromiss zwischen einer Dunkelfeld- und einer Phasenkontrastaufnahme darstellt.

7.3.3 Die Schlierenmethode

Eine alternative Methode zur Erzeugung von Kontrast besteht darin, den zentralen Fleck im Beu-gungsbild mit einer scharfen Kante zu begrenzen (siehe Abb. 7.8c), wodurch die Halfte der Fourier-Transformierten ausgeblendet wird. Dazu muss das Objekt in einen koharenten, parallelen Lichtstrahlgebracht werden, der durch eine auf spharische Aberration sorgfaltig korrigierte Linse fokussiert wird.Die scharfe Kante wird dann so in die Brennebene der Linse eingebracht, dass sie den Fokuspunkt ge-rade schneidet. Diese Methode, die 1864 von A. Topfer zum Auffinden von Materialfehlern in Linseneingefuhrt wurde, wird Schlierenmethode genannt und hat zwei wichtige Anwendungen.

Als erstes stellt sie einen wichtigen Test der Linsenqualitat hinsichtlich der spharischen Aberration dar.Falls eine Linse eine spharische Aberration aufweist, besitzt sie keinen wohldefinierten Fokuspunkt undes wird unmoglich, eine Position fur die Messerkante zu finden, bei der genau die Halfte der Fourier-Transformierten abgeschnitten wird. Wenn wir die Linse selbst beim Verschieben der Kante in derBrennebene betrachten, so stellen wir fest, dass sich die Intensitat der Beleuchtung auf der Oberflacheverandert. Daraus konnen dann notwendige Korrekturen der Linse abgeleitet werden. Dieser Test wirdFoucault’sche Schneidenprufung genannt.

Die zweite Anwendung der Schlierenmethode ist bei der Untersuchung der Flussigkeits- und Aerody-namik wichtig. Ein Windkanal, in dem die Luftdichte und damit der Brechungsindex der Luft durchStorungen (z.B turbulente Stromungen) modifiziert wird, stellt ein Phasenobjekt dar. Indem man dieSchlierenmethode verwendet, kann man die Phasenanderungen als Anderungen der Intensitat sichtbar

2003

332 R. GROSS Kapitel 7: Abbildungstheorie

machen. Ein wichtiger Unterschied zwischen den Phasenkontrast- und Schlierensystemen besteht dabeidarin, dass die letzteren nur entlang einer Achse arbeiten. Schlierensysteme werden oft so eingestellt,dass das Licht der 0-ten Ordnung gedampft, aber nicht vollstandig ausgeblendet wird.

7.3.4 Beugungskontrast

Bei Elektronenmikroskopen wird die numerische Apertur sehr klein gehalten, da es keine Moglichkeitengibt, die Aberrationen der Linsensysteme vollstandig zu korrigieren. Betrachtet man z.B. kristalline Ma-terialien, so ist es daher moglich, sich nur einen sehr begrenzten Teil der Fourier-Transformierten an-zuschauen, der nur eine Beugungsordnung und ihre Umgebung enthalt (siehe entsprechenden Filter inAbb. 7.8d). Dies reicht aus, um die Struktur auf einer Skala großer als die Einheitszelle sichtbar zu ma-chen. Die Technik, die als Beugungskontrastmethode bezeichnet wird, verwendet ein Raumfilter, das alleBeugungsordnungen bis auf eine ausblendet. Haben wir beispielsweise ein polykristallines Material vor-liegen und bilden es durch eine Blende außerhalb der optischen Achse ab, so erscheinen nur diejenigenKristallite als helle Flecken im Bild, die Beugungsmaxima innerhalb der Blendenoffnung haben. DerRest bleibt dunkel. Um die Periodizitat der Probe (atomare Struktur) abzubilden, muss man eine Blendeverwenden, die mehrere Beugungsordnungen durchlasst. Ein Bild, das auf diese Weise erhalten wird,heißt Gitterbild.

c© Walther-Meißner-Institut

Abschnitt 7.4 PHYSIK III 333

7.4 Verbesserung der Auflosung von optischen Instrumenten

Die im vorangegangenen Abschnitt 7.3 diskutierten Methoden haben nicht zu einer Verbesserung derraumlichen Auflosung uber den Wert λ/2NA, sondern nur zu einer Optimierung des Kontrastes gefuhrt.Es stellt sich allgemein die Frage, ob die Grenze λ/2NA einen fundamentale Grenze fur die Auflosungdarstellt.

Teilchen

Photon

Bild-ebene

Bleuchtung

k0

k0

z

y

x

Abbildung 7.10: Prinzipskizze zum Heisenberg’schen Gedankenexperiment zum Gammastrahlen-Mikroskop.

In der Tat wurde die Auflosungsgrenze von optischen Instrumenten von Heisenberg dazu verwendet,das qunatenmechanische Unscharfeprinzip darzustellen. Dazu hat Heisenberg ein Gedankenexperiment,sein beruhmtes Gammastrahlenmikroskop10 verwendet. Er ging dabei davon aus, dass die Position vonpunktformigen Teilchen im Blickfeld eines Mikroskops so genau wie moglich bestimmt werden soll.Um dies zu erreichen, wird ein Objektiv mit moglichst großer numerischer Apertur und Wellen derkurzesten Wellenlange (Gammastrahlen) verwendet. Um eine Ortsbestimmung durchzufuhren, mussmindestens ein Photon an dem Objekt gestreut werden und ins optische System des Mikroskops ein-fallen (siehe Abb. 7.10). Es gibt allerdings keine Moglichkeit festzustellen, unter welchem Winkel dasPhoton in die Optik einfallt. Nach der Streuung wissen wir, dass das Photon eine Richtung inner-halb des halben Offnungswinkels α besitzen muss, der die numerische Apertur des Mikroskops be-stimmt. Hat das Photon die Wellenzahl k0, so muss seine x-Komponente nach der Streuung im Bereich−k0 sinα < kx < k0 sinα liegen. Es gilt daher eine Unscharfebeziehung δkx = 2k0 sinα . Mit Hilfe derTheorie zum Auflosungsvermogen eines Mikroskops ergibt die Beziehung a ≥ λ/2NA eine Unscharfein der Bildposition δx ≥ λ/2NA = λ/2sin α . Daher gilt

δxδkx ≥ 2π , (7.4.1)

was in der Form11

δxδ px ≥ h , (7.4.2)

geschrieben werden kann. Dies ist die ubliche Schreibweise der Heisenberg’schen Unscharferelation.Das heißt, Heisenberg hat in seinem Gedankenexperiment die Auflosungsgrenze optischer Instrumenteauf das Unscharfeprinzip der Quantenmechanik zuruckgefuhrt.

10Dieses Gedankenexperiment wurde von Heisenberg im Jahr 1930 durchgefuhrt.11Mit p = hk; siehe hierzu Kapitel 9.

2003

334 R. GROSS Kapitel 7: Abbildungstheorie

Wir konnen nun nach Moglichkeiten suchen, das Unscharfeprinzip zu umgehen. Eine sinnvolle Idee istdie Verwendung von vielen Photonen. Jedes Photon muss weiterhin durch die Linse treten, so dass δkxunverandert bleibt. Aber ein statistisches Ensemble N solcher Photonen hat eine totale Unscharfe von2√

Nk0 sin α , so dass δx � λ/2NA√

N erwartet werden kann. Es gibt in der Tat mehrere Methoden, dieeine große Zahl von Photonen verwenden.

Eine Methode zur Verbesserung des Auflosungsvermogens verwendet evaneszente Wellen, die wir bereitsin Abschnitt 2.6.4 kennengelernt haben. Wir haben in Kapitel 5 gesehen, dass eine elektromagnetischeWelle die skalare Wellengleichung

∇2Ψ+ k20Ψ = 0 (7.4.3)

erfullen muss. Wir haben bisher angenommen, dass die Losungen in alle Richtungen wellenformig sind.Konnen wir aber die Welle in eine Richtung, z.B. die z-Richtung, evaneszent machen, so dass Ψ in derForm exp[i(kxx+ kyy)±2πz/a] geschrieben werden kann, erhalten wir durch Einsetzen in (7.4.3)

k2x + k2

y −4π2

a2 = k20 =

4π2

λ 2 . (7.4.4)

Wir konnen aus diesem Ausdruck folgendes ablesen: Ist a � λ , so ist 4π2/a2 � 4π2/λ 2. Damit ergibtsich k2

x + k2y = 4π2

λ 2 + 4π2

a2 � 4π2

a2 , wodurch kx oder ky fast so groß wie 2π/a, also deutlich großer alsk0 wird. Als Resultat davon wird die raumliche Auflosung δx oder δy � a deutlich kleiner als eineWellenlange. Der Prozess des Erzeugens evaneszenter Wellen bedeutet die Anwendung von bestimmtenRandbedingungen, die evaneszente Wellen zu ihrer Entstehung benotigen.

Wir werden im Folgenden einige Methoden vorstellen, die das eben diskutierte Konzept verwenden.Zwei von ihnen haben zu praktisch funktionierenden Instrumenten gefuhrt.

7.4.1 Vertiefungsthema:Apodisation

Bei der Technik der Apodisation wird versucht, der Fourier-Transformierten eine bestimmte Form zugeben. Durch Einsetzen von geeigneten Masken in der Linsenebene (z.B. System aus mehreren Ring-blenden) kann man die Punktantwort des Linsensystems optimieren. Verwendet man eine einfache Loch-blende (diese liegt bei jedem Linsensystem durch den endlichen Durchmesser der Linsen vor), so erhaltman als Punktantwort eine Airy-Scheibe mit konzentrischen Beugungsringen (vergleiche Abschnitt 5.4.6und Abb. 5.20). Durch Verwendung eines Satzes von konzentrischen Ringblenden mit geeigneten Durch-messern in der Linsenebene kann man nun erreichen, dass die Beugungsringe um die Airy-Scheibe un-terdruckt werden.12 Bei der Diskussion der Beugung am unscharfen Spalt (siehe Abschnitt 5.4.3) habenwir gesehen, dass eine vollstandige Unterdruckung der Nebenmaxima durch eine Blende mit Gauß-formigem Profil (siehe Abb. 5.18) erreicht werden konnte. Die genaue Rechnung zeigt allerdings, dassdie Verwendung einer Blende mit Gauß-formigem Profil die Auflosung etwas verschlechtert, da die zen-trale Airy-Scheibe insgesamt etwas breiter wird.

12Jaquinot und Roizen-Dossier, 1964.

c© Walther-Meißner-Institut

Abschnitt 7.4 PHYSIK III 335

Eine andere Blendenanordnung verbessert die Auflosung dagegen etwas. Decken wird z.B. das Zentrumder Linse ab, so dass nur an ihrem Rand eine ringformige Blende bestehen bleibt. Die Punktantwort derLinse ist dann durch die Fourier-Transformierte dieser Ringblende, die im Anhang C diskutiert wurde,gegeben. Es gilt I(θ) = 4π2R2δR2 J2

0 (Rk0 sinθ)/(Rk0 sin θ)2, wobei R = D/2 der Radius und δR dieStarke der Ringblende ist. Die erste Nullstelle dieser Funktion liegt bei (k0/2π)Dsin θ = 0.76 (siehehierzu Abb. C1 im Anhang). Wendet man das Rayleigh-Kriterium fur die Auflosung an, so erhalt manθmin = 0.76λ/D verglichen mit θmin = 1.22λ/D fur eine Lochblende mit Durchmesser D = 2R. Wirerhalten somit eine Auflosungsverbesserung von etwa 40%. Da allerdings die Beugungsringe, die durchdie J0-Funktion entstehen, relativ stark sind, hat diese Methode nur wenige direkte Anwendungen. Einweiterer Nachteil der Methode ist die große Verschwendung von Licht. Aus Sicht der Unscharferelationhaben wir δkx dadurch maximiert, indem wir nur Photonen aus den Randbereichen der Linse verwendethaben, wodurch wir δx minimiert haben.

7.4.2 Konfokale Rastermikroskopie

Die konfokale Rastermikroskopie13 ist eine praktisch eingesetzte Technik, die auf konventionellen Mi-kroskopen beruht und ein Auflosungsvermogen besser als λ/2NA erlaubt. Die Technik ist in Abb. 7.11schematisch fur ein in Transmission arbeitendes System dargestellt. Prinzipiell kann auch in Reflexiongearbeitet werden. Das Objekt wird durch das Bild einer Punktquelle beleuchtet. Das durch das Objekttransmittierte Licht wird durch eine Objektivlinse auf eine Lochblende fokussiert, hinter der sich einLichtdetektor befindet. Das Objekt wird mechanisch in x und y-Richtung bewegt (Rasterprozess) undgleichzeitig die Intensitat des durch die Lochblende gelangenden Lichtes mit Hilfe des Detektors gemes-sen. Das Detektorsignal wird dann gegen die xy-Koordinate aufgetragen und somit ein Bild erzeugt.

Fur die Diskussion des Auflosungsvermogens eines solchen Systems mussen wir zuerst die Punktantwortbetrachten. Dazu stellen wir uns ein punktformiges Objekt mit einer Transmissionsfunktion f (x,y) =δ (x)δ (y) vor. Das Beleuchtungssystem erzeugt eine Amplitudenantwort a1(x) in der Objektebene, sodass die Amplitude in einer Entfernung x von der Achse durch

A(x) = A0 a1(x) . (7.4.5)

gegeben ist. Wird nun das punktformige Objekt abgerastert, so verhalt sich dieses wie eine Punktquelle,die sich am Ort x befindet und eine Amplitude A0a1(x) besitzt. Diese wird dann durch die Objektivlinsemit einer Vergroßerung V auf die Ebene der Lochblende abgebildet, so dass sie mit ihrem Zentrum beix′ = −Vx erscheint. Das Objektiv soll die Amplitudenantwort a2(x′/V ) in der Ebene der Lochblendehaben. Die Amplitude in dieser Ebene ist daher A0a1(x)a2[(x′ −Vx)/V ]. An der Stelle x′ = 0, an der sichdie Lochblende befindet, ist die Amplitude dann A0a1(x)a2(−x). Sind beide Linsen identisch, so ergibtsich die Amplitudenantwort zu a2(x) und fur die Intensitat zu a4(x). Setzen wir die Gleichung fur einebeugungsbegrenzte Linse der numerischen Apertur NA ein, so ist a(x) = 2J1(k0xNA)/(k0xNA).

Um das Auflosungsvermogen zu analysieren, konnen wir nun das Rayleigh oder Sparrow-Kriterium furein inkoharent beleuchtetes Objekt verwenden. Verwenden wir das Rayleigh-Kriterium, so sehen wir,dass wir keine Auflosungsverbesserung erhalten, da die Lage der Minima naturlich unverandert bleibt.Dieses Kriterium ist aber zu konservativ. Verwenden wir dagegen das Sparrow-Kriterium, so erhaltenwir

13Wilson und Sheppard, 1984.

2003

336 R. GROSS Kapitel 7: Abbildungstheorie

Kondensor Objektiv

Objekt

PunktquelleLochblende

Detektor

Rastern der Probe

Abbildung 7.11: Strahlengang bei einem konfokalen Rastermikroskop.

dmin =λ

3.1 NA, (7.4.6)

da die zweite Ableitung von [J1(x)/x]4 eine Nullstelle bei x = 1.08 besitzt.

Zu beachten ist, dass nur ein Bruchteil des vom Objekt transmittierten Lichtes auf die Lochblende trifft,so dass wiederum ein Gewinn an Auflosung mit einem Verlust and Intensitat bezahlt werden muss. Wei-terhin kommt der volle Gewinn an Auflosung nur dann zum Tragen, wenn die Beleuchtung vollkommeninkoharent ist. Dies ist dann der Fall, wenn das Objekt als Reaktion auf das einfallende Licht fluoresziert.Sonst ist die Abbildung teilweise koharent (Beleuchtung durch eine Punktquelle). Eine Hauptanwendungder konfokalen Rastermikroskopie ist deshalb die Fluoreszenzmikroskopie von biologischen Objekten,wo man einzelne Teile des Objekts mit einem Laser anregen kann und die am Anregungsort erzeugteFluoreszenz mit großer raumlicher Auflosung beobachten kann.

Die konfokale Rastermikroskopie hat außer der Auflosungsverbesserung noch andere wichtige Eigen-schaften, die in der Praxis haufig wichtiger sind. Wird das Objekt beispielsweise entlang der optischenAchse durch die Bildebene der Punktquelle bewegt, so wird es nicht mehr durch einen Punkt beleuch-tet sondern durch eine ausgedehnte Quelle. Zusatzlich ist die zweite Stufe des Abbildungssystems nichtmehr richtig fokussiert, so dass insgesamt nur wenig Licht am Detektor ankommt. Das bedeutet, dass dasAbbildungssystem eine geringe Fokustiefe hat. Dies kann man ausnutzen, um dreidimensionale Bildereines Objekts zu erzeugen. Dies kommt vor allem bei biologischen Objekten haufig zur Anwendung.

7.4.3 Optische Nahfeldmikroskopie

Bei der optischen Nahfeldmikroskopie wird eine Lichtquelle der Ausdehnung a � λ uber die Probegerastert. Das von der Probe gestreute Licht wird durch eine Linse gesammelt und auf einen Detektorfokussiert.14 Das Bild wird sequentiell bei der Abrasterung der Probe aufgebaut. Mit dieser Abbildungs-technik lasst sich eine raumliche Auflosung erreichen, die mehr als eine Großenordnung unterhalb derWellenlange des verwendeten Lichts liegt.

Da die Lichtquelle eine Ausdehnung besitzt, die klein gegenuber der Wellenlange des verwendeten Lichtsist, ist die Welle im Bereich z � λ evaneszent, weshalb eine Auflosung weit unterhalb der Wellenlangeerzielt werden kann (vergleiche hierzu (7.4.4)). Naturlich muss die Quelle bis auf einen Abstand a� λ andas Objekt herangefuhrt werden, was einen entscheidenden Nachteil bedeutet. Die Situation ist ahnlich

14Eine ausfuhrliche Beschreibung dieser Technik ist z.B. in Betzig et al., Science 251, 1468 (1991) und Science 257, 189(1992) gegeben, siehe auch Paesler und Moyer, Near-field Optics, Wiley Interscience, New York (1995).

c© Walther-Meißner-Institut

Abschnitt 7.4 PHYSIK III 337

Objekt

Rastern der Probe

Objektiv

Detektor

Laser

Glas-faser

KernMantel

Al-Beschichtung

aO

bjekt

Abbildung 7.12: Schemadarstellung eines optischen Nahfeldmikroskops. Die Ausschnittsvergroßerungzeigt die Spitze der Glasfaser. Bei der Rasterung kann entweder die Glasfaser oder die Probe bewegtwerden.

wie beim Rastertunnelmikroskop, das im Jahr 1985 von Binnig und Rohrer entwickelt wurde. Der dar-aufhin einsetzende enorme Fortschritt bei den Rastersondentechniken hat auch die Entwicklung der opti-schen Nahfeldmikroskopie stark befruchtet. Das erste Mikroskop verwendete Laserlicht, das durch einewinzige Lochblende fokussiert wurde. Neuere Versionen verwenden ublicherweise extrem dunne Glas-fasern, die am Ende ausgezogen werden, oder kleine elektroluminiszente Kristalle. Insgesamt resultiertdie Verwendung von evaneszenten Wellen wiederum in einer sehr schlechten Beleuchtungseffizienz.

Da bei der Nahfeldmikroskopie im Nahfeld gearbeitet wird, ist die Interpretation der erhaltenen Bildernicht einfach und erfordert haufig einen erheblichen Rechenaufwand. Das Nahfeld der Beugungsvertei-lung, also die Fresnel-Beugung eines Objekts, hangt ublicherweise kritisch von der Entfernung d ab, dasich die Phasendifferenz der einzelnen Teilwellen noch stark mit d andert.15

15O. Martini, Nahfeldoptik mit atomarer Auflosung, Phys. Blatter 51, 67 (1997).J. P. Fillard, Near Field Optics, World Scientific, Singapore (1996).

2003

338 R. GROSS Kapitel 7: Abbildungstheorie

7.5 Holographie

Die Photographie stellt seit uber 100 Jahren Methoden zur Verfugung, optische Information zu speichernund wieder sichtbar zu machen. Allerdings ist es schwierig, mit Hilfe der Photographie raumliche Ein-drucke zu vermitteln. Mit Hilfe der Stereophotographie wird zwar der raumliche Eindruck einer Szeneriefur einen bestimmten Blickwinkel vermittelt, insgesamt gelingt es aber nicht, die gesamte raumliche In-formation auf einen photographischen Film zu bannen. Der wesentliche Grund dafur liegt im photogra-phischen Aufnahmeverfahren: Auf dem photographischen Film oder mit einer elektronischen Kamerawird nur die Intensitat registriert.

Da die gesamte Information eines Objektes in seinem Beugungsmuster enthalten ist, ist es naheliegendzu fragen, ob nicht durch die Aufnahme des Beugungsmusters auf einer photographischen Platte diegesamte Information des Objektes gespeichert werden kann und anschließend daraus ein Bild des Ob-jektes rekonstruiert werden kann. Das Problem besteht bei dieser Vorgehensweise aber wiederum imVerlust der Phaseninformation der verschiedenen Teile der optischen Fourier-Transformierten bei derSpeicherung auf einer Photoplatte (vergleiche Abschnitt 7.1). Die grundlegende Losungsidee fur diesesProblem wurde bereits 1948 von Denis Gabor vorgeschlagen, hatte aber zu dieser Zeit nur begrenztenErfolg. Erst durch die Entwicklung des Lasers ermoglichte die Umsetzung des von Gabor vorgeschlage-nen Losungsansatzes.16

Im folgenden sollen die elementaren Grundprinzipien der Holographie stark vereinfacht vorgestellt wer-den. Fur eine weitergehende Diskussion muss auf Spezialliteratur zum Thema Holographie verwiesenwerden.17 Bei der Holographie werden sowohl Phasen- als auch Amplitudeninformation mit einem in-tensitatsempfindlichen Material gespeichert. Dabei werden die Phanomene Interferenz und Beugung be-nutzt, die wir in Kapitel 5 ausfuhrlich diskutiert haben.

7.5.1 Aufzeichnen eines Hologramms

Die Aufzeichnung eines Hologramms ist in Abb. 7.13a schematisch dargestellt. Man beleuchtet dasabzubildende Objekt mit einer ebenen Welle monochromatischen Lichtes. Das vom Objekt gestreute undreflektierte Licht fallt dann auf eine photographische Platte. Wurde man nur dieses Licht registrieren, sowurde man eine mehr oder weniger gleichmaßige Schwarzung der Platte ohne Bildinformation erhalten.Die Phaseninformation des auf die Platte treffenden Lichtes wird nun dadurch registriert, indem mandieses Licht mit einer ebenen Referenzwelle uberlagert. Als Referenzlicht dient dabei ein Teil der ebenenWelle, die uber einen Spiegel auf die Photoplatte gelenkt wird. Damit es am Ort der Photoplatte zuInterferenzeffekten kommt, muss naturlich die Koharenzlange des verwendeten Lichts großer sein, alsalle bei der Beleuchtung der Platte vorkommenden Weglangendifferenzen. Man benotigt also Licht miteiner großen Koharenzlange, wie es erst durch die Erfindung des Lasers bereitgestellt werden konnte.18

16Gabor beschaftigte sich mit der Uberwindung der Aberrationen bei der Elektronenmikroskopie. Die Auflosung von Elek-tronenmikroskopen wird nicht durch die Wellenlange (etwa 0.01 nm) begrenzt, sondern durch die Aberrationen der Elektro-nenlinsen begrenzt. Diese konnen nicht korrigiert werden, weshalb man normalerweise Linsen mit sehr kleiner numerischerApertur verwendet. Gabor wollte nun dadurch ein besseres Bild konstruieren, indem er das von Aberrationen verzeichnete Bildaufnimmt und dann eine optische Rekonstruktion vornimmt, wobei das optische System die Aberrationen der Elektronenlinsenkorrigiert. Das Phasenproblem wurde von Gabor dadurch gelost, dass er ein Objekt verwendete, das aus kleinen, undurchsich-tigen Details auf einem transparenten Hintergrund bestand. Dieser Hintergrund liefert dann eine starke 0-te Ordnung und diePhasenvariationen des Beugungsmusters konnen als Intensitatsvariationen beobachtet werden. Die Intensitat wurde dabei amgroßten, wenn die Phasenschiebung null, und am kleinsten, wenn sie π betragen wurde.Denis Gabor erhielt fur seine Arbeiten zur Holographie im Jahr 1971 den Nobelpreis fur Physik.

17siehe z.B. P. Hariharan, Optical Holography, Cambridge University Press, Cambridge (1989).18Tatsachlich wurden die ersten Hologramme mit gewohnlichen Lichtquellen aufgenommen. Die Erfindung des Lasers mach-

te das Aufnahmeverfahren aber wesentlich einfacher.

c© Walther-Meißner-Institut

Abschnitt 7.5 PHYSIK III 339

(a) (b)

photographischePlatte

Spiegel Spiegel

Objektvirtuelles

Bild

reellesBild

entwickeltePhotoplatte

y x

Abbildung 7.13: Schematische Darstellung der (a) Aufzeichnung und der (b) Rekonstruktion eines Ho-logramms.

Das Ergebnis einer auf diese Weise durchgefuhrten Belichtung der Photoplatte ist ein kompliziertesStreifenmuster.

Die mathematische Beschreibung des Aufnahmeverfahrens konnen wir auf folgende Weise durchfuhren:Wir gehen von einer Objektwelle EO(x,y) auf der Photoplatte aus, die durch stark ortsabhangigeAmplituden- und Phasenanteile charakterisiert ist. Dagegen soll die Referenzwelle ER(x,y) eine kon-stante Amplitude und einen einfachen Phasenverlauf besitzen. Wir konnen also schreiben:

EO(x,y) = EO,0(x,y)exp[iωt + iφO(x,y)] (7.5.1)

ER(x,y) = ER,0 exp[iωt + iφR(x,y)] . (7.5.2)

Die Intensitat auf der Filmebene berechnet sich dann zu

I(x,y) = |EO(x,y)+ ER(x,y)|2= E2

O,0 + E2R,0 + EO,0ER,0{exp[iφO(x,y)− iφR(x,y)]+ exp[−iφO(x,y)+ iφR(x,y)]}

= E2O,0(x,y)+ E2

R,0 + 2EO,0(x,y)ER,0 cos[φO(x,y)−φR(x,y)] . (7.5.3)

Da die Intensitat der Objektwelle alleine einen relativ glatten Verlauf besitzen wurde, ist die raumlicheVariation des Intensitatsverlaufs des Gesamtbildes und damit die Plattenschwarzung im Wesentlichendurch den letzten Term in (7.5.3) zuruckzufuhren, der die Phasendifferenz zwischen Objekt- und Refe-renzwelle enthalt. Normalerweise wird in der Holographie EO,0 immer viel kleiner als ER,0 gemacht, sodass in (7.5.3) der Term E2

O,0 gegenuber E2R,0 vernachlassigt werden kann.

2003

340 R. GROSS Kapitel 7: Abbildungstheorie

.

Dennis Gabor (1900 - 1979) – Nobelpreis fur Physik 1971:

Dennis Gabor wurde am 5. Juni 1900 in Budapest geboren.Er studierte Elektrotechnik an der Technischen Hochschule Ber-lin (Diplom: 1924, Dr.-Ing.: 1927). Er besuchte in dieser Zeit be-reits zahlreiche Veranstaltungen an der Humboldt Universitat, wosich die Physik mit Einstein, Planck, Nernst und v. Laue auf ei-nem Hohepunkt befand. Obwohl Elektrotechnik sein Beruf blieb,war seine Arbeit meist der angewandten Physik gewidmet. In sei-ner Doktorarbeit beschaftigte er sich mit der ersten schnelle Os-zilloskopen. 1927 trat er in die Firma Siemens & Halske AG einund machte dort als forschender Ingenieur seine ersten Erfindun-gen: die Quecksilber-Hochdrucklampe mit ubersattigtem Dampfund die Molybdan-Banddichtung.Im Jahr 1933 musste er vor den Nazis aus Deutschland flie-hen. Danach war er in England fur die Fa. Thomson-Houstontatig. 1947 entwickelte er das Prinzip der Holographie, das erursprunglich mit der Intention ersann, das Auflosungsvermogenvon Elektronenmikroskopen zu verbessern. Zunachst war er aufdie Verwendung gefilterter Lichtquellen angewiesen und arbeite-te mit dem Prinzip der so genannten in-line-Holographie. 1949trat er in das Imperial College of Science and Technology, Lon-don, ein. Er wurde dort 1958 Professor of Applied Electron Phy-sics (angewandte Elektronenphysik). Nach der Erfindung des La-sers durch Theodore Maiman im Jahr 1960 wurden im Jahr 1962die Aufnahmetechniken fur Hologramme durch Emmeth Leithund Juris Upatnieks (Teilung der Aufnahmeanordnung in getrennten Objekt - und Referenzstrahl) verbessert.Ebenfalls im Jahr 1962 wurde die Weißlichtholographie durch Uri N. Denisyuk erfunden. 1967 entstand daserste Hologramm einer Person und 1968 erfand Stephen A. Benton die Regenbogen-Transmissionsholographie.Die herausragenden Arbeiten von Dennis Gabor wurden 1971 durch die Verleihung des Nobelpreises fur Physikfur die Erfindung der Holographie anerkannt.

Dennis Gabor verstarb am 8. Februar 1979 in London. Er war Inhaber von uber 100 Patenten.

7.5.2 Auslesen eines Hologramms

Entwickelt man die belichtete Photoplatte, so wird das Intensitatsbild in ein Transmissionsbild oder Pha-senbild der Photoplatte ubersetzt. Wir nehmen im Folgenden an, dass dieses Transmissionsbild T (x,y)proportional zur Intensitat des auf die Platte gefallenen Lichtes ist, d.h. T (x,y) = αI(x,y). Die Photo-platte wird nun von einer ebenen Auslesewelle EL(x.y) beleuchtet, die den gleichen Amplituden- undPhasenverlauf wie die Referenzwelle besitzen soll. Dies lasst sich am einfachsten dadurch realisieren,indem man die entwickelte Photoplatte wieder in die Aufnahmegeometrie einsetzt (siehe Abb. 7.13b).Durch die Beleuchtung der Photoplatte mit der Auslesewelle wird die Bildwelle EB(x,y) erzeugt.

Die mathematische Beschreibung ergibt dann:

EL(x,y) = ER,0 exp[iωt + iφR(x,y)] (7.5.4)

EB(x,y) = EL(x,y) ·T (x,y)= ER,0 exp[iωt + iφR(x,y)] ·α

×{ E2O,0(x,y)+ E2

R,0 + 2EO,0(x,y)ER,0 cos[φO(x,y)−φR(x,y)] } . (7.5.5)

Man sieht, dass sich die Gesamtbildfeldstarke beim Verlassen der Photoplatte aus drei Termen zusam-mensetzt:

c© Walther-Meißner-Institut

Abschnitt 7.5 PHYSIK III 341

EB(x,y) = E1(x,y)+ E2(x,y)+ E3(x,y)= αER,0(E2

O,0(x,y)+ E2R,0) exp[iωt + iφR(x,y)]

+ αE2R,0EO,0(x,y)exp[iωt + iφO(x,y)]

+ αE2R,0EO,0(x,y)exp[iωt − iφO(x,y)+ 2iφR(x,y)] . (7.5.6)

Gemaß der Fraunhofer’schen Beugungstheorie werden die drei Feldverteilungen E1(x,y), E2(x,y) undE3(x,y) von der Ebene der Photoplatte “emittiert” und erzeugen dann die Gesamtfeldstarke an einembeliebigen Beobachtungspunkt hinter der Photoplatte durchUberlagerung.

Die drei Terme in (7.5.6) lassen sich wie folgt interpretieren:

1. Das Feld E1(x,y) ist proportional zum Auslesefeld, das heißt, es entspricht dem durch die mittlereAbsorption der Photoplatte geschwachten Auslesefeld, das nicht abgelenkt oder gebeugt wurde.Es stellt also die nullte Beugungsordnung dar. Es enthalt keine Information uber das Objekt.

2. Das Feld E2(x,y) ist direkt proportional zum Objektfeld EO(x,y) in der Ebene der Photoplatte(bis auf den konstanten Vorfaktor ist die rekonstruierte Welle exakt gleich der Objektwelle). Esstellt die erster Ordnung dar. Dieses Feld breitet sich so wie die originare Objektwelle aus, d.h.es verhalt sich so, als ob es vom Ort des Objekts kame. Wenn man dieses Feld beobachtet, soerhalt man dieselbe Bildinformation, als wenn man das Original durch das Fenster der Photoplattesehen wurde. Da sich aber beim Feld E2 keine Lichtstrahlen hinter der Photoplatte schneiden, istdas beobachtete Bild virtuell. Da die komplette virtuelle Welle E0 rekonstruiert wurde, sieht dieRekonstruktion aus jeder Blickrichtung wie das Objekt aus und erscheint deshalb dreidimensional.

3. Das dritte Feld E3 besitzt gegenuber der Objektwelle eine negative Phase. Es stellt die -1. Ordnungdar. Es erzeugt hinter der Photoplatte ein reelles Bild, das verglichen mit dem Objekt spiegelver-kehrt ist.

Die wichtigsten Eigenschaften des virtuellen Bildes lassen sich wie folgt zusammenfassen:

• Das Bild erscheint raumlich. Beim Blick auf das Hologramm muss man wie beim Betrachtendes reellen Objekts auf verschiedene Bereiche scharf stellen. Ein weiterer Aspekt der raumlichenBildwiedergabe ist die Moglichkeit, innerhalb der Begrenzung der Photoplatte hinter Objektteileblicken zu konnen.

• Aus jedem Bruchstuck des Hologramms lasst sich das gesamte Bild rekonstruieren. Allerdingswird der Fensterausschnitt, durch den man betrachtet, kleiner. Durch die kleinere Ausdehnungdes beugenden Hologramms wird die maximale Auflosung des Bildes und damit der gesamteInformationsgehalt reduziert.

• Der maximale Blickwinkel, unter dem man noch das virtuelle Bild betrachten kann, hangt vomAuflosungsvermogen der verwendeten Photoplatte ab. Je feinkorniger das Photomaterial, destofeinere Interferenzlinien konnen auf der Photoplatte gespeichert werden und desto großer werdendie zugehorigen Beugungswinkel und damit mogliche Beobachtungswinkel.

• Verwendet man beim Auslesen eines Hologramms Licht einer anderen Wellenlange, so wird derAbbildungsmaßstab verandert.

2003

342 R. GROSS Kapitel 7: Abbildungstheorie

In den Jahren seit der Entdeckung der Holographie wurde eine Vielzahl neuer holographischer Methodenentwickelt. Der wesentliche Anstoß kam hierbei sicherlich durch die Erfindung des Lasers, der die Ent-wicklung leistungsfahiger, koharenter Lichtquellen ermoglichte. Unter der Vielzahl der holographischenMethoden sei hier auf die holographische Datenspeicherung, die eine dreidimensionale Speicherung sehrgroßer Datenmengen bei kleinen Zugriffszeiten ermoglicht, und auf die Weißlichthologramme hingewie-sen, bei denen das Bild mit jeder Weißlichtquelle ausgelesen werden kann.

c© Walther-Meißner-Institut

Abschnitt 7.5 PHYSIK III 343

Zusammenfassung

• Bei der Fraunhofer-Beugung ist die Amplitudenverteilung in der Beugungsebene gleichder Fourier-Transformierten der Verteilung in der Objektebene. Die optische Abbildungkann als zweifache Fourier-Transformation aufgefasst werden. Ein optische Bild stelltdemnach die Fourier-Transformierte der Fourier-Transformierten des Objekts dar. Manspricht von Fourier-Optik.

• Strahlbegrenzungen in optischen Systemen fuhren dazu, dass stark gebeugte Strahlen,die durch große Raumfrequenzen (kleine Strukturen) der Objektfunktion erzeugt werden,abgeschnitten werden, was zu einer endlichen raumlichen Auflosung fuhrt. Dieses Ab-schneiden kann durch einen Filterprozess beschrieben werden.

• Fur ein inkoharent beleuchtetes Objekt ist die bei einer optischen Abbildung erzielbarekleinste Winkelauflosung durch die Beugung an der Strahlbegrenzung limitiert. Fur einenLinsendurchmesser D ist sie gegeben durch

θmin = 1.22λD

(Rayleigh-Kriterium)

θmin = 0.95λD

(Sparrow-Kriterium) .

• Die Abbildung einer raumlichen Struktur durch Linsen kommt bei koharenter Beleuchtungnur dann zustande, wenn zusatzlich zur 0.-ten Ordnung mindestens die erste Beugungs-ordnung vom Linsensystem durchgelassen wird (Abbesches Auflosungskriterium). Ausdieser Bedingung ergibt sich die Auflosungsgrenze

a ≥ λNA

nsinθ

mit der numerischen Apertur NA = nsin θ . Das heißt, die raumliche Auflosung wird in etwadurch die Wellenlange des verwendeten Lichts bestimmt.

• Bei der Fourier-Optik kann durch Einbringen von Filtern, Phasenobjekten oder Blendenin die Beugungs- (Fourier-) Ebene eine gezielte Beeinflussung des Bildes eines Objektserhalten werden (optische Filterung). Werden in der Beugungsebene nur niedrige Raum-frequenzen durchgelassen (Tiefpaß), so verschwinden im Bild feine Details. Umgekehrt(Hochpaß) werden feine Details verstarkt wiedergegeben.

Wichtige Beispiele sind die Dunkelfeldabbildung, die Schlierenmethode, die Phasenkon-trastmikroskopie und die Beugungskontrastmethode.

• Mit der konfokalen Mikroskopie lasst sich außer der raumlichen Auflosung in der Fo-kalebene auch eine sehr hohe Auflosung senkrecht zur Fokalebene erzielen, wodurchdreidimensionale Bilder erzeugt werden konnen.

• Durch die Verwendung von evaneszenten Wellen in der Nahfeldmikroskopie lassen sichAuflosungen weit unterhalb der Wellenlange des verwendeten Lichts erzielen.

• Beim Festhalten eines Bildes auf einer Photoplatte verliert man die Phaseninformation,da eine Photoplatte nur die Intensitatsverteilung aufnimmt. Man kann deshalb nicht dasBeugungsbild eines Objekts auf eine Photoplatte aufnehmen und aus diesem anschlie-ßend das Bild des Objekts rekonstruieren.

2003

344 R. GROSS Kapitel 7: Abbildungstheorie

• Bei der Holographie uberlagert man die von einem Objekt gestreute Welle mit einer Refe-renzwelle. Die auf einer Photoplatte festgehaltene Intensitatsverteilung enthalt dann auchInformation uber die relative Phasen zwischen Objekt- und Referenzwelle. Dadurch hatman Information uber die raumliche Struktur des Objekts gespeichert. Die Beleuchtungdes entwickelten Hologramms mit einer Rekonstruktionswelle liefert ein dreidimensiona-les Bild.

c© Walther-Meißner-Institut