183
I. Institut f¨ ur theoretische Physik der Universit¨ at Hamburg Krylov-Raum-Verfahren mit Matrixproduktzust ¨ anden Krylov Space Techniques on Matrix Product States Diplomarbeit vorgelegt von Michael Jonathan Lee betreut durch Prof. Dr. Michael Potthoff Hamburg, den 4. Juni 2011

Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

  • Upload
    hanga

  • View
    218

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

I. Institut fur theoretische Physik der Universitat Hamburg

Krylov-Raum-Verfahrenmit Matrixproduktzustanden

Krylov Space Techniqueson Matrix Product States

Diplomarbeit

vorgelegt von Michael Jonathan Leebetreut durch Prof. Dr. Michael Potthoff

Hamburg, den 4. Juni 2011

Page 2: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Gutachter

Prof. Dr. Michael PotthoffProf. Dr. Frank Lechermann

Page 3: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Kurzzusammenfassung

Krylov-Raum-Verfahren ermoglichen auf effiziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme, sei es in Form von Green-Funktionen oder durch die Ent-wicklung der Zustande zu berechnen. Der Algorithmus der Variation von Matrixpro-duktzustanden (VMPS) und der sehr ahnliche Dichtematrix-Renormierungsgruppen-Algorithmus (DMRG) erlauben die effektive Grundzustandsbestimmung fur eindimen-sionale quantenmechanische Ketten, erheblich großerer Kettenlangen als dieses mitKrylov-Raum-Verfahren moglich ist. Die dynamischen DMRG/VMPS-Verfahren lei-den an hohen Rechenanforderungen und starken Voraussetzungen an die verwendbarenHamilton-Operatoren.

Diese Arbeit untersucht detailliert die Grundlagen der Zeitentwicklung und der Be-rechnung von Green-Funktionen mit Krylov-Raum-Methoden. Es werden ebenfalls derVMPS-Algorithmus und seine MP-Strukturen ausfuhrlich untersucht und deren Alge-bra so weit ausformuliert, dass sich mit ihr Krylov-Raume erzeugen lassen. BesonderesAugenmerk wird hierbei auf die Verwendung von Symmetrien und den Erhalt vonSymmetriestruktur durch Operatoren gelegt.

Anschließend wird aufgezeigt, wie sich mit der Durchfuhrung von Krylov-Raum-Verfahrenauf der MP-Algebra, die Nicht-Gleichgewichts-Dynamik eindimensionaler stark gekop-pelter Vielteilchen-Systeme berechnen lasst. Das vorgestellte Verfahren ist zum eineneffizient, da es auf naturliche Weise die MP-Strukturen nutzt und besticht zum anderendurch seine Einfachheit.

iii

Page 4: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Abstract

Krylov space techniques are a method of choice for the study of quantum mechanicalsystems on small time scales. They allow to calculate the time evolution of states as wellas single-operator Green’s functions. The variation of matrix product states algorithm(VMPS) on the other hand is an efficient method for determining the ground states ofone-dimensional quantum lattices. Although it is possible to study much larger chainsusing VMPS than by the use of Krylov space methods, the dynamic extensions of thisalgorithm are unsatisfying. They require large quantities of computer power and onlywork for special Hamiltonians.

This thesis in detail studies the theoretical basis of Krylov-based time evolution andcalculation of Green’s functions. We will also closely study the matrix product struc-tures (MP-structures) employed by the VMPS algorithm. The algebra of these MP-structures will be extended to an account which will allow to perform Krylov-spacetechniques with these structures. Close attention will be paid to the effect of symmetryand the preservation of symmetry by operators.

Finally the calculation of non equilibrium dynamics of strongly correlated one dimen-sional quantum lattices by combining Krylov-methods and the MP-algebra is shown.The method presented here is both simple and efficient since it uses the natural MP-structure of VMPS.

iv

Page 5: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Inhaltsverzeichnis

1 Einleitung 11.1 Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3 Einordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.4 Struktur und Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Krylov-Raum-Verfahren 92.1 Krylov-Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.2 Lanczos-Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3 Rayleigh-Ritz-Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.4 Lanczos’sches Eigenwertverfahren . . . . . . . . . . . . . . . . . . . . . . 262.5 Lanczos-Zeitentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.6 Green-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

3 Matrixproduktzustande 513.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523.2 Bildersprache von Matrixproduktzustanden . . . . . . . . . . . . . . . . 533.3 Definition der Matrixproduktketten . . . . . . . . . . . . . . . . . . . . . 553.4 Randbedingungen von Matrixproduktzustanden . . . . . . . . . . . . . . 603.5 Die Zustande eines Kettenraumes . . . . . . . . . . . . . . . . . . . . . . 643.6 Kanonische Matrixproduktketten . . . . . . . . . . . . . . . . . . . . . . 673.7 Zerlegung von Zustanden . . . . . . . . . . . . . . . . . . . . . . . . . . 763.8 Berechnung von Skalarprodukten . . . . . . . . . . . . . . . . . . . . . . 883.9 Dimensionsreduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

4 Matrixproduktoperatoren 1074.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1074.2 Definition der Matrixproduktoperatoren . . . . . . . . . . . . . . . . . . 1074.3 Matrixelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

5 Symmetrien 1255.1 Erzeugende von Symmetrien . . . . . . . . . . . . . . . . . . . . . . . . . 1255.2 Matrixproduktzustande und Symmetrien . . . . . . . . . . . . . . . . . . 1285.3 Matrixproduktoperatoren und Symmetrien . . . . . . . . . . . . . . . . 137

6 Anwendung 1516.1 VMPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

v

Page 6: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Inhaltsverzeichnis

6.2 Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

7 Zusammenfassung und Ausblick 163

Anhang 165

vi

Page 7: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Abbildungsverzeichnis

3.1 Interpretation eines Tensorproduktraumes als Kette . . . . . . . . . . . 513.2 Tensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543.3 Die verschiedenen Indexsymbole am Beispiele eines Vektors . . . . . . . 543.4 Die verschiedenen Indexsymbole am Beispiele eines Operators . . . . . . 543.5 Indexkontraktion am Beispiele des Skalarproduktes . . . . . . . . . . . . 553.6 Indexkontraktion am Beispiele der Anwendung eines Operators . . . . . 553.7 Gedankliche Darstellung eines Doppelraumes . . . . . . . . . . . . . . . 563.8 Gedankliche Darstellung des Kettenraumes . . . . . . . . . . . . . . . . 573.9 Der p-ten Ortes einer Matrixproduktkette . . . . . . . . . . . . . . . . . 583.10 Ein Glied des p-ten Ortes . . . . . . . . . . . . . . . . . . . . . . . . . . 593.11 Ein Matrixproduktzustand mit periodischen Randbedingungen . . . . . 623.12 Ein Matrixproduktzustand mit offenen Randbedingungen . . . . . . . . 633.13 Links-Orthogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693.14 Der Prozess der lokalen Linksorthogonalisierung . . . . . . . . . . . . . . 713.15 Rechts-Orthogonalitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.16 Der Prozess der lokalen Rechtsorthogonalisierung . . . . . . . . . . . . . 743.17 Ein kanonischer Matrixproduktzustand . . . . . . . . . . . . . . . . . . . 753.18 Rekursive Struktur eines Links-Zustandes . . . . . . . . . . . . . . . . . 813.19 Rekursive Struktur eines Rechts-Zustandes . . . . . . . . . . . . . . . . 823.20 Die Berechnung der E-Matritzen . . . . . . . . . . . . . . . . . . . . . . 903.21 Die Berechnung der adjungierten F-Matritzen . . . . . . . . . . . . . . . 913.22 Bildliche Darstellung der Skalarproduktsberechnung . . . . . . . . . . . 923.23 Die Vereinfachung der Norm-Berechnung bei kanonischen Matrixpro-

duktketten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

4.1 Die verschiedenen isomorphen Gestalten des Raumes L (H) . . . . . . . 1084.2 Ein Matrixproduktoperator . . . . . . . . . . . . . . . . . . . . . . . . . 1104.3 Die Anwendung eines Matrixproduktoperators auf einen Matrixpro-

duktzustand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1134.4 Rekursive Struktur der Links-Zustande, welche aus der Anwendung ei-

nes Matrixproduktoperators auf eine Matrixproduktkette hervorgegan-gen sind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

4.5 Rekursive Struktur der Rechts-Zustande, welche aus der Anwendungeines Matrixproduktoperators auf eine Matrixproduktkette hervorge-gangen sind . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

4.6 Die Berechnung der E-Matritzen fur Matrixelemente . . . . . . . . . . . 120

vii

Page 8: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Abbildungsverzeichnis

4.7 Die Berechnung der adjungierten F-Matritzen fur Matrixelemente . . . . 1214.8 Die Berechnung eines Matrixelementes . . . . . . . . . . . . . . . . . . . 122

5.1 Ein Links-Zustand mit Symmetriebedingung . . . . . . . . . . . . . . . . 1355.2 Ein Rechts-Zustand mit Symmetriebedingung . . . . . . . . . . . . . . . 1355.3 Ein Matrixproduktzustand, der Eigenzustand einer Symmetrie ist . . . . 1365.4 Ein Links-Operator mit Symmetriebedingung . . . . . . . . . . . . . . . 1385.5 Ein Rechts-Operator mit Symmetriebedingung . . . . . . . . . . . . . . 1385.6 Ein MPO mit Symmetriebedingung . . . . . . . . . . . . . . . . . . . . . 1395.7 Durch Operatoranwendung entstandener Links-Zustand mit Symme-

triebedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1435.8 Durch Operatoranwendung entstandener Rechts-Zustand mit Symme-

triebedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1475.9 Die Anwendung eines Matrixproduktoperators auf eine Matrixprodukt-

kette unter Symmetriebedingungen . . . . . . . . . . . . . . . . . . . . . 149

6.1 Der ubliche Laufsinn beim Sweepen . . . . . . . . . . . . . . . . . . . . 1526.2 Ein VMPS-Rechtsschritt . . . . . . . . . . . . . . . . . . . . . . . . . . . 1546.3 Ein VMPS-Linksschritt . . . . . . . . . . . . . . . . . . . . . . . . . . . 1566.4 Ein VMPS-Sweep von rechts nach links . . . . . . . . . . . . . . . . . . 1586.5 Ein VMPS-Sweep von links nach rechts . . . . . . . . . . . . . . . . . . 158

viii

Page 9: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Symbolverzeichnis

K Korper C oder RL Raum der linearen AbbildungenHp VektorraumeH Tensorproduktsraum der Hpp Ort einer Ketteq HotsiteD Doppelraum

D Operator-DoppelraumNp Nebenraume von DK Kettenraum von DA [g] algorithmischer Aufwand von gO Landau-Symbolf lineares FunktionalX linearer Operator auf HH selbstadjungierter linearer Operator auf HU, V unitare AbbildungenKn n-ter Krylov-Raum eines Operators XT Einschrankung von X auf Kn|u(n)〉 Basisvektoren der naturlichen Krylov-Raum-BasisLn Lanczos-Basis von Kn|v(n)〉 Basisvektoren der Lanczos-Basisai, bi Lanczos-KoeffizientenP Projektor auf einen Krylov-RaumE anteilige Eigenvektoren von X des Startvektors |u(0)〉U (t, t0) Zeitentwicklungsoperator von HU′ (t, t0) Lanczos-ZeitentwicklungsoperatorGA(z) Ein-Operator-Green-Funktionk, k′ MatrixproduktkettenX Operator-Matrixproduktketten

ix

Page 10: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Symbolverzeichnis

A[p], B[p] Orte von MatrixproduktkettenA(bp), B(bp) Glieder von Matrixproduktketten|ip〉, |i′p〉 Links-Zustande von Matrixprodukzustanden|jp〉, |j′p〉 Rechts-Zustande von Matrixprodukzustandenαp Links-Operatoren von Matrixproduktoperatorenβp Rechts-Operatoren von MatrixproduktoperatorenE(p) E-Matritzen

F(p)† adjungierte F-MatritzenE(αp) E-Matritzen der Matrixelemente

F(βp)†

adjungierte F-Matritzen der Matrixelemente

x

Page 11: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1 Einleitung

1.1 Vorwort

Bereits seit Anfang des 19. Jahrhunderts ist unsere Lebensweise in zunehmendemMaße von mannigfaltigen technischen Errungenschaften abhangig. Jede dieser Errun-genschaften war wiederum untrennbar mit den Fortschritten der Naturwissenschaftenverbunden.

In der zweiten Halfte des 20. Jahrhunderts traten hierbei die Fruchte der Mechanikund Thermodynamik als Triebfeder des technischen Fortschrittes zunehmend in denHintergrund. Fortbewegung sowie die Minderung korperlicher Arbeit waren nunmehrselbstverstandlich geworden. Die Erkenntnisse der Elektrodynamik drangten in dieAnwendung und wiesen dem technisch-gesellschaftlichen Fortschritte eine ganz neueStoßrichtung. Zum einen erlaubten sie den nahezu unbegrenzten Transport von Energievom Orte ihrer Erzeugung zu jenem Orte, an dem man ihrer bedurfte, zum Anderenermoglichten sie ebenfalls Rundfunk und Fernsehen und lauteten damit gleichfalls dasZeitalter der Information ein.

Die Physik fand sich im Verlaufe des 20. Jahrhunderts mehr und mehr als eine untervielen im sich immer weiter auffachernden Kanon technischer Wissenschaften wieder.Ihrer vormaligen Rolle als Motor des technischen Fortschrittes kann die Physik invielen ihrer Teilbereiche nicht mehr gerecht werden.

So sind die großen energietechnischen Utopien der Atomphysik fraglos auf dem Bodender Tatsachen angelangt (der Kernspaltung gehen im Laufe dieses Jahrhunderts dieUranvorkommen aus und die anwendbare Kernfusion liegt auch heute noch in weiterFerne) und die Hochenergie- und Astrophysik leisten den ehrbaren Dienst Erkenntnis-hunger und Neugier zu befriedigen, es bleibt jedoch fraglich, ob diese der Menschheitjemals einen Nutzen erbringen werden.

Die Vielteilchen- und Festkorperphysik, also gerade jener Zweig der Physik, welcherohne den Glanz weltweit beachteter Großprojekte und ohne die damit verbundenebreite offentliche Wahrnehmung auskommen muss, hat das Leben der Menschen sonachhaltig verandert und solche Moglichkeiten offenbart wie vielleicht kein Wissen-schaftszweig je zuvor. Die gesamte Entwicklung der Informationstechnologie ware ohne

1

Page 12: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1 Einleitung

das Wissen der Festkorperphysik niemals moglich gewesen. Die Informationsrevoluti-on, das sind vordergrundig all jene Gerate, vom Computer uber das Mobiltelefon, biszur einfachen Waschmaschinensteuerung, welche uns im Alltage umgeben. Viel weit-reichender jedoch ist der Wandel der Kommunikationstechnik. In Folge ihrer hat sichinnerhalb eines Jahrzehntes die gesamte Sozialkultur gravierend gewandelt und volligneue Moglichkeiten der Mitgestaltung und der Beteiligung haben sich fur den Einzel-nen hieraus ergeben.

Man mag der Vielteilchen- und Festkorperphysik Unrecht tun, wenn man sie auf dieinformationstechnologische Anwendung reduziert. Der Bedeutung der Informations-technologie wegen wollen wir uns dieses Beispiel jedoch als Motivationsstutze dieserArbeit herausgreifen.

1.2 Motivation

Die Informationstechnologie der Jahrtausendwende beruht fast ausschließlich auf derVerwendung dotierter Halbleiter, deren Moglichkeiten bis hinein in den Bereich der Op-tik reichen, man denke nur an die Laserdiode. Einzig das elektrische Leitungsverhaltensolcher Festkorper ist fur diese Art der technischen Anwendung ausschlaggebend.

Die physikalischen Grundlagen dieser Technologie, welche zum Teil bereits ab den50er Jahren geleistet wurden, beruhen auf der Festkorperphysik. Die Grundnahmen,mit denen man diese Phanomenologie modellieren kann, sind:

- Der Festkorper ist von unendlicher Ausdehnung.

- Man betrachtet nicht wechselwirkende Elektronen in einem periodischen Poten-tial.

Wir haben es also mit”Unendlich-Viele-Teilchen-Physik“ zu tun. In makroskopischen

Festkorpern mit Teilchenzahlen von 1023 und vernachlassigbaren Grenzflacheneffektenfunktionieren diese Annahmen auch ausgesprochen gut.

Die Miniaturisierung, welche in der Halbleitertechnologie stattgefunden hat (die Struk-turgroße der heutigen Prozessoren und Festplatten liegt in der Großenordnung von30nm), macht die erste Annahme jedoch hinfallig! Bei Großen im Nanometer-Bereichhat man es eher mit

”Viele-Teilchen-Physik“ zu tun. Ein weiteres Problem stellt die

Beschreibung magnetischer Phanomene dar. Es liegt in der Natur der Sache, dassin stark magnetischen Materialien die Wechselwirkung zwischen den quantenmechani-schen magnetischen Momenten der Gitterstruktur stark sein muss, um durch Kopplungein starkes Gesamtmoment zu erhalten, welches auch bei Raumtemperatur Bestandhaben kann.

2

Page 13: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1.2 Motivation

Ein Verstandnis nanoskopischer stark magnetischer Materialien ist jedoch unerlasslichum

- deren großes und kaum genutztes Potential der Anwendung zu erschließen

- deren heutige Anwendung im Permanent-Speicher-Bereich weiterentwickeln zukonnen

Einfache Modelle, wie Heisenberg und Hubbard-Modelle, welche jeden Gitterplatzdurch niederdimensionale Vektorraume darstellen, bieten hier bereits gute Moglich-keiten die Phanomenologie zu verstehen und den Einfluss einfacher Parameter, wieBeweglichkeit und Kopplungsstarke, einzuschatzen zu lernen.

An dieser Stelle wollen wir fur einen Moment von der anwendungsorientierten Moti-vation zu einer wissenschaftlichen, d.h. dem Erkenntnisgewinn in sich verpflichtetenBegrundung umschwenken:

Die Hubbard- und Heisenberg-Modelle genießen zu Recht nach wie vor großes wissen-schaftliches Interesse. Sie sind zum einen denkbar einfach zu formulieren und besitzenhierdurch auch einen hohen Grad an Asthetik wie auch an Anpassbarkeit und Wan-delbarkeit. Zum anderen lasst sich mit ihnen auch ungemein viel Physik betreiben,da sie trotz ihrer unfassbaren Schlichtheit eine große Zahl an Effekten und Phano-menen hervorbringen. Eben durch diese Schlichtheit ermoglichen sie dann auch, eintiefergehendes Verstandnis solcher Ergebnisse zu entwickeln.

Wenn man diesen Gedanken weiter denkt, ist es nur konsequent sich mit niederdimen-sionalen Systemen zu befassen und hier wiederum gerade mit den eindimensionalenSystemen. Die eindimensionalen Systeme vereinfachen nicht nur die Modelle erheblich,sondern durch den Wegfall einer

”Ausweichdimension“ treten viele Eigenschaften gera-

de im Bezug auf Wechselwirkungen in ihrer Reinstform auf. Zudem ist es in begrenztemMaße auch moglich, mit eindimensionalen Systemen durch Abbildung mehrdimensio-nale Systeme zu beschreiben. Wir wollen uns also in dieser Arbeit ausschließlich miteindimensionalen Systemen befassen.

Da uns jedoch durch die starke Wechselwirkung viele analytische Naherungslosungenwie die Storungstheorie verloren sind, mussen andere Wege gefunden werden, die Pro-bleme zu losen.

Fast immer ist es erforderlich einen großen Teil der Losung numerisch vorzunehmen.Eine wichtige Rolle fur die numerischen Moglichkeiten spielt wiederum die Dimensio-nalitat des Systemes.

Wir wollen die numerische Machbarkeit dessen am Beispiele eines 1D-Spin- 12 -Heisenberg-Modelles diskutieren:

3

Page 14: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1 Einleitung

- Die naheliegendste Moglichkeit bestunde nun darin, den endlichdimensionalenHamilton-Operator solcher Modelle vollstandig numerisch exakt zu diagonalisie-ren. Jedoch erlaubt der heutige Stand der Rechentechnik dieses nur fur Ket-tenlangen der Großenordnung L = 10.

- Beschrankt man sich darauf, das System nur bei Temperatur T = 0 zu un-tersuchen, so kann man mit Hilfe von Krylov-Raum-Verfahren das Minimale-Eigenproblem bis zur Großenordnung von L = 30 losen.

- Der DMRG/VMPS-Algorithmus, um den es hier unter anderem gehen soll, ermoglichtjedoch die Berechnung von Grundzustanden von Ketten mit uber L = 200 Ket-tenplatzen.

Betrachten wir nun noch einmal den praktischen Aspekt. Im Jahre 1984 hatte manes in der Informationstechnologie noch mit Strukturen im Bereiche von 1, 5µm zutun. Bei einer typischen Gitterkonstante von 0, 4nm lage man bei einer eindimensio-nalen Kette hiermit in der Großenordnung von L = 2750. Dieser

”Sehr-Viele-Teilchen-

Physik“ konnen wir fur starke Wechselwirkung heute noch nicht Herr werden. Betrach-tet man jedoch die heutigen Strukturgroßen von 30nm, so erhalten wir eine typischeKettenlange von L = 75. Diese

”Viele-Teilchen-Physik“ konnen wir auch fur stark

wechselwirkende Systeme bei T = 0 mit dem DMRG/VMPS-Algorithmus behandeln.Es ist sogar davon auszugehen, dass die Anwendung in absehbarer Zeit in den Bereichder

”Einige-Teilchen-Physik“mit L = 10 vorstoßt.

Es kommt allerdings hinzu, dass es bei den immer kleiner werdenden Zeitskalen in dertechnischen Anwendung nicht mehr befriedigend ist die Schaltdynamik zu vernachlassi-gen und das System stets in einem wohldefinierten Schaltzustande zu glauben. Es wirdauch notig die Nichtgleichgewichtsdynamik solcher Systeme zu verstehen.

Will man nun die Dynamik des Systemes durch Zeitentwicklung oder Green-Funktionenberechnen, so scheitert die exakte Berechnung dieser bereits dadurch, dass sich das ge-samte Spektrum des Hamilton-Operators nur bis etwa L = 10 berechnen lasst.

Einen Ausweg bietet die Moglichkeit mit Hilfe der so genannten Krylov-Raume eineKurzzeitnaherung der Zeitentwicklung bzw. eine Hochfrequenznaherung der Green-Funktionen durchzufuhren. Jedoch gelingt dieses auch nur bis zu Systemen der GroßeL = 30.

Es besteht also Bedarf an Methoden, um auch die Nichtgleichgewichtsdynamik großerereindimensionaler Systeme behandeln zu konnen. Dies kame nicht nur der eigentlichenBehandlung dieser Systeme zu Gute, sondern wurde auch weitere Moglichkeiten, wieden Einsatz als DMFT-Solver ohne Vorzeichenproblem eroffnen.

4

Page 15: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1.3 Einordnung

1.3 Einordnung

Statische Methoden

Der DMRG-Algorithmus wurde im Jahre 1992 von White eingefuhrt [1, 2]. In seinenbeiden Ur-Arbeiten demonstrierte White anhand der Grundzustandsberechnungen vonHeisenberg-Modellen die große Effizienz und das Potential des Verfahrens. Der nachs-te wichtige Schritt in der Entwicklung des Algorithmuses war 1995 die durch Romerund Ostlund erbrachte Erkenntnis, dass die durch den DMRG-Algorithmus hervorge-brachten Zustande, Matrixproduktzustandsgestalt haben (eine Struktur welche bereitsdurch die Untersuchung eindimensionaler Quantensysteme bekannt war) [3]. Aller-dings betrachteten die beiden in dieser Arbeit nur periodische Bloch-Zustande einesHeisenberg-Modelles im thermodynamischen Grenzfalle und erkannten so noch nichtdie Allgemeingultigkeit dieser Aussage.

Inspiriert von der Idee der Dimensionsreduktion, wie sie DMRG nutzt, formuliertenChung und Peschel 2001 [4] einen Matrix-Produkt-Ansatz fur nicht wechselwirkendeFermionen einer Fermi-Kette. Dessen Dimensionen wurden heruntergebrochen, indemman die kleinsten Eigenvektoren reduzierter Dichteoperatoren vernachlassigte. Diesesist wohl als die Geburtsstunde des VMPS-Algorithmuses zu sehen, welcher sich vondort aus unabhangig von DMRG weiterentwickelte.

Allerdings hatten Dukelsky et al. bereits 1998 gezeigt, dass fur Spin-1-Heisenberg-Modelle, die Variation von Matrixproduktzustanden und DMRG, von kleineren Un-terschieden abgesehen, aquivalent sind [5].

Obgleich also bekannt war, dass VMPS und DMRG bis auf kleine Details in gangi-gen Implementierungen letztendlich den gleichen Algorithmus darstellen, bildeten sichum beide Begriffe zwei Lager heraus, mit zwei Denk- und Sprechweisen, welche sich je-doch gegenseitig beeinflussten. Beide Denkweisen haben ihre Vorzuge: Bei der DMRG-Denkweise tritt klarer hervor, was mathematisch-physikalisch wirklich hinter der Funk-tionsweise des Algorithmuses steckt. In der VMPS-Denkweise jedoch sind die mathe-matischen Objekte und deren

”Algebra“, welcher sich der Algorithmus bedient, auf

schone klare Weise formuliert. Diese Arbeit bedient sich beider Denkweisen, mit demZiele beide zu einer Einheit zu verschmelzen.

Zu seiner heutigen Form gelangte der VMPS-Algorithmus jedoch erst durch die Einfuhrungder Matrixproduktoperatoren, zuerst durch Verstraete et al., um reine Matrix-Produkt-Zustande auf Matrix-Produkt-Mischzustande abzubilden [6] und dann durch McCulloch[7], der den entscheidenden Schritt tat, den Hamilton-Operator des Systemes als Ma-trixproduktoperator zu formulieren.

DMRG/VMPS kannte bis dahin keine besondere Struktur fur die verwandten Hamilton-

5

Page 16: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1 Einleitung

Operatoren. Es war jedoch bereits bekannt, dass DMRG/VMPS nur fur Systeme,deren Wechselwirkungen exponentiell mit dem Abstande der Wechselwirkungspart-ner abfallen, effektiv funktioniert. Eben solche Hamilton-Operatoren konnen immerals Matrix-Produkt-Operator dargestellt werden, wie Frowis et al. 2010 zeigten [8].Da die Kombination aus Matrix-Produkt-Operatoren und Matrix-Produkt-Zustandensich als außerordentlich gut handhabbar erweist, ist davon auszugehen, dass auf langeSicht die DMRG-Welt diese Strukturen als Ruckgrat aufnehmen wird und somit dieDMRG- und die VMPS-Welt wieder vollig verschmelzen werden.

Die vorliegende Arbeit wird ausschließlich mit Operatoren in Matrix-Produkt-Operator-Formulierung arbeiten und halt sich somit in dieser Hinsicht vollig an die VMPS-Denkwelt.

Dynamische Methoden

Da sich DMRG/VMPS als hochst erfolgreich im Losen diverser statischer Problemeerwiesen hatte, wurden verschiedene Ansatze entwickelt, den Algorithmus auch furzeitabhangige Probleme zu nutzen.

Jeckelmann zeigte 2002 ein Verfahren zur Berechnung dynamischer Großen mittelsDMRG bei T = 0 [9], welches als DDMRG bekannt ist. In der Matrixproduktopera-torformulierung von DMRG tritt die Schwache dieser Methode unmittelbar zu Tage. Eswird mit Summen von Operatoren und mit Projektoren von Matrixproduktzustandengearbeitet. Dieses hat eine dramatisch anwachsende Matrixdimensionen des effekti-ven Hamilton-Operators zur Folge und wird, je mehr angeregte Eigenzustande desHamilton-Operators benotigt werden, zunehmend ungenau. White und Daley, so wieSchollwock et al. stellten 2004 ein weiteres als Korrekturvektor-Verfahren bekanntesVerfahren fur dynamische Berechnungen mittels VMPS vor [10, 11]. Dieses Verfahrensetzt jedoch voraus, dass der Hamilton-Operator eine Trotter-Zerlegbarkeit des Zeit-entwicklungsoperators in gerade und ungerade Gitterplatz-Anteile erlaubt und bedarfebenfalls großer Rechenressourcen

Bereits im Jahre 1995 veroffentlichte Hallberg ein von der Idee her einfaches und den-noch sehr vielversprechendes Verfahren, zeitabhangige Großen mittels DMRG zu be-rechnen [12] . Indem sie das Gagliano-Balseiro-Verfahren [13] und DMRG kombinierte,gelang es ihr so, mit vergleichsweise geringem Rechenaufwande Green-Funktionen ei-nes Spin- 12 -Heisenberg-Modelles zu berechnen. Das Gagliano-Balseiro-Verfahren ist imGrunde nichts weiter als die Berechnung einer Lanczos-Basis des Hamilton-Operators.Es besteht dann kein großer Unterschied, ob man hiermit die Green-Funktionen berech-net oder Lanczos-Zeitentwicklungen durchfuhrt. Hat man die Moglichkeit geschaffenLanczos-Basen zu konstruieren, steht beides offen. Hallbergs Arbeit fiel noch in eineZeit, da die Idee des Matrixproduktoperators nicht geboren war. In reiner DMRG-Denkweise jedoch ist die mehrfache Anwendung von Operatoren auf Zustande in der

6

Page 17: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1.4 Struktur und Ziele

praktischen Implementierung sehr aufwandig und die Verwendung von Symmetrienhierbei außergewohnlich schwierig. Diese Arbeit greift Hallbergs Grundidee auf undbeschreibt, wie es in einer sauberen Matrixproduktzustands-Matrixproduktoperator-Denkweise, wie sie VMPS mitbringt, moglich ist, dieses Problem in eleganter Weisezu losen. Daruber hinaus erlaubt unsere Vorgehensweise nicht nur die Berechnungskalarer Green-Funktionen, sondern birgt auch die aufregende Moglichket auf dieseWeise tatsachlich auch zeitpropagierte Zustande zu berechnen. An dieser Stelle nunmuss darauf hingewiesen werden, dass Dargel jungst Ergebnisse zur Green-Funktions-Berechnung mittels DMRG/VMPS veroffentlichte, welche unabhangig von dieser Ar-beit entstanden [14] und dass kurz vor Abgabe dieser Arbeit Muth in einer Veroffent-lichung [15] zu einigen Ergebnissen uber Matrixproduktoperatoren und Symmetrienkommt, zu denen auch diese Arbeit unabhangig davon gelangte.

1.4 Struktur und Ziele

Diese Arbeit versucht nun darzustellen, in welcher Weise es moglich ist, mittels Matrix-produktzustanden Krylov-Raume dieser Zustande zu konstruieren und auf diese Weisedie Ideen des VMPS-Algorithmuses auf die Zeitentwicklung, bzw. Green-Funktions-Berechnung in Krylov-Raumen, zu ubertragen.

Ein maßgeblicher Teil dieser Diplomarbeit war die algorithmische Implementierung die-ser Ideen. Diese ist jedoch zum Zeitpunkte dieser Ausarbeitung noch nicht vollstandigabgeschlossen, da sich herausstellte, dass gerade die Verwendung von Symmetrien esnicht einfach moglich machte, eine bestehende VMPS-Implemetierung zu erganzen.Vielmehr wahr es erforderlich maßgebliche Teile des Programmes neu zu schreiben. Fer-tiggestellt sind zu diesem Zeitpunkte ein lauffahiges objektorientiertes VMPS-Programm,dessen Datenstrukturen bereits an das Problem angepasst sind, sowie eine Vielzahlweiterer Programmbestandteile, welche fur die Konstruktion der Krylov-Raume erfor-derlich sind.

Zur Struktur:

- Das erste Kapitel widmet sich den Krylov-Raumen und ihrer Anwendung fur dieBerechnung der Dynamik quantenmechanischer Systeme. Wir fuhren dieses ersteinmal in aller Allgemeinheit aus, ohne hierbei auf VMPS Bezug zu nehmen.

- Die folgenden drei Kapitel beschaftigen sich mit den Strukturen des VMPS-Algorithmuses:

Im ersten Kapitel fuhren wir die Matrixproduktzustande ein, versuchen dieseStruktur genauer zu ergrunden, sowie wichtige Operationen mit diesen Struktu-ren wie Kanonisierung, Summen, Skalarprodukte und Dimensionsreduktion zu

7

Page 18: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

1 Einleitung

erlautern.

Im zweiten Kapitel erweitern wir die Struktur der Matrixproduktzustande aufdie so genannten Matrixproduktoperatoren und ergrunden die Anwendung dieserMatrixproduktoperatoren auf Matrixproduktzustande sowie die Berechnung vonMatrixelementen zwischen diesen Strukturen.

Im dritten Kapitel widmen wir uns der Folge additiver Abel’scher Symmetrienauf die Matrixproduktzustande und Matrixproduktoperatoren.

- Das letzte Kapitel dieser Arbeit setzt die geleistete Vorarbeit zu einem großenGanzen zusammen: Wir fuhren den VMPS-Algorithmus zur Berechnung vonGrundzustanden ein und erlautern, was es zu bedenken gilt, wenn man dieKrylov-Raum-Verfahren mit Matrixproduktoperatoren und Matrixproduktzustandendurchfuhren will.

8

Page 19: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

2.1 Krylov-Raum

Notation :

Im folgenden Abschnitte sei H ein Vektorraum, X ∈ L (H) ein linearer Operatorund |u(0)〉 ∈ H, |u(0)〉 6= 0 ein beliebiger Vektor.

Das erste Kapitel dieser Arbeit werden wir den so genannten Krylov-Raumen [16]widmen:

Definition (2.1.1): (Krylov-Raume):

Definiere den n-ten Krylov-Raum von X zum Startvektor |u(0)〉 durch

Kn(X, |u(0)〉

)= Span

{|u(0)〉, X |u(0)〉, . . . , Xn−1 |u(0)〉

}(2.1.1)

Wenn klar ist, welcher Startvektor und welcher Operator gemeint sind, schreibenwir auch kurz:

Kn = Kn(X, |u(0)〉

)(2.1.2)

Fur den Rest dieses Abschnittes bezeichne Kn immer Kn(X, |u(0)〉

). Die erste wichtige

Frage lautet nun, wie weit man durch aufeinanderfolgendes Anwenden des Operators Xeinen immer großer werdenden Raum konstruieren kann. Wir stellen als erstes fest, dasssobald man durch das m-malige Anwenden von X keinen weiteren Vektor außerhalbvon Km gewinnt, auch die m+ n-malige Anwendung von X nur noch Vektoren in Kmliefert. Der Raum, den man ausgehend von |u(0)〉 konstruiert hat, lasst sich dann alsonicht mehr vergroßern.

Satz (2.1.1): (Invarianz von Krylov-Raumen):

Es gebe ein m ∈ N, so dassKm = Km+1 (2.1.3)

9

Page 20: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Dann gilt sofort auchKm = Km+k k ∈ N (2.1.4)

Und wir sagen hierzu, Km sei invariant unter X.

Beweis :

Beweis durch Induktion nach k:

I. Induktionsvoraussetzung:

Xm+k |u(0)〉 ∈ Km (2.1.5)

II. Induktionsanfang fur k = 1:Gilt nach Voraussetzung des Satzes.

III. Induktionsschritt k → k + 1:Wegen der Induktionsvoraussetzung haben wir

Xm+l |u(0)〉 =

m∑i=0

a(l)i Xi |u(0)〉 l ≤ k (2.1.6)

Betrachte nun

Xm+k+1 |u(0)〉 = X

m∑i=0

a(k)i Xi |u(0)〉

=

m∑i=1

a(k)i−1 X

i |u(0)〉+ a(k)m Xm+1 |u(0)〉

=

m∑i=1

a(k)i−1 X

i |u(0)〉+ a(k)m

m∑j=1

a(1)j Xj |u(0)〉

=

m∑i=1

(a(k)i−1 + a(k)m a

(1)i

)︸ ︷︷ ︸

a(k+1)i

Xi |u(0)〉+ a(k)m a(1)0︸ ︷︷ ︸

a(k+1)0

|u(0)〉

=

m∑i=0

a(k+1)i Xi |u(0)〉 ∈ Km

(2.1.7)

Wir haben nun also gezeigt, dass Xm+k |u(0)〉 ∈ Km also

Span{|u(0)〉, . . . ,Xm |u(0)〉

}= Span

{|u(0)〉, . . . ,Xm |u(0)〉,Xm+1 |u(0)〉, . . .Xm+k |u(0)〉

} (2.1.8)

10

Page 21: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.1 Krylov-Raum

Und somitKm = Km+k (2.1.9)

Hieraus folgt dann direkt, dass auch die Anwendung von X auf alle anderen Vektoren|v〉 in Km nicht aus diesem Raume herausfuhrt.

Satz (2.1.2): (Der erzeugende Operator auf invarianten Krylov-Raumen):

Sei Km invariant unter X und P der Projektor auf diesen Raum, so gilt fur alle|v〉 ∈ Km:

X |v〉 ∈ Km (2.1.10)

alsoPXP |v〉 = X |v〉 (2.1.11)

Beweis :

Entwickele |v〉 nach den |u(k)〉 = Xk|u(0)〉

|v〉 =

m−1∑k=0

ck|u(k)〉 (2.1.12)

Wende X hierauf an

X |v〉 =

m−1∑k=0

ckX |u(k)〉︸ ︷︷ ︸∈Km

∈ Km (2.1.13)

Da |v〉 per Definition in Km liegt, gilt

P |v〉 = |v〉 (2.1.14)

Und damit dannPXP = P X |v〉︸ ︷︷ ︸

∈Km

= X |v〉 (2.1.15)

Da wir Krylov-Raume immer fur Probleme betrachten wollen, welche indirekt eineVerbindung zum Eigenproblem des erzeugenden Operators aufweisen, ist der Zusam-menhang der invarianten Unterraume und der Eigenvektoren des Operators X vongroßer Bedeutung und wir definieren erst einmal:

11

Page 22: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Definition (2.1.2): (Anteilige Eigenvektoren):

Sei X selbstadjungiert und

E ={|e(i,j)〉

∣∣∣X |e(i,j)〉 = λi |e(i,j)〉}

(2.1.16)

eine Orthonormalbasis aus Eigenwerten von X mit

|u(0)〉 =∑i

ci,j |e(i,j)〉 (2.1.17)

Dann nennen wir jene Eigenvektoren, welche einen Beitrag zur Entwicklung von|u(0)〉 liefern:

|e(i,j)〉, ci,j 6= 0 (2.1.18)

die an |u(0)〉 anteiligen Eigenvektoren von X.

Wir werden nun sehen, welche Rolle die an |u(0)〉 anteiligen Eigenvektoren von X furdie Frage der Invarianz von Krylov-Raumen spielen:

Satz (2.1.3): (Invariante Unterraume und Eigenvektoren):

Sei X selbstadjungiert und

E ={|e(i,j)〉

∣∣∣X |e(i,j)〉 = λi |e(i,j)〉}

(2.1.19)

eine Orthonormalbasis aus Eigenvektoren von X. Sei

A ={|e(i.j)〉

}(2.1.20)

die Menge der an |u(0)〉 anteiligen Eigenvektoren von X. Sei nun Km invariantunter X, dann ist

Km = Span (A) (2.1.21)

Beweis :

Sei

|u(0)〉 =∑i

ci,j |e(i,j)〉 (2.1.22)

die Entwicklung des Startvektors nach den Eigenvektoren von X. Zuerst zeigen

12

Page 23: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.1 Krylov-Raum

wir, dass |e(i,j)〉 fur ci,j = 0 nicht in Km liegen kann: Sei |v〉 = Km beliebig.

|v〉 =∑k

bkXk |u(0)〉

=∑k

bk∑i,j

ci,jXk |e(i,j)〉

=∑k

bk∑i,j

ci,j λki |e(i,j)〉

(2.1.23)

Berechne〈e(i,j)|v〉 =

∑k

bk ci,j λki = 0 (2.1.24)

|e(i,j)〉 liegt also nicht in Km. Nun zeigen wir, dass jeder Eigenvektor von X′

auch Eigenvektor von X zum gleichen Eigenwert ist: Sei P der Projektor auf Km,X′ = PXP = X|Km und

E′ ={|e′(i,j)〉

∣∣∣X′ |e′(i,j)〉 = λ′i |e′(i,j)〉

}(2.1.25)

eine Basis von Eigenvektoren von X′. Verwende nun (2.1.2):

X′ |e′(i,j)〉 = λ′i |e′(i,j)〉

⇔ PXP |e′(i,j)〉 = λ′i |e′(i,j)〉

⇔ X |e′(i,j)〉 = λ′i |e′(i,j)〉

(2.1.26)

Bleibt noch zu zeigen, dass jeder Eigenvektor |e(µ,ν)〉 mit cµ,ν 6= 0 in Km liegen

muss: Wegen |u(0)〉 ∈ Km konnen wir |u(0)〉 nach den |e′(i,j)〉 entwickeln:

|u(0)〉 =∑i,j

ai,j |e′(i,j)〉 (2.1.27)

Da aber nun die |e′(i,j)〉 alle ebenfalls Eigenvektoren zu X sind, lasst sich dieseEigenvektorentwicklung von Km nach H ubertragen:

|u(0)〉 =∑i,j

ci,j |e(i,j)〉 =∑i,j

ci,j |e′(i,j)〉 (2.1.28)

Damit ist gezeigt, dass jeder Eigenvektor |e(i,j)〉 welcher zu |u(0)〉 beitragt, vollstandigin Km enthalten sein muss. Zusammen mit der ersten Aussage hat man also

Km = Span{|e(i,j)〉

∣∣∣ ci,j 6= 0}

(2.1.29)

Hiermit haben wir nun auch eine Aussage daruber gewonnen, ab welchem m ∈ N, dieKn, n ≥ m invariant unter X werden, denn:

13

Page 24: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

- Alle Xk |u(0)〉, k ≤ m sind linear unabhangig, wie wir bereits gezeigt haben.

- Da

Km = Span (A) (2.1.30)

gilt, ist also m = |A|

Welchen Zweck hat es nun sich mit den Krylov-Raumen auseinanderzusetzen? DieNutzlichkeit dieser speziellen Unterraume vonH im Zusammenhange mit eigenproblems-ahnlichen Problemen, zeigt sich erst durch geschickte Basiswahl. In der Literatur findenverschiedene Basen zu Krylov-Raumen Anwendung und der grundlegende Unterschiedzum Beispiele der Krylov-Raum-Verfahren zur Bestimmung extremaler Eigenwerte vonX ist im Grunde auf die Wahl der Basis von Km zuruckzufuhren.

2.2 Lanczos-Basis

Notation :

Mogen in diesem Abschnitte folgende Bezeichnungen gelten: Sei H ein Vektor-raum, X ∈ L (H) ein selbstadjungierter linearer Operator, |u(0)〉 ∈ H, |u(0)〉 6= 0ein beliebiger Vektor und Kn = Kn

(X, |u(0)〉

)der n-te Krylov-Raum von X zum

Startvektor |u(0)〉.

Wir wollen uns als spezielle orthonormale Krylov-Raum-Basis die Lanczos-Basis [17]herausnehmen. Mit dieser Basis werden wir im weiteren Verlaufe dieses Kapitels dreiwichtige Krylov-Raum-Verfahren betrachten:

- Lanczos’sches Iterationsverfahren: Bestimmung des kleinsten Eigenwertes (mitEinschrankungen auch der kleinsten Eigenwerte) des hermetischen Operators X.

- Lanczos’sche Zeitentwicklung: Angenaherte unitare quantenmechanische Zeitent-wicklung eines Systemes, dessen zeitunabhangiger Hamilton-Operator H sei.

- Lanczos’sche Greenfunktionsberechnung: Berechnung von Ein-Operator-Green-Funktionen

GA (z) = 〈ψ0|A† (z −H)A|ψ0〉 (2.2.31)

wobei H den zeitunabhangigen Hamilton-Operator des zu betrachtenden Syste-mes darstelle.

14

Page 25: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.2 Lanczos-Basis

Die Lanczos-Basis wird iterativ durch Linearkombination der zwei vorangegangenenBasisvektoren mit der Anwendung von X auf den vorangegangenen Basisvektor kon-struiert. Es fließt also nur die Linearkombination aus drei Vektoren in die Konstruktionein.

Satz (2.2.1): (Lanczos-Basis):

Es gelteKn−1 ( Kn (2.2.32)

Definiert sei die Menge

Ln

(X, |u(0)〉

)={|v(0)〉, . . . , |v(n−1)〉

}(2.2.33)

mit

|v(i)〉 =|v(i)〉√〈v(i)|v(i)〉

(2.2.34)

wobei

|v(i)〉 =

|u(0)〉 i = 0

X |v(0)〉 − a0 |v(0)〉 i = 1

X |v(i−1)〉 − ai−1 |v(i−1)〉 − b2i−1 |v(i−2)〉 i = 2, . . . , n− 1

(2.2.35)

und die ai und bi wie folgt definiert seien:

ai =〈v(i)|X|v(i)〉〈v(i)|v(i)〉

i = 0, . . . , n− 1

b2i =〈v(i)|v(i)〉

〈v(i−1)|v(i−1)〉i = 1, . . . , n− 1

(2.2.36)

Dann ist Ln(X, |u(0)〉

)eine Orthonormalbasis von Kn. Die Konstruktion dieser

Basis hat den Aufwand O(d2n), wobei d die Dimension von H bezeichne.

Beweis :

Zuerst beweisen wir, dass es sich bei Ln(X, |u(0)〉

)um eine Orthonormalbasis von

Kn handelt: Wir beweisen durch vollstandige Induktion nach i, die Orthogonalitatder Basisvektoren. Die Induktionsvoraussetzung laute:

Li−1 ={|v(0)〉, |v(1)〉, . . . , |v(i−1)〉

}(2.2.37)

seien paarweise orthogonal. Es gilt

|v(k)〉 6= 0 k = 0, . . . , n− 1 (2.2.38)

15

Page 26: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

was wir weiter unten zeigen werden. Der Fall i = 0 ist trivial, wegen der besonderenBildungsvorschrift betrachte also als Induktionsanfang i = 1, da sich alle weiterenVektoren mittels der gleichen Bildungsvorschrift ergeben.

Induktionsanfang fur i = 1:

Zu zeigen〈v(0)|v(1)〉 = 0 (2.2.39)

〈v(0)|v(1)〉 = 〈v(0)|X|v(0)〉 − 〈v(0)|X|v(0)〉〈v(0)|v(0)〉

〈v(0)|v(0)〉 = 0 (2.2.40)

Induktionsschritt: Zu zeigen:

〈v(j)|v(i)〉 = 0 j < i (2.2.41)

Wir betrachten zuerst den Fall j < i− 1 und schreiben den rechten Faktor aus:

〈v(j)|v(i)〉 = 〈v(j)|(X |v(i−1)〉 − ai−1 |v(i−1)〉 − b2i−1 |v(i−2)〉

)(2.2.42)

wegen der Induktionsvoraussetzung ist 〈v(j)|v(i−1)〉 = 0 Weiter nutzen wir dieSelbstadjungiertheit von X:

〈v(j)|X|v(i−1)〉 − b2i−1 〈v(j)|v(i−2)〉

=(〈v(j+1)|+ aj 〈v(j)|+ b2j 〈v(j−1)|

)|v(i−1)〉 − b2i−1 〈v(j)|v(i−2)〉

(2.2.43)

Wegen der Induktionsvoraussetzung gilt

〈v(j)|v(i−1)〉 = 0

〈v(j−1)|v(i−1)〉 = 0(2.2.44)

Dann haben wir nur noch

〈v(j+1)|v(i−1)〉 − b2i−1 〈v(j)|v(i−2)〉 (2.2.45)

Diese beiden Summanden sind nur fur j = i − 2 von null verschieden, dann giltjedoch

〈v(j+1)|v(i−1)〉 − b2i−1〈v(j)|v(i−2)〉

= 〈v(i−1)|v(i−1)〉 − 〈v(i−1)|v(i−1)〉〈v(i−2)|v(i−2)〉

〈v(i−2)|v(i−2)〉 = 0(2.2.46)

Nun betrachten wir noch den ausstehenden Fall j = i− 1:

〈v(i−1)|v(i)〉 = 〈v(i−1)|(X |v(i−1)〉 − ai−1 |v(i−1)〉 − b2i−1 |v(i−2)〉

)(2.2.47)

16

Page 27: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.2 Lanczos-Basis

Es gilt

〈v(i−1)|v(i−2)〉 = 0 (2.2.48)

also

〈v(i−1)|X|v(i−1)〉 − ai−1 〈v(i−1)|v(i−1)〉

= 〈v(i−1)|X|v(i−1)〉 − 〈v(i−1)|X|v(i−1)〉〈v(i−1)|v(i−1)〉

〈v(i−1)|v(i−1)〉

= 0

(2.2.49)

Damit der obige Induktionsbeweis funktioniert mussen wir noch zeigen, dass kei-ner der |v(i)〉 gleich 0 ist, wobei wir ebenfalls zeigen werden, dass Ln

(X, |u(0)〉

)tatsachlich eine Basis von Kn ist: Wieder fuhren wir eine Induktion nach i durch.Induktionsvoraussetzung ist

|v(j)〉 ∈ Kj/Kj−1

⇔ |v(j)〉 =

j∑k=0

c(j)k Xk |u(0)〉 cj 6= 0

(2.2.50)

Der Fall i = 0 ist trivial, wir beginnen also den Induktionsanfang fur i = 1:Induktionsanfang fur i = 1:

|v(1)〉 = X |u(0)〉 − a1 |u(0)〉 (2.2.51)

da wegen

K0 ( K1 (2.2.52)

mussen |u(0)〉 und X |u(0)〉 linear unabhangig sein. Daher ist |v(1)〉 6= 0 und Glei-chung (2.2.50) ist ebenfalls erfullt.

Induktionsschritt i− 1→ i:

17

Page 28: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

|v(i)〉= X |v(i−1)〉 − ai−1 |v(i−1)〉 − b2i−1 |v(i−2)〉

= X

i−1∑k=0

c(i−1)k Xk |u(0)〉 − ai−1

i−1∑k=0

c(i−1)k Xk |u(0)〉 − b2i−1

i−2∑k=0

c(i−2)k Xk |u(0)〉

=

c(i)i︷ ︸︸ ︷

−ai−1 c(i−1)i−1 Xi |u(0)〉︸ ︷︷ ︸=:µ

+

+

i−2∑k=1

(c(i−1)k−1 − ai−1 c

(i−1)k − bi−1 c(i−2)k

)Xk |u(0)〉 −

(ai−1 c

(i−1)0 + b2i−1 c

(i−2)0

)|u(0)〉︸ ︷︷ ︸

=:ν

(2.2.53)

Als erstes betrachte c(i)i . Beide Faktoren konnen nach der Induktionsvoraussetzung

nicht 0 sein, und wegen der Grundannahme

Kn−1 ( Kn (2.2.54)

muss dann auch µ 6= 0 gelten. Es folgt ebenfalls aus dieser Voraussetzung, dassµ und ν linear unabhangig sind, also insgesamt |v(i)〉 6= 0 und |v(i)〉 ∈ Ki/Ki−1.Damit ist gezeigt, dass Ln

(X, |u(0)〉

)eine Orthonormalbasis von Kn ist.

Nun bleibt noch zu zeigen, dass die Konstruktion der Basis vom AufwandeO(d2 n

)ist: Betrachte alle von d abhangigen Schritte, welche fur die Berechnung eines Ba-sisvektors ausgefuhrt werden mussen.

f (l,1) = H |f (l−1,4)〉f (l,2) = 〈f (l,1)|f (l−1,4)〉f (l,3) = 〈f (l−1,4)|f (l−1,4)〉

f (l,4) = |f (l,1)〉 − f (l,2)

f (l,3)|f (l−1,4)〉 − f (l,3)

f (l−1,3)|f (l−2,4)〉

(2.2.55)

Betrachte nun den Aufwand A dieser Einzeloperationen, unter Beachtung bereitsausgefuhrter Operationen:

A[f (l,1)

]∈ O

(d2)

A[f (l,2)

]∈ O (d)

A[f (l,3)

]∈ O (d)

A[f (l,4)

]∈ O (d)

(2.2.56)

18

Page 29: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.2 Lanczos-Basis

Nun betrachte den Aufwand der Berechnung eines Basisvektors insgesamt:

A [f ] = A[f (l,1)

]+A

[f (l,2)

]+A

[f (l,3)

]+A

[f (l,4)

]∈ O

(d2)

(2.2.57)

Da dieser Aufwand nicht vom zu berechnenden Basisvektor abhangt, haben wirfur die Konstruktion aller Basisvektoren

A [fges] = nA [f ] ∈ O(d2n)

(2.2.58)

Will man in der Lanczos-Basis Problemstellungen des Operators X losen, so ist dieGestalt der Matrix T des Operators T = X|Kn wichtig:

Satz (2.2.2): (Lanczos-Tridiagonalmatrix):

Die Matrix T der Einschrankung von X auf Kn nimmt in Ln(X, |u(0)〉

)folgende

Tridiagonalform an:

T = H|Kn

T =

a0 b1b1 a1 b2

b2 a2. . .

. . .. . . bn−1bn−1 an−1

(2.2.59)

wobei die ai und bi die in (2.2.36) definierten Lanczos-Koeffizienten sind.

Beweis :

Berechne als die Matrixelemente

〈v(i)|X|v(j)〉 =〈v(i)|X|v(j)〉√

〈v(i)|v(i)〉√〈v(j)|v(j)〉

=〈v(i)|v(j+1)〉+ aj〈v(i)|v(j)〉+ b1j 〈v(i)|v(j−1)〉√

〈v(i)|v(i)〉√〈v(j)|v(j)〉

(2.2.60)

Nun ist wegen der Orthogonalitat obiger Ausdruck fur i 6= j − 1, j, j + 1 ohnehin0, womit die tridiagonale Gestalt von T bereits gezeigt ist. Wir betrachten nundie drei verbleibenden Falle:

19

Page 30: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

1. i = j + 1:

〈v(j+1)|X|v(j)〉

=〈v(j+1)|v(j+1)〉+ aj 〈v(j+1)|v(j)〉+ b2j 〈v(j+1)|v(j−1)〉√

〈v(j+1)|v(j+1)〉√〈v(j)|v(j)〉

=〈v(j+1)|v(j+1)〉√

〈v(j+1)|v(j+1)〉√〈v(j)|v(j)〉

=

√〈v(j+1)|v(j+1)〉〈v(j)|v(j)〉

= bj+1

(2.2.61)

2. i = j:

〈v(j)|X|v(j)〉 =〈v(j)|X|v(j)〉〈v(j)|v(j)〉

= aj (2.2.62)

3. i = j − 1:

〈v(j−1)|X|v(j)〉

=〈v(j−1)|v(j+1)〉+ aj 〈v(j−1)|v(j)〉+ b2j 〈v(j−1)|v(j−1)〉√

〈v(j+1)|v(j+1)〉√〈v(j)|v(j)〉

= =b2j 〈v(j−1)|v(j−1)〉√

〈v(j−1)|v(j−1)〉√〈v(j)|v(j)〉

= b2j

√〈v(j−1)|v(j−1)〉〈v(j)|v(j)〉

= bj−1

(2.2.63)

Womit die Aussage bewiesen ist.

Betrachte nun also die Vorteile der Lanczos-Basis:

- Es handelt sich um eine Orthonormalbasis.

- Die die Matrix T des Operators T = X|Kn nimmt in der Lanczos-Basis tri-diagonale Gestalt an, ist also lediglich von der Ordnung O (n), wobei man dieMatrixelemente bereits bei der Konstruktion der Basis berechnet hat.

- Auch wenn die Gram-Schmidt’sche Orthonormalisierung nur den RechenaufwandO(dn2)

besitzt, also scheinbar effektiver ist als die Erzeugung der Lanczos-Basis,

20

Page 31: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.3 Rayleigh-Ritz-Prinzip

so mussen hier erst einmal die{|u(0)〉, . . . ,Xn−1|u(0)〉

}berechnet werden, was

mit dem Aufwande O(d2n)

behaftet ist. Weiter erfordert das Berechnen der

Matrix T ′ vom T in der Gram-Schmidt-Basis noch einmal den Aufwand O(d2n),

ohne dass diese eine so vorteilhafte Gestalt wie T besitzen muss.

- Wahrend zur Konstruktion der Lanczos-Basis lediglich zwei Vektoren zwischen-zuspeichern sind, sind es beim Gram-Schmidt’schen Orthonormierungsverfah-ren alle vorangegangenen Basisvektoren, welche im Speicher gehalten werden.Wahrend also das Lanczos-Verfahren fur die Matrix T und die Zwischenspei-cherung lediglich einen Speicherverbrauch der Ordnung O (d) aufweist, habenwir beim Gram-Schmidt’schen Orthonormierungsverfahren eine Speichernutzungvon der Ordnung O (dn). Auch das Berechnen der Matrix T ′ vom T in der Gram-Schmidt-Basis erfordert noch einmal Speicher der Großenordnung O (dn).

2.3 Rayleigh-Ritz-Prinzip

Notation :

Im folgenden Abschnitt sei H ein Hilbert-Raum und X ∈ L (H) ein beschrankterselbstadjungierter linearer Operator.

Im nachsten Satze wollen wir zeigen, dass die Bestimmung extremaler Eigenwerteselbstadjungierter Operatoren auf die Minimierung eines Funktionales zuruckzufuhrenist, was fur dieses Problem die Methoden der Analysis zuganglich macht:

Satz (2.3.1): (Rayleigh-Ritz-Prinzip):

Sei f ein Funktional:

f (φ) =〈φ|X|φ〉〈φ|φ〉

(2.3.64)

Dann sind die Minimierung dieses Funktionales auf H

λf = Min{f (φ)

∣∣∣ |φ〉 ∈ H} (2.3.65)

und die Bestimmung des kleinsten Eigenwertes von X

λew = Min{λi

∣∣∣X |φ〉 = λi |φ〉, |φ〉 ∈ H}

(2.3.66)

aquivalent, mitλf = λew (2.3.67)

21

Page 32: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Beweis :

Da X selbstadjungiert ist, sind dessen Eigenwerte λi reell und dessen Eigenvek-toren |e(i,j)〉 orthogonal. Sei

E ={|e(i,j)〉

∣∣∣X |e(i,j)〉 = λi |e(i,j)〉}

(2.3.68)

eine Basis von orthonormierten Eigenvektoren von X: Gegeben sei ein |φ′〉 ∈ H,welches wir nun in E entwickeln.

|φ′〉 =∑i,j

ci,j |e(i,j)〉 (2.3.69)

Dann ist

f (φ′) =〈φ′|X|φ′〉〈φ′|φ′〉

=

∑i,j

ci,j 〈e(i,j)|∑i′,j′

ci′,j′ X |e(i′,j′)〉∑

i,j

ci,j 〈e(i,j)|∑i′,j′

ci′,j′ |e(i′,j′)〉

=

∑i,j,i′,j′

ci,j ci′,j′〈e(i,j)|λi′ |e(i′,j′)〉∑

i,j,i′,j′ci,j ci′,j′〈e(i,j)|e(i

′,j′)〉

=

∑i,j

|ci,j |2 λi∑i,j

|ci,j |2

(2.3.70)

Fur das Funktional f spielt also die Phase der ci,j keine Rolle. Setze

ai,j := |ci,j | ∈ R (2.3.71)

welches die eigentlichen Argumente von f sind. Wir bestimmen die lokalen Ex-

22

Page 33: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.3 Rayleigh-Ritz-Prinzip

trema von f :

Gradf (φ′)i,j =∂

∂ai,jf (φ′)

=

2

ai,j λi∑m,n

a2m,n −∑m,n

λm a2m,n ai,j(∑

i,j

a2m,n

)2

=

2

〈φ′|φ′〉

(∑m,n

am,n λn 〈e(i,j)|e(m,n)〉 − f (φ′)∑m,n

am,n 〈e(i,j)|e(m,n)〉

)

=2

〈φ′|φ′〉〈e(i,j)|

(∑m,n

am,n λn |e(m,n)〉 − f (φ′)∑m,n

am,n |e(m,n)〉

)

=2

〈φ′|φ′〉〈e(i,j)| (X |φ′〉 − f (φ′) |φ′〉)

(2.3.72)

Also haben wir

Gradf (φ′) =2

〈φ′|φ′〉(X |φ′〉 − f (φ′) |φ′〉) (2.3.73)

Dann haben wir als notwendige Bedingung fur Extrema

Gradf (φ′) = 0⇔ X|φ′〉 = 〈φ′|X|φ′〉|φ′〉 (2.3.74)

Dieses ist eine Eigenwertgleichung, welche tatsachlich nur fur normierte Eigenvek-toren von X erfullt ist. Dieses vereinfacht bereits erheblich die Berechnung derHesse-Matrix:

Hessf (φ′)(i,j)(i′,j′) =∂2

∂ai,j ∂ai′,j′

(∑m,n

(am,n)2λm

)

=∂

∂ai,j(2 ai′,j′ λi′) = 2 δi,i′ δj,j′

(2.3.75)

Die Hesse-Matrix ist also bereits diagonal mit Eigenwerten

µi,j = 2 > 0 (2.3.76)

Die Hesse-Matrix ist positiv definit, und die Extrema sind tatsachlich alle lokaleMinima. Nutzt man nun aus, dass f seine lokalen Minima an den normiertenEigenvektoren von X annimmt, erhalt man

f (|φ′〉) =〈φ′|X|φ′〉〈φ′|φ′〉

= λφ′ (2.3.77)

Das globale Minimum von f ist also genau der kleinste Eigenwert von f .

23

Page 34: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Bemerkung (2.3.1):

Wichtig ist zu beachten, dass das Funktional

f (φ) =〈φ|X|φ〉〈φ|φ〉

(2.3.78)

aus dem vorigen Satze nicht linear ist! Berechne

f (|φ1〉+ |φ2〉) =〈φ1 + φ2|X|φ1 + φ2〉〈φ1 + φ2|φ1 + φ2〉

=〈φ1|X|φ2〉+ 〈φ2|X|φ2〉+ 2R (〈φ1|X|φ2〉)〈φ1|φ1〉+ 〈φ2|φ2〉+ 2R (〈φ1|φ2〉)

6= f (|φ1〉) + f (|φ2〉)

(2.3.79)

Fur die Extrema der Einschrankung von Operatoren auf Unterraume reicht es, denWertebereich des Funktionales einzuschranken, und sich des Operators auf dem vollenRaum zu bedienen. Damit hat man fur das Eigenproblem in Unterraumen:

Satz (2.3.2): (Rayleigh-Ritz-Prinzip in Unterraumen):

Sei das Funktional f genauso definiert, wie im vorigen Satze. Weiter sei H′ einUnterraum von H und bezeichne X′ ∈ L (H′) die Einschrankung von X auf H′.Dann sind die Minimierung des Funktionales f auf H′

λf = Min{f (ϕ)

∣∣∣ |ϕ〉 ∈ H′} (2.3.80)

und die Bestimmung des kleinsten Eigenwertes von X′

λew = min{λi

∣∣∣X′ |ϕ〉 = λi |ϕ〉, |ϕ〉 ∈ H′}

(2.3.81)

aquivalent, mitλf = λew (2.3.82)

Beweis :

Sei P ein Orthogonalprojektor in H auf H′. Dann lasst sich X′ schreiben als:

X′ = PXP (2.3.83)

24

Page 35: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.3 Rayleigh-Ritz-Prinzip

Hieran sieht man sofort, dass X′ ebenfalls selbstadjungiert ist, denn

X′† = (PXP)†

= P†X†P† = PXP = X′ (2.3.84)

wobei wir verwandt haben, dass Orthogonalprojektoren ebenfalls selbstadjungiertsind. Dann wissen wir aus dem vorigen Satze bereits, dass die Suche nach demkleinsten Eigenwerte von X′

λew = Min{λi

∣∣∣X′ |ϕ〉 = λi |ϕ〉, |ϕ〉 ∈ H′}

(2.3.85)

gleichbedeutend der Minimierung des Funktionales

λf = Min

{f ′ (ϕ) =

〈ϕ|′X|ϕ〉〈ϕ|ϕ〉

∣∣∣∣|ϕ〉 ∈ H′} (2.3.86)

ist. Nun gilt die Gleichheit der Mengen{|ϕ〉∣∣∣ |ϕ〉 ∈ H′} =

{|ϕ〉 = P |φ〉

∣∣∣ |φ〉 ∈ H} (2.3.87)

Damit haben wir dann

λf ′ = Min{〈ϕ|X′|ϕ〉

∣∣∣ |ϕ〉 ∈ H′, 〈ϕ|ϕ〉 = 1}

(2.3.87)= Min

{〈φ|P†X′P |φ〉‖P |φ〉‖2

∣∣∣∣∣ |φ〉 ∈ H}

= Min

{〈φ|PPXPP |φ〉

‖P|φ〉‖2

∣∣∣∣∣ |φ〉 ∈ H} (2.3.88)

Operatoren sind idempotent, d.h.

P = PP (2.3.89)

Damit haben wir

λf = Min

{〈φ|PPXPP|φ〉‖P|φ〉‖2

∣∣∣∣∣ |φ〉 ∈ H}

= Min

{〈φ|PXP |φ〉‖P |φ〉‖2

∣∣∣∣∣ |φ〉 ∈ H}

(2.3.87)= Min

{〈ϕ|X|ϕ〉〈ϕ|ϕ〉

∣∣∣∣ |ϕ〉 ∈ H′}(2.3.90)

Das Rayleigh-Ritz-Prinzip werden wir sowohl im folgenden Abschnitte, wie auch inder Erlauterung des VMPS-Algorithmuses benotigen, weswegen wir es hier an so pro-minenter Stelle einfuhren.

25

Page 36: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

2.4 Lanczos’sches Eigenwertverfahren

Notation :

Sei H ein Vektorraum, X ∈ L (H) ein selbstadjungierter linearer Operator und|u(0)〉 ∈ H, |u(0)〉 6= 0 ein beliebiger Vektor.

Die Tridiagonalmatrix T von T = X|Kn in der Lanczos-Basis kann nun verwandt wer-den um die extremalen Eigenwerte eines selbstadjungierten linearen Operators nahe-rungsweise zu berechnen. Hierzu werden die Krylov-Raume eines Startvektors berech-net und das Eigenwertproblem in der Lanczos-Basis dieser Krylov-Raume gelost.

Es gibt hierbei zwei Hauptstrategien:

Lanczos-Verfahren Berechne nach und nach weitere Basisvektoren und vergroßereso die Dimension des Raumes, auf dem das Problem gelost wird, immer weiter.

Lanczos-Verfahren mit Neustart Das Lanczos-Verfahren mit Neustart besteht dar-in, das Lanczos-Verfahren mit einem jeweils neu bestimmten Startvektor immerwieder aufs neue durchzufuhren, wobei die Folge der Startvektoren

(|u((0,k))〉

)k∈N

gegen einen Eigenvektor zum kleinsten Eigenwert von X konvergiere. Eine solcheFolge von Startvektoren wird durch folgende Iteration konstruiert:

Fuhre das Lanczos-Verfahren ohne Neustart mit dem gegenwartigen Startvektor|u(0,k)〉 bis zu einer festgelegten Dimension nmax durch. Nimm den Eigenvek-tor zum kleinsten Eigenwert, welcher auf diese Weise naherungsweise bestimmtwurde, als neuen Startvektor |u(0,k+1)〉 fur den nachsten Iterationsschritt.

Fur nmax = 2 entspricht dieses Verfahren genau dem Konjugierten-Gradienten-Verfahren zur Losung quadratischer Eigenwertprobleme im Rn fur Funktionender Form

f (φ) =〈φ|X|φ〉〈φ|φ〉

(2.4.91)

Fur nmax > 2 stellt das Lanczos-Verfahren mit Neustart eine Verallgemeinerungdieses Verfahrens fur solche Funktionen dar.

Wieso nun eigentlich sollte man fur die Naherungslosung von Eigenwertproblemen aufKrylov-Raume zuruckgreifen? Wir wollen dieses ein wenig motivieren:

Angenommen wir wollten den kleinsten Eigenwert des Operators X bestimmen, ohneweitere Annahmen uber diesen machen zu konnen. Gesucht ist ein Verfahren, wel-ches iterativ von oben gegen den kleinsten Eigenwert konvergiert. Um einen analyti-

26

Page 37: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.4 Lanczos’sches Eigenwertverfahren

schen Zugang zu diesem Problem zu finden, greifen wir dann auf die Rayleigh-Ritz-Formulierung des Problemes zuruck:

λ = Min

{f (φ) =

〈φ|X|φ〉〈φ|φ〉

}(2.4.92)

Uns sei bereits der Ort |p(k)〉 bekannt, an dem f in einem Unterraume H(k) von H seinMinimum annimmt. Wie finden wir nun ein |p(k+1)〉 außerhalb dieses Unterraumes,in welchem f auf jeden Fall einen kleineren Wert als fur |p(k)〉 annimmt? Nahelie-gend ware es, hierzu den Gradienten von f als Ausdruck der lokalen Anderung vonf zu betrachten. Man erinnere sich, dass eine Funktion f im Punkte |φ〉 in Richtung−Gradf (|φ〉) tatsachlich den starksten lokalen Abfall zeigt: Betrachte die Anderungvon f in eine beliebige Richtung |a〉, ‖|a〉‖ = 1

h (t) = f (φ− |a〉 t)∂h (t)

∂t

∣∣∣t=0

= −〈Gradf (φ)|a〉(2.4.93)

Also ist die Anderung von f maximal fur |a〉 = Gradf(|φ〉)‖Gradf(|φ〉)‖ Nun zeigt sich:

Satz (2.4.1): (Raume des negativen Gradienten von f):

Sei(H(k)

)k∈N, eine Folge von Raumen, welche wie folgt beschaffen sei:

1. H(1) = Span{|u(0)〉

}2. H(k+1) beinhalte stets die Richtung des steilsten Abfalles von f , in allen

Punkten |p〉 aus H(k).

Dann gilt H(k) = Kk(X, |u(0)〉

).

Beweis :

Beweis durch vollstandige Induktion nach k:I. Induktionsvoraussetzung:H(k) = Kk

(X, |u(0)〉

)II. Induktionsanfang fur k = 1:H(1) = Span

{|u(0)〉

}= Kk

(X, |u(0)〉

)per Definition

III. Induktionsschritt k → k + 1:Sei

|p〉 =

k∑i=1

ciXi−1 |u(0)〉 (2.4.94)

27

Page 38: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

ein beliebiger Punkt in H(k) = Kk(X, |u(0)〉

). Betrachte nun den steilsten Abstieg

von f in diesem Punkte:

−Gradf (p) = − 2

〈p|p〉(X |p〉 − f (p) |p〉)

= − 2

〈p|p〉

(k∑i=1

ciXi |u(0)〉 − f (|p〉)

k∑i=1

ciXi−1 |u(0)〉

)

= − 2

〈p|p〉

(ckX

k |u(0)〉−c1 f (p) |u(0)〉+

k∑i=2

(ci−1 − f (p) ci)Xi−1|u(0)〉︸ ︷︷ ︸

=|v〉∈H(k)

)

(2.4.95)

Also liegt −Gradf (p) fur alle |p〉 ∈ H(k) in

Span{Xk |u(0)〉, |v〉

∣∣∣ |v〉 ∈ Kk (X, |u(0)〉)} = Kk+1

(X, |u(0)〉

)(2.4.96)

Die Strategie sich bei der Minimierung von f in Richtung des starksten lokalen Ab-stieges von f vorzuarbeiten, fuhrt also zwangslaufig auf die Wahl der Krylov-Raume.

Nach dieser Motivation wollen wir nun die beiden Varianten des Lanczos-Verfahrensdetailiert untersuchen.

Algorithmus (2.4.1): (Lanczos’sches Eigenwertverfahren):

1. Mit |v(0)〉 berechne und speichere den Lanczos-Koeffizienten a0.

2. Setze |v(−1)〉 = 0

3. Fur n = 1, . . . , nmax:

a) Errechne und speichere |vanw〉 = X|v(n−1)〉.

b) Mit |vanw〉, |v(n−1)〉 und |v(n−2)〉 berechne und speichere die Lanczos-Koeffizienten bn und an.

c) Berechne den kleinsten Eigenwert λn der Tridiagonalmatrix

Ti,j = 〈v(i)|T|v(j)〉T = X|Kn

28

Page 39: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.4 Lanczos’sches Eigenwertverfahren

deren Matrixelemente die gespeicherten bi und ai i ≤ n sind.

d) Falls n > nmin und die Konvergenz der λn genugt einem Ab-bruchskriterium :Setze λ = λn Gehe zu 4

e) Berechne n-ten Lanczos-Basisvektor |v(n+1)〉 aus den an, bn, |v(n−1)〉,|v(n−2)〉 und |vanw〉.

4. Ruckgabe: λ

Im Folgenden wollen wir mit dem n-ten Schritt eines Lanczos-Algorithmuses, denZustand des Verfahrens, nach der Berechnung von n Basisvektoren, des Krylov-Raumesbezeichnen, ganz gleich, ob zwischenzeitlich ein Neustart vorgenommen worden istoder nicht. Mit dieser Begrifflichkeit konnen wir uns dann dem Aufwand des Lanczos-Algorithmuses zuwenden:

Satz (2.4.2): (Algorithmischer Aufwand des Lanczos’schen Eigenwertverfahrens):

Bezeichne d die Dimension des Raumes H und n die Zahl der Schritte, welcher derLanczos-Algorithmus f bis zum Erreichen der gewunschten Genauigkeit bedurfte.Dann gilt fur das Laufzeitverhalten des Algorithmuses:

A [f ] ∈ O(d2 n

)(2.4.97)

Beweis :

Der Aufwand des m-ten Schrittes, bedarf zur Berechnung des Basisvektors einerMatrix-Vektor-Multiplikation, hat also mindestens einen Summanden, welcher ex-akt a d2 ist. Weiter muss noch eine m×m-Tridiagonalmatrix diagonalisiert werden,welches mit dem Aufwande O

(m2)

erfolgen kann. Wir haben also:

A [g] (d,m) = a d2 +A [g′] (d) +A [g′′] (m) (2.4.98)

wobei

A [g′] (d) ∈ O(d2)

A [g′′] (m) ∈ O(m2) (2.4.99)

Also gilt fur den gesamten Algorithmusdurchlauf:

A [f ] (d, n)

= A [g] (d, 1) + · · ·+A [g] (d, n)

= an d2 + nA [g′] (d) +A [g′′] (1) + · · ·+A [g′′] (n)

(2.4.100)

29

Page 40: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Betrachte nun

A [f ] (d, n)

d2 n= a+

A [g′] (d)

d2+A [g′′] (1)

d2 n+ · · ·+ A [g′′] (n)

d2 n(2.4.101)

Nun bestimmen wir das asymptotische Verhalten:

limn→∞

limd→∞

A [f ] (d, n)

d2 n= a+

A [g′] (d)

d2︸ ︷︷ ︸=c

+A [g′′] (1)

d2 n+ · · ·+ A [g′′] (n)

d2 n(2.4.102)

Aus A [g′′] ∈ O(n2)

und d ≥ n folgt

A [g′′] (r)

d2n≤ c′

d, r ≤ n (2.4.103)

Also

limn→∞

limd→∞

A [f ] (d, n)

d2 n= a+ c (2.4.104)

Womit A [f ] ∈ O(d2 n

)gezeigt ist.

Algorithmus (2.4.2): (Lanczos’sches Eigenwertverfahren mit Neustart):

Sei n ≤ Dim (H) eine naturliche Zahl. Definiere das Lanczos’sche Iterationsver-fahren mit Neustart

1. Setze |w(0)〉 = |u(0)〉

2. Fur m = 0, . . . ,mmax:

a) Konstruiere die Lanczos-Orthonormalbasis

Ln

(X, |w(0)〉

)={|v(1)〉, . . . |v(n)〉

}zum Startvektor |w(0)〉 und speichere dabei die Lanczos-Koeffizientenbi und ai. (siehe Algorithmus (2.4.1))

b) Berechne den kleinsten Eigenvektor |v(m)〉 und Eigenwert λm Tri-diagonalmatrix

Ti,j = 〈v(i)|T|v(j)〉T = X|Kn

deren Matrixelemente wir bereits durch die bi und ai berechnet ha-ben.

30

Page 41: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.4 Lanczos’sches Eigenwertverfahren

c) Falls m > mmin ist und die Konvergenz der λm einem Abbruchs-kriterium genugt :Setze λ = λm Gehe zu 3

d) Setze λ = λm, |w(0)〉 = |v(m)〉

3. Ruckgabe: λ, |w(0)〉

Nun offenbarte der Beweis zum Aufwand des Lanczos’schen Eigenwertvefahrens be-reits, dass die Diagonalisierung der Tridiagonalmatrix im Laufzeitverhalten wegender Matrix-Vektor-Multiplikation nur eine verschwindende Rolle spielt. Nicht uberra-schend ist also, dass der Neustart im asymptotischen Verhalten keinen Nutzen bringt:

Satz (2.4.3): (Algorithmischer Aufwand des Lanczos-Verfahrens mit Neustart):

Bezeichne d die Dimension des Raumes H und n, die Zahl der Schritte, welche derLanczos-Algorithmus bis zum Erreichen der gewunschten Genauigkeit bedurfte,wobei der Algorithmus bei den Schritten

M = {m1, . . . ,mk} (2.4.105)

neu gestartet worden sei. Dann gilt fur das Laufzeitverhalten des Algorithmuses:

A [f ] ∈ O(d2 n

)(2.4.106)

Beweis :

Der m-te Schritt des Algorithmuses ist hier mit dem gleichen Aufwande behaftetwie fur das Verfahren ohne Neustart. Da das Umrechnen des Eigenvektors in dieAusgangsbasis hochstens einen Aufwand von O (dn) erfordern kann (jedoch setztes die Speicherung von n Vektoren voraus). Der einzige Unterschied ist, dass dieKrylov-Raum-Dimension hier

dk = m−ml (2.4.107)

betragt, wobei ml jener Schritt ist, bei dem der letzte Neustart erfolgte. Dannhaben wir analog zum Verfahren ohne Neustart fur jeden Schritt den Aufwand:

p (d, dk) = a d2 +A [g′] (d) +A [g′′] (dk) (2.4.108)

mit

A [g] (d,m) = p (d,m−ml)

A [g′] (d) ∈ O(d2)

A [g′′] (dk) ∈ O(d2k) (2.4.109)

31

Page 42: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Dann haben wir fur den Gesamtalgorithmus:

A [f ] (d, n)

=

k∑i=1

(p (d, 1) + · · ·+ p (d,mi −mi−1))

= an d2 + nA [g′] (d) +

k∑i=1

A [g′′] (1) + · · ·+A [g′′] (mi −mi−1)

(2.4.110)

Betrachte

A [f ] (d, n)

d2 n= a+

A [g′] (d)

d2+

+

k∑i=1

A [g′′] (1)

d2 n+ · · ·+ A [g′′] (mi −mi−1)

d2 n

(2.4.111)

Asymptotische haben wir

limn→∞

limd→∞

A [f ] (d, n)

d2 n= a+

A [g′] (d)

d2︸ ︷︷ ︸=c

+

+

k∑i=1

A [g′′] (1)

d2 n+ · · ·+ A [g′′] (mi −mi−1)

d2 n

(2.4.112)

Mit n < d haben wirA [g′′] (r)

d2n≤ c′

d, r ≤ n (2.4.113)

Da nun mi −mi−1 ≤ n haben wir damit dann

limn→∞

limd→∞

A [f ] (d, n)

d2 n= a+ c (2.4.114)

also das gleiche Ergebnis wie fur den Algorithmus ohne Neustart.

Die Frage der Konvergenz der Lanczos’schen Eigenwertverfahren zu untersuchen hatzwei Seiten. Fur beide Verfahren lasst sich klar bestatigen, dass die Folge der genaher-ten kleinsten Eigenwerte, streng monoton fallend, gegen den kleinsten Eigenwert in-nerhalb eines durch den Startvektor bestimmten Unterraumes fallen:

32

Page 43: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.4 Lanczos’sches Eigenwertverfahren

Satz (2.4.4): (Monotonie genaherter minimaler Eigenwerte):

Seien H(n) Unterraume von H, bezeichne T(n) = X|H(n) die Einschrankung vonX auf H(n), λn den kleinste Eigenwert von T(n) und |e(n)〉 einen zugehorigen Ei-genvektor. Weiter gelte |e(n)〉 ∈ H(n+1) dann bilden die λn eine monoton fallendeFolge.

Beweis :

Dass die λn eine monotone Folge bilden, folgt unmittelbar aus (2.3.2):

λn = Min

{f (n) (φ) =

〈φ|(n)T|φ〉〈φ|φ〉

∣∣∣∣ |φ〉 ∈ H(n)

}= Min

{f (φ) = 〈φ|X|φ〉

∣∣∣|φ〉 ∈ H(n)} (2.4.115)

Da nun λn das Minimum des fur alle n gleichen Funktionales f auf verschiedenenUrmengen H(n) ist und da H(n) ( H(n+1)gilt, gilt auch λn+1 ≤ λn.

Die Unterraume beider Lanczos’schen Eigenwertverfahren haben die Eigenschaften,welche im obigen Satze gefordert werden, also bilden die mit ihnen berechneten genaher-ten minimalen Eigenwerte eine monoton fallende Folge.

Eine direkte Aussage daruber, dass das Verfahren nach endlich vielen Schritten kon-vergiert, lasst sich nur fur das Verfahren ohne Neustart machen, denn werden dieKrylov-Raume, mit denen man umgeht, unter X invariant, so ist der genaherte Eigen-wert exakt, und bildet also die untere Schranke der λn:

Satz (2.4.5): (Konvergenz des Lanczos’schen Eigenwertverfahrens):

SeiE =

{|e(j,k)〉

∣∣∣X|e(j,k)〉 = λj |e(j,k)〉}

(2.4.116)

eine Orthonormalbasis aus Eigenvektoren von X und A sei die Menge der zu |u(0)〉anteiligen Eigenvektoren von X.

Dann gilt fur Km(X, |u(0)〉

)mit m = |A|: Die Menge der Eigenvektoren E′ von

T = X|Km ist gegeben durchE′ = A (2.4.117)

und es giltT |e(i,j)〉 = X |e(i,j)〉 = λi |e(i,j)〉 (2.4.118)

33

Page 44: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

fur alle |e(i,j)〉 ∈ A. Die Berechnung der Eigenwerte von T fuhrt also exakt aufalle zu |u(0)〉 anteiligen Eigenvektoren von X und deren Eigenwerte.

Beweis :

Der Beweis ist mit den Satzen uber die Invarianz von Krylov-Raumen eigentlichschon gegeben: Es gilt

Km(X, |u(0)〉

)= Span (A) (2.4.119)

Und es gilt fur |e(i,j)〉 ∈ A:

T |e(i,j)〉 = PXP|e(i,j)〉= X |e(i,j)〉 = λi|e(i,j)〉

(2.4.120)

Die |e(i,j)〉 sind also ebenfalls Eigenvektoren von T zum gleichen Eigenwert. Dasie nun auch eine Basis von Km

(X, |u(0)〉

)bilden, sind die |e(i,j)〉 bereits alle

Eigenvektoren von T.

Eine sehr schwierige Frage ist die Geschwindigkeit der Konvergenz des Lanczos-Verfahrens.Da es fur das Lanczos-Verfahren mit Neustart keine einfache Relation wie den vorigenSatz zu dessen Genauigkeit gibt und da alle in der Literatur aufgefuhrten Abschatzun-gen zum Konvergenzverhalten des Lanczos-Verfahrens kaum fur anschauliche Aussa-gen, Vergleiche oder Faustregeln zu gebrauchen sind, muss man sich meist mit Erfah-rungswerten aus der numerischen Praxis begnugen. Diese Erfahrungen stutzen fur dasLanczos-Verfahren ohne Neustart die folgenden Faustregeln:

- Die Konvergenz aller Eigenwerte, welche man mit dem Lanczos-Verfahren be-rechnet, zeigt ein exponential-ahnliches Verhalten.

- Der exponentielle Abfall oder Anstieg der Konvergenz ist um so starker, je weiteram Rande des Spektrumes die Eigenwerte liegen.

- Oft reicht es die Dimension des Krylov-Raumes mehrere Großenordnungen unter-halb der eigentlichen Raumdimension zu wahlen und dennoch einen prozentualdurchaus sehr guten Wert fur den kleinsten Eigenwert zu erhalten.

Satz (2.4.6): (Vergleich der Konvergenz der beiden Varianten des Lanczos-Verfahrens):

Sei λn der genaherte kleinste Eigenwert nach n Schritten eines vom Startvektor|u(0)〉 gestarteten Lanczos-Algorithmuses und λ′n der genaherte kleinste Eigenwert

34

Page 45: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.4 Lanczos’sches Eigenwertverfahren

nach n Schritten eines Lanczos-Algorithmuses, welcher ebenfalls von |u(0)〉 gest-artet sei, welcher jedoch beliebig oft an beliebiger Stelle neu gestartet worden sei.Bezeichne λ den wahren kleinsten Eigenwert von X.

Dann gilt

|λn − λ| < |λ′n − λ| (2.4.121)

Der Algorithmus ohne Neustart konvergiert also schneller als jener mit Neustart.

Beweis :

Beide Verfahren minimieren das Funktional

f (φ) =〈φ|X|φ〉〈φ|φ〉

(2.4.122)

auf Unterraumen von H. Der Algorithmus ohne Neustart tut dieses auf demRaume Kn

(X, |u(0)〉

). Bezeichne nun (|wk〉)k=1,...,m , m < n die Folge der Start-

vektoren des Algorithmuses mit Neustart. Dann optimiert dieser Algorithmus dasFunktional auf dem Raume Kl

(X, |wk(0)〉

).

Wir zeigen nun, dass

Kl(X, |wk(0)〉

)⊂ Kn

(X, |u(0)〉

)(2.4.123)

und daher

λ < Min{f (φ)

∣∣∣|φ〉 ∈ Kn (X, |u(0)〉)}< Min

{f (φ)

∣∣∣|φ〉 ∈ Kl (X, |wk(0)〉)} (2.4.124)

Sei |z〉 ∈ Kµ(X, |u(0)〉

)beliebig, dann ist X|z〉 ∈ Kµ+1

(X, |u(0)〉

):

X|z〉 = X

µ∑i=1

ciXi−1|u(0)〉

=

µ+1∑i=2

ci−1Xi−1|u(0)〉 ∈ Kµ+1

(X, |u(0)〉

) (2.4.125)

Wendet man das Prinzip induktiv auf alle Basisvektoren, welche der Algorithmusmit Neustart produziert, an, so sieht man, dass diese stets alle in Kn

(X, |u(0)〉

)liegen.

35

Page 46: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

2.5 Lanczos-Zeitentwicklung

Notation :

Sei H ein Hilbert-Raum und H ∈ L (H) mit ∂H∂t = 0 ein zeitunabhangiger be-

schrankter Hamilton-Operator. Bezeichne |u(0)〉 ∈ H, |u(0)〉 6= 0 einen beliebigenVektor und Km = Km

(H, |u(0)〉

)die Krylov-Raume von H zum Startvektor |u(0)〉.

Wir werden sehen, dass es moglich ist, mittels der Krylov-Raume eines Hamilton-Operators, die quantenmechanische Zeitentwicklung fur

”kurze“ Zeitraume effektiv

naherungsweise auszufuhren. Zuerst erinnern wir an den Formalismus der quantenme-chanischen Zeitentwicklung:

Definition (2.5.1): (Zeitentwicklungsoperator):

Der unitare Zeitentwicklungsoperator des durch H beschriebenen Systemes hatdie Gestalt

U (t, t0) = e−i~H(t−t0) (2.5.126)

Die Exponentialreihe linearer Operatoren konvergiert fur alle beschrankten Opera-toren. Betrachte nun die Norm des Operators im Argument der Exponentialreihe:

‖Z‖ =

∥∥∥∥− i~H (t− t0)

∥∥∥∥ =

∣∣∣∣ t− t0~

∣∣∣∣ ‖H‖ (2.5.127)

Das Argument der Exponentialreihe ist also beschrankt, und der so definierteZeitentwicklungsoperator existiert immer.

Befindet sich ein quantenmechanisches System also zur Zeit t0 im Zustande |ψ0〉, sofindet man es zur Zeit t im Zustande

|ψ〉(t) = U (t, t0) |ψ0〉 (2.5.128)

vor. Definiere nun einen weiteren unitaren Operator:

Definition (2.5.2): (Lanczos-Zeitentwicklungsoperator):

Sei P der Projektor auf Km

Definiere dann den m-ten Lanczos-Zeitentwicklungsoperator [18] zum Startvektor|u(0)〉 durch

Wm (t, t0) = e−i~T(t−t0) (2.5.129)

36

Page 47: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.5 Lanczos-Zeitentwicklung

wobei T = H|Km = PHP die Einschrankung von H auf Km sei.

Wir schatzen die Norm dieses Operators im Argument der Exponentialfunktionab:

‖Z‖ =

∥∥∥∥− i~T (t− t0)

∥∥∥∥ =

∣∣∣∣ t− t0~

∣∣∣∣ ‖PHP‖

≤∣∣∣∣ t− t0~

∣∣∣∣ ‖H‖ ‖P‖2 (2.5.130)

Da der Projektor auf den endlichdimensionalen Unterraum Km beschrankt ist, istZ beschrankt und der Lanczos-Zeitentwicklungsoperator existiert immer.

Als erstes halten wir fest, dass es fur bestimmte Falle moglich ist, mittels Wm (t, t0)die quantenmechanische Zeitentwicklung exakt durchzufuhren.

Satz (2.5.1): (Exakte Lanczos-Zeitentwicklung):

Sei Km invariant unter X. Dann kann die Zeitentwicklung |u (t)〉 = U|u(0)〉 mit-tels des m-ten Lanczos-Zeitentwicklungsoperators berechnet werden:

U (t, t0) = Wm (t, t0) = e−i~T(t−t0) (2.5.131)

Beweis :

Wir zeigen

e−i~H(t−t0)|u(0)〉 = e−

i~T(t−t0)|u(0)〉 (2.5.132)

Sei nun P der Projektor auf den Krylov-Raum Km, dann ist

T = PHP (2.5.133)

und weiter

e−i~T(t−t0)|u(0)〉 = e−

i~PHP(t−t0)|u(0)〉

=

∞∑k=0

(− i(t−t0)~

)kk!

(PHP)k |u(0)〉

(2.5.134)

Betrachte nun

(PHP)k |u(0)〉 = PHPP︸︷︷︸

=P

HP . . .PHP|u(0)〉

= PHP . . .PHP|u(0)〉(2.5.135)

37

Page 48: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Beachte nun, dass wegen der Invarianz von Km unter H

Hl |u(0)〉 ∈ Km⇒ PHl |u(0)〉 = Hl |u(0)〉

(2.5.136)

Und hiermit

= PHP . . .PH |u(0)〉 = PHP . . .PHl |u(0)〉 = Hk |u(0)〉 (2.5.137)

Fur (2.5.138) bedeutet dieses:

∞∑k=0

(− i(t−t0)~

)kk!

(PHP)k |u(0)〉 =

∞∑k=0

(− i(t−t0)~

)kk!

Hk|u(0)〉

= e−i~H(t−t0)|u(0)〉

(2.5.138)

Damit haben wir die Berechnung der Zeitentwicklung vollig auf ein Problem inKm beschrankt. Durch Berechnen von e−

i~T(t−t0)|u(0)〉 wie oben beschrieben, hat

man tatsachlich die exakte Zeitentwicklung des Zustandes |u(0)〉 berechnet.

Die Anwendung des m-ten Lanczos-Zeitentwicklungsoperators lasst sich algorithmischwie folgt implementieren:

Algorithmus (2.5.1):

Anwendung des Lanczos-Zeitentwicklungsoperators

1. Konstruiere die Lanczos-Orthonormalbasis

Ln

(H, |w(0)〉

)={|v(1)〉, . . . |v(n)〉

}(2.5.139)

zum Startvektor |u(0)〉 und speichere dabei die Lanczos-Koeffizienten bi undai.

2. Berechne in der Lanczos-Basis eine Basis aus Eigenvektoren

|x(i)〉 =∑j

Vi,j |v(j)〉 (2.5.140)

und Eigenwerte λi der Tridiagonalmatrix

Ti,j = 〈v(i)|T|v(j)〉T = H|Kn

(2.5.141)

deren Matrixelemente wir bereits durch die bi und ai berechnet haben.

38

Page 49: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.5 Lanczos-Zeitentwicklung

3. Stelle den Startvektor |u(0)〉 in der Basis der Eigenvektoren |x(k)〉 von T dar:

|u(0)〉 =∑j

V j,0|x(j)〉 (2.5.142)

und berechne hiermit die Anwendung folgenden Zeitentwicklungsoperators

Wm = e−i~T(t−t0) (2.5.143)

auf |u(0)〉:

Wm|u(0)〉 =∑j

V j,0 e− i

~T(t−t0)|x(j)〉

=∑j

V j,0 e− i

~λj(t−t0)|x(j)〉(2.5.144)

4. Transformiere voriges in die Ausgangsbasis zuruck und gib dieses als Ergebniszuruck:

|u (t)〉 = Wm|u(0)〉 (2.5.145)

Da fur große Systeme kaum zu erwarten ist, dass die Krylov-Raume Kn eines Start-vektors |u(0)〉 ab einer handhabbaren Dimension m invariant unter H werden, mussenwir mit folgender Naherung arbeiten:

Definition (2.5.3): (Genaherte Lanczos-Zeitentwicklung):

Die genaherte Lanczos-Zeitentwicklung bestehe darin, eine Krylov-Raum-Dimensionm < Dim (H) festzulegen, bei welcher Km nicht notwendigerweise invariant unterH sei und dann den exakten Zeitentwicklungsoperator

U (t, t0) = e−i~H(t−t0) (2.5.146)

durch den m-ten Lanczos-Zeitentwicklungsoperator

U′ (t, t0) = e−i~T(t−t0) (2.5.147)

zu nahern:U ≈ U′ (2.5.148)

Wobei T die Einschrankung des Hamiltion-Operators auf den m-ten Krylov-Raumzu Startvektor |u(0)〉 sei:

T = H|Kn (2.5.149)

Es gibt hier einen subtilen Unterschied dazu, den Zeitentwicklungsoperator als Ganzesauf den m-ten Krylov-Raum einzuschranken:

39

Page 50: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Bemerkung (2.5.1): (Vergleich zwischen der Lanczos-Zeitentwicklung und der Ein-schrankung des Zeitentwicklungsoperators auf den m-ten Krylov-Raum):

Sei P den Projektor auf Km.

Betrachte nun die Einschrankung des Zeitentwicklungsoperators auf Km:

O = P e−i~H(t−t0) P =

∞∑k=1

(− it~

)kk!

PHkP (2.5.150)

Wende diesen Operator auf den Startvektor an:

O|u(0)〉 = P e−i~H(t−t0) P =

∞∑k=1

(− it~

)kk!

PHkP|u(0)〉

=

m−1∑k=1

(− it~

)kk!

Hk|u(0)〉+

∞∑k=m

(− it~

)kk!

PHk|u(0)〉

(2.5.151)

und den m-ten Lanczos-Zeitentwicklungsoperator

U′ = e−i~T(t−t0) =

∞∑k=1

(− it~

)kk!

(PHP)k (2.5.152)

Wir wenden diesen ebenfalls auf |u(0)〉 an:

U′|u(0)〉 = P e−i~T(t−t0) P =

∞∑k=1

(− it~

)kk!

(PHP)k |u(0)〉

=

m−1∑k=1

(− it~

)kk!

Hk|u(0)〉+

∞∑k=m

(− it~

)kk!

(PH)k |u(0)〉

(2.5.153)

Beide Ansatze brechen keinesfalls die Exponentialreihe ab, wie man es in vielenNaherungslosungen oft tut, sondern nehmen alle Ordnungen der Zeit mit, wobei siejedoch fur k ≥ m mit einer verfalschten Potenz des Hamilton-Operators arbeiten,jedoch die ersten (m− 1)-Ordnungen der Exponentialreihe exakt sind.

Man beachte den feinen Unterschied beider Ansatze in hoheren Ordnungen derExponentialreihe.

40

Page 51: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.5 Lanczos-Zeitentwicklung

Satz (2.5.2): (Fehlerabschatzung der Lanczos-Zeitentwicklung):

Bezeichne P den Projektor auf Km und U die exakte und U′ eine genaherteLanczos-Zeitentwicklung.

Dann gilt fur den Fehler der Zeitentwicklung von |u(0)〉 durch die Naherung fol-gende grobe Abschatzung:

∥∥∥U |u(0)〉 −U′ |u(0)〉∥∥∥ ≤ ∥∥∥|u(0)〉∥∥∥ ∞∑

k=m

(t−t0~)k

k!

(∥∥Hk∥∥+

∥∥∥(PH)k∥∥∥)

≤∥∥∥|u(0)〉∥∥∥ ∞∑

k=m

(t−t0~)k

k!

(‖H‖k + ‖P‖k ‖H‖k

) (2.5.154)

Beweis :

Wir nutzen (2.5.153)

∥∥∥U|u(0)〉 −U′|u(0)〉∥∥∥ =

∥∥∥∥∥∥∥∞∑k=m

(− i(t−t0)~

)kk!

(Hk |u(0)〉 −Hk |u(0)〉

)∥∥∥∥∥∥∥≤∞∑k=m

∥∥∥∥∥∥∥(− i(t−t0)~

)kk!

(Hk|u(0)〉 − (PH)

k |u(0)〉)∥∥∥∥∥∥∥

=

∞∑k=m

(t−t0~)k

k!

∥∥∥Hk|u(0)〉 − (PH)k |n(0)〉

∥∥∥≤∥∥∥|u(0)〉∥∥∥ ∞∑

k=m

(t−t0~)k

k!

(∥∥Hk∥∥+

∥∥∥(PH)k∥∥∥)

≤∥∥∥|u(0)〉∥∥∥ ∞∑

k=m

(t−t0~)k

k!

(‖H‖k + ‖P‖k ‖H‖k

)

(2.5.155)

Zwei Faktoren beeinflussen also den Fehler der Naherung:

- Da alle Summanden positiv sind, vermindert, wie zu erwarten ist, die Erhohungder Krylov-Raum-Dimension m die Obergrenze des Fehlers.

41

Page 52: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

- Je kleiner der Zeitschritt ist, desto kleiner ist die Obergrenze des Fehlers.

Zerlegt man das Zeitintervall t− t0 in l Zeitschritte,

[t0, t]→ {[t0, t1] , . . . , [tl−1, t]} (2.5.156)

so kann man die genaherte Zeitentwicklung sukzessive fur die Teilzeitschritte durchfuhren

|u (t)〉 ≈ U′ (t, tl−1) . . .U′ (t1, t0) |u(0)〉 (2.5.157)

und so die Genauigkeit des Ergebnisses erhohen. Jedoch muss man naturlich fur jedenneuen Zeitschritt den Krylov-Raum neu konstruieren. Wir konnen nun den Fehler solchsukzessiver Lanczos-Zeitentwicklungen grob abschatzen. Gibt man eine Fehlertoleranzf vor, so muss man nun abwagen, ob es ratsamer ist

- das Zeitintervall in viele kleinere Zeitschritte zu zerlegen. Dann kann zwar dieKrylov-Raum-Dimension kleiner gewahlt werden, es muss jedoch auch der ge-samte Krylov-Raum ofter neu konstruiert werden.

- großere Zeitschritte zu wahlen, dann jedoch auch mit großeren Krylov-Raum-en arbeiten zu mussen, wobei diese dann auch weniger oft konstruiert werdenmussen.

Diese Optimierungsaufgabe ist sehr komplex und unserer Kenntnis nach existierthierfur keine kanonische Losung oder zumindest naherungsweise Losung. Es bleibtalso nur die Moglichkeit sich auf Erfahrungswerte zu verlassen [19] und sich mit Hilfeder groben Fehlerformel (2.5.154) abzusichern, um unterhalb eines maximalen Fehlerszu liegen.

2.6 Green-Funktionen

Notation :

Im folgenden Abschnitte mogen die folgenden Bezeichnungen gelten: Sei H einHilbert-Raum und H ∈ L (H) mit ∂dH

∂dt = 0 ein zeitunabhangiger beschrankter

Hamilton-Operator und A ∈ L (H) ein beliebiger Operator. Sei weiter |u(0)〉 ∈H, |u(0)〉 6= 0 ein beliebiger Vektor, fur den A|u(0)〉 6= 0 gelte.

Wir wollen uns nun damit befassen, wie es mittels Krylov-Raumen moglich ist Ein-Operator-Green-Funktionen zu berechnen [13]. Das ganze Verfahren lauft darauf hin-aus einen Kettenbruch aus Lanczos-Koeffizienten zu berechnen.

42

Page 53: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.6 Green-Funktionen

Als erstes bedurfen wir folgenden Hilfssatzes [20]:

Satz (2.6.1): (Oberstes linkestes Element des Inversen einer Tridiagonalmatrix):

Sei M ∈M (n× n) eine invertierbare symmetrische Tridiagonalmatrix:

M =

c0 d1d1 c1 d2

d2 c2. . .

. . .. . . dn−1dn−1 cn−1

(2.6.158)

Dann gilt

M−11,1 =1

c0 − d21

c1−d22...

(2.6.159)

Was sich rekursiv durchM−11,1 = q0 (2.6.160)

mit

qi =

{1

ci−b2i+1 qi+1i = 0, . . . , n− 2

1cn−1

i = n− 1(2.6.161)

ausdrucken lasst.

Beweis :

Definiere die folgende Matrix:

B(i) =

ci di+1

di+1

B(i+1)

(2.6.162)

Beachte, dass diese Matrix symmetrisch ist B(i) = B(i)T . Definiere weiter:

C(i) =

di+1

di+2

B(i+2)

=

di+1

di+2

B(i+2)T

(2.6.163)

Berechne durch Entwickeln nach der ersten Zeile:

det(C(i)

)= di det

(B(i+2)

)(2.6.164)

43

Page 54: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Und genau so:

det(B(i)

)= ci det

(B(i+1)

)− di+1 det

(C(i+1)T

)(2.6.165)

Nutze det (A) = det(AT)

det(B(i)

)= ci det

(B(i+1)

)− di+1 det

(C(i+1)

)= ci det

(B(i+1)

)− d2i+1 det

(B(i+2)

) (2.6.166)

Betrachte nun

qi =det(B(i+1)

)det(B(i)

) =det(B(i+1)

)ci det

(B(i+1)

)− d2i+1 det

(B(i+2)

)=

1

ci − d2i+1

det(B(i+2))det(B(i+1))

=1

ci − d2i+1 qi+1

(2.6.167)

Es gilt fur die Matrixelemente einer inversen Matrix:

M−1i,j =det(M (i,j)

)det (M)

(2.6.168)

wobei M (i,j) die i-j-adjunkte Matrix von M bezeichne. Hiermit berechnet sichM−11,1 nun wie folgt:

M−11,1 =det(M (1,1)

)det (M)

=det(B(1)

)det(B(0)

) = q0 (2.6.169)

Dieses gibt mit (2.6.167) genau, was zu zeigen war:

M−11,1 = q0 =1

c0 − d21

c1−d22...

(2.6.170)

Definition (2.6.1): (Ein-Operator-Green-Funktionen):

Definiere die Ein-Operator-Green-Funktion bei Temperatur T = 0 als

GA (z) = 〈u(0)|A† (z −H)−1

A|u(0)〉 (2.6.171)

44

Page 55: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.6 Green-Funktionen

Nun stellen wir den Zusammenhang zwischen dieser Definition und der obigen Inver-sionsformel her:

Satz (2.6.2): (Berechnung der Ein-Operator-Green-Funktion):

Definiere|w(0)〉 = A |u(0)〉 (2.6.172)

. Sei Km(H, |w(0)〉

)invariant unter H und bezeichne in der Lanczos-Basis Lm

(H, |w(0)〉

)T = H|Kn

T =

a0 b1b1 a1 b2

b2 a2. . .

. . .. . . bn−1bn−1 an−1

(2.6.173)

Dann lasst sich die Ein-Operator-Green-Funktion GA (z) durch den Kettenbruch

GA (z) =〈u(0)|A†A|u(0)〉a0 − z − b21

a1−z−b22...

(2.6.174)

berechnen. Rekursiv schreibt sich dieses als

GA (z) = 〈u(0)|A†A|u(0)〉 p0 (2.6.175)

mit

pi =

{1

z−ai−b2i+1pi+1i = 0, . . . , n− 2

1z−an−1

i = n− 1(2.6.176)

berechnen. Diese Berechnung geht mit einem Aufwande von O(d2m

), wobei d =

dim (H). Hat man jedoch GA (z) fur ein z berechnet, so kann man es fur weiterez mit dem Aufwande O (m) berechnen.

Beweis :

Betrachte in der Basis Lm(H, |u(0)〉

)die Matrix M des Operators

M = z −T

M =

z − a0 b1b1 z − a1 b2

b2 z − a2. . .

. . .. . . bn−1bn−1 z − an−1

(2.6.177)

45

Page 56: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

Da diese Matrix tridiagonal und symmetrisch ist, lasst sich der vorangegangeneSatz anwenden:

M−11,1 =1

z − a0 − b21

z−a1−b22...

(2.6.178)

Der erste Basisvektor der Lanczos-Basis ist

|v(0)〉 =A|u(0)〉√

〈u(0)|A†A|u(0)〉

⇔ A|u(0)〉 =√〈u(0)|A†A|u(0)〉 |v(0)〉

(2.6.179)

Nun betrachte

GA (z) = 〈u(0)|A† (z −H)−1

A|u(0)〉

= 〈u(0)|A†A|u(0)〉 〈v(0)| (z −H)−1 |v(0)〉

= 〈u(0)|A†A|u(0)〉M−11,1

=〈u(0)|A†A|u(0)〉z − a0 − b21

z−a1−b22...

(2.6.180)

Nun zur Komplexitat des Algorithmuses. Betrachte die zur Berechnung notigenSchritte

f (0) = |w(0)〉 = A|u(0)〉f (1) = {a0, . . . , an−1, b1, . . . , bn−1}

f (2,i) =1

z − ai − b2i+1f(2,i+1)

f (3) = 〈f (0)|f (0)〉

f (4) =f (3)

f (2,0)

(2.6.181)

Der zur Durchfuhrung jedes Schrittes notige Aufwand ist

A(f (0)

)∈ O

(d2)

A(f (1)

)∈ O

(md2

)A(f (2,i)

)∈ O (1)

A(f (3)

)∈ O (d)

A(f (4)

)∈ O (1)

(2.6.182)

46

Page 57: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.6 Green-Funktionen

Dann ist der Gesamtaufwand fur den Algorithmus:

A (f) = A(f (0)

)+A

(f (1)

)+

+ mA(f (2,i)

)+A

(f (3)

)+A

(f (4)

)∈ O

(md2

) (2.6.183)

Hat man nun GA bereits fur ein z1 berechnet, so ist zur Berechnung von GA furein weiteres z2 lediglich die Ausfuhrung der Schritte f (2,i) und f (4) notig. Diesesfuhrt dann auf den Aufwand

A (fneu) = mA(f (2,i)

)+A

(f (4)

)∈ O (m) (2.6.184)

In der Regel wird der volle Raum viel zu groß sein, um die Inversion auf ihm durch-zufuhren. Wir sind also daran interessiert das Ergebnis zu nahern:

Definition (2.6.2): (Genaherte Lanczos-Green-Funktionen):

Vollig analog zum Vorgehen bei der Lanczos-Zeitentwicklung besteht die Nahe-rung der genaherten Lanczos-Green-Funktionen darin, den Operator

M = z −H (2.6.185)

durch die Einschrankung dieses Operators auf denm-ten Krylov-RaumKm(X, |w(0)〉

)M′ = P† (z −H)P (2.6.186)

zu nahernM ≈M′ (2.6.187)

und hiermit die genaherte Lanczos-Green-Funktion

G′a (z) = 〈u(0)|A† (P (z −H)P)−1

A |u(0)〉 (2.6.188)

zu berechnen.

Um diese Naherung zu rechtfertigen und den Bereich ihrer Gultigkeit zu untersuchen,brauchen wir:

Satz (2.6.3): (Hochfrequenzentwicklung fur die Ein-Operator-Green-Funktion):

Bezeichne Emax den großten Eigenwert von H, so lassen sich fur alle z mit |z| >|Emax| die Ein-Operator-Green-Funktionen durch

GA (z) =

∞∑k=0

1

zk+1〈u(0)|A†HkA |u(0)〉 (2.6.189)

47

Page 58: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2 Krylov-Raum-Verfahren

entwickeln.

Beweis :

Sei

E ={|e(i,l)〉

∣∣∣H|e(i,l)〉 = Ei|e(i,l)〉}

(2.6.190)

eine Orthonormalbasis von Eigenvektoren von H mit

1 =∑i,l

|e(i,l)〉〈e(i,l)| (2.6.191)

Ausgehend von der Definition von GA haben wir dann

GA (z) = 〈u(0)|A† (z −H)−1

A |u(0)〉

= 〈u(0)|A† (z −H)−1∑

i,l

|e(i,l)〉〈e(i,l)|A |u(0)〉

=∑i,l

〈u(0)|A† 1

z − Ei|e(i,l)〉〈e(i,l)|A|u(0)〉

=1

z

∑i,l

1

1− Eiz

〈u(0)|A†|e(i,l)〉〈e(i,l)|A|u(0)〉

(2.6.192)

Nun ist wegen |Ei| < |Emax|∣∣Eiz

∣∣ < 1. Deswegen konnen wir nun mittels dergeometrischen Reihe

1

1− Eiz

=

∞∑k=0

(Eiz

)k(2.6.193)

schreiben. Damit haben wir dann

GA (z) =1

z

∑i,l

∞∑k=0

(Eiz

)k〈u(0)|A†|e(i,l)〉〈e(i,l)|A|u(0)〉

=

∞∑k=0

1

zk+1〈u(0)|A†

∑i,l

|e(i,l)〉〈e(i,l)|Eki A |u(0)〉

=

∞∑k=0

1

zk+1〈u(0)|A†HkA |u(0)〉

(2.6.194)

was zu zeigen war.

48

Page 59: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

2.6 Green-Funktionen

Der obige Satz gilt auch ohne weiteres fur die Einschrankung des Operator M = z−Hauf den m-ten Krylov-Raum Km

(X, |w(0)〉

), hierzu muss man lediglich die Orthonor-

malbasis aus Eigenvektoren von T = H|Km , zu einer Orthonormalbasis vervollstandi-gen, kommt dann jedoch auf genau das gleiche Ergebnis.

Hiermit konnen wir nun die Lanczos-Green-Funktions-Naherung motivieren:

Bemerkung (2.6.1): (Abweichung der genaherten Lanczos-Green-Funktionen):

Wir nehmen an, |z| > |Emax| , |E′max|, wobei Emax der großte Eigenwert von Hund E′max der großte Eigenwert von T = H|Kmseien. Dann konnen wir fur GAund fur G′A eine Hochfrequenzentwicklung durchfuhren und erhalten:

GA (z) =

∞∑k=0

1

zk+1〈u(0)|A†HkA |u(0)〉 (2.6.195)

und

G′A (z) =

∞∑k=0

1

zk+1〈u(0)|A†TkA |u(0)〉 (2.6.196)

Bezeichne P den Projektor auf Km(X, |w(0)〉

). Betrachte nun fur k < m:

〈u(0)|A†TkA |u(0)〉 = 〈u(0)|A†(P†HP

)A |u(0)〉

= 〈u(0)|A†PHP . . .PHPA |u(0)〉︸ ︷︷ ︸∈Km

= 〈u(0)|A†PHPH . . .PHA |u(0)〉︸ ︷︷ ︸Km

= . . .

= 〈u(0)|A†HkA |u(0)〉

(2.6.197)

Damit haben wir

G′A (z) =

m−1∑k=0

1

zk+1〈u(0)|A†HkA|u(0)〉+

∞∑k=m

1

zk+1〈u(0)|A†TkA|u(0)〉 (2.6.198)

Ga und G′A stimmen also in den ersten m Ordnungen von z uberein.

49

Page 60: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 61: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Notation :

Im folgenden Kapitel sollen nun durchgangig folgende Bezeichnungen gelten:

Sei K der Korper R oder C. Weiter seien Hp (p = 1 . . . L) endlichdimensionaleK-Vektorraume und bezeichne

H =

L⊗p=1

Hp (3.0.1)

den Tensorproduktsraum dieser L Raume. In Anlehnung an eindimensionale quan-tenmechanische Spinmodelle wollen wir die Raume Hp als den p-ten Platz oderauch die p-te Site bezeichnen.

H1 ⊗ H2 ⊗ H3 ⊗ ⊗ Hp ⊗ ⊗ HL−1 ⊗ HL. . . . . .

p-ter Platz

Abbildung 3.1: Interpretation eines Tensorproduktraumes als Kette

Weiter seien Bp = {|bp〉} Orthonormalbasen der Raume Hp und somit

B ={|b1〉 ⊗ · · · ⊗ |bL〉

∣∣∣|b1〉 ∈ B1, . . . , |bL〉 ∈ BL

}(3.0.2)

eine Basis von H.

51

Page 62: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

3.1 Motivation

Im diesem Kapitel soll es um Matrixproduktzustande gehen. Diese sind Vektoren aufTensorproduktsraumen, welche folgende spezielle Gestalt haben:

|ψ〉 =∑b1∈B1

. . .∑

bL∈BL

f(A(b1) . . .A(bL)

)|b1〉 ⊗ · · · ⊗ |bN 〉 (3.1.3)

wobei die A(bp) ∈ L (Np,Np−1) lineare Abbildungen und f ein lineares Funktionalseien. Jeder Koeffizient cb1,...,bL des Vektors |ψ〉 in der Basis B ist also das Produktlinearer Abbildungen, welche mittels f auf einen Skalar abgebildet werden.

Wir werden sehen, dass f die Randbedingungen des Vektors |ψ〉 beschreibt. Fur offeneRandbedingungen erhalt man folgende einfachere Gestalt fur Matrixproduktzustande:

|ψ〉 =∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉 (3.1.4)

wobei man nun A(b1) ∈ L (N1,K) und A(bL) ∈ L (K,NL−1) fordert. Man sieht nun,dass die Koeffizienten von |ψ〉 faktorisieren:

cb1,...,bL = A(b1) . . .A(bL) (3.1.5)

Allerdings auf der Algebra linearer Abbildungen zwischen Vektorraumen Np. Der Na-me Matrixproduktzustand ruhrt nun daher, dass man die Verkettung der linearenAbbildungen A(bp) auch isomorph als Matrixprodukt ausdrucken kann.

Nun entspricht der Spezialfall Np = K einem unverschrankten Zustand mit Koeffizen-ten aus faktorisierenden Skalaren A(bp)

|ψ〉 =∑b1∈B1

. . .∑

bL∈BL

A(b1) . . . A(bL)|b1〉 ⊗ · · · ⊗ |bN 〉

=

∑{b1∈B1}

A(b1)|b1〉

⊗ · · · ⊗ ∑{b1∈B1}

A(bL)|bL〉

= |ψ1〉 ⊗ · · · ⊗ |ψL〉

(3.1.6)

Durch Erhohung der Dimension der Raume Np konnen wir Zustande eines hoherenGrades an Verschrankung als Matrixproduktzustande darstellen. Wir werden spaterzeigen, dass alle Zustande des TensorproduktraumesH sich als Matrixproduktzustandeschreiben lassen, sofern nur die Np von hinreichend großer Dimension sind. Allerdingsist dann das durch die A(bp) gebildete Konstrukt weitaus hoherdimensional als Hselbst. Matrixproduktzustande eignen sich also nur in solchen Fallen, in denen sich|ψ〉 ∈ H mit besonders niederdimensionalen Np exakt oder gut approximativ als Ma-trixproduktzustand darstellen lasst.

52

Page 63: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.2 Bildersprache von Matrixproduktzustanden

Angenommen, wir legten die Np fest und betrachteten nun die Menge

Z =

{|ψ〉 =

∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉∣∣∣A(b1) ∈ N1, . . . ,A

(bL) ∈ NL

}(3.1.7)

aller Zustande |ψ〉 ∈ H, die durch Matrixproduktzustande mit gleichen Matrixdimen-sionen der B(bp) dargestellt werden konnen, dann handelt es sich bei Z nicht um einenUnterraum von H. Das Ergebnis der Addition zweier Matrixproduktzustande aus Zlasst sich nicht notwendigerweise als Matrixproduktzustand aus Z darstellen. Zu demsind die Abbildungen A(bp) ∈ L (Np,Np−1) keinesfalls eindeutig, es gibt immer einenweiteren verschiedenen Satz B(bp) ∈ L (Np,Np−1) mit

|ψ〉 =∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉

=∑b1

. . .∑bL

B(b1) . . .B(bL)|b1〉 ⊗ · · · ⊗ |bL〉(3.1.8)

eine isomorphe Beziehung zwischen den linearen Abbildungen und den Vektoren ausH ließe sich also ohne Zuhilfenahme von Aquivalenzklassen ohnehin nicht herstellen.

Oft ist dennoch von einer”Algebra“der Matrixproduktzustande die Rede, weil sich

durch Wahl hoherdimensionaler Np wieder Matrixproduktzustande konstruieren las-sen, welche die Summe zweier Matrixproduktzustande sind und auch die Anwendung sogenannter Matrixproduktoperatoren von Matrixproduktzustanden auf Matrixprodukt-zustande hoherer Matrixdimensionen fuhrt. Dennoch sind Matrixproduktzustande,auch wenn sie auf den ersten Blick verlockend einfach scheinen, keinesfalls einfacheGebilde, da sie mathematisch schwer zu fassen sind. Eine formale Definition und prak-tische Eigenschaften dieser Zustande, wollen wir im Folgenden erarbeiten.

3.2 Bildersprache von Matrixproduktzustanden

Im Umgange mit Matrixproduktzustanden und Matrixproduktoperatoren hat sich eineBildersprache zur Beschreibung der hier auftretenden mathematischen Objekte her-ausgebildet, welche haufig in der Literatur Verwendung findet. Wir wollen diese ineiner verfeinerten Form hier angeben:

53

Page 64: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Tensoren Tensoren werden als Kastchen dargestellt, in deren Mitte der Name desTensors steht:

A H

Abbildung 3.2: Tensoren

Indizes Die Darstellung von Tensoren in bestimmten Basen erfolgt, indem Indizes alsvom Tensor ausgehende Linien dargestellt werden. Ein Quadrat als Abschlussder Linie kennzeichnet einen einzelnen Index. Ist der Abschluss der Linie einKreis, so soll uber diesen Index summiert werden:

bp

ψ

|bp〉

ψ

ψbp |ψ〉 =∑bp

ψbp |bp〉

Abbildung 3.3: Die verschiedenen Indexsymbole am Beispiele eines Vektors

ip−1A

ip |ip−1〉A

〈ip|

Aip−1,ip A =∑ip−1

∑ipAip−1,ip |ip−1〉〈ip|

Abbildung 3.4: Die verschiedenen Indexsymbole am Beispiele eines Operators

Kontraktionen Werden die Indizes zweier Tensoren verbunden, so haben diese dengleichen Wert. Ist die Verbindungslinie durchgezogen oder durch einen Kreisunterbrochen, wird der Index kontrahiert.

54

Page 65: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.3 Definition der Matrixproduktketten

ϕ

bp

ψ ϕ

bp

ψ

〈ϕ|ψ〉 =∑bp

ϕbpψbp

Abbildung 3.5: Indexkontraktion am Beispiele des Skalarproduktes

|bp〉 |bp〉

A

b′p

ψ ϕ

b′p

ψ

A|ϕ〉 =∑bp

∑b′p

Abp,b′p ϕb′p |bp〉

Abbildung 3.6: Indexkontraktion am Beispiele der Anwendung eines Operators

Bei der Einfuhrung von Symmetrien werden wir diese Bildersprache noch weiter verfei-nern mussen. In diesem Kapitel werden uns die bisher besprochenen Elemente jedochausreichen.

3.3 Definition der Matrixproduktketten

Wir wollen die Satze linearer Abbildungen A(bp) ∈ L (Np,Np−1) vorgegebener Di-mensionen Np im Folgenden als Matrixproduktketten bezeichnen. Wie wir im vorigenAbschnitte bereits andeuteten, besteht zwischen den Matrixproduktketten und denMatrixproduktzustanden als Vektoren von H, welche sich mittels der Matrixprodukt-ketten erzeugen lassen

|ψ〉 =∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉 (3.3.9)

keine isomorphe Beziehung Wir mussen also klar zwischen den Zustanden und denMatrixproduktketten unterscheiden. In den folgenden zwei Definitionen wollen wir

55

Page 66: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

formal Raume festlegen, auf denen die Matrixproduktketten existieren.

Definition (3.3.1): (Doppelraum):

Seien zu denHp, p ∈ P = {1, . . . , L} (3.3.10)

L+ 1 weitere K-Vektorraume

Np′ , p′ ∈ P ′ = {0, . . . , L} (3.3.11)

gegeben. Sei jedem Paare (Hp−1,Hp) der Vektorraum Np zugeordnet. Wir nennenHp den p-ten Hauptraum und Np, den p-ten Nebenraum oder auch den Neben-raum zwischen Hp−1 und Hp. Wir bezeichnen nun das Paar

D =(

(Hp)p∈P , (Np′)p′∈P ′), (3.3.12)

als einen Doppelraum uber den Raum H.

N0 N1 N2 NL NL−1. . .

H2 ⊗ H2 ⊗ H3 ⊗ ⊗ HL−1 ⊗ HL

Abbildung 3.7: Gedankliche Darstellung eines Doppelraumes

Mit Hilfe des Doppelraumes konnen wir nun den Raum der Matrixproduktketten de-finieren:

Definition (3.3.2): (Kettenraum):

Sei D =(

(Hp)p∈P , (Np′)p′∈P ′)

ein Doppelraum uber H. Dann bezeichnen wir

den Raum

K (D) =

L⊕p=1

(L (Np,Np−1)⊗Hp

)(3.3.13)

als den Kettenraum von D.

Da jeder Doppelraum exakt einen Kettenraum besitzt und jeder Kettenraum ge-nau einem Doppelraume zugeordnet ist, werden wir im Folgenden sprachlich oftkeine Unterscheidung mehr zwischen diesen machen.

D↔ K (3.3.14)

56

Page 67: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.3 Definition der Matrixproduktketten

N0 N1 N2 NL NL−1. . .

H2 ⊗ H2 ⊗ H3 ⊗ ⊗ HL−1 ⊗ HL

Abbildung 3.8: Gedankliche Darstellung des Kettenraumes

Notation :

Bezeichne nun fur das gesamte weitere Kapitel

D =(

(Hp)p∈P , (Np′)p′∈P ′)

(3.3.15)

einen Doppelraum uber H und

K =

N⊕p=1

(L (Np,Np−1)⊗Hp

)(3.3.16)

dessen Kettenraum.

Nun, da wir den Raum der Matrixproduktketten exakt bestimmt haben, konnen wirauch dem Begriff der Matrixproduktkette, als Vektor dieses Raumes, eine genaue De-finition geben:

Definition (3.3.3): (Matrixproduktkette):

Als Matrixproduktketten wollen wir fortan Vektoren eines Kettenraumes K be-zeichnen. Eine solche Matrixproduktkette hat also konkret die Gestalt:

k =

L⊕p=1

A[p] (3.3.17)

Wir bezeichnen die Summanden der direkten Summe

Ortp (k) := A[p] ∈ L (Np,Np−1)⊗Hp (3.3.18)

fortan als p-ten Ort der Matrixproduktkette k. Im Hinblick auf den ursprunglichenRaum H, steht der p-te Ort gedanklich mit dem p-ten Platze Hp in Verbindung.

Wegen der direkten Beziehung zwischen einem Doppelraum und seinem Ketten-raum sprechen wir auch von einer Matrixproduktkette des Doppelraumes D undschreiben k ∈ D.

57

Page 68: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

|bp〉

|ip−1〉 A[p] 〈ip|

Abbildung 3.9: Der p-ten Ortes einer Matrixproduktkette

Definition (3.3.4): (Glieder des p-ten Ortes einer Matrixproduktkette):

Sei k eine Matrixproduktkette aus D und sei

A[p] = Ortp(k) (3.3.19)

der p-te Ort von k.

Sei weiter Bp = {|bp〉} eine Orthonormalbasis von Hp und Ap = |ip−1, ip〉 eineOrthonormalbasis von L (Np,Np−1). Stelle A[p] in diesen Basen dar:

A[p] =∑

ip−1,ip

∑bq

A(bp)ip−1,ip

|ip−1, ip〉 ⊗ |bp〉

=∑bq

∑ip−1,ip

A(bp)ip−1,ip

|ip−1, ip〉

︸ ︷︷ ︸

=:A(bp)

⊗|bp〉

=∑bq

A(bp) ⊗ |bp〉

(3.3.20)

und bezeichnen

Gliedbp (k) := Gliedbp (A[p]) := A(bp) ∈ L (Np−1,Np) (3.3.21)

als Glied zu bp von k beziehungsweise A[p]. Dann bestimmt die Menge aller Gliedereine Matrixproduktkette bereits vollstandig:

k =

L⊕p=1

A[p] =

L⊕p=1

∑bq

A(bp) ⊗ |bp〉 (3.3.22)

58

Page 69: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.3 Definition der Matrixproduktketten

bp

|ip−1〉 A[p] 〈ip|

Abbildung 3.10: Ein Glied des p-ten Ortes

Bemerkung (3.3.1): (Umgang mit den Ortsindizes):

Im Vorigen waren wir im Umgange mit dem Index p ein wenig nachlassig, daeigentlich A(bp) und Gliedbq (k) noch darauf verweisen musste, dass es sich um

das Glied des p-ten Ortes handelt (also A(p,bp) und Gliedbp (p, k)). Da jedoch dieBasisindizes bp den Ort als Unterindex in sich bergen, ist bereits klar, um welchenOrt es sich handelt. Wir werden auch in Zukunft stets von dieser verkurztenSchreibweise Gebrauch machen.

Bemerkung (3.3.2): (Schreibweise von Matrixproduktketten):

Bei der Definition der Matrixproduktzustande werden wir sehen, dass Matrixpro-duktketten haufig in Form ihrer Glieder A(bp) = Gliedbp (k) betrachtet werden.

Um gleich die Benennung der Glieder A(bp) und der Basisvektoren bp der gewahl-ten Basen Bp der Raume Hp anzugeben, verwenden wir folgende Schreibweise:

k = MPK(A(bp)

)=

L⊕p=1

∑bp

A(bp) ⊗ |bp〉 (3.3.23)

Wir haben diesen ganzen Definitionsaufwand eigentlich nur getrieben, um Vektoren inH zu beschreiben, konnen nun jedoch exakt definieren, was ein Matrixproduktzustandist:

Definition (3.3.5): (Matrixproduktzustand):

Sei k eine Matrixproduktkette in D

A(bq) = Gliedbq (k) , bq ∈ Bq (3.3.24)

die Glieder der p-ten Orte zu bq von k. Sei f : L (NN ,N0) → K ein linearesFunktional und Wir definieren den Matrixproduktzustand (MPS, engl. Matrix

59

Page 70: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Product State) oder kurz den Zustand von k unter f :

Zustf : K→ H (3.3.25)

Zustf (v) :=∑b1∈B1

. . .∑

bN∈BN

f(A(b1) . . .A(bN )

)︸ ︷︷ ︸

∈K

|b1〉 ⊗ · · · ⊗ |bN 〉 (3.3.26)

Wir haben es hierbei also mit einem Tensorproduktsraumszustand zu tun, dessen Ko-effizienten in der Basis B der Gestalt

ψb1,...,bN = f(A(b1) . . .A(bN )

)(3.3.27)

sind.

In der Definition der Matrixproduktzustande liegt eine weitere Motivation einen zusatz-lichen Index p fortzulassen: Da die Verkettung linearer Abbildungen im Allgemeinennicht kommutativ ist, sind die A(bp) bereits durch ihre Stelle in der Verkettung einemder Vektorraume Hp zuzuordnen. Jenes Glied A(bp), welches zu Hp gehort, nimmtim Verkettungsprodukt der Glieder die gleiche Stelle ein, welche der Raum Hp imTensorprodukte einnimmt.

f

A(b1)A(b2) . . . A(bp)︸ ︷︷ ︸p-te Stelle

. . .A(bN )

|b1〉 ⊗ |b2〉 ⊗ · · · ⊗ |bp〉︸︷︷︸p-te Stelle

⊗ · · · ⊗ |bN 〉 (3.3.28)

3.4 Randbedingungen von Matrixproduktzustanden

In diesem Kapitel wollen wir den Zusammenhang zwischen dem linearen Funktionalf aus der Definition der Matrixproduktzustande und den Randbedingungen solcherZustande erarbeiten.

Bemerkung (3.4.1): (Das Funktional f und Randbedingungen):

Sei k ∈ D eine Matrixproduktkette und f : L (NN ,N0) → K ein lineares Funk-tional. Sei

|ψ〉 = Zustf (k)

=∑b1∈B1

. . .∑

bN∈BN

f(A(b1) . . .A(bN )

)|b1〉 ⊗ · · · ⊗ |bN 〉 (3.4.29)

60

Page 71: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.4 Randbedingungen von Matrixproduktzustanden

der Zustand von k unter f .

Betrachte nun einen beliebigen Koeffizienten

ψb1,...,bN = f(A(b1) . . .A(bN )

)= f

(A(b1) A(b2) . . .A(bN−1)︸ ︷︷ ︸

:=C(b2,...,bL−1)

A(bL))

(3.4.30)

von ψ. Das Argument von f

A(b1) C(b2,...,bL−1) A(bL) ∈ L (NN ,N0) (3.4.31)

kann durch konkrete Wahl von Basen B(j) der Nebenraume Nj geschrieben wer-den, als: ∑

w0

∑w1

∑wN−1

∑wN

A(b1)w0,w1

C(b2,...,bN−1)w1,wN−1

A(bN )wN−1,wN |w0〉〈wN | (3.4.32)

Dieses ist isomorph aquivalent zu∑w0

∑w1

∑wN−1

∑wN

A(b1)w0,w1

C(b2,...,bN−1)w1,wN−1

A(bN )wN−1,wN |w0〉|wN 〉 ∈ N0 ⊗NN (3.4.33)

Das Funktional f hat nun die Gestalt

f =∑w0

∑wN

fw0,wN 〈w0|〈wN | (3.4.34)

Es gilt also

ψb1,...,bN = f(A(b1) . . .A(bN )

)=∑w1

∑wN−1

C(b2,...,bN−1)w1,wN−1

(∑wN

∑w0

A(b1)w0,w1

fw0,wN A(bN )wN−1,wN

)(3.4.35)

Am geklammerten Ausdrucke erkennt man, dass f die A(b1) und A(bN ) miteinan-der verbindet.

Handele sich beiH =⊗N

i=1Hi um den Zustandsraum einer eindimensionalen Ket-te quantenmechanischer Teilchen und bei den Hi um den Zustandsraum des i-tenKettenplatzes, so bedeutet die Wahl von f die Festlegung von Randbedingungen.

Da wir den Zusammenhang zwischen f und den Randbedingungen eines Matrixpro-duktzustandes nun hergestellt haben, wollen wir im Weiteren noch konkrete Rand-bedingungen und die zugehorigen f betrachten. Da man sich in der Praxis fast aus-schließlich mit offenen oder periodischen Randbedingungen befasst, wollen wir hiergenau diese beiden Falle behandeln:

61

Page 72: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Satz (3.4.1): (Periodische Randbedingungen):

Sei k ∈ D eine Matrixproduktkette.

|ψ〉 = Zustf (v) erfullt genau dann periodische Randbedingungen, wenn f = Spgilt.

|b1〉 |b2〉 |b3〉 |bL−2〉 |bL−1〉 |bL〉

A[1] A[2] A[3] . . . A[L−2] A[L−1] A[L]

i1 i2 iL−2 iL−1

i0

Abbildung 3.11: Ein Matrixproduktzustand mit periodischen Randbedingungen

Beweis :

Der erste und der letzte Platz seien auf die gleiche Weise miteinander verknupft,wie alle anderen Platze:

ψb1,...,bN = f(A(b1) . . .A(bN )

)=∑w1

∑wN−1

C(b2,...,bN−1)w1,wN−1

(∑wN

∑w0

A(b1)w0,w1

fw0,wN A(bN )wN−1,wN︸ ︷︷ ︸∑

w0A

(b1)w0,w1 A

(bN )wN−1,w0

)(3.4.36)

alsofw0,wN = δw0,wN (3.4.37)

Also entspricht f der Spur, es gilt also

ψb1,...,bN = f(A(b1) . . .A(bN )

)= Sp

(A(b1) . . .A(bN )

)(3.4.38)

62

Page 73: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.4 Randbedingungen von Matrixproduktzustanden

Satz (3.4.2): (Offene Randbedingungen):

Sei k ∈ D eine Matrixproduktkette.

Genau dann erfullt |ψ〉 = Zustf (v) offene Randbedingungen, wenn fur die Ne-benraume N1,NL von D

N1 = NN = K (3.4.39)

gilt undf = Id (3.4.40)

ist.

|b1〉 |b2〉 |b3〉 |bL−2〉 |bL−1〉 |bL〉

A[1] A[2] A[3] . . . A[L−2] A[L−1] A[L]

i1 i2 iL−2 iL−1

Abbildung 3.12: Ein Matrixproduktzustand mit offenen Randbedingungen

Beweis :

Offene Randbedingungen: Zwischen A(b1) und A(bN ) soll f keinen Zusammenhangherstellen. Dann muss f = f1 ⊗ fN gelten, also fw0,wN = fw0fwN . Es gilt dann

ψb1,...,bN = f(A(b1) . . .A(bN )

)=∑w1

∑wN−1

C(b2,...,bN−1)w1,wN−1

∑w0

fw0A(b1)w0,w1︸ ︷︷ ︸

B(b1)1,w1

∑wN

fwN A(bN )wN−1,wN︸ ︷︷ ︸

B(bN )

wN−1,1

(3.4.41)

Also gilt fur die Koeffizienten

ψb1,...,bN = B(b1)A(b2) . . .A(bN−1)B(bL) (3.4.42)

Dieses lasst sich durch einen Matrixproduktzustand k′ in einem Dopppelraum D′,darstellen. Hierbei unterscheiden sich D′ lediglich in den N ′1 = N ′N = K von Dund k′ nur am 1-ten und L-ten Orte, deren Glieder von k′

B(b1) = f1

(A(n1)

)∈ L (N1,K) (3.4.43)

63

Page 74: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

undB(b1) = fN

(A(nN )

)∈ L (K,NN−1) (3.4.44)

sind. Bei offenen Randbedingungen wird das Funktional f uberflussig. Vielmehrist es zweckmaßig die Nebenraume N0 = NN = K zu wahlen, da, wie man sofortsieht, umgekehrt jeder derartige Matrixproduktzustand offene Randbedingungenerfullt.

Offene und periodische Ranbedingungen bilden also zwei Extreme des Funktionals f .Im Folgenden wollen wir nur noch von offenen Randbedingungen ausgehen. Es istdaher nicht mehr erforderlich das Funktional f anzufuhren.

Wir werden uns im weiteren Verlaufe dieser Arbeit nur noch auf Zustande offenerRandbedingungen beschranken, ohne dieses noch explizit anzugeben. In diesem Zu-sammenhange wollen wir noch folgende Schreibweise festlegen:

Definition (3.4.1): (Zustand einer Matrixproduktkette fur offene Randbedingungen):

Es gelte fur die Nebenraume N , NN von D

N = NN = K (3.4.45)

und es sei k eine Matrixproduktkette in D. Dann definiere

Zust := ZustId (3.4.46)

Dann hat der Vektor

|ψ〉 = Zust(k)

=∑b1∈B1

. . .∑

bN∈BN

A(1,b1)A(1,b2) . . . A(1,bN )︸ ︷︷ ︸∈K

|b1〉 ⊗ · · · ⊗ |bN 〉 (3.4.47)

offene Randbedingungen und wir bezeichnen diesen schlicht als den Zustand vonk. Andersherum sagen wir auch, k stelle |ψ〉 dar, beziehungsweise |ψ〉 sei in Ddarstellbar.

3.5 Die Zustande eines Kettenraumes

Wir wollen uns nun damit befassen ob jene Vektoren aus H, welche in einem Doppel-raum D dargestellt werden konnen, einen linearen Raum bilden.

64

Page 75: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.5 Die Zustande eines Kettenraumes

Definition (3.5.1): (Zustande eines Kettenraumes):

Sei k eine Matrixproduktkette in D.

Dann bezeichnen wir die Menge

Zuste (D) ={|ψ〉 = Zust (k)

∣∣∣k ∈ D}

(3.5.48)

der Zustande aller Matrixproduktzustande des Doppelraumes D schlicht als dieZustande jenes Doppelraumes.

Nun zeigen wir, dass es sich bei Z nicht um einen Unterraum von H handelt und daherauch keine isomorphe Beziehung zwischen Z und D hergestellt werden kann.

Satz (3.5.1): (Summe von Matrixproduktzustanden):

Seien Z die Zustande von D. Dann gibt es immer Zustande k, k′ ∈ D mit

Zust (k) + Zust (k′) /∈ Z (3.5.49)

Beweis :

Seien k = MPK(A(bp)

), k′ = MPK

(B(bp)

), dann ist

k′′ = Zust (k) + Zust (k′)

=∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉+∑b1

. . .∑bL

B(b1) . . .B(bL)|b1〉 ⊗ · · · ⊗ |bL〉

=∑L1

. . .∑Lb

(A(b1) . . .A(bL) + B(b1) . . .B(bL)

)|b1〉 ⊗ · · · ⊗ |bL〉

(3.5.50)

Sollte nun k′′ = MPK(C(bp)

)in D liegen, so galte:

C(b1) . . .C(bL) = A(b1) . . .A(bL) + B(b1) . . .B(bL) (3.5.51)

Man wird jedoch immer Satze A(bp), B(bp) ∈ L (Np.Np−1) finden, fur welche eskeinen Satz C(bp) ∈ L (Np.Np−1) gibt, so dass die Relation erfullbar ist, also

Zust (k) + Zust (k′) /∈ Z (3.5.52)

65

Page 76: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Da wir fur die Durchfuhrung von Krylov-Raums-Verfahren mit Matrixproduktzustanden,darauf angewiesen sind Summen selbiger wieder als Matrixproduktzustand beschreibenzu konnen, stellt obige Feststellung ein großes Problem dar.

Wir werden jedoch sehen, dass es moglich ist die Summe von Matrixproduktzustandenauf einem weiteren Doppelraume darzustellen, wobei die Dimension der Hilfsraume dieSumme der Dimensionen der Ausgangsraume sind. Wir definieren formal die Summeals Abbildung zwischen Doppelraumen:

Definition (3.5.2): (Summe von Matrixproduktzustanden):

Seien D und D′ Doppelraume uberH und seien k = MPK(A(bp)

), k′ = MPK

(B(bp)

)Matrixproduktketten.

Dann definieren wir die Abbildung + : D × D′ → E in den Doppelraum E =( Hi,Ni ⊕N ′i )i∈I durch:

k + k′ =

L⊕p=1

∑bp

(A(bp) ⊕B(bp)

)⊗ |bp〉 (3.5.53)

Betrachten wir also v = k + k′ = MPK(C(bp)

)gliedweise, so haben wir:

C(bp) = A(bp) ⊕B(bp) (3.5.54)

Nun bleibt zu zeigen, dass die Summe der Matrixproduktketten auch wirklich derSumme der Zustande entspricht:

Satz (3.5.2): (Summe von Matrixproduktketten und Summe von Matrixproduktzustanden):

Seien D und D′ Doppelraume uber H. Seien k ∈ D und k′ ∈ D′ Matrixprodukt-zustande, so gilt:

Zust (v + v′) = Zust(v) + Zust(v′) (3.5.55)

Beweis :

Seien v = k + k′ = MPK(C(bp)

), k = MPK

(A(bp)

), k′ = MPK

(B(bp)

)Wir

schreiben die Abbildungen C(bp) = A(bp) ⊕ B(bp) in einer konkreten Basis alsMatritzen aus:

C(bp) =

(A(bp) 0

0 B(bp)

)(3.5.56)

66

Page 77: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.6 Kanonische Matrixproduktketten

Das Produkt dieser Matritzen gibt:

M (b1)M (b2) . . .M (bL)

=(A(b1) B(b1)

)(A(b2) 0

0 B(b2)

). . .(A(bL−1) 0

0 B(bL−1)

)(A(bL)

B(bL)

)=(A(b1)A(b2) B(b1)B(b2)

)(A(b3) 0

0 B(b3)

). . .(A(bL−1) 0

0 B(bL−1)

)(A(bL)

B(bL)

)=(A(b1) A(b2) ... A(bL)

)(B(1,b1)

B(2,b2)

...B(bL)

)= A(b1)A(b2) . . . A(bL) +B(1,b1)B(2,b2) . . . B(bL)

(3.5.57)

Also:

Zust(k + k′) =∑b1

. . .∑bL

C(b1) . . .C(bL)|b1〉 ⊗ · · · ⊗ |bL〉

=∑L1

. . .∑Lb

(A(b1) . . .A(bL) + A(b1) . . .A(bL)

)|b1〉 ⊗ · · · ⊗ |bL〉

=∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉+

+∑b1

. . .∑bL

B(b1) . . .B(bL)|b1〉 ⊗ · · · ⊗ |bL〉

= Zust(k) + Zust(k′)

(3.5.58)

Sind also die Dimensionen der Kettenraume der Zustande, welche addiert werden,klein im Vergleiche zum Hilbert-Raum H, so hat man durch diese Art der Summationimmerhin noch ein erheblich kleineres Gebilde an der Hand, als arbeitete man direktmit Vektoren aus dem vollen Hilbert-Raume H.

3.6 Kanonische Matrixproduktketten

In der Motivation dieses Kapitels wurde bereits darauf hingewiesen, dass es immermehrere Matrixproduktketten innerhalb eines Doppelraumes gibt, welche die den glei-chen Zustand besitzen. Diese Freiheit, erlaubt uns an die Orte der Matrixproduktkettegewisse Forderungen zu stellen. Diese Forderungen sind fur die spatere Normberech-nung außerst nutzlich. Fur die Approximation von Zustanden werden sie sogar zwin-gend sein.

Beginnen wir damit, die Uneindeutigkeit der Matrixproduktketten zu zeigen:

67

Page 78: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Satz (3.6.1): (Vergroßerung der Nebenraume):

Seien D und D′ Doppelraume uber H und Ni und N ′i deren Nebenraume.

Existiere jeweils zwischen den Ni und N ′i fur alle p eine links-umkehrbare lineareAbbildung

Ui : Ni → N ′i , UiU−1i = 1Ni (3.6.59)

alsoDim (Np) ≤ Dim

(N ′p)

(3.6.60)

so lasst sich der Zustand einer Matrixproduktkette k ∈ D ebenfalls in D′, darstel-len. Das heißt, es gibt in D′ ein k′ mit Zust(k) = Zust(k′).

Beweis :

|ψ〉 = Zust(k)

=∑b1

. . .∑bL

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉 (3.6.61)

Wir betrachten nun die Koeffizienten ψb1,...,bN einzeln:

ψb1,...,bL = A(b1)A(b2) . . . A(bL)

= 1N0A(b1) 1N1

A(b2) 1N2. . . 1NL−1

A(bL) 1NL

= A(b1) U1︸ ︷︷ ︸B(b1)∈L (N1,K)

U−11 A(b2) U2︸ ︷︷ ︸B(b2)∈L (N2,N1)

U−12 . . . UL−1 U−1N−1 A(bL)︸ ︷︷ ︸

B(bn)∈L (K,NL−1)

(3.6.62)

Also

Zust(k) =∑b1∈B1

. . .∑

bN∈BN

B(b1) . . .B(bN )|b1〉 ⊗ · · · ⊗ |bN 〉

= Zust(k′)

(3.6.63)

Damit ist gezeigt, dass sich |ψ〉 durch k′ in D′ darstellen lasst, indem man alleGlieder A(bp) mittels

B(bp) = U−1p−1 A(bp) Up (3.6.64)

transformiert.

Da es immer unitare Endomorphismen Ui ∈ L (Ni) gibt, konnen wir zu einer Ma-trixproduktkette eines Doppelraumes immer eine weitere Matrixproduktkette finden,

68

Page 79: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.6 Kanonische Matrixproduktketten

welche den gleichen Zustand hat. Der Satz besagt jedoch auch, wie man wohl erwar-ten wurde, dass sich |ψ〉 auf jedem Doppelraume hoherer Nebenraumsdimensionendarstellen lasst. Dieses impliziert jedoch auch, dass es ggf. auch kleinere Nebenraums-dimensionen gibt, mit denen sich ein Matrixproduktzustand darstellen lasst:

Definition (3.6.1): (Minimale Matrixproduktkette eines Matrixproduktzustandes):

Sei k eine Matrixproduktkette in D. Wir nennen k die minimale Matrixprodukt-kette von

|ψ〉 = Zust (k) (3.6.65)

wenn es keinen Doppelraum D gibt, mit k′ ∈ D′,

|ψ〉 = Zust (k′) (3.6.66)

und Nebenraumen Np, so dass fur ein p ∈ 1, . . . , L

Dim(N ′p)< Dim (Np) (3.6.67)

gilt.

Die Problematik dieser Definition ist, dass die Existenz eines minimalen Matrixpro-duktzustandes nur dann moglich ware, wenn es fur jeden Nebenraum, unabhangigvon den anderen Nebenraumsdimensionen, minimale Dimensionen gabe. Dass diesestatsachlich der Fall ist, werden wir erst im nachsten Kapitel zeigen.

Wir formulieren nun jene beiden Forderungen aus, die wir an den p-ten Ort stellenkonnen:

Satz (3.6.2): (Lokale Linksorthogonalisierung):

Sei k = MPK(A(bp)

)∈ D und p = 1, . . . , L−1. Dann gibt es eine Matrixprodukt-

kette k′ in D mit Zust(k) = Zust(k′) deren Glieder des p-ten Ortes∑bp∈Bp

B(bp)†B(bp) = 1Np (3.6.68)

erfullen. Wir sagen k′ sei bezuglich des p-ten Ortes links-kanonisch (oder auchlokal linksorthogonalisiert).

ipL[p]† L[p]

i′p

=ip i′p

ip−1

bp

Abbildung 3.13: Links-Orthogonalitat

69

Page 80: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Beweis :

Seien µ = Dim (Np−1), ν = Dim (Np) und η = Dim (Hp). In einer konkretenKomponentendarstellung der A(bp) bilden wir die aufgeblockte Matrix

A(bp,i),j = A(bp)i,j

A =

A(b1)

...A(bη)

(3.6.69)

Es giltA ∈M(η µ× ν) (3.6.70)

Die Matrix A besitzt eine Singularwertzerlegung der Form

A = UDV† (3.6.71)

mitU ∈M(η µ× ν) U†U = 1Np

D ∈M(ν × ν) D =

(d1

. . .dν

)V† ∈M(ν × ν) VV† = 1Np ,

(3.6.72)

Wir zerlegen die U in die gleiche Blockstruktur wie A:

Ubpi,j = U(bp,i),j

U =

U(b1)

...U(bη)

(3.6.73)

Es gilt also:A(bp) = U(bp) DV† (3.6.74)

Wir verlassen wieder die konkrete Komponentendarstellung. Wir konnen die obigeVerkettung in einen Teil, welcher vom Indexe bp abhangt

U(bp) ∈ L (Np−1,Np) (3.6.75)

und einen TeilDV† ∈ L (Np,Np) (3.6.76)

welcher bp-unabhangig ist, zerlegen. Hiermit schreiben wir die Komposita A(bp)A(bp+1)

als

A(bp)A(bp+1) =(U(bp)DV†

)A(bp+1)

= U(bp)︸ ︷︷ ︸B(bp)

(DV†A(bp+1)︸ ︷︷ ︸B(bp+1)

) (3.6.77)

70

Page 81: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.6 Kanonische Matrixproduktketten

wobeiB(bp) ∈ L (Np,Np−1)

B(bp+1) ∈ L (Np+1,Np)(3.6.78)

Fur den wie folgt definierten Matrixproduktzustand k′ = MPK(B(bq)

)

B(bq) =

U(bp) : q = p

DV†A(bp+1) : q = p+ 1

A(bq) : sonst

(3.6.79)

gilt also Zust(k) = Zust(k′) und( ∑bp∈Bp

B(bp)†B(bp))i,j

=( ∑bp∈Bp

U (bp)†U (bp))i,j

=∑bp

∑k

U(bp)T∗k,i U

(bp)k,j =

∑bp

∑k

U†i,(bp,k)U(bp,k),j

= (U†U)i,j = (1Np)i,j

⇒∑bp∈Bp

B(bp)†B(bp) = 1Np

(3.6.80)

Somit haben wir sowohl gezeigt, was zu zeigen war, als auch eine Konstruktions-vorschrift fur k′ gewonnen.

bp bp+1 (bp, ip−1) bp+1

A[p] A[p+1] A[p] A[p+1]

ip−1 ip+1ip=

ip+1ip

(bp, ip−1) bp+1

= U D V† A[p+1]

ip+1i′p

B[p] B[p+1]

Abbildung 3.14: Der Prozess der lokalen Linksorthogonalisierung

71

Page 82: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Satz (3.6.3): (Lokale Rechtsorthogonalisierung):

Sei k eine Matrixproduktkette in D und p = 2, . . . , L. Dann gibt es eine Matrix-produktkette k′ in D mit Zust(k) = Zust(k′), deren Glieder des p-ten Ortes∑

bp∈Bp

B(bp)B(bp)†

= 1Np−1 (3.6.81)

erfullen. Wir sagen k′ sei bezuglich des i-ten Ortes rechts-kanonische (oder auchlokal rechtsorthogonalisiert).

ip−1R[p] R[p]†

i′p−1

=ip−1 i′p−1

ip

bp

Abbildung 3.15: Rechts-Orthogonalitat

Beweis :

Die Vorgehensweise ist analog zum vorigen Beweise: Seien µ = dim(Np), ν =dimNp+1 und η = dim(Bp). In einer konkreten Komponentendarstellung derA(i,j) bilden wir nun jedoch die angeblockte Matrix

Ai,(bp,j) = A(bp)i,j

A =(A(b1) . . . A(bη)

) (3.6.82)

Hier giltA ∈M(µ× η ν) (3.6.83)

Auch die Matrix A besitzt eine Singularwertzerlegung der Form

A = UDV† (3.6.84)

mitU ∈M(µ× µ) U†U = 1Np−1

D ∈M(µ× µ) D =

(d1

. . .dµ

)V† ∈M(µ× η ν) V†V = 1Np−1

,

(3.6.85)

Dieses Mal zerlegen wir die V† in die gleiche Blockstruktur wie A:

V(bp)†i,j = Ui,(bp,j)

V† =(U(b1) . . . U(bη)

) (3.6.86)

72

Page 83: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.6 Kanonische Matrixproduktketten

Es gilt also:

A(bp) = UDV(bp)†

(3.6.87)

Wir verlassen wieder die konkrete Komponentendarstellung. Wir konnen die obigeVerkettung in einen Teil, welcher vom Indexe bp abhangt

V(bp)†∈ L (Np−1,Np) (3.6.88)

und einen TeilUD ∈ L (Np−1,Np−1) (3.6.89)

welcher bp-unabhangig ist, zerlegen. Hiermit schreiben wir die Komposita A(bp−1)A(bp)

als

A(bp−1)A(bp) = A(bp−1)(UDV(bp)

†)= (A(bp−1)UD︸ ︷︷ ︸

B(bb−1)

)V(bp)†︸ ︷︷ ︸

B(bp)

(3.6.90)

wobei

B(bb−1) ∈ L (Np−1,Np−2)

B(bp) ∈ L (Np,Np−1)(3.6.91)

Erneut definieren wir einen Matrixproduktzustand k′ = MPK(B(bq)

)

B(bq) =

A(bp−1)UD : q = p− 1

V(bp)†

: q = p

A(bq) : sonst

(3.6.92)

Fur diesen gilt Zust(k) = Zust(k′) und( ∑bp∈Bp

B(bp)B(bp)†)i,j

=( ∑bp∈Bp

V (bp)†V (bp))i,j

=∑bp

∑k

V(bp)†i,k U

(bp)k,j

∑bp

∑k

V †i,(bp,k)V(bp,k),j

= (V †V )i,j = (1Np−1)i,j

⇒∑bp∈Bp

B(bp)B(bp)†

= 1Np−1

(3.6.93)

Die Aussage ist gezeigt und auch fur die lokale Rechtsorthogonalisierung habenwir eine Konstruktionsvorschrift fur k′ gewonnen.

73

Page 84: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

bp−1 bp bp−1 (bp, ip)

A[p−1] A[p] A[p−1] A[p]

ip−2 ipip−1=ip−2 ip−1

bp−1 (bp, ip)

= A[p−1] U D V†ip−2 i′p−1

B[p−1] B[p]

Abbildung 3.16: Der Prozess der lokalen Rechtsorthogonalisierung

Wir haben also gesehen, dass sich Matrixproduktketten in neue Matrixproduktkettendes gleichen Doppelraumes uberfuhren lassen, welche den gleichen Zustand besitzen,und deren p-ter Ort links- oder rechts- kanonisch ist. Beginnt man nun am linkenRande und links-kanonisiert alle Orte bis zum (q−1)-ten Ort, in dem man immer einenOrt weiter nach rechts vorruckt und rechts-kanonisiert vom rechten Rande ausgehendalle Orte bis zum (q + 1)-ten, so sind alle Orte bis auf den q-ten Ort kanonisiert. ImAllgemeinen wird es jedoch nicht moglich sein auch noch den q-ten Ort zu kanonisieren.Dieses motiviert nun:

Definition (3.6.2): (Kanonische Matrixproduktketten):

Sei q ∈ {1, . . . , L} und k eine Matrixproduktkette in D, fur deren Orte das folgendegelte:

- p < q:(A(bp)

)bp∈Bp

seien links-kanonisiert

- p > q:(A(bp)

)bp∈Bp

seien rechts-kanonisiert

Dann nennen wir k eine kanonische Matrixproduktkette und den Ort(A(bq)

)bq∈Bq

,

fur welchen wir als einzigen keine Kanonisierung gefordert haben, den Hauptortoder die Hotsite von k.

Die wirkliche Bedeutung der Links- und Rechts-Orthogonalitat und die daraus resultie-rende Nutzlichkeit kanonischer Matrixproduktketten werden wir erst im nachsten und

74

Page 85: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.6 Kanonische Matrixproduktketten

ubernachsten Kapitel sehen. Wir fuhren hier jedoch schon einmal folgende Schreibweiseein:

Bemerkung (3.6.1): (Schreibweise kanonischer Matrixproduktketten):

Bei kanonischen Matrixproduktketten wollen wir den Gliedern der links-kanonischenwie rechts-kanonischen Orte und dem Hauptorte verschiedene Bezeichnungen ge-ben. Fur die Glieder der links-orthogonalen Orte, wahlen wir im Allgemeinen:(

L(bp))bp∈Bp

, p < q (3.6.94)

fur die Glieder der rechts-kanonischen Orte(R(bp)

)bp∈Bp

, p > q (3.6.95)

und fur den Hauptort (C(bq)

)bq∈Bq

(3.6.96)

Um die Bezeichnungen an kanonischen Matrixproduktketten anzugeben, fuhrenwir eine ahnliche Schreibweise wie fur die allgemeinen Matrixproduktketten ein:

k = MPK(L(bp),C(bq),R(bp)

)=

q−1⊕p=1

∑bp

L(bp) ⊗ |bp〉

⊕∑

bq

C(bq) ⊗ |bq〉

⊕⊕

L⊕p=q+1

∑bp

R(bp) ⊗ |bp〉

(3.6.97)

Der Zustand einer kanonischen Matrixproduktkette sieht also wie folgt aus:

|ψ〉 =∑b1

. . .∑bL

(L(b1) . . .L(bq−1)C(bq)R(bq+1) . . .R(bL)

)|b1〉⊗· · ·⊗|bL〉 (3.6.98)

|b1〉 |bq−1〉 |bq〉 |bq+1〉 |bL〉

L[1] . . . L[q−1] C[q] R[q+1] . . . A[L]

iq−1 iq

Abbildung 3.17: Ein kanonischer Matrixproduktzustand

75

Page 86: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

3.7 Zerlegung von Zustanden

Dieser Abschnitt widmet sich der Frage, inwiefern sich der Raum H in Teilraumezerlegen lasst, in denen ein Matrixproduktzustand |ψ〉 enthalten ist. Erst diese Fra-gestellung wird uns die wahre Bedeutung und Struktur von Matrixproduktzustandenoffenbaren.

Die Singularwertzerlegung ist uns als unerlassliches Werkzeug bereits im vorigen Ka-pitel begegnet. Auch in den nachsten Satzen wird sie sich als unverzichtbar erweisen:

Bemerkung (3.7.1): (Zerlegung von Tensorproduktszustanden):

Sei|ψ〉 = cb1,...,bL |b1〉 ⊗ · · · ⊗ |bL〉 (3.7.99)

ein beliebiger Vektor in H, dann konnen wir die Indizes durch µ := (b1, . . . , bq)ν := (bq+1, . . . , bL) gruppieren und erhalten:

|ψ〉 =∑µ

∑ν

cµ,ν |µ〉 ⊗ |ν〉 (3.7.100)

Fur die |µ〉 |ν〉 gilt |µ〉 ∈ B(l) |ν〉 ∈ B(r) wobei die

B(l) ={|b1〉 ⊗ · · · ⊗ |bq〉

∣∣ b1 ∈ B1, . . . , bq ∈ Bq

}(3.7.101)

und

B(r) ={|bq+1〉 ⊗ · · · ⊗ |bL〉

∣∣ bq+1 ∈ Bq+1, . . . , bL ∈ BL

}(3.7.102)

Teilbasen von B in den Teilraumen H(l) =⊗q

i=1Hi und H(r) =⊗L

i=q+1Hi mit

H = H(l) ⊗H(r) sind. In den Basen B(l) und B(r) werden die Koeffizienten cµ,νim Allgemeinen immer einen Doppelindex aufweisen. Durch geschickte Wahl vonOrthonormalsystemen von H(l) und H(r) lasst sich |ψ〉 jedoch darstellen als

|ψ〉 =∑k

c′k |vk〉 ⊗ |wk〉 (3.7.103)

Dieses geschieht durch die sogenannte Schmidt-Zerlegung:

Satz (3.7.1): (Schmidt-Zerlegung):

Seien alle Definitionen wie in der vorigen Bemerkung. Es gibt zu beliebigem |ψ〉Mengen orthonormaler Vektoren |vk〉 ∈ H(l) und |wk〉 ∈ H(r). So dass

|ψ〉 =∑k

Dk |vk〉 ⊗ |wk〉 (3.7.104)

76

Page 87: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Beweis :

|ψ〉 aus (3.7.100):

|ψ〉 =∑µ

∑ν

cµ,ν |µ〉 ⊗ |ν〉 (3.7.105)

Da es sich bei cµ,ν schlicht um die Elemente einer Matrix c handelt, konnen wireine Singularwertzerlegung dieser Matrix durchfuhren. In Elementen ausgeschrie-ben:

cµ,ν =∑k

Uµ,kDkV†k,ν (3.7.106)

Wobei es sich bei U und V um unitare Matritzen handelt. Wir schreiben damitnun Gleichung (3.7.100) um:

|ψ〉 =∑µ,ν

∑k

Uµ,kDkV†k,ν |µ〉 ⊗ |ν〉

=∑k

Dk

(∑µ

Uµ,k|µ〉

)︸ ︷︷ ︸

:=|vk〉

(∑ν

V †k,ν |ν〉

)︸ ︷︷ ︸

:=|wk〉

(3.7.107)

Die U und V aus der Singularwertzerlegung von c stellen also die gesuchten Ortho-normalsystemstransformationen dar. Da |µ〉 und |ν〉 orthonomal sind und wegender Unitaritat von U und V sind auch die |vk〉 und |wk〉 Mengen orthonormalerVektoren.

Mit Hilfe der Schmidt-Zerlegung konnen wir nun mittels eines konstruktiven Beweiseszeigen, dass es fur jeden Zustand eines Tensorproduktraumes, einen Doppelraum gibt,in welchem dieser darstellbar ist. Anders gesprochen: Jeder Zustand lasst sich alsMatrixproduktzustand darstellen [21].

Satz (3.7.2):

Sei |ψ〉 ein beliebiger Vektor in H. Dann gibt es immer einen Doppelraum D undeine Matrixproduktkette k = MPK

(A(bq)

)∈ D mit

|ψ〉 = Zust (k) (3.7.108)

77

Page 88: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Beweis :

Beim hier vorgefuhrten Beweise, handelt es sich um einen konstruktiven Beweis,der auf der Umgruppierung von Indizes und wiederholten Anwendung von Sin-gularwertzerlegungen beruht. Sei

|ψ〉 =∑

b1,...,bL

cb1,...,bL |b1〉 ⊗ · · · ⊗ |bL〉 (3.7.109)

ein beliebiger Vektor in H. Im Folgenden betrachten wir nur die einzelnen Koef-fizienten cb1,...,bL :

Zuerst beginnen wir am linken Rande des Tensorproduktes und konstruieren den1. bis q-te Ort der Matrixproduktkette: Wir definieren die Mehrfachindizes σq :=(bq, . . . , bL) und gruppieren hiermit die Indizes:

cb1,...,bL = cb1,σ2 (3.7.110)

Nun fuhren wir eine Singularwertzerlegung durch:

cb1,σ2=∑i1

U(1)b1,i1︸ ︷︷ ︸

=:A(b1)i1

D(1)i1V

(1)†i1,σ2︸ ︷︷ ︸

=:C(2)

(i1,b2),σ3

(3.7.111)

Wiederholt man das Verfahren an C(2)(i1,s2),σ3

C(2)(i1,b2),σ3

=∑i2

U(2)(b2,i1),i2︸ ︷︷ ︸=:A

(b2)i1,i2

D(2)i2V

(2)†i2,σ2︸ ︷︷ ︸

=:C(3)

(i2,b3),σ4

(3.7.112)

Nach q − 1 Singularwertzerlegungen haben wir:

C(q−1)(iq−2,bq−1),σq

=∑iq−1

U(q−1)(bq−1,iq−2),iq−1︸ ︷︷ ︸=:A

(bq−1)

iq−2,iq−1

D(q−1)iq−1

V(q−1)†iq−1,σq︸ ︷︷ ︸

=:C(q)

(iq−1,bq),σq+1

=∑iq−1

A(bq−1)iq−2,iq−1

C(q)(iq−1,bq),σq+1

(3.7.113)

Wir haben also:

cb1,...,bL =∑

i1,...,iq−1

A(b1)i1

. . . A(bq−1)iq−2,iq−1

C(q)(iq−1,bq),σq+1

(3.7.114)

Nun werden wir ausgehend vom rechten Rande des Tensorproduktes den L-tenbis (q + 1)-ten Ort der Matrixproduktkette konstruieren:

78

Page 89: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Wir definieren die Mehrfachindizies

ωp = (iq−1, bq, . . . , bp) (3.7.115)

und gruppieren hiermit die Indizes:

D(L)ωL−1,bL

:= C(q+1)iq−1,bq,...,bL

= C(q+1)(iq−1,bq),σq+1

(3.7.116)

Und fuhren wieder eine Singularwertzerlegung durch:

D(L)ωL−1,bL

=∑jL

U(L)ωL−1,jL

D(L)jL︸ ︷︷ ︸

:=D(L−1)

ωL−2,(bL−1,jL)

V(L)†jL,bL︸ ︷︷ ︸

:=A(bL)

jL

(3.7.117)

Eine weitere Singularwertzerlegung fuhrt auf:

D(L−1)ωL−2,(bL−1,jL)

=∑jL−1

U(L−1)ωL−2,jL−1

D(L−1)jL−1︸ ︷︷ ︸

:=D(L−2)

ωL−3,(bL−2,jL−1)

V(L−1)†jL−1,(jL,bL)︸ ︷︷ ︸:=A

(bL−1)

jL−1,jL

(3.7.118)

Nach L− q solcher Singularwertzerlegungen haben wir:

D(q+1)ωq,(bq+1,jq+2)

=∑jq+1

U(q+1)ωq,jq+1

D(q+1)jq+1︸ ︷︷ ︸

:=A(bq)

ωq,jq+1

V(q+1)†jq+1,(jq+2,bq+1)︸ ︷︷ ︸:=A

(bq+1)

jq+1,jq+2

(3.7.119)

Nun ist aber ωq = iq−1, und damit

D(q+1)ωq,(bq+1,jq+2)

=∑jq+1

A(bq)iq−1,jq+1

A(bq+1)jq+1,jq+2

(3.7.120)

Insgesamt bekommen wir also fur die Koeffizienten:

cb1,...,bL

=∑

i1,...,iq−1

∑jq+1,...,jL

A(b1)i1

. . . A(bq−1)iq−2,iq−1

A(bq)iq−1,jq+1

A(bq+1)jq+1,jq+2

. . . A(bL)jL

= A(b1) . . .A(bL)

(3.7.121)

Wobei wir die Matritzen mit linearen Abbildungen A(bq) ∈ L(Kdq−1 ,Kdq

)iden-

tifiziert haben und unsere Nebenraume Nq also als Nq = Kdq gewahlt werdenkonnen. Damit haben wir unsere Matrixproduktkette mit Zustand |ψ〉 konstru-iert.

79

Page 90: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Bemerkung (3.7.2):

Im Beweise des vorigen Satzes ist es nicht nur gelungen eine Matrixproduktket-te, deren Zustand ein beliebiger Tensorproduktraumsvektor ist, zu konstruieren.Es sind alle Orte dieser Matrixproduktkette mit p < q links-kanonisch und alledessen Orte mit p > q rechts- kanonisch. Damit ist die Matrixproduktkette alsokanonisch. Betrachten wir den p-ten Ort mit p < q. Die Matritzen A(bp) gingen

aus der unitaren Matrix U(p) mit U(p)†U(p) = 1Np durch

A(bp)ip−1,ip

= U(p)(bp,ip−1),ip

(3.7.122)

hervor. Hieraus folgt: ∑bp

A(bp)†A(bp) = U(p)†U(p) = 1Np (3.7.123)

Auf gleiche Weise betrachte nun den p-ten Ort mit p > q: Dort gehen die Matritzen

A(bp) aus der unitaren Abbildung V(p)† mit V(p)†V(p) = 1Np−1durch

A(bp)jp,jp+1

= V(p)†jp,(jp+1,bp)

(3.7.124)

hervor. Damit haben wir:∑bp

A(bp)A(bp)†

= V(p)†V(p) = 1Np−1 (3.7.125)

Nun mussen wir eine ganze Reihe von Begriffen einfuhren, um ein tieferes Verstandnisfur das Wesen von Matrixproduktzustanden zu erlangen:

Definition (3.7.1): (Links-Zustande):

Sei k = MPK(A(bp)

)eine Matrixproduktkette in D. Definiere nun die Links-

Zustande (oder i-Zustande) von k als

|ip〉 :=

∑b1

A(b1)i1|b1〉 p = 1∑

b1

. . .∑bp

∑i1

. . .∑ip−1

A(b1)i1

. . . A(bp)ip−1,ip

|b1〉 ⊗ · · · ⊗ |bp〉 sonst(3.7.126)

Wir klammern nun um:

|ip〉 =∑

bp,ip−1

A(bp)ip−1,ip

( ∑bp−1,ip−2

A(bp−1)ip−2,ip−1

(. . .(∑bp

A(b1)i1|b1〉︸ ︷︷ ︸

|i1〉

). . .

)⊗ |bp−1〉

︸ ︷︷ ︸|ip−1〉

)⊗|bp〉

(3.7.127)

80

Page 91: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Gleichbedeutend ist also folgende einfache rekursive Definition der Links-Zustande:

|ip〉 :=

∑b1

A(b1)i1|b1〉 p = 1∑

bp

∑ip−1

A(bp)ip−1,ip

|ip−1〉 ⊗ |bp〉 sonst(3.7.128)

|b1〉 |b2〉 |bp−1〉 |bp〉

A[1] A[2] . . . A[p−1] A[p]

ip−1 ipi1

|ip−1〉

|ip〉 =

|bp〉

A[p]

|ip−1〉 ip=

Abbildung 3.18: Rekursive Struktur eines Links-Zustandes

Definition (3.7.2): (Links-Raume):

Sei k = MPK(A(bp)

)eine Matrixproduktkette in D. Seien |ip〉 die Links-Zustande

von k, dann definiere

S(l,p) ={|ip〉

∣∣∣ ip = 1, . . . , dp

}(3.7.129)

Wir bezeichnen S(l,p) als Links-Mengen von k und im Falle, dass die |ip〉 linearunabhangig sind, auch als Links-Basen von k. Weiter bezeichnen wir die

Ip := Span(S(l,p)

)(3.7.130)

als Links-Raume von k.

Notation :

Wir werden fur die zu definierenden Rechts-Zustande bewusst folgendes Benen-nungsschema fur die Indizes der A-Matritzen verwenden:

jp+1 = ip (3.7.131)

und dieses auch fur den Rest dieser Arbeit beibehalten. Wir tun dies, um dieLinks- und Rechts-Zustande nur durch ihre Indizes bezeichnen und dennoch un-terscheiden zu konnen.

81

Page 92: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Definition (3.7.3): (Rechts-Zustande):

k = MPK(A(bp)

)eine Matrixproduktkette in D. Definiere nun die Rechts-Zustande

(oder j-Zustande) von k als

|jp〉 :=

∑bL

A(bL)jL|bL〉 p = L∑

bp

. . .∑bL

∑jp+1

. . .∑jL

A(b1)jp,jp+1

. . . A(bp)jL|bp〉 ⊗ |bL〉 sonst

(3.7.132)

Wir klammern nun um:

|ip〉 =∑

bp,jp+1

A(bp)jp,jp+1

|bp〉⊗

( ∑bp+1,jp+2

A(bp+1)jp+1,jp+2

|bp+1〉 ⊗(. . .(∑bL

A(bL)jL|bL〉︸ ︷︷ ︸

|jL〉

). . .

)

︸ ︷︷ ︸|jp+1〉

)

(3.7.133)Gleichbedeutend ist also folgende einfache rekursive Definition der Rechts-Zustande:

|jp〉 :=

∑bL

A(bL)i1|b1〉 p = 1∑

sp

∑ip−1

A(bp)ip−1,ip

|ip−1〉 ⊗ |bp〉 sonst(3.7.134)

|bp〉 |bp+1〉 |bL−1〉 |bL〉

A[p] A[p+1] . . . A[L−1] A[L]

jp+1jp jL

|jp+1〉

|jp〉 =

|bp〉

A[p]

|jp+1〉jp=

Abbildung 3.19: Rekursive Struktur eines Rechts-Zustandes

Definition (3.7.4): (Rechts-Raume):

Sei k = MPK(A(bp)

)eine Matrixproduktkette in D. Seien |jp〉 die Rechts-Zustande

von k, dann definiere

S(r,p) ={|jp〉

∣∣∣ jp = 1, . . . , dp−1

}(3.7.135)

82

Page 93: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Wir bezeichnen S(r,p) als Rechts-Mengen von k und im Falle, dass die |jp〉 linearunabhangig sind, auch als Rechts-Basen von k. Weiter bezeichnen wir die

Jp := Span(S(r,p)

)(3.7.136)

als Rechts-Raume von k.

Bemerkung (3.7.3): (Deutung der Links-Zustande):

An der rekursiven Definition der Links- und Rechts-Zustande, kann man sehrschon deren Bedeutung ablesen: Im Folgenden bezeichne dj := Dim (Nj) und

Vi :=i⊗

j=1

Hj

Die Links-Menge

S(l,p−1) ={|ip−1〉

∣∣∣ ip−1 = 1, . . . , dp−1

}(3.7.137)

bildet ein System von dp nicht notwendigerweise linear unabhangigen Vektoren inVp−1. Dann ist wegen

|ip〉 =∑

ip−1,bp

A(bp)ip−1,ip

|ip−1〉 ⊗ |bp〉 (3.7.138)

S(l,p) ein System von dp nicht notwendigerweise linear unabhangigen Vektoren.Diese Vektoren werden auf einen durch den Links-Raum Ip−1 = Span

(S(l,p−1))

bestimmten Unterraum von Vp beschrankt:

|ip〉 ∈ Ip−1 ⊗Hp (3.7.139)

In dieser Deutung werden die Matrixelemente A(bp)ip−1,ip

zu den Koeffizienten, mit-

tels derer aus S(l,p−1) und Bp das System S(l,p) konstruiert wird.

Somit bestimmen die Dimensionen der Ni die Dimension der Unterraume Ip. ImIdealfalle seien die |ip−1〉 linear unabhangig. Wenn S(l,p) eine Basis von Ip−1⊗Hpsein soll, muss

dp = Dim (Ip−1 ⊗Hp) = Dim (Ip−1) Dim (Hp)= dp−1 Dim (Hp)

(3.7.140)

gelten.

83

Page 94: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Bemerkung (3.7.4): (Deutung der Rechts-Zustande):

Fur die Rechts-Zustande haben wir vollig analog: Sei im Folgenden dp := Dim (Np)

und Wi :=L⊗j=i

Hj Es bildet die Menge der Rechts-Zustande

S(r,p+1) ={|jp+1〉

∣∣∣ jp+1 = 1, . . . , dp

}(3.7.141)

in Wp+1 ein System von dp Vektoren, welche nicht linear unabhangig zu seinbrauchen. Hieraus folgt mit der rekursiven Definition der Rechts-Zustande

|jp〉 =∑

jp+1,sp

A(bp)jp,jp+1

|bp〉 ⊗ |jp+1〉 (3.7.142)

dass S(r,p) ein System von dp−1 Vektoren bildet, welche nicht linear unabhangigzu sein brauchen. Diese Vektoren sind auf auf einen durch S(r,p+1) bestimmtenUnterraum von Wp beschrankt

|jp〉 ∈ Hp ⊗ Span(S(r,p+1)

)(3.7.143)

In dieser Deutung werden die Matrixelemente A(bp)jp,jp+1

zu den Koeffizienten, mit

denen aus Bp und S(r,p+1), das System S(r,p) konstruiert wird. Die Dimensionender Ni bestimmen die Dimensionen der Ji.

Sei S(r,p+1) eine Basis von Jp+1. Wenn dann S(r,p) eine Basis von Hp⊗Jp+1 seinsoll, muss

dp−1 = Dim (Hp ⊗ Jp+1) = Dim (Hp) Dim (Jp+1)

= dp Dim (Jp+1)(3.7.144)

gelten.

Satz (3.7.3): (Links-Zustande kanonischer Matrixproduktketten):

Sei k = MPK(A(bp)

)eine Matrixproduktkette in D. Seien alle Orte

(L(bp)

)bp∈Bp

mit p < p links-kanonisch. Dann bilden die Links-Mengen dieser Orte Orthonor-malsysteme, es gilt also

〈ip|i′p〉 = δip,i′p (3.7.145)

Wegen der Orthogonalitat sind die Links-Mengen dann auch linear unabhangig.Es handelt sich also um Links-Basen.

84

Page 95: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Beweis :

Wir beweisen durch vollstandige Induktion nach p: Induktionsanfang fur p = 1:

〈i1|i′1〉 =∑b′1,b1

L(b1)

i1 L(b′1)

i′1〈b1|b′1〉

=∑b1

L(b1)†i1

L(b1)i′1︸ ︷︷ ︸

(1N1)i1,i′1

= δi1,i′1 (3.7.146)

Induktionsschluss fur p− 1→ p:

〈ip|i′p〉 =∑

ip−1,bp

∑i′p−1,b

′p

L(bp)

ip−1,ipL(b′p)

i′p−1,i′p〈ip−1| ⊗ 〈bp||i′p−1〉 ⊗ |b′p〉

=∑

ip−1,bp

∑i′p−1,b

′p

L(bp)†ip,ip−1

L(b′p)

i′p−1,i′p〈ip−1|i′p−1〉〈bp|b′p〉

(3.7.147)

Nutzen wir die Induktionsannahme 〈ip−1|i′p−1〉 = δip−1,i′p−1, erhalten wir:

∑ip−1,bp

∑i′p−1,b

′p

L(bp)†ip,ip−1

L(b′p)

i′p−1,i′p〈ip−1|i′p−1〉〈bp|b′p〉

=∑

ip−1,bp

L(bp)†ip,ip−1

L(bp)ip−1,i′p︸ ︷︷ ︸

(1Np)ip,i′p

= δip,i′p (3.7.148)

Es gilt analog:

Satz (3.7.4): (Rechts-Zustande kanonischer Matrixproduktketten):

Sei k = MPK(A(bp)

)eine Matrixproduktkette in D. Seien alle Orte

(R(bp)

)bp∈Bp

mit p > q rechts-kanonisch. Dann bilden die Rechts-Mengen dieser Orte Ortho-normalsysteme, es gilt also

〈jp|j′p〉 = δjp,j′p (3.7.149)

Wegen der Orthogonalitat sind die Rechts-Mengen dann auch linear unabhangig.Es handelt sich also um Rechts-Basen.

85

Page 96: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Beweis :

Wir beweisen durch Induktion nach p: Induktionsanfang fur p = L:

〈jL|j′L〉 =∑b′L,bL

R(bL)

jL R(b′L)

j′L〈bL|b′L〉

=∑bL

R(bL)j′L

R(bL)†jL︸ ︷︷ ︸

(1N1)jL,j

′L

= δjL,j′L (3.7.150)

Induktionsschluss fur p+ 1→ p:

〈jp|j′p〉 =∑

jp+1,bp

∑j′p+1,b

′p

R(bp)

jp,jp+1R

(b′p)

j′p,j′p+1〈jp+1| ⊗ 〈bp||j′p+1〉 ⊗ |b′p〉

=∑

jp+1,bp

∑j′p+1,b

′p

R(b′p)

j′p,j′p+1

R(bp)†jp+1,jp

〈jp+1|j′p+1〉〈bp|b′p〉(3.7.151)

Nutzen wir die Induktionsannahme 〈jp+1|j′p+1〉 = δjp+1,j′p+1, erhalten wir:

∑jp+1,bp

∑j′p+1,b

′p

R(b′p)

j′p,j′p+1

R(bp)†jp+1,jp

〈jp+1|j′p+1〉〈bp|b′p〉

=∑

jp+1,bp

R(bp)j′p,ip+1

R(bp)†jp+1,jp︸ ︷︷ ︸

(1Np−1)j′p,jp

= δj′p,jp (3.7.152)

Satz (3.7.5): (Zerlegung der Zustande von Matrixproduktketten):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und ψ = Zust (k) deren Zu-

stand.

Dann lasst sich |ψ〉 an jedem Platz q zweizerlegen in

|ψ〉 =∑iq

|iq〉 ⊗ |jq+1〉 (3.7.153)

86

Page 97: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.7 Zerlegung von Zustanden

Beweis :

|ψ〉 =∑

i1,...,iL−1

∑b1,...,bL

A(b1)i1

. . . A(bL)iL−1|b1〉 ⊗ · · · ⊗ |bL〉

=∑iq

( ∑i1,...,iq−1

∑b1,...,bq

A(b1)i1

. . . A(bq)iq−1,iq

|b1〉 ⊗ · · · ⊗ |bq〉︸ ︷︷ ︸|iq〉

)⊗

⊗( ∑jq+2,...,jL

∑bq+1,...,bL

A(bq+1)iq,jq+2

. . . A(bL)jL|bq+1〉 ⊗ · · · ⊗ |bL〉︸ ︷︷ ︸

=|jq+1〉

) (3.7.154)

Also|ψ〉 =

∑iq

|iq〉 ⊗ |jq+1〉 (3.7.155)

Matrixproduktzustande existieren also auf Raumen von Basen, welche sie sich selbstkonstruieren und sind in diesen Basen immer zweizerlegbar.

Definition (3.7.5): (Normaldarstellung von Matrixproduktzustanden):

Seien alle Definitionen wie im vorigen Satze. Mit der rekursiven Definition derLinks-Zustande |iq〉 erhalt man sofort folgende wichtige Zerlegung von |ψ〉.

|ψ〉 =∑iq

|iq〉 ⊗ |jq+1〉

=∑bq

∑iq−1

∑jq+1

A(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉(3.7.156)

Wir wollen diese Darstellung des Zustandes einer Matrixproduktkette als Normal-darstellung am q-ten Orte bezeichnen.

Aus der Darstellung (3.7.156) lasst sich die Frage minimaler Matrixproduktzustandeklaren:

Bemerkung (3.7.5): (Minimale Matrixproduktketten):

Sei k = MPK(A(bp)

)∈ D und |ψ〉 = Zust (k)

87

Page 98: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Man entnimmt der Normaldarstellung, dass aus der Sicht des q-ten Platzes

|ψ〉 = Iq−1 ⊗Hq ⊗ Jq+1 (3.7.157)

ist. Schaut man sich

|ψ〉 =∑bq

∑iq−1

∑jq+1

A(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (3.7.158)

an, so sieht man, dass die A(bq)iq−1,jq+1

die Koeffizienten eines bestimmten Erzeugen-densystemes dieses Raumes sind. Wahlt man fur die Links- und Rechts-Zustandenur linear unabhangige Vektoren (Freiheit der Basiswahl), so sind

A(bq) ∈M (di, dj) (3.7.159)

mit

di = Dim (Iq−1)

dj = Dim (Jq+1)(3.7.160)

Wahle nun nur Links-Basisvektoren

I ′q−1 ={|iq−1〉

∣∣∣∃jq+1 : A(bq)iq−1,jq+1

6= 0}

(3.7.161)

und Rechts-Basisvektoren

I ′q−1 ={|jq+1〉

∣∣∣∃iq−1 : A(bq)iq−1,jq+1

6= 0}

(3.7.162)

welche Anteil an |ψ〉 haben. Es gilt

|ψ〉 = I ′q−1 ⊗Hq ⊗ J ′q+1 (3.7.163)

Da man nun keine weiteren Basisvektoren fortlassen kann, und da wegen derDimensionssatze die Zahl der Basisvektoren eindeutig ist, sind

di = Dim (Iq−1) (3.7.164)

die minimale Dimension des (q − 1)-ten und

dj = Dim (Jq+1) (3.7.165)

die minimale Dimension des q-ten Nebenraumes.

3.8 Berechnung von Skalarprodukten

Notation :

In diesem Abschnitte bezeichne D und D′ zwei Doppelraume und k = MPK(A(bp)

)∈

D und k′ = MPK(B(bp)

)∈ D′ Matrixproduktketten dieser Doppelraume.

88

Page 99: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.8 Berechnung von Skalarprodukten

Wir erarbeiten in diesem Kapitel eine rekursive Berechnungsvorschrift fur Skalarpro-dukte von Matrixproduktzustanden. Wir beginnen mit der naheliegenden formalenDefinition des Skalarproduktes zweier Matrixproduktketten:

Definition (3.8.1): (Skalarprodukt zweier Matrixproduktketten):

Wir bezeichnen

s(k, k′) = 〈Zust (k)|Zust (k′)〉 (3.8.166)

als das Skalarprodukt von k, k′.

Definition (3.8.2): (E-Matritzen):

Seien |ip〉 die Links-Zustande von k und |i′p〉 die Links-Zustande von k′ und be-zeichne

dp = Dim (Np)d′p = Dim

(N ′p) (3.8.167)

Dann definieren wir die p-te E-Matrix von k und k′

E(p) = E(p)(k, k′) ∈M(dp × d′p,K

)(3.8.168)

elementweise als

E(p)ip,i′p

:= 〈ip|i′p〉 (3.8.169)

Nun bedurfen wir erst einmal der Definition der E- und adjungierten F-Matritzen undrekursiver Vorschriften, um diese zu berechnen.

Satz (3.8.1): (Rekursive Form der E-Matritzen):

Die E-Matritzen des Skalarproduktes von k und k′ erfullen folgende rekursive Be-rechnungsformel:

E(p) =

∑b1

A(b1)†B(b1) p = 1∑

bp

A(bp)†E(p−1)B(bp) p > 1

(3.8.170)

89

Page 100: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

A[1]† A[2]† . . . A[p−1]† A[p]†

B[1] B[2] . . . B[p−1] B[p]

E(p) =

i1 ip−1 ip

b1 b2 bp−1 bp

i′1 i′p−1 i′p

E(p−1)

Abbildung 3.20: Die Berechnung der E-Matritzen

Beweis :

Wir zeigen getrennt fur den Sonderfall p = 1:

E(1)i1,i′1〈i1|i′1〉 =

∑b′1,b1

A(b1)

i1 B(b′1)

i′1〈b1|b′1〉

=∑b1

A(b1)†i1

B(b1)i′1

(3.8.171)

und den allgemeinen Fall p > 1:

E(p)ip,i′p

= 〈ip|i′p〉

=∑

ip−1,bp

∑i′p−1,b

′p

A(bp)

ip−1,ipB(b′p)

i′p−1,i′p〈ip−1| ⊗ 〈bp||i′p−1〉 ⊗ |b′p〉

=∑

ip−1,bp

∑i′p−1,b

′p

A(bp)†ip,ip−1

B(b′p)

i′p−1,i′p〈ip−1|i′p−1〉︸ ︷︷ ︸E

(p−1)

ip−1,i′p−1

〈bp|b′p〉

=∑

ip−1,i′p−1

∑bp

A(bp)†ip,ip−1

E(p−1)ip−1,i′p−1

B(bp)

i′p−1,i′p

(3.8.172)

Definition (3.8.3): (Adjungierte F-Matritzen):

Seien |jp〉 die Rechts-Zustande von k und |j′p〉 die Rechts-Zustande von k′ und

90

Page 101: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.8 Berechnung von Skalarprodukten

bezeichne

dp−1 := Dim (Np−1)

d′p−1 := Dim(N ′p−1

) (3.8.173)

Dann definieren wir die p-te adjungierte F-Matrix des Skalarproduktes von k, k′

F(p)† := F(p)† (k, k′) ∈M(d′p−1 × dp−1,K

)(3.8.174)

elementweise alsF

(p)†j′p,jp

:= 〈jp|j′p〉 (3.8.175)

Satz (3.8.2): (Rekursive Form der adjungierten F-Matritzen):

Die adjungierten F-Matritzen des Skalarproduktes von k, k′, erfullen folgende re-kursive Berechnungsformel:

F(p)† =

∑bL

B(bL)A(bL)†

p = L∑bp

B(bp)F(p+1)†A(bp)†

p < L(3.8.176)

A[p]† A[p+1]† . . . A[L−1]† A[L]†

B[p] B[p+1] . . . B[L−1] B[L]

F(p) =

jp jp+1 jL

bp bp+1 bL−1 bL

j′p j′p+1 j′L

F(p+1)†

Abbildung 3.21: Die Berechnung der adjungierten F-Matritzen

Beweis :

Wir zeigen getrennt fur den Sonderfall p = L:

F(L)†j′L,jL

〈jL|j′L〉 =∑b′L,bL

A(b1)

jL B(b′1)

j′L〈b1|b′1〉

=∑b1

B(b1)j′L

A(b1)†jL

(3.8.177)

91

Page 102: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

und den allgemeinen Fall p < L:

F(p)†j′p,j′p

= 〈jp|j′p〉

=∑

jp+1,bp

∑j′p+1,b

′p

A(bp)

jp,jp+1B

(b′p)

j′p,j′p+1〈bp| ⊗ 〈jp+1||b′p〉 ⊗ |j′p+1〉

=∑

ip−1,bp

∑i′p−1,b

′p

B(b′p)

j′p,i′p+1

A(bp)†jp+1,jp

〈jp+1|j′p+1〉︸ ︷︷ ︸F

(p+1)†j′p+1

,jp+1

〈bp|b′p〉

=∑

jp+1,j′p−1

∑bp

B(bp)

j′p,j′p+1

F(p+1)†j′p+1,jp+1

A(bp)†jp+1,jp

(3.8.178)

Nun haben wir alles beisammen, was wir fur die praktische Berechnung von Skalar-produkten benotigen:

Satz (3.8.3): (Berechnung des Skalarproduktes zweier Matrixproduktketten):

Das Skalarprodukt von k, k′ lasst sich mittels

s(k, k′) = 〈Zust (k)|Zust (k′)〉

= Sp(E(p)F(p+1)†

) (3.8.179)

berechnen.

A[1]† A[2]† . . . A[p]† A[p+1]† . . . A[L−1]† A[L]†

B[1] B[2] . . . B[p] B[p+1] . . . B[L−1] B[L]

i1 ip iL−1

b1 b2 bp bp+1 bL−1 bL

i′1 i′p i′L−1

E(p)F(p+1)†

Abbildung 3.22: Bildliche Darstellung der Skalarproduktsberechnung

92

Page 103: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.8 Berechnung von Skalarprodukten

Beweis :

Betrachte die Zweizerlegung von |ψ〉 = Zust (k) und |ψ′〉 = Zust (k′) aus (3.7.155):

〈ψ| =∑iq

〈iq| ⊗ 〈jq+1|

|ψ′〉 =∑i′q

|i′q〉 ⊗ |j′q+1〉(3.8.180)

Damit ist

〈ψ|ψ′〉 =∑iq,i′q

(〈iq| ⊗ 〈jq+1|)(|i′q〉 ⊗ |j′q+1〉

)=∑ip,i′p

〈ip|i′p〉︸ ︷︷ ︸E

(p)

ip,i′p

〈jq+1|j′q+1〉︸ ︷︷ ︸F

(p+1)†j′p+1

,jp+1

= Sp(E(p)F(p+1)†

)(3.8.181)

Bemerkung (3.8.1): (Normaldarstellung des Skalarproduktes):

Seien alle Definitionen wie im vorigen Satze. Nutzt man nun die rekursive Defini-tion der E-Matritzen, so erhalt fur das Skalarprodukt von k mit k′ sofort:

s(k, k′) = 〈Zust (k)|Zust (k′)〉

=∑bp

Sp(A(bp)

†E(p−1)B(bp)F(p+1)†

)(3.8.182)

Diese Berechnungsformel fur das Skalarprodukt zweier Matrixproduktketten wol-len wir als die Normaldarstellung des Skalarproduktes bezeichnen.

Mit Hilfe des Skalarproduktes von Matrixproduktketten konnen wir naturlich auch dieNorm solcher berechnen. Wir werden jedoch sehen, dass es fur kanonische Matrixpro-duktketten vollig unzweckmaßig ist, da fur diese die Normberechnung außerordentlicheinfach ist.

Satz (3.8.4): (Berechnung des Normquadrates einer Matrixproduktkette):

Sei k = MPK(L(bp),C(bq),R(bp)

)eine kanonische Matrixprodukkette in D, welche

den Hauptort q habe. Weiter mogen |ip〉, |jp〉 die Links- und Rechts-Zustande vonk bezeichnen.

93

Page 104: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Dann ist das Normquadrat von k:

s(k, k′) = 〈Zust (k)|Zust (k′)〉

=∑bq

Sp(C(bq)

†C(bq)

)(3.8.183)

Beweis :

Wir verwenden die Normaldarstellung am Hauptorte:

s(k, k) = 〈Zust (k)|Zust (k)〉

=

∑bq

∑iq−1,jq+1

C(bq)

iq−1,jq+1〈iq−1| ⊗ 〈bq| ⊗ 〈jq+1|

b′q

∑i′q−1,j

′q+1

C(b′q)

i′q−1,j′q+1|i′q−1〉 ⊗ |b′q〉 ⊗ |j′q+1〉

=∑bq,b′q

∑iq−1,iq−1

〈iq−1|i′q−1〉∑bq,b′q

〈bq|b′q〉

∑jq+1,j′q+1

〈jq+1|j′q+1〉C(bq)

iq−1,jq+1C

(b′q)

i′q−1,j′q+1

(3.8.184)

Nun haben wir fur kanonische Matrixproduktzustande bereits die Orthonorma-litat der Links- und Rechts-Zustande gezeigt. Nutzt man dieses, erhalt man:

s(k, k) =∑bq

∑iq−1,jq+1

C(bq)†jq+1,iq−1

C(bq)iq−1,jq+1

=∑bq

Sp(C(bq)

†C(bq)

) (3.8.185)

94

Page 105: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

L[1]† L[2]† . . . L[q−1]† C[q]† R[q+1]† . . . R[L−1]† R[L]†

L[1] L[2] . . . L[q−1] C[q] R[q+1] . . . R[L−1] R[L]

i1 iq−1 iq iL−1

b1 b2 bq−1 bq bq+1 bL−1 bL

i′1 i′q−1 i′q i′L−1

1N11NL−1

L[2]† . . . L[q−1]† C[q]† R[q+1]† . . . R[L−1]†

L[2] . . . L[q−1] C[q] R[q+1] . . . R[L−1]

i1 iL−1=

iq−1 iq

b2 bq−1 bq bq+1 bL−1

i′q−1 i′q

1N21NL−2

C[q]†

C[q]

iq−1 iq= · · · = bq

Abbildung 3.23: Die Vereinfachung der Norm-Berechnung bei kanonischenMatrixproduktketten

3.9 Dimensionsreduktion

Notation :

In diesem Abschnitte sei H = H1 ⊗H2 ein Tensorproduktsraum und

B1 ={|b(1)i 〉

∣∣∣|b(1)i 〉 ∈ H1

}B2 =

{|b(2)i 〉

∣∣∣|b(2)i 〉 ∈ H2

} (3.9.186)

95

Page 106: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Orthonormalbasen der H1 und H2. Sei weiter

|ψ〉 =∑i,j

ci,j |b(1)i 〉 ⊗ |b(2)j 〉 (3.9.187)

ein beliebiger Vektor in H.

Wir haben bereits gesehen, dass die Summen von Matrixproduktzustanden auf Dop-pelraume mit addierten Nebenraumsdimensionen fuhren. Im nachsten Kapitel werdenwir sehen, dass das Anwachsen der Nebenraumsdimensionen, bei Anwendung von Ope-ratoren sogar multiplikativ ist. Fuhrt man mehrere dieser Operationen aus, ist manschnell bei unhandhabbaren Nebenraumsdimensionen. Es bleibt also nur nach Metho-den zu suchen, Matrixproduktzustande durch Matrixproduktzustande mit kleinerenNebenraumsdimensionen zu nahern.

Wir werden sehen, dass mit Hilfe des Eigenproblemes reduzierter Dichtematritzen Ten-sorproduktvektoren optimal genahert werden konnen. Da Matrixproduktzustande anjedem Platze zweizerlegbar sind, lasst sich diese Methode zur Reduktion der Neben-raumsdimensionen anwenden.

Definiere:

Definition (3.9.1): (Reduzierte Dichtematrix):

Die reduzierten Dichteoperatoren ρ1 ∈ L (H,H1) und ρ2 ∈ L (H,H2) von |ψ〉seien definiert durch

ρ1 = SpH2(|ψ〉〈ψ|) =

∑j

〈b(2)j |ψ〉〈ψ|b(2)j 〉

=∑j

∑i,i′

ci,jc†j,i′ |b

(1)i 〉〈b

(1)i′ | =

∑j

∑i,i′

(cc†)i,i′|b(1)i 〉〈b

(1)i′ |

ρ2 = SpH2(|ψ〉〈ψ|) =

∑i

〈b(1)i |ψ〉〈ψ|b(1)i 〉

=∑i

∑j,j′

c†j′,ici,j |b(2)j 〉〈b

(2)j′ | =

∑i

∑j,j′

(c†c)j′,j|b(2)j 〉〈b

(2)j′ |

(3.9.188)

Nun stellen wir den Zusammenhang zwischen dem Eigenproblem reduzierter Dichte-matritzen und der Singularwertzerlegung her:

Satz (3.9.1): (Eigenproblem der reduzierten Dichtematritzen):

Seic = UDV† (3.9.189)

96

Page 107: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

die Singularwertzerlegung der Koeffizientenmatrix c von |ψ〉.

Dann besitzen beide reduzierte Dichtematritzen die gleichen Eigenwerte, namlichdie Betragsquadrate |dk|2 der Singularwerte dk von C. Zu jedem Eigenwert ist furρ1 durch

|vk〉 =∑i

Ui,k|b(1)i 〉 (3.9.190)

und fur ρ2 durch

|wk〉 =∑j

V †k,j |b(2)j 〉 (3.9.191)

ein Eigenvektor gegeben.

Beweis :

I.) Betrachte zuerst ρ1:

ρ1 =∑i,i′

(UDV†

(UDV†

)†)i,i′|b(1)i 〉〈b

(1)i′ |

=∑i,i′

(UDV†VD†U†

)i,i′|b(1)i 〉〈b

(1)i′ |

(3.9.192)

Fur V gilt V†V = 1, also:

ρ1 =∑i,i′

(UDV†VD†U†

)i,i′|b(1)i 〉〈b

(1)i′ |

=∑i,i′

(UDD†U†

)i,i′|b(1)i 〉〈b

(1)i′ |

= UDD†U†

(3.9.193)

Nun ist U also eine Ahnlichkeitstransformation zwischen ρ1 und DD†, also besit-zen diese Matritzen infolge dessen die gleichen Eigenwerte. Nun gilt

(DD†

)i,j

=∑m

δi,mdm∑n

δn,jdn

= δi,j |di|2(3.9.194)

Die Eigenwerte von DD†, sind also die |dk|2, also sind dieses ebenfalls alle Eigen-werte von ρ1. Wir zeigen noch, dass die |vk〉 Eigenvektoren zu den Eigenwerten

97

Page 108: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

|dk|2 sind:

ρ1|vk〉 =∑i,i′

(UDD†U†

)i,i′|b(1)i 〉〈b

(1)i′ |∑i′′

Ui′′,k|b(1)i′′ 〉

=∑i

(UDD†U†U

)i,k|b(1)i 〉

= |dk|2∑i

Ui,k|b(1)i 〉 = λk|vk〉

(3.9.195)

Wobei wir ausgenutzt haben, dass fur U ebenfalls U†U = 1, gilt. Jedes |vk〉 ist

also Eigenvektor von ρ1 zum Eigenwerte λk |dk|2.

II.) Betrachte nun ρ2:

ρ2 =∑j,j′

((UDV†

)†UDV†

)j′,j|b(2)j 〉〈b

(2)j′ |

=∑j,j′

(VD†U†UDV†

)j′,j|b(2)j 〉〈b

(2)j′ |

=∑j,j′

(VD†U†UDV†

)j′,j|b(2)j 〉〈b

(2)j′ |

=∑j,j′

(VD†DV†

)j′,j|b(2)j 〉〈b

(2)j′ | =

(VD†DV†

)T(3.9.196)

Hier gilt, dass V eine Ahnlichkeitstransformation zwischen VD†DV† und D†Ddarstellt, also besitzen diese Abbildungen gleiche Eigenwerte und dann ebenso

ρ2 =(VD†DV†

)T. Nun gilt(D†D

)i,j

=∑m

δi,mdm∑n

δn,jdn = δi,j |di|2 (3.9.197)

Die Eigenwerte von D†D, sind ebenso, wie fur DD† die |dk|2. Dann sind dieseebenfalls alle Eigenwerte von ρ2. Zeigen wir noch, dass die |wk〉 Eigenvektoren

von ρ2 zum Eigenwerte |dk|2 sind:

ρ2|wk〉 =∑i

(VDD†V†

)j′,j|b(2)j 〉〈b

(2)j′ |∑j′′

V †j′′,k|b(2)j′′ 〉

=∑j

(V†VD†U†V†

)k,j|b(2)j 〉ρ2|wk〉

=∑j

(V†VD†DV†

)k,j|b(2)j 〉

=∑j

(D†DV†

)i,k|b(2)j 〉

= |dk|2∑j

V †k,j |b(2)j 〉 = λk|wk〉

(3.9.198)

98

Page 109: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

Jedes |wk〉 ist also Eigenvektor von ρ2 zum Eigenwerte λk = |dk|2.

Nun konnen wir dieses Ergebnis zu Naherung von Tensorraumsvektoren nutzen:

Satz (3.9.2): (Bestapproximation bei Stutzung eines linken Tensorproduktraum-Faktors):

Sei

BN ={|vα〉

∣∣∣|vα〉 ∈ H1, α = 1, . . . , N}

(3.9.199)

mit

ρ1 |vα〉 = λα |vα〉λα ≥ λα+1

(3.9.200)

die Menge der N Eigenvektoren zu den N großten Eigenwerten des reduziertenDichteoperators ρ1 von |ψ〉. Sei

|ψ〉 =∑α,j

aα,j |vα〉 ⊗ |b(2)j 〉 (3.9.201)

die Projektion von |ψ〉 aufSpan (Bn)⊗H2 (3.9.202)

Dann stellen |ψ〉 und BN die optimale Wahl eines N -dimensionalen UnterraumesH′1 von H1 und eines Vektors |z〉 aus H′ = H′1⊗H2 dar, so dass |z〉 |ψ〉 im Sinneder Norm bestapproximiert:

‖|ψ〉 − |ψ〉‖2

= Min{‖|ψ〉 − |z〉‖2

∣∣∣H′1 ≤ H1,Dim (H′1) = N, z ∈ H′1 ⊗H2

} (3.9.203)

Beweis :

SeiB′ =

{|wα〉

∣∣∣|wα〉 ∈ H1

}(3.9.204)

eine Orthonormalbasis von H1.

|ψ〉 =

N∑α=1

∑j

aα,j |wα〉 ⊗ |b(2)j 〉

=∑α,j

aα,j |wα〉 ⊗ |b(2)j 〉, aα,j = 0 fur α > N

(3.9.205)

99

Page 110: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

Sei |ψ〉 ein Vektor auf dem Unterraum der ersten N Basisvektoren von B′. Seiweiter U, jene unitare Transformation, welche zwischen den Basen B und B′

vermittele:

|b(1)i 〉 =∑α

Ui,α|wα〉

|wα〉 =∑i

U†i,α|b(1)i 〉

(3.9.206)

Wir wollen nun |ψ〉 und die ersten N Basisvektoren von B′ derart bestimmen,

dass diese ‖|ψ〉 − |ψ〉‖2 minimieren.

|ψ〉 − |ψ〉 =∑α,j

((∑i

Ui,αci,j

)− aα,j

)|wα〉 ⊗ |b(2)j 〉 (3.9.207)

Also bekommen wir

‖|ψ〉 − |ψ〉‖2

= 1 +∑α,j

(−∑i

U i,αci,jaα,j −∑i

Ui,αci,jaα,j + |aα,j |2)

(3.9.208)

Wobei wir bereits von der Normierung von |ψ〉 Gebrauch gemacht haben. Wirschreiben nun

aα,j = a(r)α,j + i a

(i)α,j

a(r)α,j = R (aα,j)

a(i)α,j = I (aα,j)

(3.9.209)

womit wir dann

‖|ψ〉 − |ψ〉‖2

= 1−∑α,j

(∑i

U i,αci,j

(a(r)α,j + i a

(i)α,j

)+

+∑i

Ui,αci,j

(a(r)α,j − i a

(i)α,j

)+ a

(r)α,j

2+ a

(i)α,j

2) (3.9.210)

haben. Zuerst schauen wir uns die notwendigen Bedingungen fur ein Minimumbei Variation des Parameters aα,j an:

∂a(r)α,j

‖|ψ〉 − |ψ〉‖2 = 0

∂a(i)α,j

‖|ψ〉 − |ψ〉‖2 = 0

(3.9.211)

100

Page 111: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

Dieses fuhrt auf

∂a(r)α,j

‖|ψ〉 − |ψ〉‖2 = −∑i

U i,αci,j −∑i

Ui,αci,j + 2a(r)α,j = 0

⇔ a(r)α,j = R

(∑i

Ui,αci,j

) (3.9.212)

und

∂a(i)α,j

‖|ψ〉 − |ψ〉‖2 = −i∑i

U i,αci,j + i∑i

Ui,αci,j + 2a(i)α,j = 0

⇔ a(i)α,j = I

(∑i

Ui,αci,j

) (3.9.213)

Wenn wir dieses in (??) einsetzen, bekommen wir:

‖|ψ〉 − |ψ〉‖2 = 1−∑α,j

∑i

Ui,αci,j∑i

U i′,αci′,j

= 1−∑α

∑i,i′

Ui,α︸︷︷︸〈wαi|

∑j

ci,jc†j,i′

︸ ︷︷ ︸

ρi,i′

U i′,α︸ ︷︷ ︸=|wαi′ 〉

= 1−∑α

〈wα|ρ1|wα〉

(3.9.214)

Wir suchen alsoN orthonormale Vektoren |wα〉, welche das Funktional∑α〈wα|ρ1|wα〉

maximieren. Das Rayleigh-Ritz-Prinzip, besagt nun, dass dieser Ausdruck genaudurch die N Eigenvektoren |vα〉 von ρ1, welche zu den N großten Eigenwertengehoren, maximiert wird.

Vollig analog gilt

Satz (3.9.3): (Bestapproximation bei Stutzung eines rechten Tensorproduktraums-Faktors):

Sei

BN ={|wα〉

∣∣∣|wα〉 ∈ H2, α = 1, . . . , N}

(3.9.215)

mit

ρ2|wα〉 = λα|vα〉λα ≥ λα+1

(3.9.216)

101

Page 112: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

die Menge der N Eigenvektoren zu den N großten Eigenwerten des reduziertenDichteoperators ρ2 von |ψ〉. Sei

|ψ〉 =∑i,α

ai,α|b(1)i 〉 ⊗ |wα〉 (3.9.217)

die Projektion von |ψ〉 aufH1 ⊗ Span (Bn) (3.9.218)

Dann stellen |ψ〉 und BN die optimale Wahl eines N -dimensionalen UnterraumesH′2 von H2 und eines Vektors |z〉 aus H′ = H1⊗H′2 dar, so dass |z〉 |ψ〉 im Sinneder Norm bestapproximiert:

‖|ψ〉 − |ψ〉‖2

= min{‖|ψ〉 − |z〉‖2

∣∣∣H′2 ≤ H2,Dim (H′2) = N, z ∈ H1 ⊗H′2} (3.9.219)

Der Beweis dieses Satzes ist vollig analog zu dem des vorigen Satzes und wird daherhier nicht noch einmal vorgefuhrt.

Nun konnen wir diese Ergebnisse nutzen um Matrixproduktzustande zu nahern:

Bemerkung (3.9.1):

Sei K eine Kettenmenge des Doppelraumes D. Sei ψ = MPK(L(bp),C(bq),R(bp)

)eine kanonische Matrixproduktkette in K. Dann schreibt sich |ψ〉 = Zust (ψ) inNormaldarstellung als

|ψ〉 =∑bq

∑iq−1

∑jq+1

C(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (3.9.220)

Wir fassen die Indizes bq und jq+1 zusammen

µ = (bq, jq+1) (3.9.221)

und haben dann

|ψ〉 =∑bq

∑iq−1

∑jq+1

C(bq)iq−1,jq+1︸ ︷︷ ︸Ciq−1,µ

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉︸ ︷︷ ︸|µ〉

=∑iq−1

∑µ

Ciq−1,µ|iq−1〉 ⊗ |µ〉(3.9.222)

Nun wollen wir die Dimension des Links-Raumes Iq−1, welcher durch die |iq−1〉aufgespannt wird, auf N reduzieren, wobei |ψ〉 durch |ψ〉 im Sinne der Norm am

102

Page 113: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

besten approximiert werden soll. Dann wissen wir aus Satz (3.9.2) , dass wir denneuen Links-Raum I ′q−1 wie folgt wahlen mussen:

I ′q−1 = Span{|vk〉

∣∣∣ ρ1|vk〉 = λk|vk〉}

(3.9.223)

wobei λk die N großten Eigenwerte von ρ1 und ρ1 die reduzierte Dichtmatrix von|ψ〉 bezeichne. Sei

C = UDV† (3.9.224)

die Singularwertzerlegung von C, wobei wir die Diagonalmatrix D = Diag (d1, . . . , dM )derart wahlen, dass

|dk| ≥ |dk+1| (3.9.225)

Aus Satz (3.9.1) wissen wir, dass die λk = |dk|2 die Eigenwerte von ρ1 sind unddass U mittels

|vk〉 =∑iq−1

Uiq−1,k |iq−1〉 (3.9.226)

zwischen der Links-Basis und einer Basis aus Eigenvektoren von ρ1 vermittelt.Betrachte nun

|ψ〉 =∑iq−1

∑µ

Ciq−1,µ|iq−1〉 ⊗ |µ〉

=∑iq−1

∑µ

(UDV†

)iq−1,µ

|iq−1〉 ⊗ |µ〉

=∑k

∑µ

(DV†

)k,µ

∑iq−1

Uiq−1,k|iq−1〉

︸ ︷︷ ︸

|vk〉

⊗|µ〉

=∑k

∑µ

C ′k,µ|vk〉 ⊗ |µ〉

(3.9.227)

Um in die Basis der Eigenvektoren zu wechseln, mussen wir also die Glieder desq-ten Ortes wie folgt wahlen:

C ′(bq)k,jq+1

=(DV†

)k,(bq,jq+1)

(3.9.228)

Um nun die Dimension des Links-Raumes zu reduzieren, mussen wir nun nur noch

103

Page 114: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

die Zeilendimension von C′(bq) auf N stutzen. Betrachte nun noch

|vk〉 =∑iq−1

Uiq−1,k|iq−1〉

=∑iq−2

∑iq−1

L(bq−1)iq−2,iq−1

Uiq−1,k︸ ︷︷ ︸L′

(bq−1)

iq−2,k

|iq−2〉 ⊗ |bq−1〉

=∑

iq−2,bq−1

L′(bq−1)iq−2,k

|iq−2〉 ⊗ |bq−1〉

(3.9.229)

Wir mussen also ebenfalls die Glieder des q − 1-ten Ortes wie folgt neu wahlen

L′(bq−1)iq−2,k

=∑iq−1

L(bq−1)iq−2,iq−1

Uiq−1,k (3.9.230)

und die Spaltendimension von L′(bq−1) auf N reduzieren. Beachte also, dass nur

der q-te und der q − 1-te Ort verandert werden mussen. Beachte weiter, dass derq − 1-te Ort hierbei links-kanonisch bleibt, denn∑

bq−1

L′(bq−1)

†L′

(bq−1) = U†∑bq−1

L(bq−1)†L(bq−1)︸ ︷︷ ︸

1

U = U†U = 1 (3.9.231)

Analog dazu haben wir:

Bemerkung (3.9.2):

Sei k = MPK(L(bp),C(bq),R(bp)

)∈ D eine kanonische Matrixproduktkette. Dann

schreibt sich |ψ〉 = Zust (k) in Normaldarstellung als

|ψ〉 =∑bq

∑iq−1

∑jq+1

C(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (3.9.232)

Wir fassen die Indizes bq und iq−1 zusammen

ν = (iq−1, bq) (3.9.233)

und haben damit

|ψ〉 =∑bq

∑iq−1

∑jq+1

C(bq)iq−1,jq+1︸ ︷︷ ︸Cν,jq+1

|iq−1〉 ⊗ |bq〉︸ ︷︷ ︸|ν〉

⊗|jq+1〉

=∑iq−1

∑µ

Cν,jq+1|ν〉 ⊗ |jq+1〉

(3.9.234)

104

Page 115: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3.9 Dimensionsreduktion

Nun wollen wir die Dimension des Rechts-Raumes Jq+1, welcher durch die |jq+1〉aufgespannt wird, auf N reduzieren, wobei |ψ〉 |ψ〉 im Sinne der Norm am bestenapproximieren soll. Dann wissen wir aus Satz (3.9.3) , dass wir den neuen Rechts-Raum J ′q+1 wie folgt wahlen mussen:

J ′q+1 = Span{|wk〉

∣∣∣ ρ1|wk〉 = λk|wk〉}

(3.9.235)

wobei λk die N großten Eigenwerte von ρ2 und ρ2 die reduzierte Dichtmatrix von|ψ〉 bezeichne. Sei

C = UDV† (3.9.236)

die Singularwertzerlegung von C, wobei wir die Diagonalmatrix D = Diag (d1, . . . , dM )derart wahlen, dass

|dk| ≥ |dk+1| (3.9.237)

Aus Satz (3.9.1) wissen wir, dass die λk = |dk|2 die Eigenwerte von ρ2 sind unddass U mittels

|wk〉 =∑jq+1

V †k,jq+1|jq+1〉 (3.9.238)

zwischen der Rechts-Basis und einer Basis aus Eigenvektoren von ρ2 vermittelt.Betrachte nun

|ψ〉 =∑jq+1

∑ν

Cν,jq+1 |ν〉 ⊗ |jq+1〉

=∑jq+1

∑ν

(UDV†

)ν,jq+1

|ν〉 ⊗ |jq+1〉

=∑k

∑ν

(UD)ν,k |ν〉 ⊗

∑jq+1

V †k,jq+1|jq+1〉

︸ ︷︷ ︸

|wk〉

=∑k

∑ν

C ′ν,k|ν〉 ⊗ |wk〉

(3.9.239)

Um in die Basis der Eigenvektoren zu wechseln, mussen wir also die Glieder desq-ten Ortes wie folgt wahlen:

C ′(bq)iq−1,k

=(DV†

)iq−1,k

(3.9.240)

Um nun die Dimension des Rechts-Raumes zu reduzieren, mussen wir nun nur

105

Page 116: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

3 Matrixproduktzustande

noch die Spaltendimension von C′(bq) auf N stutzen. Betrachte nun noch

|wk〉 =∑jq+1

V †k,jq+1|jq+1〉

=∑jq+2

∑jq+1

V †k,jq+1R

(bq−1)jq+1,jq+2︸ ︷︷ ︸

R′(bq+1)

k,jq+2

|bq+1〉 ⊗ |jq+2〉

=∑

jq+2,bq+1

R′(bq+1)k,jq+2

|bq+1〉 ⊗ |jq+2〉

(3.9.241)

Wir mussen also ebenfalls die Glieder des q + 1-ten Ortes wie folgt neu wahlen

R′(bq+1)k,jq+2

=∑jq+1

V †k,jq+1R

(bq+1)jq+1,jq+2

(3.9.242)

und die Spaltendimension von R′(bq−1) auf N reduzieren. Beachte also, dass nur

der q-te und der q + 1-te Ort verandert werden mussen. Beachte weiter, dass derq + 1-te Ort hierbei rechts-kanonisch bleibt, denn∑

bq+1

R′(bq+1)R′

(bq+1)†

= U†∑bq+1

R(bq+1)R(bq+1)†︸ ︷︷ ︸

1

V = V†V = 1 (3.9.243)

106

Page 117: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

4.1 Motivation

Analog zu den Matrixproduktzustanden wollen wir nun auch Operatoren X ∈ L (H)eines Tensorproduktsraumes H, mit Matritzenprodukten als Koeffizienten formulieren:

X∑b1,b′1

. . .∑bL,b′L

|b1〉 ⊗ · · · ⊗ |bL〉H(b1,b′1) . . .H(bL,b

′L)〈b′1| ⊗ · · · ⊗ 〈b′L| (4.1.1)

Indem wir den Raum L (H), auf dem die Operatoren definiert sind, als Tensorpro-duktskette mit L Platzen formulieren, konnen wir den gesamten Matrixproduktket-tenformalismus des vorigen Kapitels auch auf Operatoren anwenden. Wir widmen unsdann unmittelbar operatorspezifischen Themen, da die Eigenschaften von Matrixpro-duktketten nicht neuerlich diskutiert werden mussen.

4.2 Definition der Matrixproduktoperatoren

Bemerkung (4.2.1):

Sei K ein Korper und seien Hi (i = 1 . . . N) endlichdimensionale K-Vektorraume

und bezeichne H =⊗N

i=1Hi den Tensorproduktsraum dieser N Raume. Sei X ∈L (H) ein linearer Operator. Seien Bi und B′i Orthonormalbasen der Hi. Dannist

X =∑

{bq∈Bq}

∑{b′q∈B′q}

xb1,b′1,...,bN ,b′N |b1〉 ⊗ · · · ⊗ |bN 〉〈b′1| ⊗ · · · ⊗ 〈b′N | (4.2.2)

Nun ist L (H) isomorph zu H⊗H und wird fur gewohnlich auch hiermit identi-fiziert:

107

Page 118: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

X =∑

{bq∈Bq}

∑{b′q∈B′q}

xb1,b′1,...,bN ,b′N |b1〉 ⊗ · · · ⊗ |bN 〉〈b′1| ⊗ · · · ⊗ 〈b′N | (4.2.3)

∼=∑

{bq∈Bq}

∑{b′q∈B′q}

xb1,b′1,...,bN ,b′N

(|b1〉 ⊗ · · · ⊗ |bN 〉

)⊗(|b′1〉 ⊗ · · · ⊗ |b′N 〉

)(4.2.4)

Jedoch ist L (H) ebenfalls isomorph zu

H = H1 ⊗H1︸ ︷︷ ︸=:H1

⊗ · · · ⊗ HN ⊗HN︸ ︷︷ ︸=:HN

= H1 ⊗ · · · ⊗ HN (4.2.5)

und wie die Indizierung der Koeffizienten x bereits andeutet, wollen wir im Fol-genden von dieser Identifizierung Gebrauch machen und werden den zugehorigenIsomorphismus stets als Θ : H → L (H) bezeichnen:

X =∑

{bq∈Bq}

∑{b′q∈B′q}

xb1,b′1,...,bN ,b′N |b1〉 ⊗ · · · ⊗ |bN 〉〈b′1| ⊗ · · · ⊗ 〈b′N | (4.2.6)

Θ−1 (X) =∑

{bq∈Bq}

∑{b′q∈B′q}

x(b1,b′1),...,(bN ,b′N )

(|b1〉 ⊗ |b′1〉

)⊗ · · · ⊗

(|bN 〉 ⊗ |b′N 〉

)(4.2.7)

L (H) ∼=

H

H

. . .

. . .

H1⊗ H2

⊗ H3⊗ ⊗ HL−1 ⊗ HL

. . .∼=

Abbildung 4.1: Die verschiedenen isomorphen Gestalten des Raumes L (H)

Wir haben also Operatoren mit einfachen Vektoren eines Tensorproduktraumesidentifiziert und konnen nun ohne viel Aufwand den Begriff des Matrixprodukt-zustandes auf Matrixproduktoperatoren erweitern.

108

Page 119: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.2 Definition der Matrixproduktoperatoren

Definition (4.2.1): (Operatorraum):

Sei H =⊗L

p=1Hp ein Tensorproduktsraum endlichdimensionaler Vektorraume.

Dann nennen wir H =L⊗p=1Hp mit

Hp = Hp ⊗Hp (4.2.8)

den Operatorraum zu H. Ferner nennen wir einen Doppelraum uber H einenOperator-Doppelraum uber H. Ein Element X dieses Doppelraumes nennen wireine Operator-Matrixproduktkette.

Notation :

Gelte fur den Rest des Kapitels, dass H =⊗L

p=1Hp ein Tensorproduktsraum

endlichdimensionaler Vektorraume sei und H =L⊗p=1Hp den zugehorigen Operator-

raum bezeichne. Außerdem seien in den Raumen Hi noch folgende Produktbasendefiniert:

Bi ={|bi, b′i〉 := |bi〉 ⊗ |b′i〉

∣∣∣bi ∈ Bi, b′i ∈ B′i

}(4.2.9)

Definition (4.2.2): (Matrixproduktoperator):

Sei K, der Kettenraum von D und X eine Matrixproduktkette dessen. Weiter seif : L (NN ,N0)) ein lineares Funktional. Dann definieren wir den Matrixproduk-toperator von X unter f :

Opf : K→ L (H)

Opf := Θ ◦ Zustf(4.2.10)

und nennen dieses den Matrixproduktoperator von X unter f und fur offeneRandbedingungen entsprechend den Operator von X:

Op : K→ L (H)

Op := Θ ◦ Zust(4.2.11)

Wir wollen uns weiterhin nur auf offene Randbedingungen beschranken: Wenn also

X = MPK(A(bp,b

′p))

eine Matrixproduktkette in D sei, hat deren Zustand die Gestalt

Zust (X) =∑{bp∈B}

∑{b′p∈B′}

X(b1,b′1) . . .X(bL,b

′L)|b1, b′1〉 ⊗ |bL, b′L〉 (4.2.12)

109

Page 120: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

Mit der isomorphen Abbildung auf L (H) bekommen wir:

Op (X) = (Θ ◦ Zust) (X)

=∑{bi,b′i}

|b1〉 ⊗ · · · ⊗ |bL〉H(b1,b′1) . . .H(bL,b

′L)〈b′1| ⊗ · · · ⊗ 〈b′L| (4.2.13)

|b1〉 |b2〉 |b3〉 |bL−2〉 |bL−1〉 |bL〉

X[1] X[2] X[3] . . . X[L−2] X[L−1] X[L]

〈b′1| 〈b′2| 〈b′3| 〈b′L−2| 〈b′L−1| 〈b′L|

α1 α2 αL−2 αL−1

Abbildung 4.2: Ein Matrixproduktoperator

Die Zerlegbarkeit der Zustande ubertragt sich auch auf die Operatoren:

Definition (4.2.3): (Links- und Rechts-Operatoren):

Sei X = MPK(X(bq,b

′q))

eine Operator-Matrixproduktkette in D. Seien |αp〉 die

Links-Zustande und |betap〉 die Rechts-Zustande von X. Dann definieren wir dieLinks-Operatoren von X als

αp = Θ (|αp〉) (4.2.14)

und die Rechts-Operatoren von X als

βp = Θ (|βp〉) (4.2.15)

wobei Θ hierbei als Abbildung zwischen den einander entsprechenden Teilraumenvon L (H) und H zu verstehen ist.

Bemerkung (4.2.2): (Rekursive Struktur der Links- und Rechts-Operatoren):

Die rekursive Struktur der Links-Zustande der Operator-Matrixproduktkette X

110

Page 121: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.2 Definition der Matrixproduktoperatoren

ubertragt sich naturlich auch auf die Links-Operatoren:

αp = Θ (|αp〉)

= Θ

∑αp−1

∑bp,b′p

X(bp,b

′p)

αp−1,αp |αp−1〉 ⊗ |bp, b′p〉

=∑αp−1

∑bp,b′p

X(bp,b

′p)

αp−1,αpΘ (|αp−1〉)⊗Θ(|bp, b′p〉

)=∑αp−1

∑bp,b′p

X(bp,b

′p)

αp−1,αpαp−1 ⊗ |bp〉〈b′p|

(4.2.16)

Gleiches gilt fur die Rechts-Operatoren:

βp = Θ (|βp〉)

= Θ

∑βp+1

∑bp,b′p

X(bp,b

′p)

βp,βp+1|bp, b′p〉 ⊗ |βp+1〉

=∑βp+1

∑bp,b′p

X(bp,b

′p)

βp,βp+1Θ(|bp, b′p〉

)⊗Θ (|βp+1〉)

=∑βp+1

∑bp,b′p

X(bp,b

′p)

βp,βp+1|bp〉〈b′p| ⊗ βp+1

(4.2.17)

Will man sein Augenmerk nur auf den p-ten Ort des Operators richten, ist auch furMatrixproduktoperatoren die Normaldarstellung nutzlich:

Bemerkung (4.2.3): (Normaldarstellung von Matrixproduktoperatoren):

Betrachten wir zwei Darstellungen des Operators: X = Op (X):

X = Θ ◦ Zust (X)

= Θ

∑αp

|αp〉 ⊗ |βp+1〉

=∑αp

Θ(|αp〉

)⊗Θ

(|βp+1〉

)=∑αp

αp ⊗ βp+1

(4.2.18)

111

Page 122: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

Unter Ausnutzung der rekursiven Struktur der Links-Operatoren haben wir

X =∑αp

αp ⊗ βp+1

=∑

αp−1,βp+1

∑bp,b′p

X(bp,b

′p)

αp−1,βp+1αp−1 ⊗ |bp〉〈b′p| ⊗ βp+1

(4.2.19)

wobei wir letztere in Analogie die Normaldarstellung des MatrixproduktoperatorsX nennen wollen.

Nun ware es vollkommen nutzlos Matrixproduktoperatoren zu definieren, wenn wirnicht in der Lage waren diese auch auf Vektoren anzuwenden:

Definition (4.2.4): (Anwendung von Operator-Matrixproduktketten auf Matrixpro-duktketten):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und X = MPK

(X(bq,b

′q))

eine Operator-Matrixproduktkette in D. Sei

D′ =

((Hp)p∈P ,

(Np′ ⊗Np′

)p′∈P ′

)(4.2.20)

ein Doppelraum uber H. Sei k′ = MPK(B(bq)

)eine Matrixproduktkette in D′

mit

B(bp) =∑b′p

X(bp,b′p) ⊗A(b′p) (4.2.21)

Dann nennen wir k′ die Anwendung von X auf k und schreiben

X(k) = X k := k′ (4.2.22)

112

Page 123: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.2 Definition der Matrixproduktoperatoren

|b1〉 |b2〉 |b3〉 |bL−2〉 |bL−1〉 |bL〉

X[1] X[2] X[3] . . . X[L−2] X[L−1] X[L]

b′1 b′2 b′3 b′L−2 b′L−1 b′L

A[1] A[2] A[3] . . . A[L−2] A[L−1] A[L]

α1 α2 αL−2 αL−1

α1 α2 αL−2 αL−1

Abbildung 4.3: Die Anwendung eines Matrixproduktoperators auf einenMatrixproduktzustand

Um den Begriff”Anwendung“ zu rechtfertigen prufen wir, ob die Anwendung in den

Raumen der Matrixproduktketten tatsachlich auch der Anwendung in den eigentlichenHilbert-Raumen entspricht [7].

Satz (4.2.1): (Anwendung von Matrixproduktoperatoren auf Matrixproduktzustande):

Mit den Voraussetzungen des vorigen Satzes, seien k′ = X k die Anwendung vonX auf k. Seien

|ψ〉 = Zust (k)

X = Op (X)(4.2.23)

die Zustande von k und X und

|ψ′〉 = Zust (k′) (4.2.24)

Dann gilt|ψ′〉 = X|ψ〉 (4.2.25)

alsoZust (k′) = Zust (X k) = Op (X) Zust (k) (4.2.26)

113

Page 124: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

Beweis :

Durch einfaches Nachrechnen:

X|ψ〉 =∑{bi,b′i}

|b1〉 ⊗ · · · ⊗ |bL〉X(b1,b′1) . . .X(bL,b

′L)〈b′1| ⊗ · · · ⊗ 〈b′L|

∑{b′′i }

A(b′′1 ) . . .A(b′′L)|b′′1〉 ⊗ · · · ⊗ |b′′L〉

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)A(b′1) . . .A(b′L)|b1〉 ⊗ · · · ⊗ |bL〉

=∑bp

∑i1

∑b′1

X(b1,b

′1)

α1 A(b′1)i1︸ ︷︷ ︸∑

b′1

X(b1,b′1)⊗A(b′1)

α1,i1

∑i2

∑b′2

X(b2,b

′2)

α1,α2 A(b′2)i1,i2︸ ︷︷ ︸∑

b′2

X(b2,b′2)⊗A(b′1)

(α1,i1)(α2,i2)

. . .

. . .∑b′L

X(bL,b

′1)

αL−1 A(b′L)iL−1︸ ︷︷ ︸∑

b′L

X(bL,b′L

)⊗A(b′L

)

αL−1,iL−1

|b1〉 ⊗ · · · ⊗ |bL〉

=∑{bp}

(∑b1

X(b1,b′1) ⊗A(b′1)

)︸ ︷︷ ︸

B(b1)

◦ · · · ◦

(∑bL

X(bL,b′L) ⊗A(b′L)

)︸ ︷︷ ︸

B(bL)

|b1〉 ⊗ · · · ⊗ |bL〉

=∑{bi}

B(b1) . . .B(bL)|b1〉 ⊗ · · · ⊗ |bL〉

= |ψ′〉(4.2.27)

Wir sehen also, dass es moglich ist die Anwendung von Matrixproduktoperatoren aufMatrixproduktzustande auf eine Art zu beschreiben, welche wieder auf einen Ma-trixproduktzustand fuhrt. Der einzige Wermutstropfen ist, dass der neue Zustand aufeinem Doppelraume dargestellt wird, dessen Nebenraumsdimensionen das Produkt derNebenraumsdimensionen des Matrixproduktoperators und des Matrixproduktzustan-des sind.

Zuletzt interessiert uns noch die Gestalt der Links- und Rechts-Zustande einer Ma-trixproduktkette, welche aus der Anwendung eines Matrixproduktoperators auf einen

114

Page 125: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.2 Definition der Matrixproduktoperatoren

Matrixproduktzustand hervorging. Dieses ist sowohl fur die Berechnung von Matrix-elementen als auch im nachsten Kapitel fur den Umgang mit Symmetrien von großerWichtigkeit.

Satz (4.2.2): (Links-Operatoren und Links-Zustande):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und X = MPK

(X(bq,b

′q))

eine Operator-Matrixproduktkette in D. Bezeichne αp die Links-Operatoren vonX, |ip〉 die Links-Zustande von k und |i′p〉 die Links-Zustande der Anwendungk′ = Xk von X auf k.

Dann gilt

|i′p〉 = |αp, ip〉 = αp|ip〉 (4.2.28)

|b1〉 |b2〉 |bp−1〉 |bp〉

X[1] X[2] . . . X[p−1] X[p]

A[1] A[2] . . . A[p−1] A[p]

|i′p−1〉 B[p]

|αp, ip〉 =

α1 αp−1 αp

b′1 b′2 b′p−1 b′p

i1 ip−1 ip

|bp〉

B[p]

i′p|i′p−1〉=

Abbildung 4.4: Rekursive Struktur der Links-Zustande, welche aus der Anwendungeines Matrixproduktoperators auf eine Matrixproduktkette hervorge-gangen sind

Beweis :

Wir beweisen durch Induktion nach p:

115

Page 126: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

Induktionsanfang fur p = 1:

α1|i1〉 =∑b1,b′1

X(b1,b

′1)

α1 |bp〉〈b′p|∑b′′1

A(b′′1 )i1|b′′1〉

=∑b1

∑b′1

X(b1,b

′1)

α1 A(b′1)i1

︸ ︷︷ ︸

B(b1)α1,i1

|b1〉

= |α1, i1〉

(4.2.29)

Induktionsschluss fur p− 1→ p:

αp|ip〉 =∑bp,b′p

∑αp−1

X(bp,b

′p)

αp−1,αp |bp〉〈b′p| ⊗ αp−1∑b′′p

∑ip−1

A(b′′p )

ip−1,ip|ip−1〉 ⊗ |b′′p〉

=∑bp

∑αp−1,ip−1

∑b′p

X(bp,b

′p)

αp−1,αpA(b′p)

ip−1,ip

︸ ︷︷ ︸

B(bp)

(αp−1,ip−1)(αp,ip)

|bp〉 ⊗ αp−1|ip−1〉 (4.2.30)

Nach Induktionsvoraussetzung ist αp−1|ip−1〉 = |αp−1, ip−1〉, also

αp|ip〉 =∑bp

∑αp−1,ip−1

B(bp)

(αp−1,ip−1)(αp,ip)|bp〉 ⊗ |αp−1, ip−1〉

= |αp, ip〉(4.2.31)

Satz (4.2.3): (Rechts-Operatoren und Rechts-Zustande):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und X = MPK

(X(bq,b

′q))

eine Operator-Matrixproduktkette in D. Bezeichne βp die Rechts-Operatoren vonX, |jp〉 die Rechts-Zustande von k und |j′p〉 die Rechts-Zustande der Anwendungk′ = Xk von X auf k.

Dann gilt

|j′p〉 = |βp, jp〉 = βp|jp〉 (4.2.32)

116

Page 127: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.2 Definition der Matrixproduktoperatoren

|bp〉 |bp+1〉 |bL−1〉 |bL〉

X[p] X[p+1] . . . X[L−1] X[L]

A[p] A[p+1] . . . A[L−1] A[L]

B[p]|j′p+1〉

|βp, jp〉 =

βLβp+1βp

b′p b′p+1 b′L−1 b′L

jLjp+1jp

|bp〉

B[p]

|jp+1〉jp=

Abbildung 4.5: Rekursive Struktur der Rechts-Zustande, welche aus der Anwendungeines Matrixproduktoperators auf eine Matrixproduktkette hervorge-gangen sind

Beweis :

Wir beweisen durch Induktion nach p:Induktionsanfang fur p = L:

βL|jL〉 =∑bL,b′L

X(bL,b

′L)

βL|bp〉〈b′p|

∑b′′L

A(b′′L)jL|b′′L〉

=∑bL

∑b′L

X(bL,b

′L)

βLA

(b′L)jL

︸ ︷︷ ︸

B(bL)

βL,jL

|bL〉

= |βL, jL〉

(4.2.33)

Induktionsschluss fur p+ 1→ p:

117

Page 128: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

βp|jp〉 =∑bp,b′p

∑βp+1

X(bp,b

′p)

βp,βp+1|bp+1〉〈b′p+1| ⊗ βp

∑b′′p

∑jp+1

A(b′′p )

jp,jp+1|jp〉 ⊗ |b′′p〉

=∑bp

∑βp+1,jp+1

∑b′p

X(bp,b

′p)

βp,βp+1A

(b′p)

jp,jp+1

︸ ︷︷ ︸

B(bp)

(βp,jp)(βp+1,jp+1)

|bp+1〉 ⊗ βp|jp〉 (4.2.34)

Nach Induktionsvoraussetzung ist βp+1|jp+1〉 = |βp+1, jp+1〉, also

βp|jp〉 =∑bp

∑βp+1,jp+1

B(bp)

(βp,jp)(βp+1,jp+1)|bp〉 ⊗ |βp+1, jp+1〉

= |βp, jp〉(4.2.35)

4.3 Matrixelemente

Da wir bereits im vorigen Kapitel die Berechnung der Skalarprodukte von Matrix-produktzustanden diskutiert haben, konnen wir prinzipiell Matrixelemente bereits aufdiese Weise berechnen. Wir werden jedoch eine leicht veranderte rekursive Berech-nungsvorschrift hierfur erarbeiten. Ziel hierbei ist eine Berechnungsvorschrift bei derdie p-ten Orte der Matrixproduktketten und der Operatormatrixproduktkette als Pa-rameter eingehen, wo hingegen alle anderen Orte bereits in einem Gebilde zusam-mengefasst werden. Die Idee ist, die p-ten Orte der Matrixproduktketten variieren zukonnen und fur alle anderen Orte einen moglichst großen Teil an Vorarbeit bereits imVorhinein geleistet zu haben. Der eigentliche Nutzen dieser Formulierung, wird sichuns erst im Kapitel uber den VMPS-Algorithmus erschließen.

Wir beginnen mit zwei Definitionen:

Definition (4.3.1): (E-Matritzen):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und k′MPK

(B(bq)

)eine

Matrixproduktkette in D′ und X = MPK(X(bq,b

′q))

eine Matrixproduktkette in

D. Die Glieder von z = Xk′ haben die Gestalt:

Z(bp) =∑b′p

X(bp,b′p) ⊗B(b′p) (4.3.36)

118

Page 129: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.3 Matrixelemente

In Komponenten:

Z(bp)

(αp−1,i′p−1)(αp,i′p)

=∑b′p

X(bp,b

′p)

αp−1,αp ⊗B(b′p)

i′p−1,i′p

(4.3.37)

Dann haben die Links-Zustande von z die Gestalt:

|αp, i′p〉 =∑bp

Z(bp)

(αp−1,i′p−1)(αp,i′p)|αp−1, i′p−1〉 ⊗ |bp〉 (4.3.38)

Seien |ip〉 die Links-Zustande von k. Dann ist die p-te E-Matrix von s(k,Xk′):

E(p)ip,(αp,i′p)

= 〈ip|αp, i′p〉

=∑bp

∑ip−1

A(bp)†ip,ip−1

∑αp−1,i′p−1

E(p−1)ip−1,(αp−1,i′p−1)

Z(bp)

(αp−1,i′p−1)(αp,i′p)

=∑bp,b′p

∑αp−1

X(bp,b

′p)

αp−1,αp

∑ip−1

A(bp)†ip,ip−1

∑i′p−1

E(p−1)ip−1,(αp−1,i′p−1)

B(b′p)

i′p−1,i′p

(4.3.39)

Wir wollen diese auch die p-te E-Matrix des Matrixelementes von k, k′, X nennenund die Indizes wie folgt schreiben:

E(αp)ip,i′p

:= E(p)ip,(αp,i′p)

=∑bp,b′p

∑αp−1

X(bp,b

′p)

αp−1,αp

∑ip−1

A(bp)†ip,ip−1

∑i′p−1

E(p−1)ip−1,(αp−1,i′p−1)

B(b′p)

i′p−1,i′p

=∑bp,b′p

∑αp−1

X(bp,b

′p)

αp−1,αp

∑ip−1

A(bp)†ip,ip−1

∑i′p−1

E(αp−1)

ip−1,i′p−1B

(b′p)

i′p−1,i′p

(4.3.40)

Dieses konnen wir in Matrixschreibweise noch ein wenig kompakter schreiben:

E(αp) =∑bp,b′p

∑αp−1

X(bp,b

′p)

αp−1,αpA(bp)†E(αp−1)B(b′p) (4.3.41)

119

Page 130: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

A[1]† A[2]† . . . A[p−1]† A[p]†

H[1] H[2] . . . H[p−1] H[p]

B[1] B[2] . . . B[p−1] B[p]

E(αp) =

i1 ip−1 ip

b1 b2 bp−1 bp

α1 αp−1 αp

b′1 b′2 b′p−1 b′p

i′1 i′p−1 i′p

E(αp−1)

Abbildung 4.6: Die Berechnung der E-Matritzen fur Matrixelemente

Definition (4.3.2): (Adjungierte F-Matritzen):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und k′MPK

(B(bq)

)eine

Matrixproduktkette in D′ und X = MPK(X(bq,b

′q))

eine Matrixproduktkette in

D. Die Glieder von z = Xk′ haben die Gestalt:

Z(bp) =∑b′p

X(bp,b′p) ⊗B(b′p) (4.3.42)

Wir wollen fortan immer ip = jp+1 und αp = βp+1 identifizieren. Dann haben wirin Komponenten:

Z(bp)

(βp,j′p)(βp+1,j′p+1)=∑b′p

X(bp,b

′p)

βp,βp+1⊗B(b′p)

j′p,j′p+1

(4.3.43)

Dann haben die Rechts-Zustande von z die Gestalt:

|βp, j′p〉 =∑bp

Z(bp)

(βp,j′p)(βp+1,j′p+1)|bp〉 ⊗ |βp+1, j

′p+1〉 (4.3.44)

Seien |jp〉 die Rechts-Zustande von k. Dann ist die p-te adjungierte F-Matrix von

120

Page 131: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.3 Matrixelemente

s(k,Xk′):

F(p)†(βp,j′p),jp

= 〈jp|βp, j′p〉

=∑bp

∑βp+1,j′p+1

Z(bp)

(βp,j′p)(βp+1,j′p+1)

∑jp+1

F(p+1)†(βp+1,j′p+1),jp+1

A(bp)†jp+1,jp

=∑bp,b′p

∑βp+1

X(bp,b

′p)

βp,βp+1

∑j′p+1

B(b′p)

j′p,j′p+1

∑jp+1

F(p+1)†(βp+1,j′p+1),jp+1)

A(bp)†jp+1,jp

(4.3.45)

Wir wollen diese auch die p-te adjungierte F-Matrix des Matrixelementes vonk, k′, X nennen und die Indizes wie folgt schreiben:

F(βp)†j′p,jp

:= F(p)†(βp,j′p),jp

=∑bp,b′p

∑βp+1

X(bp,b

′p)

βp,βp+1

∑j′p+1

B(b′p)

j′p,j′p+1

∑jp+1

F(p+1)†(βp+1,j′p+1),jp+1

A(bp)†jp+1,jp

=∑bp,b′p

∑βp+1

X(bp,b

′p)

βp,βp+1

∑j′p+1

B(b′p)

j′p,j′p+1

∑jp+1

F(βp+1)†j′p+1,jp+1

A(bp)†jp+1,jp

(4.3.46)

Dieses konnen wir in Matrixschreibweise noch ein wenig kompakter schreiben:

F(βp)†

=∑bp,b′p

∑βp+1

X(bp,b

′p)

βp,βp+1B(b′p)F(βp+1)

†A(bp)

†(4.3.47)

A[p]† A[p+1]† . . . A[L−1]† A[L]†

H[p] H[p+1] . . . H[L−1] H[L]

B[p] B[p+1] . . . B[L−1] B[L]

F(βp) =

jp jp+1 jL

bp bp+1 bL−1 bL

βp βp+1 βL

b′p b′p+1 b′L−1 b′L

j′p j′p+1 j′L

F(βp+1)†

Abbildung 4.7: Die Berechnung der adjungierten F-Matritzen fur Matrixelemente

Als Zwischenziel erhalten wir die erste Formulierung der Berechnung von Matrixele-menten mit E- und F-Matritzen:

121

Page 132: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4 Matrixproduktoperatoren

Satz (4.3.1): (Berechnung von Matrixelementen):

Sei k = MPK(A(bq)

)eine Matrixproduktkette in D und k′MPK

(B(bq)

)eine Ma-

trixproduktkette in D′ und X = MPK(X(bq,b

′q))

eine Matrixproduktkette in D.

Dann berechnen sich die Matrixelemente s(k,Xk′) wie folgt:

s(k,Xk′) =∑αp

Sp(E(αp)F(βp+1)

†)(4.3.48)

A[1]† A[2]† . . . A[p]† A[p+1]† . . . A[L−1]† A[L]†

H[1] H[2] . . . H[p] H[p+1] . . . H[L−1] H[L]

B[1] B[2] . . . B[p] B[p+1] . . . B[L−1] B[L]

i1 ip jL

b1 b2 bp bp+1 bL−1 bL

α1 αp βL

b′1 b′2 b′p b′p+1 b′L−1 b′L

i′1 i′p j′L

E(αp)F(βp+1)

Abbildung 4.8: Die Berechnung eines Matrixelementes

Beweis :

Wir verwenden die Berechnungsformel (3.8.181) fur Skalarprodukte:

s(k,Xk′) = Sp(E(p)F(p+1)†

)=∑ip,i′p

∑αp

E(p)ip,(αp,i′p)

F(p+1)†(βp+1,j′p+1),jp+1

(4.3.49)

122

Page 133: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

4.3 Matrixelemente

Mit der Definition von E(αp) und F(βp)†, wird hieraus schließlich:∑

ip−1

∑αp

E(p)ip,(αp,i′p)

F(p)†(βp+1,j′p+1),jp+1

=∑ip−1

∑αp

E(αp)ip,i′p

F(βp+1)†j′p+1,jp+1

=∑αp

Sp(E(αp)F(βp+1)

†) (4.3.50)

Nun sind wir am Ziele angelangt. Ohne viel Muhe gelangen wir zu der gewunschtenRechenvorschrift:

Bemerkung (4.3.1): (Normaldarstellung von Matrixelementen):

Seien alle Definitionen wie im vorangehenden Satze. Indem wir die rekursive De-finition der E-Matritzen ausnutzen, erhalten wir:

s(k,Xk′)

=∑αp

Sp(E(αp)F(βp+1)

†)=∑bp,b′p

∑αp−1,βp+1

X(bp,b

′p)

αp−1,βp+1Sp(A(bp)

†E(αp−1)B(b′p)F(βp+1)

†) (4.3.51)

Dieses wollen wir als Normaldarstellung des Matrixelementes von k, k′, X bezeich-nen.

123

Page 134: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 135: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Notation :

Im folgenden Kapitel sollen nun durchgangig folgende Bezeichnungen gelten:

Sei K = C oder K = R. Seien Hp (p = 1 . . . L) endlichdimensionale K-Vektorraumeund

H =

L⊗p=1

Hp (5.0.1)

Weiter bezeichne D einen Doppelraum uber H, und k ∈ D eine Matrixprodukt-kette dessen, sowie D einen Operator-Doppelraum und sei X ∈ D eine Operator-Matrixproduktkette in diesem.

5.1 Erzeugende von Symmetrien

Wir wollen uns nun dem Thema Symmetrien widmen. Wir erinnern daran, dass in derQuantenmechanik fast ausschließlich die Erzeugende einer Symmetrie von Bedeutungist, wenn also ein System durch einen Hamilton-Operator H beschrieben wird und Neinen weiteren selbstadjungierten Operator beschreibe, fur den gelte

[H,N] = 0 (5.1.2)

so bezeichnet man N als die Erzeugende eines unitaren Symmetrieoperators

S(T ) = eiNT (5.1.3)

mit Symmetrieparameter T . Fur diesen Symmetrieoperator gilt nun ebenfalls

[H,S(T )] = 0, ∀T (5.1.4)

Die Losung des Eigenproblemes von H und N,S lasst sich vereinigen, da H und N,Sein gemeinsames System von Eigenvektoren besitzen und beide sind Erhaltungsgroßen,denn: Bezeichne Z = N oder Z = S(T ) und bezeichne |ψ〉 einen Zustand des durch H

125

Page 136: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

beschriebenen Systemes. Unter Verwendung der Schrodinger-Gleichung erhalt man:

∂t〈ψ|Z|ψ〉 =

= 〈∂tψ|Z|ψ〉+ 〈ψ|Z|∂tψ〉+ 〈ψ| ∂tZ︸︷︷︸=0

|ψ〉

=i

~(〈ψ|ZH|ψ〉 − 〈ψ|HZ|ψ〉)

= 0

(5.1.5)

Nun wollen wir uns in dieser Arbeit nur auf, im Bezug zur Tensorraumsnatur von H,spezielle Erzeugende einer Symmetrie beschranken. Zu dem werden wir nicht auf dasVorhandensein mehrerer Erzeugender eingehen, d.h. es gebe N(1), . . . ,N(f) mit[

H,N(i)]

= 0, ∀i ∈ {1, . . . , f} (5.1.6)

Dann mussen wir zwei Falle unterscheiden:

Abel’scher Satz von Erzeugenden Es gilt[N(i),N(j)

]= 0, ∀i, j ∈ {1, . . . , f} (5.1.7)

dann sind die Erzeugenden unabhangig, und alle im folgenden Kapitel erarbei-teten Aussagen gelten fur jede Erzeugende unabhangig von den anderen, diesbedeutet vor allem, dass alle Superindizes, welche einen Bezug zu den Eigenwer-ten der Erzeugenden haben, durch unabhangige Tupel dieser Eigenwertindizesbeschrieben werden:

ip =(N (1)p , . . . , N (f)

p ,︸ ︷︷ ︸unabhangig

i′p)

(5.1.8)

Auf weitere Details wollen wir hier jedoch nicht eingehen.

Nicht Abel’scher Satz von Erzeugenden Es gibt i, j ∈ {1, . . . , f} mit[N(i),N(j)

]6= 0 (5.1.9)

Dann gelten die Aussagen dieses Kapitels nicht fur alle N(i) unabhangig von-einander. Man muss sich also auf die Verwendung kommutierender Erzeugenderbeschranken oder versuchen, aus den Erzeugenden einen moglichst großen Satzkommutierender Erzeugender zu konstruieren.

Nun jedoch zu der Klasse von Erzeugenden, welche fur uns von Interesse sind:

126

Page 137: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.1 Erzeugende von Symmetrien

Definition (5.1.1): (Additive Operatoren):

Seiennp ∈ L (Hp) (5.1.10)

selbstadjungierte lineare Operatoren der Raume Hp. Dann nennen wir einen Ope-rator der Gestalt

N =

L∑p=1

np (5.1.11)

einen additiven Operator.

Der Einfachheit halber werden wir die Einschrankung von N auf Teilketten vonH nicht explizit benennen: Sei

T =

K⊗p=j

Hp, J ≥ 1,K ≤ L (5.1.12)

ein Teilprodukt von H und sei |φ〉 ∈ T . So schreiben wir

N|φ〉 (5.1.13)

meinen hiermit jedoch die Anwendung des Operators

N =

K∑p=J

np (5.1.14)

auf |φ〉.

Naheliegend ist es, fur H eine Basis aus Eigenvektoren der Teiloperatoren zu verwen-den:

Definition (5.1.2): (Additive Basen):

Sei

N =

L∑p=1

np (5.1.15)

ein additiver Operator. Seien Bp Basen aus orthonormalen Eigenvektoren der np:

Bp ={|bp〉

∣∣∣np|bp〉 = Nbp |bp〉}

(5.1.16)

Dann nennen wir die Produktbasis

B ={|b1〉 ⊗ · · · ⊗ |bL〉

∣∣∣ |b1〉 ∈ B1, . . . , |bL〉 ∈ BL

}(5.1.17)

127

Page 138: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

eine additive Basis von H zu N. Fur den Operatorraum H definieren wir analog:

B ={

(|b1〉 ⊗ |b′1〉)⊗ · · · ⊗ (|bL〉 ⊗ |b′L〉)∣∣∣ |b1〉, |b′1〉 ∈ B1, . . . , |bL〉, |b′L〉 ∈ BL

}(5.1.18)

und bezeichnen dieses als eine additive Basis des Operatorraumes H von H.

Es ist fur additive Operatoren N leicht einzusehen, dass B genau die Menge derEigenvektoren darstellt. Die Menge der Eigenwerte ist dann gegeben durch

EN ={N = Nb1 + · · ·+NbL

∣∣∣ b1 ∈ B1, . . . , bL ∈ BL

}(5.1.19)

Wir wollen in den folgenden beiden Abschnitten zwei wichtige Fragestellungen unter-suchen:

- Welche Folgen hat es, wenn ein Matrixproduktzustand Eigenzustand eines addi-tiven Symmetrieoperators ist?

- Was bedeutet es, wenn ein Matrixproduktoperator mit einem additiven Symme-trieoperator kommutiert. Insbesondere interessiert uns die Frage, welche Eigen-schaften jener Matrixproduktzustand hat, der aus der Anwendung eines solchenOperators auf einen Eigenzustand in Matrixproduktgestalt hervorgeht.

5.2 Matrixproduktzustande und Symmetrien

Wir motivieren das Problem kurz: Angenommen ein quantenmechanisches System wer-de durch den Hamilton-Operator H beschrieben und wir wollten dessen Eigenproblemlosen (ganz gleich ob kleinster Eigenwert oder volles Spektrum). Wenn wir dann wis-sen, dass H mit einem weiteren Operator N kommutiert, so wissen wir ebenfalls, dassbeide eine gemeinsame Basis aus Eigenvektoren besitzen. Wenn es uns nun moglichist, ohne großeren Aufwand Basen der Eigenraume von N zu beschaffen, so konnenwir das Eigenproblem von H in den jeweiligen Unterraumen losen. Der algorithmischeAufwand des Eigenproblemes reduziert sich also auf den algorithmischen Aufwand desEigenproblemes auf dem großten Eigenraum von N.

Unglucklicherweise erlaubt die Struktur von Matrixproduktzustanden es nicht, die-se Aussage pauschal auf diese zu ubertragen. Wir werden im folgenden jedoch se-hen, wie es moglich ist Matrixproduktzustande auf Eigenraume additiver Operatoreneinzuschranken und damit Unter-Nebenraume zu erhalten, welche wesentlich kleinereDimensionen haben.

Die Wahl einer additiven Basis hat starke Auswirkungen auf die Darstellung von Ei-genzustanden des Operators N durch Matrixproduktketten:

128

Page 139: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.2 Matrixproduktzustande und Symmetrien

Satz (5.2.1):

Sei |ψ〉 = Zust (k) Eigenvektor von N zum Eigenwert N :

N|ψ〉 = N |ψ〉 (5.2.20)

Verwendet man als Basis von H eine additive Basis zu N, so mussen die Links-und Rechts-Zustande von k Eigenvektoren der Operatoren N sein:

N|ip〉 = Nip |ip〉N|jp〉 = Mjp |jp〉

(5.2.21)

Beweis :

I.) (Bedingung an die Verkettung der Glieder):|ψ〉 sei also ein Eigenzustand zu N. Betrachte also

N|ψ〉 = N∑{bi}

A(b1) . . .A(bL)|b1〉 ⊗ · · · ⊗ |bL〉 = N |ψ〉

⇔∑{bp}

A(b1) . . .A(bL) (N |b1〉 ⊗ · · · ⊗ |bL〉)

= A(b1) . . .A(bL) (N |b1〉 ⊗ · · · ⊗ |bL〉)

⇔∑{bp}

A(b1) . . .A(bL)

(∑p

Nbp −N

)|b1〉 ⊗ · · · ⊗ |bL〉 = 0

(5.2.22)

Wegen der linearen Unabhangigkeit der |b1〉 ⊗ · · · ⊗ |bL〉 gilt also∑p

Nbp = N ∨ A(b1) . . .A(bL) = 0 ∀b1 ∈ B1, . . . , bL ∈ BL (5.2.23)

II.) (Bedingung an das Mittelglied):Im Folgenden betrachten wir einen konkreten Satz von b1, . . . , bL. Wir zerlegenA(b1) . . .A(bL) in

A(b1) . . .A(bq−1)︸ ︷︷ ︸=:l(q−1)T

C(bq) B(bq+1) . . .B(bL)︸ ︷︷ ︸=:r(q+1)

= l(q−1)TC(bq)r(q+1)

=∑

iq−1,jq+1

l(q−1)Tiq−1

C(bq)iq−1,jq+1

r(q+1)jq+1

(5.2.24)

Wir definieren:

Nip = Nb1 + · · ·+Nbp

Mjp = Nbp + · · ·+NbL(5.2.25)

129

Page 140: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Falls Niq−1+Nbq +Mjq+1

6= N , muss gelten:

l(q−1)TC(bq)r(q+1) = 0 (5.2.26)

Da jedoch l(q−1)T , r(q+1),C(bq) bezuglich der bq unabhangig von einander sind,mussNiq−1 in den Index iq−1 undMiq+1 in den Index jq+1 eingeflochten werden, da

diese Indizes das einzige Bindeglied zwischen l(q−1)T , r(q+1) und C(bq) darstellenund ansonsten die Forderung nicht erfullbar ist. Fur die Indizierung der Links-Zustande bekommen wir so:

iq =(Nq, i

′q

), Nq ∈

{Nb1 + · · ·+Nbq

∣∣∣ b1 ∈ B1, . . . , bq ∈ Bq

}(5.2.27)

und

l(q−1)TNq−1,i′q−1

= 0 falls Nq−1 6= Niq−1 (5.2.28)

Und fur die Indizierung der Rechts-Zustande:

jq =(Mq, j

′q

), Mq ∈

{Mbq + · · ·+NbL

∣∣∣ bq ∈ Bq, . . . , bL ∈ BL

}(5.2.29)

und

r(q+1)Mq+1,j′q+1

= 0 falls Mq+1 6= Mjq+1 (5.2.30)

Hiermit bekommen wir fur alle l(q−1)T , r(q+1):

l(q−1)TC(bq)r(q+1)

=∑

Nq−1,i′q−1

∑Mq+1,j′q+1

l(q−1)T(Nq−1,i′q−1)

C(bq)

(Nq−1,i′q−1),(Mq+1,j′q+1)r(q+1)(Mq+1,j′q+1)

⇒ C(bq)

(Nq−1,i′q−1),(Mq+1,j′q+1)= 0 fur Nq−1 +Nbq +Mq+1 6= N

(5.2.31)

III.) (Bedingung an die Links-Glieder):Nun behandeln wir die l(p)T mit p < q. Betrachte

l(p)T = l(p−1)TA(bp) (5.2.32)

Wegen der Unabhangigkeit der l(p−1)T ,A(bp) bezuglich der bp, muss l(p−1)T dieInformation Nip−1 auf die oben beschriebene Weise in einem Index Np−1 fuhren,

wenn l(p)T uber einen solchen Index verfugen soll. Induktiv ergibt dieses, dass allel(p−1)T also einen solchen Index fuhren mussen. Es muss nun weiter gelten:

l(p)T(Np,i′p)

=∑i′p−1

l(p−1)T(Np−1,i′p−1)

A(bp)

(Np−1,i′p−1)(Np,i′p)

(5.2.33)

130

Page 141: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.2 Matrixproduktzustande und Symmetrien

Wegen Nip = Nip−1+Nbp und der Forderung

l(p)TNp,i′p

= 0 falls Np 6= Nip (5.2.34)

muss dannA

(bp)

(Nip−1,i′p−1)(Nip ,i

′p)

= 0 falls Nip−1+Nbp 6= Nip (5.2.35)

gelten.

IV.)(Beweis der Behauptung fur die Links-Zustande):Wir wollen die Basisvektoren der lokalen Basen nun wie folgt indizieren:

|bp〉 = |Nbp , sp〉 (5.2.36)

mitN|bp〉 = Nbp |Nbp , sp〉 (5.2.37)

Nun zeigen wir induktiv, dass die Links-Zustande Eigenzustande von N sind:

Induktionsanfang: p = 1:

N|i1〉 =∑Nb1 ,s1

A(Nb1 ,s1)

(Ni1 ,i′1)N|Nb1 , s1〉

=∑Nb1 ,s1

A(Nb1 ,s1)

(Ni1 ,i′1)Nb1 |Nb1 , s1〉

(5.2.38)

Die Bedingung (5.2.35) liefert:

A(b1)(Ni1 ,i

′1)

= 0 falls Nb1 6= Ni1 (5.2.39)

Womit dann

N|i1〉 =∑s1

A(Ni1 ,s1)

(Ni1 ,i′1)Ni1 |Nb1 , s1〉

= Ni1∑s1

A(Ni1 ,s1)

(Ni1 ,i′1)|Ni1 , s1〉

= Ni1 |i1〉

(5.2.40)

wird.

Induktionsschluss: p− 1→ p:

N|ip〉 =∑Nbp ,sp

∑ip−1

A(Nbp ,sp)

ip−1(Np,i′p)N|ip−1〉 ⊗ |Nbp , sp〉

=∑Nbp ,sp

∑ip−1

A(Nbp ,sp)

ip−1,(Np,i′p)(Nip−1

+Nbp)|ip−1〉 ⊗ |Nbp , sp〉(5.2.41)

131

Page 142: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Die Bedingung (5.2.35) lautet hier

A(bp)

(Nip−1,i′p)(Nip ,i

′p)

= 0 falls Nip−1 +Nbp 6= Nip (5.2.42)

Womit wir dann

N|ip〉 =∑sp

∑ip−1

A(Nbp ,s1)

ip−1,(Nip ,i′p)Nip |ip−1〉 ⊗ |Ni1 , s1〉

= Nip∑sp

∑ip−1

A(Nbp ,s1)

ip−1,(Nip ,i′p)|ip−1〉 ⊗ |Ni1 , s1〉 = Nip |ip〉

(5.2.43)

bekommen.

V.) Nun betrachten wir die r(p) mit p > q. Betrachte

r(p) = A(bp)r(p+1) (5.2.44)

Wegen der Unabhangigkeit der r(p+1),A(bp) bezuglich der bp, muss r(p+1) dieInformation Mjp+1

auf die oben beschriebene Weise in einem Index Mp+1 fuhren,

wenn r(p) uber einen solchen Index verfugen soll. Induktiv ergibt dieses, dass aller(p) also einen solchen Index fuhren mussen. Es muss nun weiter gelten:

r(p)(Mp,j′p)

=∑j′p+1

A(bp)

(Mp,j′p)(Mp+1,j′p+1)l(p+1)(Mp+1,j′p+1)

(5.2.45)

Wegen Mjp = Nbp +Njp+1 und der Forderung

r(p)Mp,j′p

= 0 falls Mp 6= Mjp (5.2.46)

muss dann

A(bp)

(Mjp ,j′p)(Mjp+1

,j′p+1)= 0 falls Nbp +Mjp+1

6= Mjp (5.2.47)

gelten.

VI.)(Beweis der Behauptung fur die Rechts-Zustande):Durch Induktion nach p zeigen wir, dass die Links-Zustande Eigenvektoren vonN sind:

Induktionsanfang: p = L:

N|jL〉 =∑

NbL ,sL

A(NbL ,sL)

(MjL,j′L)

N|NbL , j′1〉

=∑

NbL ,sL

A(NbL ,sL)

(MjL,j′L)

NbL |NbL , j′1〉(5.2.48)

132

Page 143: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.2 Matrixproduktzustande und Symmetrien

Die Bedingung (5.2.47) liefert:

A(bL)(MjL

,j′L)= 0 falls NbL 6= MjL (5.2.49)

Womit dann

N|jL〉 =∑sL

A(MjL

,sL)

(MjL,j′L)

MjL |MjL , sL〉

= MjL

∑sL

A(NjL ,sL)

(NjL ,j′L)|MjL , sL〉

= MjL |jL〉

(5.2.50)

wird.

Induktionsschluss: p+ 1→ p:

N|jp〉 =∑Nbp ,sp

∑jp+1

A(Nbp ,sp)

(Mjp ,j′p),jp+1

N|Nbp , sp〉 ⊗ |jp+1〉

=∑Nbp ,sp

∑ip−1

A(Nbp ,sp)

(Mjp ,j′p),jp+1

(Njp−1+Nbp)|Nbp , sp〉 ⊗ |jp+1〉

(5.2.51)

Die Bedingung (5.2.47) lautet hier

A(bp)

(Mjp ,j′p)(Mjp+1

,j′p+1)= 0 falls Njp+1

+Nbp 6= Njp (5.2.52)

Womit wir dann

N|jp〉 =∑sp

∑jp+1

A(Nbp ,s1)

(Mjp ,j′p),jp+1

Mjp |Ni1 , s1〉 ⊗ |jp+1〉

= Mjp

∑sp

∑ip−1

A(Nbp ,s1)

(Mjp ,j′p),jp+1

|Ni1 , s1〉 ⊗ |jp+1〉 = Mjp |jp〉(5.2.53)

bekommen.

Bemerkung (5.2.1): (Indizierung unter Symmetriestruktur):

Man beachte, dass wir durch die Wahl der Indizierung der |ip〉 und |jp〉 die Iden-tifizierung ip = jp+1 verloren haben. Wegen

Nip = Nbp +Nip−1

Mjp = Nbp +Mjp+1

N = Nip +Mjp+1

(5.2.54)

133

Page 144: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

ip = (Nip , i′p) = (N −Mp+1, j

′p)

jp = (Mp, j′p) = (N −Np−1, i′p)

(5.2.55)

Also

|ψ〉 =∑Nip ,i

′p

C(bp)

(Nip−1,i′p−1)(Mjp+1

,j′p+1)|Nip−1

, i′p−1〉 ⊗ |bp〉 ⊗ |Mjp+1, j′p+1〉

=∑Nip ,i

′p

C(bp)

(Nip−1,i′p−1)(N−Nip ,i′p)︸ ︷︷ ︸|Np,i′p〉

|Nip−1 , i′p−1〉 ⊗ |bp〉 ⊗ |Mjp+1 , j

′p+1〉

=∑Nip ,i

′p

|Nip , i′p〉 ⊗ |Mjp+1 , j′p+1〉

(5.2.56)

Nun werden wir sehen, dass als Folge des vorigen Satzes die Matritzen der Glieder ineine nebendiagonale Blockstruktur zerfallen:

Satz (5.2.2): (Block-Nebendiagonalgestalt der Glieder):

Sei k ∈ D eine Matrixproduktkette, deren Zustand |ψ〉 ein Eigenzustand von Nist und seien

Ip ={ip

∣∣∣N|ip〉 = Nip |ip〉}

Jp ={jp

∣∣∣N|jp〉 = Mjp |jp〉} (5.2.57)

Basen der Ip, Jp aus Eigenwerten von N.

Dann gilt fur die Glieder von k in diesen Basen:

A(bp)ip−1,ip

=

A

(bp)ip−1,ip

:

Nip−1+Nbp = Nip

und

∃Mjp+1: Nip +Mjp+1

= N

0 : sonst

(5.2.58)

A(bp)ip−1,jp+1

=

{A

(bp)ip−1,jp+1

: Nip−1+Nbp +Mjp+1

= N

0 : sonst(5.2.59)

A(bp)jp,jp+1

=

A

(bp)jp,jp+1

:

Mjp+1+Nbp = Mjp

und

∃Nip−1: Mjp +Nip−1

= N

0 : sonst

(5.2.60)

134

Page 145: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.2 Matrixproduktzustande und Symmetrien

|b1〉 |b2〉 |bp−1〉 |bp〉

A[1] A[2] . . . A[p−1] A[p]

ip−1 ipi1

+ + + +

|ip−1〉

|ip〉 =

Abbildung 5.1: Ein Links-Zustand mit Symmetriebedingung

|bp〉 |bp+1〉 |bL−1〉 |bL〉

A[p] A[p+1] . . . A[L−1] A[L]

jp+1jp jL

++++

|jp+1〉

|jp〉 =

Abbildung 5.2: Ein Rechts-Zustand mit Symmetriebedingung

Beweis :

Betrachte

N|ip〉 = Nip |ip〉

⇔∑ip−1

∑bp

A(bp)ip−1,ip

N|ip−1〉 ⊗ |bp〉 =∑ip−1

∑bp

A(bp)ip−1,ip

N |ip−1〉 ⊗ |bp〉

⇔∑ip−1

∑bp

A(bp)ip−1,ip

(Nip−1 |ip−1〉 ⊗ |bp〉+Nbp |ip−1〉 ⊗ |bp〉

)=∑ip−1

∑bp

A(bp)ip−1,ip

Nip |ip−1〉 ⊗ |bp〉

⇔∑ip−1

∑bp

A(bp)ip−1,ip

(Nip−1 +Nbp −Nip

)|ip−1〉 ⊗ |bp〉 = 0

(5.2.61)

Wegen der linearen Unabhangigkeit der |ip−1〉 ⊗ |bp〉 muss dann gelten:

N|ip〉 = Nip |ip〉

⇔ A(bp)ip−1,ip

(Nip−1

+Nbp −Nip)|ip−1〉 ⊗ |bp〉 = 0

(5.2.62)

135

Page 146: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Also

A(bp)ip−1,ip

= 0 ∧ Nip−1+Nbp = Nip (5.2.63)

Damit ist die erste Aussage gezeigt. Wenn wir nun ip von A(bp) durch den Indexdes erganzenden Rechts-Zustandes jp+1 umindizieren und die Aussage

Nip = N −Mjp+1 (5.2.64)

des vorigen Satzes verwenden, dann wird die vorige Aussage zu

A(bp)ip−1,jp+1

= 0 ∧ Nip−1+Nbp = N −Njp+1

⇔ Nip−1 +Nbp +Njp+1 = N(5.2.65)

Dies ist die zweite Aussage. Weiter indiziere man ip−1 von A(bp) durch den Indexseines erganzenden Rechts-Zustandes um. Die Aussage des vorigen Satzes lautetin diesem Falle

Ni−1 = N −Mjp (5.2.66)

und damit wird die zweite Aussage des Satzes zu

A(bp)jp,jp+1

= 0 ∧ N −Mjp +Nbp +Njp+1= N

⇔ Nbp +Njp+1 = Mjp

(5.2.67)

Dieses ist die dritte Aussage des Satzes.

|b1〉 |b2〉 |bp〉 |bp+1〉 |bL−1〉 |bL〉

A[1] A[2] . . . A[p] N A[p+1] . . . A[L−1] A[L]

i1

+ + +

iL

+++

|ip〉 |jp+1〉

Abbildung 5.3: Ein Matrixproduktzustand, der Eigenzustand einer Symmetrie ist

Die Große dieser Blocke ergibt sich aus den Entartungsgraden der Links- und Rechts-Zustande, welche ja Eigenvektoren zu N sind. Die Glieder der Matrixproduktket-te zerfallen also in Blocke. Dies bedeutet, dass es fur jeden Eigenwert Nip eines

136

Page 147: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

Links-Zustandes bzw. Njp+1des erganzenden Rechts-Zustandes einen eigenen Unter-

Nebenraum NNip gibt. All jene Operationen, welche bei Rechnungen mit Matrixpro-duktzustanden auftreten, finden nun innerhalb der Unter-Nebenraume statt. Multipli-ziert man z.B. die Matritzen zweier Glieder, so muss man nur noch die kleineren Block-matritzen miteinander multiplizieren, was gegenuber der Multiplikation der vollen Ma-tritzen einen gewaltigen Vorteil bedeutet. Dennoch sieht man auch, wie schwierig dieEinschatzung des Effizienzgewinnes ist, da dieser vor allem von der Ausgewogenheitder Unter-Nebenraums-Dimensionen abhangt. Fur die algorithmische Komplexitat istnamlich der großte Unter-Nebenraum maßgeblich.

5.3 Matrixproduktoperatoren und Symmetrien

Als Erstes wollen wir untersuchen welche Schlusse wir daraus ziehen konnen, wenn einMatrixproduktoperator X mit einem additiven Symmetrieoperator N kommutiert. Wirwerden hierbei sehen, dass der Matrixproduktoperator dann ebenfalls eine Symmetrie-struktur erhalt. Der additve Operator, zu welchem diese Symmetriestruktur gehort,leitet sich aus N ab, ist jedoch auf dem Operatorraume definiert:

Definition (5.3.1): (Differenz-Operatoren):

Definiere die lokalen Differenz-Operatoren durch

δnp = np ⊗ 1︸ ︷︷ ︸=:n

(1)p

−1⊗ np︸ ︷︷ ︸=:n

(2)p

= n(1)p − n(2)

p ∈ L(Hp) (5.3.68)

Dann definieren wir den Differenz-Operator Nδ ∈ L(H)

zu N durch

Nδ =

L∑p=1

δnp =

L∑p=1

(n(1)p − n(2)

p

)(5.3.69)

Nun untersuchen wir den Zusammenhang zwischen der Vertauschbarkeit von N undX und dem Differenz-Operator Nδ zu N:

Satz (5.3.1): (Matrixproduktoperatoren und Symmetrie):

Bezeichne Nδ den Differenz-Operator von N. Seien |αp〉 die Links-Zustande und|βp〉 die Rechts-Zustande von X. Es gelte

[X,N] = 0 (5.3.70)

137

Page 148: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Dann sind die Links- und Rechts-Zustande von X Eigenvektoren des OperatorsNδ:

Nδ|αp〉 = Pαp |αp〉Nδ|βp〉 = Qβp |βp〉

(5.3.71)

|b1〉 |b2〉 |bp−1〉 |bp〉

H[1] H[2] . . . H[p−1] H[p]

〈b′1| 〈b′2| 〈b′p−1| 〈b′p|

αp−1 αpα1

+ + + +

αp−1

αp =

Abbildung 5.4: Ein Links-Operator mit Symmetriebedingung

|bp〉 |bp+1〉 |bL−1〉 |bL〉

H[p] H[p+1] . . . H[L−1] H[L]

〈b′p| 〈b′p+1| 〈b′L−1| 〈b′L|

βp+1βp βL

++++

βp+1

βp =

Abbildung 5.5: Ein Rechts-Operator mit Symmetriebedingung

138

Page 149: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

|b1〉 |b2〉 |bp〉 |bp+1〉 |bL−1〉 |bL〉

H[1] H[2] . . . H[p] 0 H[p+1] . . . H[L−1] H[L]

〈b′1| 〈b′2| 〈b′p| 〈b′p+1| 〈b′L−1| 〈b′L|

α1 αp βp+1 βL

+ + + + + +

αp βp+1

Abbildung 5.6: Ein MPO mit Symmetriebedingung

Beweis :

I.)(Aquivalenz des Differenz-Operators und des Kommutators):Zuerst zeigen wir, dass

[X,N] = 0 (5.3.72)

und

NδZust (X) = 0 (5.3.73)

aquivalent sind.

139

Page 150: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Dazu fuhren wir NδΘ (X) aus:

NδΘ (X)

= NδΘ

∑{bi,b′i}

|b1〉 ⊗ · · · ⊗ |bL〉X(b1,b′1) . . .X(bL,b

′L)〈b′1| ⊗ · · · ⊗ 〈b′L|

=

L∑p=1

(n(1)p − n(2)

p

) ∑{bq∈Bq}

∑{b′q∈B′q}

X(b1,b′1) . . .X(bL,b

′L)|b1, b′1〉 ⊗ · · · ⊗ |bN , b′N 〉

=∑

{bq∈Bq}

∑{b′q∈B′q}

X(b1,b′1) . . .X(bL,b

′L)

L∑p=1

(n(1)p − n(2)

p

)|b1, b′1〉 ⊗ · · · ⊗ |bN , b′N 〉

=∑

{bq∈Bq}

∑{b′q∈B′q}

X(b1,b′1) . . .X(bL,b

′L)

L∑p=1

(Nbp −Nb′p

)|b1, b′1〉 ⊗ · · · ⊗ |bN , b′N 〉

(5.3.74)

Also:

NδΘ (X) = 0

⇔∑

{bq∈Bq}

∑{b′q∈B′q}

X(b1,b′1) . . .X(bL,b

′L)

L∑p=1

(Nbp −Nb′p

)|b1, b′1〉 ⊗ · · · ⊗ |bN , b′N 〉 = 0

(5.3.75)

140

Page 151: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

Wir betrachten ebenfalls

[X,N]

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

(N|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|−

− |b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|N)

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

(N|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|−

− |b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|N†)

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

∑p

(np|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|−

− |b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|n†p)

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

∑p

(np|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|−

− |b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|n†p)

=∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

∑p

(Nbp −Nb′p

)|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|

(5.3.76)

141

Page 152: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Wegen der Isomorphie ist [X,N] = 0 aquivalent zu Θ ([X,N]) = 0. Also

[X,N] = 0

⇔ Θ ([X,N]) = 0

⇔ Θ

( ∑{bp,b′p}

X(b1,b′1) . . .X(bL,b

′L)

∑p

(Nbp −Nb′p

)|b1〉 ⊗ · · · ⊗ |bL〉〈b′1| ⊗ · · · ⊗ 〈b′L|

)= 0

⇔∑

{bq∈Bq}

∑{b′q∈B′q}

X(b1,b′1) . . .X(bL,b

′L)

L∑p=1

(Nbp −Nb′p

)|b1, b′1〉 ⊗ · · · ⊗ |bN , b′N 〉 = 0

(5.3.77)

Damit gilt[X,N] = 0 ⇔ NδZust (X) = 0 (5.3.78)

II.)(Beweis der Aussage des Satzes):Vorausgesetzt hatten wir

[X,N] = 0 (5.3.79)

Wir wissen, dass deswegenNδ Zust (X) = 0 (5.3.80)

gilt. Und obgleich dieses keine”echte“ Eigenwertgleichung darstellt, lassen sich

alle Schritte des Beweises von Satz (5.2) dennoch anwenden, wenn man

N = 0 (5.3.81)

setzt. Wir wollen dieses hier nicht ausfuhren, da jeder Schritt vollig analog durch-zufuhren ist. Es ergeben sich ebenso

Nδ|αp〉 = Pαp |αp〉Nδ|βp〉 = Qβp |βp〉

(5.3.82)

wie auch die Aussagen uber die Orte.

Zum einen haben wir durch den vorigen Satz die Moglichkeit erhalten, mittels der Sym-metriestruktur, Matrixproduktoperatoren effizienter zu beschreiben. Viel wichtiger furunser Ziel Krylov-Raume mit Matrixproduktzustanden und Matrixproduktoperatorenzu erzeugen, ist jedoch herauszufinden, auf welche Art die Symmetriestruktur eines

142

Page 153: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

Matrixproduktzustandes |ψ〉 durch die Anwendung eines Matrixproduktoperators Xerhalten bleibt. Dass die Struktur im Prinzipe erhalten bleibt, ist gesichert:

NX |ψ〉 = XN |ψ〉 = NψX |ψ〉 (5.3.83)

Der Zustand |ψ〉′ = X |ψ〉 ist also ebenfalls Eigenzustand von N zum gleichen Eigen-werte wie |ψ〉. Die Frage lautet eher

”wie“ die Struktur erhalten bleibt.

Die nachsten beiden Satze geben hieruber Auskunft:

Satz (5.3.2): (Eigenwert der Links-Zustande):

Bezeichne Nδ den Differenz-Operator von N. Sei k′ = X k und gelte

[X,N] = 0 (5.3.84)

so wieN|ψ〉 = N |ψ〉 (5.3.85)

Wie wir bereits wissen, gilt fur die Links-Zustande |ip〉 von k und |αp〉 von X:

N|ip〉 = Nip |ip〉Nδ|αp〉 = Pαp |αp〉

(5.3.86)

Außerdem gilt fur die Links-Zustande |αp, ip〉 von Xk:

N|αp, ip〉 =(Nip + Pαp

)|αp, ip〉 (5.3.87)

|b1〉 |b2〉 |bp−1〉 |bp〉

H[1] H[2] . . . H[p−1] H[p]

A[1] A[2] . . . A[p−1] A[p]

αp−1 αpα1

+ + + +

ip−1 ip

b′1 b′2 b′p−1 b′p

i1

+ + + +

αp−1

Abbildung 5.7: Durch Operatoranwendung entstandener Links-Zustand mitSymmetriebedingungen

143

Page 154: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Beweis :

Wir zeigen dieses durch Induktion nach p:Induktionsanfang p = 1:

Wir wahlen als lokale Basen

|bp〉 = |Nbp , sp〉 (5.3.88)

mit

N|bp〉 = Nbp |Nbp , sp〉 (5.3.89)

Damit haben wir

N|α1, i1〉 =∑Nb1 ,s1

B(Nb1 ,s1)

α1,i1N|Nb1 , S1〉

=∑Nb1 ,s1

∑Nb′1

,s′1

X(Nb1 ,s1,Nb′1

,s′1)

α1 A(Nb1 ,s1)

i1

Nb1 |Nb1 , s1〉(5.3.90)

Nun gilt sowohl

X(Nb1 ,s1)(Nb′1

,s′1)

α1 = 0 falls Nb1 6= Pα1+Nb′1 (5.3.91)

als auch

A(Nb′1

,s′1)

i1= 0 falls Nb′1 6= Ni1 (5.3.92)

Womit wir dann

N|α1, i1〉

=∑s1

∑s′1

X(Ni1+Pα1 ,s1)(Ni1 ,s

′1)

α1 A(Ni1 ,s1)i1

(Ni1 + Pα1) |Ni1 + Pα1

, s1〉

= (Ni1 + Pα1) |Pα1,i1〉

(5.3.93)

erhalten.

144

Page 155: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

Induktionsschluss p− 1→ p: Betrachte also

N|αp, ip〉

=∑

αp−1,ip−1

∑Nbp ,sp

B(Nbp ,sp)

(αp−1,ip−1)(αp,ip)N|αp−1, ip−1〉 ⊗ |Nbp , sp〉

=∑

αp−1,ip−1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp A(Nb′p

,s′p)

ip−1,ip

N|αp−1, ip−1〉 ⊗ |Nbp , sp〉

(5.3.94)

Wir nutzen die Induktionsvoraussetzung

N|αp−1, ip−1〉 = Nip−1+ Pαp−1

|αp−1, ip−1〉 (5.3.95)

und erhalten damit

∑αp−1,ip−1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp A(Nb′p

,s′p)

ip−1,ip

N|αp−1, ip−1〉 ⊗ |Nbp , sp〉

=∑

αp−1,ip−1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp A(Nb′p

,s′p)

ip−1,ip

(Nip−1 + Pαp−1 +Nbp

)|αp−1, ip−1〉 ⊗ |Nbp , sp〉

(5.3.96)

Weiter gelten:

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp = 0 falls Nbp −Nb′p 6= Pαp − Pαp−1(5.3.97)

und

A(Nb′p

,s′p)

ip−1,ip= 0 falls Nb′p 6= Nip −Nip−1 (5.3.98)

Also gilt

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp A(Nb′p

,s′p)

ip−1,ip6= 0 (5.3.99)

nur fur

Nb′p = Nip −Nip−1

Nbp = Pαp − Pαp−1+Nip −Nip−1

(5.3.100)

145

Page 156: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

Dieses fuhrt auf:

∑αp−1,ip−1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

αp−1,αp A(Nb′p

,s′p)

ip−1,ip

(Nip−1 + Pαp−1 +Nbp

)|αp−1, ip−1〉 ⊗ |Nbp , sp〉

=∑

αp−1,ip−1

∑sp

∑s′p

X(Pαp−Pαp−1

+Nip−Nip−1,sp)(Nip−Nip−1

,s′p)αp−1,αp A

(Nip−Nip−1,s′p)

ip−1,ip

(Nip−1 + Pαp−1 + Pαp − Pαp−1 +Nip −Nip−1

)|αp−1, ip−1〉 ⊗ |Pαp − Pαp−1 +Nip −Nip−1 , sp〉

= Nip + Pαp |αp, ip〉(5.3.101)

Satz (5.3.3): (Eigenwert der Rechts-Zustande):

Sei H =⊗L

p=1Hp ein Tensorproduktsraum und H =L⊗p=1Hp dessen Operator-

raum. Seien

D =(

(Hp)p∈P , (Np′)p′∈P ′)D′ =

((Hp)p∈P ,

(N ′p′)p′∈P ′

)(5.3.102)

Doppelraume uber H und

D =

((Hp)p∈P

,(Np′)p′∈P ′

)(5.3.103)

ein Operator-Doppelraum uber H. Sei k = MPK(A(bq)

)eine Matrixproduktkette

in D und k′ = MPK(B(bq)

)eine Matrixproduktkette in D′ mit |ψ〉 = Zust (k)

und X = MPK(X(bq,b

′q))

eine Matrixproduktkette in D, mit X = Op (X). Des

weiteren sei N =L∑p=1

np ein additiver Operator und Nδ dessen Differenz-Operator

und es gelte[X,N] = 0 (5.3.104)

so wieX|ψ〉 = N |ψ〉 (5.3.105)

Wir wir bereits wissen, gilt fur die Rechts-Zustande |jp〉 von k und |βp〉 von X:

N|jp〉 = Mjp |jp〉Nδ|βp〉 = Qβp |βp〉

(5.3.106)

146

Page 157: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

Dann gilt fur die Rechts-Zustande |βp, jp〉 von Xk:

N|βp, jp〉 =(Mjp +Qβp

)|βp, jp〉 (5.3.107)

|bp〉 |bp+1〉 |bL−1〉 |bL〉

H[p] H[p+1] . . . H[L−1] H[L]

A[p] A[p+1] . . . A[L−1] A[L]

βp+1βp βL

++++

jp+1jp

b′Lb′L−1b′p+1b′p

jL

++++

βp+1

Abbildung 5.8: Durch Operatoranwendung entstandener Rechts-Zustand mitSymmetriebedingungen

Beweis :

Wir zeigen dieses durch Induktion nach p:Induktionsanfang p = L:

Wir wahlen als lokale Basen|bp〉 = |Nbp , sp〉 (5.3.108)

mitN|bp〉 = Nbp |Nbp , sp〉 (5.3.109)

Damit haben wir

N|βL, jL〉 =∑

NbL ,sL

B(NbL ,sL)

βL,jLN|NbL , sL〉

=∑

NbL ,sL

∑Nb′

L,s′L

X(NbL ,sL,Nb′L

,s′L)

βLA

(NbL ,sL)

jL

NbL |NbL , sL〉(5.3.110)

Nun gilt sowohl

X(NbL ,sL)(Nb′L

,s′L)

βL= 0 falls NbL 6= QβL +Nb′L (5.3.111)

147

Page 158: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5 Symmetrien

also auchA

(NbL ,sL)

jL= 0 falls Mb′L

6= MjL (5.3.112)

Womit wir dann

N|βL, jL〉

=∑sL

∑s′L

X(NjL+QβL ,sL)(NjL ,s

′L)

βLA

(NjL ,sL)

jL

(MjL +QβL) |MjL +QβL , sL〉

= (MjL +QβL) |QβL,jL〉(5.3.113)

erhalten.

Induktionsschluss p+ 1→ p: Betrachte also

N|βp, jp〉

=∑

βp+1,jp+1

∑Nbp ,sp

B(Nbp ,sp)

(βp,jp)(βp+1,jp+1)N|βp+1, jp+1〉 ⊗ |Nbp , sp〉

=∑

βp+1,jp+1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1A

(Nb′p,s′p)

jp,jp+1

N|βp+1, jp+1〉 ⊗ |Nbp , sp〉

(5.3.114)

Wir nutzen die Induktionsvoraussetzung

N|βp+1, jp+1〉 = Mjp+1+Qβp+1

|βp+1, jp+1〉 (5.3.115)

und erhalten damit

∑βp+1,jp+1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1A

(Nb′p,s′p)

jp,jp+1

N|βp+1, jp+1〉 ⊗ |Nbp , sp〉

=∑

βp+1,jp+1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1A

(Nb′p,s′p)

jp,jp+1

(Mjp+1

+Qβp+1+Nbp

)|βp+1, jp+1〉 ⊗ |Nbp , sp〉

(5.3.116)

Weiter gelten:

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1= 0 falls Nbp −Nb′p 6= Qβp −Qβp+1

(5.3.117)

148

Page 159: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

5.3 Matrixproduktoperatoren und Symmetrien

und

A(Nb′p

,s′p)

jp,jp+1= 0 falls Nb′p 6= Mjp −Mjp+1

(5.3.118)

Also gilt

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1A

(Nb′p,s′p)

jp,jp+16= 0 (5.3.119)

nur fur

Nb′p = Mjp −Mjp+1

Nbp = Qβp −Qβp+1+Mjp −Mjp+1

(5.3.120)

Damit haben wir:

∑βp+1,jp+1

∑Nbp ,sp

∑Nb′p

,s′p

X(Nbp ,sp)(Nb′p

,s′p)

βp,βp+1A

(Nb′p,s′p)

jp,jp+1

(Mjp+1

+Qβp+1+Nbp

)|βp+1, jp+1〉 ⊗ |Nbp , sp〉

=∑

βp+1,jp+1

∑sp

∑s′p

X(Qβp−Qβp+1

+Mjp−Mjp+1,sp)(Mjp−Mjp+1

,s′p)

βp,βp+1A

(Mjp−Mjp+1,s′p)

jp,jp+1

(Mjp+1

+Qβp+1+Qβp −Qβp+1

+Mjp −Mjp+1

)|βp+1, jp+1〉 ⊗ |Qβp −Qβp+1

+Mjp −Mjp+1, sp〉

= Mjp +Qβp |βp, jp〉(5.3.121)

|b1〉 |b2〉 |bp〉 |bp+1〉 |bL−1〉 |bL〉

H[1] H[2] . . . H[p−1] 0 H[p+1] . . . H[L−1] H[L]

A[1] A[2] . . . A[p−1] N A[p+1] . . . A[L−1] A[L]

+ + + + + +

α1 αp βp+1 βL

b′Lb′L−1b′p+1b′pb′2b′1+ + + + + +

i1 ip jp+1 jL

αp βp+1

Abbildung 5.9: Die Anwendung eines Matrixproduktoperators auf eine Matrixpro-duktkette unter Symmetriebedingungen

149

Page 160: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 161: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

6.1 VMPS

Notation :

Sei p = 1, . . . , L und

H =

L⊗p=1

Hp (6.1.1)

ein Tensorproduktsraum und H dessen Operatorraum und seien D und D Dop-pelraume uber H und H

Im folgenden Kapitel wollen wir den VMPS-Algorithmus [1] [22] vorstellen. Ziel istes, naherungsweise den kleinsten Eigenwert und einen zugehorigen Eigenvektor einesMatrixproduktoperators zu bestimmen.

Wir gehen also davon aus, der zu betrachtende Operator liege bereits in effektiverWeise als Matrixproduktoperator vor:

Sei also X = Op (X) der Operator einer Operatormatrixproduktkette X in D. DieAufgabe bestehe nun darin den kleinsten Eigenwert von X und ggf. einen zugehorigenEigenvektor zu bestimmen.

Exakte Minimierung Mittels des Rayleigh-Prinzipes Ausgedruckt lautet die exakteFormulierung des kleinsten Eigenwertproblemes:

λ = Min[ψ∈H]

{f (|ψ〉) =

〈ψ|H|ψ〉〈ψ|ψ〉

}(6.1.2)

Fur große Vektorraume H konnen wir das Problem allgemein nicht losen, da dieZahl der Variationsparameter mit

npar =

L∏p=1

dp, dp = Dim (Hp) (6.1.3)

151

Page 162: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

viel zu groß ist.

Beschrankung auf Matrixproduktzustande Als erste Naherung ist es naheliegenddie variierten Vektoren als Matrixproduktzustand anzunehmen. Da wir jedochnicht wissen, auf welchem Doppelraum der gesuchte Eigenzustand exakt dar-gestellt werden kann, mussen wir uns mittels der Konvergenz des Funktionalesentweder an einen Doppelraum herantasten, welcher ausreichende Nebenraums-dimensionen aufweist, oder uns mit der Naherung begnugen, den Doppelraum Deinfach als fest anzunehmen

λ = Min[ψ∈Zuste(D)]

{f (|ψ〉) =

〈ψ|H|ψ〉〈ψ|ψ〉

}(6.1.4)

und somit womoglich keine numerisch exakte Losung des kleinsten Eigenwert-problemes bestimmt zu haben.

Nun ist allerdings auch hier die Zahl der Variationsparameter mit

L∑p=1

dpmp−1mp,dp = Dim (Hp)mp = Dim (Np)

(6.1.5)

im Normalfalle sehr groß und da Zuste (D) kein Unterraum ist, ist der Defi-nitionsbereich der Minimierung schwierig zu fassen und vor allem sind keineGradientenverfahren anwendbar, was die Minimierung nur sehr schwer und vorallem nicht effizient losbar macht.

Lokaler Sweep-Algorithmus Als Losung bietet es sich nun an, die Kette

H = H1 ⊗H2 ⊗ · · · ⊗ HL (6.1.6)

immer wieder Platz fur Platz abzuschreiten, und nur die Parameter des jeweiligenPlatzes zu variieren. Dieses bezeichnet man als Sweepen. Es ist ublich die Kettevon einem Ende zum anderen platzweise zu durchlaufen und an einem der Endenangelangt immer den Laufsinn zu andern.

H1 ⊗ H2 ⊗ H3 ⊗ ⊗ Hq ⊗ ⊗ HL−1 ⊗ HL

. . . . . .

Abbildung 6.1: Der ubliche Laufsinn beim Sweepen

152

Page 163: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6.1 VMPS

Wie aber ist das Variieren der Parameter eines Platzes q zu verstehen? Wirwissen bereits, dass das Matrixelement

〈ψ|X|ψ〉 =∑bq,b′q

∑αq−1,βq+1

X(bq,b

′q)

αq−1,βq+1Sp(A(bq)

†E(αq−1)A(b′q)F(βq+1)

†)(6.1.7)

ist. Hierbei sind alle Parameter von |ψ〉, welche mit den Platzen 1 bis q − 1verbunden sind, in E(αq−1) enthalten und all jene der Platze q + 1 bis L in

F(βq+1)†. In dem wir diese unberuhrt lassen, bleiben die Unterraume

Iq−1 ⊂q−1⊗p=1

Hq−1

Jq+1 ⊂L⊗

p=q+1

Hq+1

(6.1.8)

unverandert und wir losen das Optimierungsproblem auf dem Raume

H′ = Iq−1 ⊗Hq ⊗ Jq+1 (6.1.9)

So bedeutet Variation der Parameter des q-ten Platzes also die Losung folgendenProblemes:

λ = Min[|ψ〉∈H′]

{f (|ψ〉) =

〈ψ|H|ψ〉〈ψ|ψ〉

}(6.1.10)

Fordern wir nun noch, dass die Kette k, deren Zustand |ψ〉 kanonisch sei, sohangt die Norm des Zustandes nur vom q-ten Orte ab. Wir konnen also beider Variation des q-ten Ortes die Normierung von |ψ〉 gewahrleisten und konnendaher bei der Formulierung des Problemes auf den Normierungsfaktor verzichtenund bekommen:

λ = Min[|ψ〉∈H′

〈ψ|ψ〉=1

] {f (|ψ〉) = 〈ψ|H|ψ〉} (6.1.11)

Dieses Teilproblem besteht nun lediglich noch aus der Variation von

npar = dqmq−1mq (6.1.12)

Parametern

Wegen des Rayleigh-Ritz-Prinzips fur Unterraume ist das obige Problem aquivalentzur Bestimmung des kleinsten Eigenwert-Eigenvektor-Paares des Operators

X′ = X|H′ (6.1.13)

Beachte, dass dieser Operator ebenfalls selbstadjungiert sein muss, da die Einschrankungvon selbstadjungierten Operatoren auf endlichdimensionalen Vektorraumen wiederselbstadjungiert ist.

Um dieses Problem zu losen sehen wir zu allererst, dass wir uns auf schnelle Weise dieMatrixelemente von X′ in der Basis B′ beschaffen konnen:

153

Page 164: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

Satz (6.1.1): (Form der Matrixelemente von X′):

Die Matrixelemente des auf H′ eingeschrankten Operators X′ lauten in der BasisB′

X ′(iq−1,bq,jq+1),(i′q−1,b

′q,j′q+1)

=∑

αq−1,βq+1

E(αq−1)iq−1,iq−1

X(bq,b

′q)

αq−1,βq+1F

(βq+1)†j′q+1,jq+1

(6.1.14)

Beweis :

Die Basisvektoren |iq−1, bq, jq+1〉 konnen als Matrixproduktzustand dargestelltwerden durch

|iq−1, bq, jq+1〉

=∑

i′q−1,b′q,j′q+1

δiq−1,i′q−1δjq+1,j′q+1

δbq,b′q︸ ︷︷ ︸Z

(b′q)

i′q−1

,J′q+1

|i′q−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (6.1.15)

Wenn wir nun die Formel zur Berechnung von Matrixelementen anwenden, gibtdieses:

〈iq−1, bq, jq+1|X|i′q−1, b′q, j′q+1〉

=∑ω,ω′

∑αq−1,βq+1

X(ω,ω′)αq−1,βq+1

Sp(Z(ω)†E(αq−1)Z(ω′)F(βq+1)

†)=∑ω,ω′

∑αq−1,βq+1

X(ω,ω′)αq−1,βq+1∑

µ,µ′

∑ν,ν′

δµ,iq−1δν,jq+1δω,bq E(αq−1)µ,µ′ δi′q−1,µ

′δj′q+1,ν′δb′q,ω′ F

(βq+1)†ν′,ν

=∑

αq−1,βq+1

E(αq−1)iq−1,iq−1

X(bq,b

′q)

αq−1,βq+1F

(βq+1)†j′q+1,jq+1

(6.1.16)

Algorithmus (6.1.1): (VMPS-Rechtsschritt):

H1 ⊗ H2 ⊗ ⊗ Hq−1 ⊗ Hq ⊗ ⊗ HL−1 ⊗ HL. . . . . .

Abbildung 6.2: Ein VMPS-Rechtsschritt

154

Page 165: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6.1 VMPS

Eingangsdaten des Algorithmuses:

- Eine kanonische Matrixproduktkette k = MPK(A(bq)

)mit Hauptort A[bq−1]

- Die E(αq−2) und F(βq+1)†

von

〈ψ|X|ψ〉, |ψ〉 = Zust (k) (6.1.17)

Ausgangsdaten des Algorithmuses:

- Eine kanonische Matrixproduktkette k′ = MPK(A′

(bq))

mit Hauptort A′[q]

,

welche nur an diesem und an A′[q−1]

von k verschieden ist.

- Die E′(αq−1) von

〈ψ′|X|ψ′〉, |ψ′〉 = Zust (k′) (6.1.18)

- Der aktuell kleinste berechnete Wert λ des Funktionales f .

Algorithmus:

1. Prufe Soll die Dimension des Raumes Iq−1 verandert werden?:

Fall Keine Veranderung der Dimension soll stattfinden: Linksorthogonali-siere den q − 1-ten Ort

Fall Die Dimension soll erhoht werden: Erhohe die Dimension von Np−1,indem den Gliedern A(bq−1) weitere zufallige Spalten und den GliedernA(bq) ebenso viele zufallige Zeilen hinzugefugt werden. Hierdurch werdenIq−1 weitere zufallige Basisvektoren hinzugefugt. Linksorthogonalisiereden q − 1-ten Ort.

Fall Die Dimension soll vermindert werden: Linksothogonalisiere den q−1-ten Ort und beschneide bei der dabei durchgefuhrten Singularwertzerle-gung die kleinsten Singularwerte.

2. Falls q 6= 1: Berechne die E(αq−1) aus E(αq−2) und X[q−1]

3. Berechne mit E(αq−1) und F(βq+1)†

die Matrixelemente von X′

155

Page 166: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

4. Mittels der Matrixdarstellung von X′ und des Startvektors

|u(0)〉 = Zust (k) =∑

iq−1,jq+1

∑bp

C(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (6.1.19)

fuhre aufH′ ein Lanczos-Verfahren zur Bestimmung eines kleinsten Eigenwert-Eigenvektor-Paares (λ, |u〉) von X′, durch.

5. Setze k′ = k und

A′(bq)iq−1,jq+1

= uiq−1,bq,jq+1 (6.1.20)

fur alle iq−1, bq, jq+1.

6. Ruckgabe: k′, E(αq−1) und λ

Algorithmus (6.1.2): (VMPS-Linksschritt):

H1 ⊗ H2 ⊗ ⊗ Hq ⊗ Hq+1 ⊗ ⊗ HL−1 ⊗ HL. . . . . .

Abbildung 6.3: Ein VMPS-Linksschritt

Eingangsdaten des Algorithmuses:

- Eine kanonische Matrixproduktkette k = MPK(A(bq)

)mit Hauptort A[bq+1]

- Die E(αq−1) und F(βq+2)†

von

〈ψ|X|ψ〉, |ψ〉 = Zust (k) (6.1.21)

Ausgangsdaten des Algorithmuses:

- Eine kanonische Matrixproduktkette k′ = MPK(A′

(bq))

mit Hauptort A′[q]

,

welche nur an diesem und an A′[q+1]

von k verschieden ist.

- Die F′(βq+1)

†von

〈ψ′|X|ψ′〉, |ψ′〉 = Zust (k′) (6.1.22)

156

Page 167: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6.1 VMPS

- Der aktuell kleinste berechnete Wert λ des Funktionales f .

Algorithmus:

1. Prufe Soll die Dimension des Raumes Jq+1 verandert werden?:

Fall Keine Veranderung der Dimension soll stattfinden: Rechtsorthogona-lisiere den q + 1-ten Ort

Fall Die Dimension soll erhoht werden: Erhohe die Dimension von Np,indem den Gliedern A(bq) weitere zufallige Spalten und den GliedernA(bq+1) ebensoviele zufallige Zeilen hinzugefugt werden. Hierdurch wer-den Jq+1 weitere zufallige Basisvektoren hinzugefugt. Rechtsorthogona-lisiere den q + 1-ten Ort.

Fall Die Dimension soll vermindert werden: Rechtsothogonalisiere den q+1-ten Ort und beschneide bei der dabei durchgefuhrten Singularwertzerle-gung die kleinsten Singularwerte.

2. Falls q 6= L: Berechne die F(βq+1)†

aus F(βq+2)†

und X[q+1]

3. Berechne mit E(αq−1) und F(βq+1)†

die Matrixelemente von X′

4. Mittels der Matrixdarstellung von X′ und des Startvektors

|u(0)〉 = Zust (k) =∑

iq−1,jq+1

∑bp

C(bq)iq−1,jq+1

|iq−1〉 ⊗ |bq〉 ⊗ |jq+1〉 (6.1.23)

fuhre aufH′ ein Lanczos-Verfahren zur Bestimmung eines kleinsten Eigenwert-Eigenvektor-Paares (λ, |u〉) von X′, durch.

5. Setze k′ = k undA′

(bq)iq−1,jq+1

= uiq−1,bq,jq+1(6.1.24)

fur alle iq−1, bq, jq+1.

6. Ruckgabe: k′, F(βq+1)†

und λ

Algorithmus (6.1.3): (VMPS-Algorithmus):

1. Erzeuge auf einem festgelegten Doppelraum D eine Matrixproduktkette k =MPK

(A(bq)

)(z.B. zufallig).

157

Page 168: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

2. Fur q = 1, . . . , L: Linksorthogonalisiere den Ort A[q].Berechne die E(αq−1).

3. Fur q = L, . . . , 1: Mit k, E(bq−1) und F(bq+1)†

fuhre einen VMPS-Linksschritt

durch und setze dann k = k′, F(bq+1)†

= F′(bq+1)

†und speichere λ

H1 ⊗ H2 ⊗ ⊗ Hq ⊗ ⊗ HL−1 ⊗ HL

. . . . . .

Abbildung 6.4: Ein VMPS-Sweep von rechts nach links

4. Fur q = 1, . . . , L: Mit k, E(bq−1) und F(bq+1)†

fuhre einen VMPS-Rechtsschritt

durch und setze dann k = k′, E(bq−1) = E′(bq−1) und speichere λ

H1 ⊗ H2 ⊗ ⊗ Hq ⊗ ⊗ HL−1 ⊗ HL

. . . . . .

Abbildung 6.5: Ein VMPS-Sweep von links nach rechts

5. Falls Die berechneten λ zeigen die erwunschte Konvergenz:

Ruckgabe: k und λ

Stop.

Sonst:Gehe zu 3

6.2 Dynamik

Nach all der geleisteten Vorarbeit sind wir nun in der Lage, das eigentliche Ziel die-ser Arbeit, die Berechnung dynamischer Großen, durch die Zusammenfuhrung vonMatrixprodukt-Algebra und Krylov-Raum-Verfahren, in bemerkenswerter Kurze ab-zuhandeln:

158

Page 169: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6.2 Dynamik

Die Idee hierbei ist, die im ersten Kapitel beschriebenen Krylov-Raum-Verfahren, aus-schließlich mit Matrixproduktzustanden durchzufuhren. Wir wollen diese Verfahrenals

”MPS-Lanczos-Verfahren“bezeichnen.

Da wir an der Grundvorgehensweise der Algorithmen keinerlei Anderung vorneh-men, wollen wir in diesem Abschnitte ausschließlich auf die Besonderheiten der MPS-Lanczos-Verfahren verweisen, ohne die gesamten Algorithmen noch einmal auszubrei-ten.

Gleich folgende Anmerkung: Wir waren zwar prinzipiell in der Lage die zeitlichenGroßen fur einen beliebigen Startvektor |φ0〉, der als Matrixproduktzustand vorliegtdurchzufuhren, jedoch ist der einzige Matrixproduktzustand mit einer sinnvollen physi-kalischen Bedeutung, der in dieser Arbeit bisher auftrat, der Grundzustand eines durcheinen zeitunabhangigen Hamilton-Operator H0 beschriebenen Systemes. Als nahelie-gendste physikalische Anwendung kamen also die folgenden physikalischen Szenarienin Frage:

- Ein System werde zur Zeit t < 0 durch einen Hamilton-Operator H0 beschriebenund befinde sich in seinem Grundzustande |φ0〉, also im T = 0 Gleichgewicht.

Den Grundzustand |φ0〉 konnen wir mit Hilfe des VMPS-Algorithmuses bestim-men.

- Zur Zeit t = 0 finde eine schlagartige Anderung des Systemes statt, so dass diesesnun durch einen weiteren zeitunabhangigen Hamilton-Operator H beschriebenwerde. Das System befindet sich nunmehr im Ungleichgewicht und der im Bezugauf H gemischte Zustand |φ0〉 beginnt sich zeitlich zu entwickeln.

Die Entwicklung der zeitlichen Großen ausgehend von |φ0〉 konnen nun mit denMPS-Lanczos-Verfahren berechnet werden.

Erinnern wir uns, dass sowohl unser Verfahren zur Berechnung von Green-Funktionenals auch zur Zeitentwicklung eines Zustandes darin bestanden die Lanczos-Basis einesKrylov-Raumes zu berechnen. Jedoch gab es zwei wichtige Unterschiede:

- Bezeichne |φ0〉 den physikalischen Zustand bei t = 0, dann war der Startvektorder Lanczos-Basis |u(0)〉 fur die Zeitentwicklung

|u(0)〉 = |φ0〉 (6.2.25)

fur die Berechnung einer Green-Funktion GA jedoch

|u(0)〉 = A|φ0〉 (6.2.26)

- Bei der Berechnung der Zeitentwicklung ist es erforderlich alle Basisvektoren im

159

Page 170: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

Speicher zu halten, da diese anschließend wieder zum zeitpropagierten Vektor|φ(t)〉 linear kombiniert werden mussen, wo hingegen bei der Berechnung vonGreen-Funktionen die eigentlichen Zustande nicht von Interesse sind und dahernur die jeweils letzten zwei Basiszustande im Speicher gehalten werden mussen,da das eigentliche Interesse nur den Lanczos-Koeffizienten gilt.

Nur bei der Berechnung der Basisvektoren und des zeitentwickelten Zustandes tre-ten uberhaupt die Matrixproduktzustande und Matrixproduktoperatoren auf, dahermussen wir uns bei der Betrachtung der MPS-Lanczos-Verfahren lediglich mit diesenVerfahrensschritten befassen.

Dass die MPS-Lanczos-Verfahren tatsachlich durchfuhrbar sind, wollen wir im Folgen-den begrunden: Der Startvektor |u(0)〉 der Lanczos-Basis liege als Matrixproduktzu-stand und der zeitpropagierende Hamilton-Operator H liege als Matrixproduktope-rator vor. Dann konnen wir die Berechnung der Lanczos-Basis ebenfalls in sinnvollerWeise im Matrixproduktzustandsformalismus durchfuhren. Wir benotigen hierzu fol-gende Werkzeuge:

- Zur Berechnung der ai und bi mussen wir in der Lage sein, Skalarprodukte vonMatrixproduktzustanden, sowie Matrixelemente von Matrixproduktzustandenund Matrixproduktoperatoren zu berechnen.

- Zur Berechnung der Basisvektoren mussen wir in der Lage sein, die Anwendungeines Matrixproduktoperators auf einen Matrixproduktzustand und die Summevon Matrixproduktzustanden als Matrixproduktzustand auszufuhren.

Will man namlich den i-ten Basisvektor |v(i)〉 berechnen und gehe davon aus, dass|v(i−1)〉 und |v(i−2)〉 als Matrixproduktzustande beliebiger Doppelraume dargestelltseien. Dann weiß man durch induktive Anwendung von

|v(i)〉 = X |v(i−1)〉 − ai−1 |v(i−1)〉 − b2i−1 |v(i−2)〉 (6.2.27)

dass alle Basisvektoren als Matrixproduktzustande darstellbar sind.

Man muss jedoch genau beachten, auf welchem Doppelraum ein solcher Zustand ei-gentlich definiert ist, bzw. welche Nebenraumsdimensionen dieser eigentlich hat:

Satz (6.2.1): (Nebenraumsdimensionen der Lanczos-Basisvektoren):

Sei H darstellbar in einem Operator-Doppelraume D, mit Nebenraumsdimensio-nen µp Seien die Basisvektoren |u(n)〉 einer Lanczos-Basis des Matrixproduktope-rators H darstellbar in den Doppelraumen D(n), deren Nebenraumsdimensionen

d(n)p seien.

160

Page 171: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6.2 Dynamik

Dann gilt

d(n)p ≤ µp d(n−1)p + d(n−2)p (6.2.28)

Der Beweis leitet sich aus unseren Konstruktionsvorschriften fur Summen von Matrix-produktzustanden und der Anwendung von Matrixproduktoperatoren auf Matrixpro-duktzustande ab. Er ist dann jedoch sofort ersichtlich und wird dem Leser uberlassen.Die Konstruktionsvorschriften geben immer nur eine Obergrenze fur die Nebenraums-dimensionen an, da sie nicht gewahrleisten, dass der Zustand minimal ist.

Nutzen wir die Vorschriften zur praktischen Berechnung der Basisvektoren, haben wirnaturlich immer

d(n)p = µp d(n−1)p + d(n−2)p (6.2.29)

Man sieht hieran, dass bei der Berechnung der Basisvektoren die Nebenraumsdimen-sionen mit dem Index n anschwellen. Die Nebenraumsdimensionen der Zustande gehenhierbei nur additiv ein, jedoch sehen wir am fuhrenden Summanden der Gleichung,dass die Nebenraumsdimensionen des Operator-Doppelraumes von H ein Polynom mit

fuhrendem Summanden µp d(0)p ergeben.

Dieses Wachstum der Nebenraumsdimensionen wird in den meisten Fallen viel zu großsein um die Berechnung einer adaquaten Zahl von Basisvektoren zu erlauben. Es istalso zweckmaßig die Dimensionen der Nebenraume der Basisvektoren nach oben hinzu begrenzen.

An dieser Stelle wird uns die Wichtigkeit der Betrachtungen uber die Dimensionsreduk-tion klar. Mit ihnen haben wir eine kontrollierte Methode, zur Bestapproximation derBasiszustande durch Matrixproduktzustande mit kleineren Nebenraumsdimensionen.Uber die Summe der vernachlassigten Singularwerte ist es uns immer auch moglich dieGute der Approximation im Auge zu behalten.

Es liegt nun also nahe, eine genaherte Lanczos-Basis zu konstruieren. Jeder neue Ba-sisvektor wird aus den zwei vorangegangenen und bereits gestutzten Basisvektorenberechnet und anschließend ebenfalls gestutzt.

So muss man unglucklicherweise davon ausgehen, dass der Fehler sich in zunehmen-dem Maße akkumuliert. Dieser wachsende Fehler beschrankt die Moglichkeit des Ver-fahrens, durch Steigerung der Krylov-Raum-Dimension immer genauere Ergebnisse zuerzielen. Vielmehr mussen die maximalen Nebenraumsdimensionen und die Krylov-Raum-Dimension in einem wohl austarierten Verhaltnisse stehen.

Speziell fur die Zeitentwicklung von Zustanden, mussen wir noch beachten, dass wiram Ende des Algorithmuses, alle Basisvektoren zum zeitpropagierten Zustande linear

kombinieren mussen. Seien d′(i)p die Nebenraumsdimensionen der genaherten Lanczos-

161

Page 172: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

6 Anwendung

Basisvektoren, dann hat der zeitpropagierte Zustand die Nebenraumsdimensionen

dp =

n−1∑i=1

d(i)p (6.2.30)

Auch hier wird es erforderlich sein, nach jedem Summationsschritt die Nebenraumsdi-mensionen wieder auf ein Maximum zu beschranken.

162

Page 173: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

7 Zusammenfassung und Ausblick

Wir zeigten, wie es mit Krylov-Raum-Verfahren moglich ist, die Kurzzeitdynamikquantenmechanischer Systeme zu berechnen.

Weiter erorterten wir die Matrix-Produkt-Algebra, welche im Zusammenhange mitdem VMPS-Algorithmus Verwendung findet. Wir konnten zeigen, dass das Vorhan-densein additiver Symmetrien zwangslaufig zu einer Symmetriestruktur bei Matrix-produktzustanden und Matrixproduktoperatoren fuhrt und dass diese auch bei An-wendung von Matrixproduktoperatoren auf Matrixproduktzustande erhalten bleibt.

Wir zeigten, wie sich mittels des VMPS-Algorithmuses Grundzustande berechnen las-sen und wie mit diesen Grundzustanden Krylov-Raume von Matrixproduktzustandenkonstruiert werden konnen, um T = 0-Dynamik zu berechnen.

Wir erwarten von einer zukunftigen Implementierung des Verfahrens einen im Vergleichzu bisherigen dynamischen DMRG-Verfahren substantiell geringeren Rechenaufwandbei immer noch aktzeptabler Genauigkeit. Zudem erhoffen wir uns von der Methodeeinen effektiven DMFT-Solver ohne Vorzeichenproblem.

163

Page 174: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 175: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Anhang

165

Page 176: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 177: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Index

Additive Basen, 127Additive Operatoren

Definition, 127Eigenproblem, 128

Adjungierte F-MatritzenDefinition, 90fur Matrixelemente, 120Rekursionsformel, 91zur Skalarproduktsberechnung, 92

anteilige Eigenvektorenund Invarianz, 12

anteiliger EigenvektorenDefinition, 12

Anwendung, 112Erhalt von Symmetrie, 143

Bestapproximationder Links-Raume, 102der Rechts-Raume, 104linker Raum, 99rechter Raum, 101

Differenz OperatorenDefinition, 137und Symmetrie, 137

Doppelraum, 56

E-MatritzenDefinition, 89fur Matrixelemente, 118Rekursionsformel, 89zur Skalarproduktsberechnung, 92

Erzeugende, 125Erzeugender Operator, siehe Krylov-Raum

Invarianz, 11Tridiagonalform, 19

F-Matritzen, siehe Adjungierte F-Matritzen

Glied, 58Blockgestalt, 134und Symmetrien, 134

Green-FunktionBerechnung, 45Ein-Operator, 44Fehlerabschatzung, 49Hochfrequenzentwicklung, 47

Hauptraume, 56Hochfrequenzentwicklung, 47

i-Zustande, siehe Links-ZustandeInvarianz, 9

Erzeugender Operator, 11und Eigenvektoren, 12

j-Zustande, siehe Rechts-Zustande

Kettenraum, 56Konjugierte-Gradienten-Verfahren, 26Krylov-Raume

Definition, 9Invarianz, 9

LanczosBasis, 15Eigenwertverfahren, 26Koeffizenten, 15

Lanczos’sches Eigenwertverfahren, 26Konvergenz, 33mit Neustart, 30

Aufwand, 31ohne Neustart, 28

Aufwand, 29

167

Page 178: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Index

Lanczos-BasisDefinition, 15Erzeugender Operator, 19Orthogonalitat, 15Tridiagonalmatrix, 19

Lanczos-Zeitentwicklungsoperator, 36Links-Operator, 110, 111Links-Raume, siehe Links-ZustandeLinks-Zustande

Definition, 80Deutung, 83kanonischer Matrixproduktketten,

84Lokale Updates, 152

Matrixelementeadjungierte F-Matritzen, 120Berechnung, 122E-Matritzen, 118Normaldarstellung, 123

MatrixproduktketteDefinition, 57kanonische

Definition, 74Schreibweise, 75

minimaleDefinition, 69Existenz, 87

Normalzerlegung, 87Schreibweise, 59Summe, 66Zweizerlegung, 86

Matrixproduktoperator, 109Anwendung, 112Normaldarstellung, 111Zweizerlegung, 110

Matrixproduktoperatorenund Symmetrien, 137

MatrixproduktzustandDefinition, 59Normalzerlegung, 87Summe, 66Universalitat, 77Zweizerlegung, 86

MPK, siehe Matrixproduktkette

MPS, siehe MatrixproduktzustandMPS-Kurzzeitdynamik, 158MPS-Lanczos-Verfahren, 158

NebenraumeDefinition, 56Uneindeutigkeit, 68

Norm, 93

Operator-MatrixproduktketteAnwendung, 112Definition, 109Normaldarstellung, 111

Operatorraum, 109Ort, 57Orthogonalisierung

Lanczos-Basis, 15Linksorthogonalsierung, 69Rechtsorthogonalisierung, 72

Randbedingungendas Funktional f , 60offene, 63periodische, 62

Rayleigh-Ritz-Prinzip, 21auf Unterraumen, 24

Rechts-Operator, 110, 111Rechts-Raume, siehe Rechts-ZustandeRechts-Zustande

Definition, 82Deutung, 84kanonischer Matrixprodukketten, 85

reduzierte DichtematrixDefinition, 96Eigenproblem, 96

SkalarproduktBerechnung, 92Norm, 93Normaldarstellung, 93von Matrixproduktketten, 89

Sweepen, 152Symmetrien

Blockgestalt von Gliedern, 134und Links-Zustande, 129

168

Page 179: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Index

und Matrixproduktzustande, 129und Rechts-Zustande, 129

TridiagonalmatrixInversion, 43Lanczos’sche Tridiagonalmatrix, 19

VMPS, 157Linksschritt, 156Rechtsschritt, 154

Zeitentwicklungsoperator, 36Lanczos’scher, 36

ZerlegungSchmidt-Zerlegung, 76von Tensorprodukten, 76Zweizerlegung, 76

ZustandeMatrixproduktzustande, 59Menge der Zustande, 65Offene Randbedingungen, 64Summe, 66

Zweizerlegung, 76

169

Page 180: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,
Page 181: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Literaturverzeichnis

[1] S. R. White, Phys. Rev. Lett. 69, 2863 (1992).

[2] S. R. White, Phys. Rev. B 48, 10345 (1993).

[3] S. Ostlund and S. Rommer, Phys. Rev. Lett. 75, 3537 (1995).

[4] M.-C. Chung and I. Peschel, Phys. Rev. B 64, 064412 (2001).

[5] J. Dukelsky, M. A. Martın-Delgado, T. Nishino, and G. Sierra, Euro-phys. Lett. 43, 457 (1998).

[6] F. Verstraete, J. J. Garcıa-Ripoll, and J. I. Cirac, Phys. Rev. Lett. 93,207204 (2004).

[7] I. P. McCulloch, Journal of Statistical Mechanics: Theory and Experiment2007, (2007).

[8] F. Frowis, V. Nebendahl, and W. Dur, Phys Rev A 81, 062337 (2010).

[9] E. Jeckelmann, Phys. Rev. B 66, 045114 (2002).

[10] S. R. White and A. E. Feiguin, Phys. Rev. Lett. 93, 076401 (2004).

[11] A. J. Daley, C. Kollath, U. Schollwock, and G. Vidal, Journal of Stati-stical Mechanics: Theory and Experiment 4, 5 (2004).

[12] K. A. Hallberg, Phys. Rev. B 52, (1995).

[13] C. B. E. R. Gagliano, Phys. Rev. Lett. 59, 2999 (1987).

[14] P. E. Dargel, A. Honecker, R. Peters, R. M. Noack, and T. Pruschke,(2010).

[15] D. Muth, ArXiv e-prints arXiv:1104.1611v2 [quant-ph] (2011).

[16] A. Krylov, Izvestiya Akademii Nauk SSSR , 771 (1931).

171

Page 182: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Literaturverzeichnis

[17] C. Lanczos, Journal of Research of the National Bureau of Standards 45, 255(1950).

[18] T. J. Park and J. C. Light, The Journal of Chemical Physics 85, 5870 (1986).

[19] N. Weißfahl, Krylov-Raum-Methoden zur Untersuchung der Eigenschaftendes Grundzustandes und der Dynamik von Vielteilchensystemen, Master’s thesis,Universitat Hamburg, Jungiusstraße 9, 20355 Hamburg, Germany, 2010.

[20] R. G. Gordon, Journal of Mathematical Physics 9, 655 (1968).

[21] U. Schollwock, Annals of Physics 326, 96 (2011), January 2011 Special Issue.

[22] F. Verstraete, D. Porras, and J. I. Cirac, Phys. Rev. Lett. 93, 227205(2004).

172

Page 183: Krylov Space Techniques on Matrix Product States · Kurzzusammenfassung Krylov-Raum-Verfahren erm oglichen auf e ziente Weise die Kurzzeitentwicklung quan-tenmechanischer Systeme,

Literaturverzeichnis

Eidestattliche Erklarung

Hiermit erklare ich an Eides statt, dass ich die vorliegende Arbeit selbststandig und oh-ne unerlaubte Hilfsmittel verfasst und die benutzten Hilfsmittel vollstandig angegebenhabe.

Mit der Veroffentlichung meiner Diplomarbeit in der Departmentbibliothek Physik derUniversitat Hamburg bin ich einverstanden.

Hamburg, den

Michael Jonathan Lee

173