179
Parametergesteuerte L ¨ osung nichtlinearer multikriterieller Optimierungsprobleme Den Naturwissenschaftlichen Fakult¨ aten der Friedrich–Alexander-Universit¨ at Erlangen–N¨ urnberg zur Erlangung des Doktorgrades vorgelegt von Gabriele Eichfelder aus Bamberg

Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Parametergesteuerte Losung

nichtlinearer

multikriterieller

Optimierungsprobleme

Den Naturwissenschaftlichen Fakultaten

der Friedrich–Alexander-Universitat Erlangen–Nurnberg

zur

Erlangung des Doktorgrades

vorgelegt von

Gabriele Eichfelder

aus Bamberg

Page 2: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Als Dissertation genehmigt von den

Naturwissenschaftlichen Fakultaten

der Friedrich–Alexander-Universitat Erlangen–Nurnberg

Tag der mundlichen Prufung: 24.07.2006

Vorsitzender der Promotionskommission: Prof. Dr. P.-D. Hader

Erstberichterstatter: Prof. Dr. J. Jahn

Zweitberichterstatter: PD Dr. J. Fliege

Page 3: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

i

Zusammenfassung

Bei multikriteriellen Optimierungsproblemen mit mehreren sich widersprechendenZielsetzungen gibt es i. Allg. nicht nur eine Minimallosung, die alle Zielfunktionengleichzeitig optimal erfullt, sondern die Losungsmenge, die sog. effiziente Menge, istsehr groß. Dabei ist es fur einen Entscheidungstrager oft wichtig, die gesamte Effizienz-menge zu kennen, da diese wichtige Informationen uber das Problem beinhaltet. DasZiel dieser Arbeit ist es daher eine Approximation der Losungsmenge zu bestimmen,die bzgl. bestimmter Qualitatskriterien moglichst gut ist, was durch eine Naherungmit nahezu aquidistanten Punkten erreicht wird. Es wird dazu ein parameterabhangi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend aufneuen Sensitivitatsergebnissen bestimmen wir einen Algorithmus zur Parametersteue-rung und damit zur Generierung nahezu aquidistanter Approximationspunkte. Dabeiseien im Zielraum des nichtlinearen multikriteriellen Optimierungsproblems beliebi-ge Halbordnungen induziert durch spitze konvexe abgeschlossene Kegel zugelassen.Die Vorteile dieses neuen Verfahrens demonstrieren wir zunachst an einigen Test-problemen, bevor wir es zur Losung eines aktuellen Problems aus der Medizin, deroptimalen Bestrahlungsplanung zur Behandlung eines Prostatakarzinoms, nutzen. Alsweitere Anwendung entwickeln wir eine Losungsmethodik fur nichtlineare multikrite-rielle Bilevel-Optimierungsprobleme und losen damit ein bikriterielles Bilevel-Problemaus der Medizintechnik.

Page 4: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

ii

Abstract

In multi-objective optimization we investigate optimization problems with more thanone objective function. As a consequence there is, in general, not only one best solutionminimizing all objective functions at the same time, and the solution set called efficientset is very large. Often it is important for the decision maker to have informationabout the whole efficient set because this provides a useful insight into the problemstructure. Thus our aim is to determine an approximation of this set which satisfiescertain quality criteria as good as possible. This is achieved by almost equidistantapproximation points. Therefore we consider a parameter dependent scalarizationapproach according to Pascoletti and Serafini. Using new sensitivity results we presentan algorithm for controlling the choice of the parameters and with that for generatingalmost equidistant points of the efficient set. In doing so we allow any partial orderingdefined by a convex pointed closed cone in the objective space of the nonlinear multi-objective optimization problem. The effectiveness of this new method is demonstratedat some test problems and what is more we apply it to a recent problem in intensity-modulated radiotherapy about prostate cancer treatment. As a further applicationwe develop a new procedure for solving multi-objective bilevel optimization problemsand we apply this to a bicriteria bilevel problem in medical technology.

Page 5: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

iii

Danksagung

Ich mochte mich sehr bei meinem Doktorvater Herrn Prof. Dr. J. Jahn fur die Uberlas-sung des Themas und die sehr gute Betreuung bedanken, fur die immer sehr wertvollenund interessanten Ideen und Anregungen, und fur die Moglichkeit, jederzeit Rat zuerhalten, aber auch fur die hervorragende Unterstutzung bei der Entwicklung eigenerAnsatze und Ideen. Bedanken mochte ich mich ebenfalls bei Herrn PD Dr. J. Flie-ge fur die sehr freundliche Ubernahme des Zweitgutachtens fur diese Arbeit. MeinDank gilt auch sehr Herrn PD Dr. habil. K.-H. Kufer und dessen Mitarbeitern,insbesondere Herrn Dipl.-Math. M. Monz, fur den sehr freundlichen Empfang amFrauenhofer ITWM und der großzugigen Zurverfugungstellung der Daten fur das Op-timierungsproblem aus Kapitel 6. Auch Herrn Dipl.-Technomath. J. Prohaska giltmein Dank fur das informative Gesprach, mit dessen Hilfe die Formulierung desBilevel-Optimierungsproblems aus der Medizintechnik in Kapitel 7 moglich war. Eben-so mochte ich mich bei allen Mitarbeiterinnen und Mitarbeitern des Lehrstuhls furAngewandte Mathematik II an der Universitat Erlangen-Nurnberg fur die sehr an-genehme Arbeitsatmosphare bedanken, die wesentlich dazu beigetragen hat, dass dieArbeit der letzten Jahre so viel Spaß gemacht hat. Und schließlich mochte ich meinemMann ein sehr großes herzliches Danke fur die sehr liebevolle geduldige Unterstutzungaussprechen.

Page 6: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

iv

Inhaltsverzeichnis

Einleitung 1

1 Grundlagen der multikriteriellen Optimierung 5

1.1 Problemdefinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Polyedrische Kegel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Skalarisierung 16

2.1 Verfahren von Pascoletti und Serafini . . . . . . . . . . . . . . . . . . . 17

2.2 Eigenschaften des skalaren Ersatzproblems . . . . . . . . . . . . . . . . 19

2.3 Zusammenhang mit anderen Skalarisierungsverfahren . . . . . . . . . . 28

3 Sensitivitatsanalyse 33

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung . . . . . . . . . . . . . 34

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung . . . . . . . . . . . . . 46

3.3 Spezialfall ε-constraint-Methode . . . . . . . . . . . . . . . . . . . . . . 55

4 Parametersteuerung 60

4.1 Qualitatskriterien einer Approximation . . . . . . . . . . . . . . . . . . 61

4.2 Parametersteuerung im bikriteriellen Fall . . . . . . . . . . . . . . . . . 66

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) . . . . . . . . . . 89

5 Testprobleme 98

5.1 Bikriterielle Testprobleme . . . . . . . . . . . . . . . . . . . . . . . . . 98

5.2 Trikriterielle Testprobleme . . . . . . . . . . . . . . . . . . . . . . . . . 108

6 Anwendung: Bestrahlungsplanung in der Krebstherapie 116

6.1 Problembeschreibung mit bikriteriellem Ansatz . . . . . . . . . . . . . 117

6.2 Losung des bikriteriellen Optimierungsproblems . . . . . . . . . . . . . 121

6.3 Problembeschreibung mit trikriteriellem Ansatz . . . . . . . . . . . . . 127

Page 7: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Inhaltsverzeichnis v

6.4 Losung des trikriteriellen Optimierungsproblems . . . . . . . . . . . . . 129

7 Anwendung in der Bilevel-Optimierung 135

7.1 Grundlagen der Bilevel-Optimierung . . . . . . . . . . . . . . . . . . . 135

7.2 Diskretisierung der Restriktionsmenge . . . . . . . . . . . . . . . . . . . 138

7.3 Bestimmung und Verfeinerung der Approximation der Losungsmenge . 142

7.4 Zusammenfassung des Verfahrens . . . . . . . . . . . . . . . . . . . . . 145

7.5 Numerische Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

Literaturverzeichnis 157

Page 8: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

vi

Page 9: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Bezeichnungen und Abkurzungen vii

Bezeichnungen und Abkurzungen

Bezeichnungen

Rn n-dimensionaler euklidischer Raum: einen Vektor x ∈ R

n

schreiben wir als x = (x1, . . . , xn), in Berechnungen wird er

jedoch als Spaltenvektor, d. h. x =

x1...

xn

, mit zugehori-

gem Zeilenvektor x⊤ verwendet,R

n+ positiver Orthant, d. h. R

n+ = x ∈ R

n | xi ≥ 0, i =1, . . . , n,

Rn− negativer Orthant, d. h. R

n− = x ∈ R

n | xi ≤ 0, i =1, . . . , n,

R R = R ∪ ±∞,N Menge der naturlichen Zahlen, d. h. N = 1, 2, . . .,N0 N0 = N ∪ 0,Z Menge der ganzen Zahlen Z = . . . , 2,−1, 0, 1, 2, . . .,0n Nullvektor im R

n,ei i-ter Einheitsvektor im R

n,xi i-te Komponente des Vektors x ∈ R

n,Ω Restriktionsmenge des multikriteriellen Optimierungspro-

blems (MOP),≤n naturliche (komponentenweise) Halbordnung im R

n,≤K Halbordnung induziert durch den konvexen Kegel K, d. h.

x ≤K y genau dann wenn y − x ∈ K,A1 + A2 algebraische Summe der Mengen A1, A2 ⊂ R

n:A1 + A2 = a ∈ R

n | a = a1 + a2 fur a1 ∈ A1, a2 ∈ A2,y + A y + A = y + A fur einen Punkt y ∈ R

n und eine MengeA ⊂ R

n,M(f(Ω), K) Menge der Minimallosungen des multikriteriellen Optimie-

rungsproblems (MOP) bzgl. dem Kegel K,E(f(Ω), K) Menge der effizienten Punkte des multikriteriellen Optimie-

rungsproblems (MOP) bzgl. dem Kegel K,Mw(f(Ω), K) Menge der schwachen Minimallosungen des multikriteriel-

len Optimierungsproblems (MOP) bzgl. dem Kegel K,

Page 10: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Bezeichnungen und Abkurzungen viii

Ew(f(Ω), K) Menge der schwach effizienten Punkte des multikriteriellenOptimierungsproblems (MOP) bzgl. dem Kegel K,

int(A) Menge der inneren Punkte der Menge A,∂A Rand der Menge A,En n × n-Einheitsmatrix,Kern(A) Kern der Matrix A ∈ R

m×n, d. h. Kern(A) = x ∈ Rn |

Ax = 0m,Rang(A) Rang der Matrix A ∈ R

m×n,A−1 Inverse der Matrix A ∈ R

n×n,A⊤ Transponierte der Matrix A ∈ R

m×n,X∗ topologischer Dualraum von X,C∗ Dualkegel des Kegels C ⊂ X, d. h.

C∗ = x∗ ∈ X∗ | x∗x ≥ 0 fur alle x ∈ C,Σ(a, r) Restriktionsmenge des Optimierungsproblems (SP(a, r)),Σ(a, r) Restriktionsmenge des Optimierungsproblems (SP(a, r)),τ(a, r) Minimalwertfunktion zu (SP(a, r)), d. h. τ(a, r) = inft |

(t, x) ∈ Σ(a, r),τ δ(a, r) lokale Minimalwertfunktion zu (SP(a, r)), d. h. τ δ(a, r) =

inft | (t, x) ∈ Σ(a, r) ∩ Bδ(t0, x0),

τ δ(a, r) lokale Minimalwertfunktion zu (SP(a, r)), d. h. τ δ(a, r) =inft | (t, x) ∈ Σ(a, r) ∩ Bδ(t

0, x0),Bδ(x) abgeschlossene Kugel mit Radius δ um x,BX abgeschlossene Einheitskugel im Banachraum X,∇f Gradient von f , d. h. fur f : R

n → R ist

∇f =

∂f∂x1

...∂f∂xn

,

∇xf Gradient bzgl. x der Funktion f ,∇2f Hesse-Matrix von f, d.h. fur f : R

n → R ist

∇2f =

∂2f∂x1∂x1

(x) . . . ∂2f∂x1∂xn

(x)...

...∂2f

∂xn∂x1(x) . . . ∂2f

∂xn∂xn(x)

,

∇2xf Hesse-Matrix bzgl. x der Funktion f ,

∇f Funktional- (oder Jacobi-)Matrix der Funktion f , d. h. furf : R

n → Rm ist

∇f(x) =

∂f1

∂x1(x) . . . ∂f1

∂xn(x)

......

∂fm

∂x1(x) . . . ∂fm

∂xn(x)

=

∇f1(x)⊤

...∇fm(x)⊤

,

Page 11: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Bezeichnungen und Abkurzungen ix

fx Frechet-Ableitung von f ,fxx zweite Frechet-Ableitung von f ,Ω2 Restriktionsmenge des bikriteriellen Anwendungsproblems

(6.3),Ω2 eingeschrankte Restriktionsmenge Ω2,Ω3 Restriktionsmenge des trikriteriellen Anwendungsproblems

(6.8).

Abkurzungen

Abb. Abbildung,bez. bezuglich,bzw. beziehungsweise,d. h. das heißt,ET Entscheidungstrager,i. Allg. im Allgemeinen,Nb. unter der/den Nebenbedingung/en,o. B. d.A. ohne Beschrankung der Allgemeinheit,u. a. unter anderem,usw. und so weiter,sog. so genannt,z. B. zum Beispiel.

Optimierungsprobleme

(MOP) Multikriterielles Optimierungsproblem, S.5,(SP(a, r)) skalares Ersatzproblem nach Pascoletti und Serafini, S.17,(SP(a, r)) Modifikation des skalaren Optimierungsproblems

(SP(a, r)), S.38,(SP(s)) Modifikation des skalaren Optimierungsproblems

(SP(a, r)), S.53,(Pk(ε)) Skalarisierungsansatz der ε-constraint-Methode, S.55,(SP2(a, r)) Skalarisierung des bikriteriellen Anwendungsproblems in

Kapitel 6, S.121,(SP3(a, r)) Skalarisierung des trikriteriellen Anwendungsproblems in

Kapitel 6, S.129,(SP(a, r, a3)) Modifikation des skalaren Optimierungsproblems

(SP(a, r)), S.138.

Page 12: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

x

Page 13: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1

Einleitung

In vielen technischen, wirtschafts- und naturwissenschaftlichen Bereichen sind neueEntwicklungen oft nur durch den Einsatz einer modernen Optimierung moglich. Die inden Anwendungen auftretenden Optimierungsprobleme sind heutzutage in der Mehr-zahl der Falle multikriteriell, d. h., man verfolgt mehrere, miteinander konkurrierendeZielsetzungen. Solche Optimierungsprobleme mit vektorwertiger Zielfunktion zeichnensich gegenuber denjenigen mit skalarwertiger Zielfunktion dadurch aus, dass es i. Allg.unendlich viele Losungen dieser Probleme gibt. Die Entwicklung effizienter modernernumerischer Verfahren fur spezielle Klassen multikriterieller Optimierungsproblemeist aufgrund der Komplexitat der Losungsmenge von besonderer Bedeutung. EineVielzahl von Arbeiten mit aktuellen multikriteriellen Anwendungen aus so verschie-denen Bereichen wie Medizintechnik ([34], [53], [78]), technischen ([61], [68], [117],[126], Referenzen in [41]) oder wirtschaftlichen Fachgebieten ([30], [36], [121]) belegendie Wichtigkeit der Entwicklung derartiger Verfahren.Fur vektorwertige Optimierungsprobleme geht ein erster Minimalitatsbegriff basie-rend auf der naturlichen Halbordnung auf Edgeworth 1881 ([31]) und Pareto 1896([95]) zuruck. Im Rahmen der Optimierung haben Kuhn und Tucker 1951 ([79]) diesesProblem erstmals mathematisch untersucht. Seitdem gibt es eine Vielzahl von Arbei-ten zur multikriteriellen Optimierung. Eine gute Einfuhrung bieten unter anderem[15], [32], [61], [67], [91], [101], [102], [103]. In den vergangenen Jahrzehnten stan-den dabei interaktive Verfahren zur Bestimmung einer Losung im Vordergrund, beidenen sich objektive numerische Berechnungen mit subjektiven Entscheidungen dessogenannten Entscheidungstragers abwechseln bis eine fur den Entscheidungstragersubjektiv beste Losung gefunden ist (Uberblick hierzu siehe u. a. [15], [67], [91]). Ba-sierend auf einer extremen Verbesserung der Rechnerleistungen und der Algorithmikist es inzwischen jedoch moglich die gesamte Losungsmenge, die sogenannte effizienteMenge, zu betrachten. Man gibt sich daher meist nicht mehr mit der Bestimmung nureines Punktes der Losungsmenge zufrieden. Die gesamte Effizienzmenge bietet demEntscheidungstrager grundlegende Erkenntnisse uber das Problem und zudem wich-tige Trade-off Informationen, d. h. die Information, inwieweit die Verbesserung bzgl.einer Zielfunktion eine Verschlechterung bzgl. der anderen Zielfunktionen bedeutet.Vor allem in technischen Fragestellungen ist es interessant, die ganze Bandbreite anDesignalternativen zu betrachten ([64]). Der Trend geht daher klar in Richtung derBestimmung der gesamten Losungsmenge wie es auch von einer Vielzahl aktuellerArbeiten ([7], [21], [40], [41], [42], [56], [59], [74], [90], [97], [108]) angestrebt wird.Zur Bestimmung der effizienten Menge wurden verschiedene Ansatze entwickelt, die

Page 14: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2

z. B. auf evolutionaren Verfahren (Uberblick hierzu in [16], [22], [61], S.19, [128], [134])oder auf stochastischen Methoden ([107]) basieren. Der verbreiteste Ansatz ist die Ver-wendung parameterabhangiger skalarer Ersatzprobleme, zu denen auch die Methodeder gewichteten Summe ([133]) oder die ε-constraint-Methode ([51] zuruckgehend auf[85]) zahlen. Da i.Allg. nicht die gesamte Losungsmenge berechnet werden kann wirdhierbei durch eine Variierung der Parameter im Skalarisierungsansatz eine Naherungder Effizienzmenge bestimmt. Die Informationen, die der Entscheidungstrager dabeierhalt, hangen stark von der Qualitat der Approximation ab. Viele Approximati-onspunkte bedeuten einen erhohten numerischen Aufwand bei der Berechnung undfur den Entscheidungstrager eine große Anzahl an Losungen, die interpretiert wer-den mussen. Eine Naherung mit sehr wenigen Punkten lasst dagegen große Bereicheder Losungsmenge unberucksichtigt. Es werden daher zunehmend Qualitatskriterienfur Approximationen diskutiert ([17], [23], [54], [76], [104]). Dabei wird die Qualitateiner Naherung als gut im Sinne einer konzisen und dennoch gleichzeitig reprasen-tativen Darstellung der Effizienzmenge bewertet, wenn die Approximationspunktegleichmaßig mit gleichem Abstand uber die gesamte Losungsmenge verteilt sind.Das Ziel dieser Arbeit war es ein Verfahren zu entwickeln, mit dessen Hilfe eine aquidi-stante Approximation der Losungsmenge eines kontinuierlichen multikriteriellen Opti-mierungsproblems bestimmt werden kann. Wir verwenden dazu ein spezielles parame-terabhangiges skalares Ersatzproblem, mit dem wir einzelne Losungspunkte des multi-kriteriellen Optimierungsproblems berechnen. Durch die Nutzung neuer Erkenntnisseuber die Abhangigkeit der erzeugten Approximationspunkte von den Parametern, diewir mittels Sensitivitatsanalyse gewinnen, kann die Auswahl der Parameter gezielt ge-steuert werden um das gesetzte Ziel einer aquidistanten Approximation zu erreichen.Wir betrachten dabei sehr allgemeine multikriterielle Optimierungsprobleme und las-sen im Zielraum beliebige Halbordnungen induziert durch spitze konvexe abgeschlos-sene Kegel zu und verwenden nicht nur die von Edgeworth und Pareto herangezogenenaturliche Halbordnung (wie u. a. auch [50], [41], [59], [96], [129]). Die Einbeziehungbeliebiger Halbordnungen verbessert die Anwendbarkeit des Verfahrens erheblich. Da-mit erhalt der Entscheidungstrager deutlich mehr Freiheit bei der Formulierung desOptimierungsproblems und es konnen Praferenzstrukturen erfasst werden, die sichnicht direkt als Zielfunktionen explizit formulieren lassen (siehe Beispiel 1.1.3). Diemultikriterielle Optimierung bzgl. beliebiger Ordnungskegel spielt auch, wie wir in Ka-pitel 7 sehen werden, bei der Losung multikriterieller Bilevel-Optimierungsproblemeeine wichtige Rolle. Weitere Beispiele fur die Betrachtung beliebiger Kegel findetman z.B. in [2] bei der Portfolio-Optimierung auf Wertpapiermarkten, in [43] beider Umformulierung skalarer Bilevel-Optimierungsprobleme als multikriterielle Pro-bleme oder in [59] und [72] als Hilfsmittel zum Auffinden minimaler Punkte bzgl. dernaturlichen Halbordnung von multikriteriellen Optimierungsproblemen.Wir gehen im Einzelnen wie folgt vor: In Kapitel 1 stellen wir kurz die Grundla-gen fur die folgenden Kapitel zur Verfugung. Wir stellen Minimalitatsbegriffe bzgl.Halbordnungen induziert durch spitze konvexe abgeschlossene Kegel sowie wichtigeKegeleigenschaften vor. Dabei gehen wir auf den Spezialfall polyedrischer und damitendlich erzeugter Kegel gesondert ein.

Page 15: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3

Das von uns betrachtete skalare Ersatzproblem von Pascoletti und Serafini ([96])stellen wir in Kapitel 2 vor. Wir begrunden diese Wahl, erlautern die Vorzuge desProblems an Beispielen und behandeln die relevanten Eigenschaften. Daruber hin-aus prasentieren wir wichtige neue Erkenntnisse uber den Zusammenhang zwischenParameterwahl im Skalarisierungsansatz und den effizienten Punkten als Vorberei-tung fur die folgenden Kapitel. Dies reduziert den zu betrachtenden Parameterraumerheblich. Dabei beleuchten wir auch den Zusammenhang zwischen den Parameternund den Lagrange-Multiplikatoren, der fur unser Verfahren von großer Bedeutung ist.Außerdem vergleichen wir unser skalares Ersatzproblem mit anderen Skalarisierungs-ansatzen wie der Normal-Boundary-Intersection Methode ([19], [21]), der ε-constraint-Methode, einem noch sehr neuen Verfahren von Gourion und Luc ([49]), sowie wei-teren, und zeigen erstmals, dass diese alle als Spezialfall der von uns verwendetenSkalarisierung aufgefasst werden konnen. So lasst sich die in dieser Arbeit entwickel-te Methode ebenfalls auf diese Ansatze anwenden. Wir haben damit eine effektiveMethode der Parametersteuerung entwickelt, mit deren Hilfe auch fur weitere zumTeil sehr bekannte und weit verbreitete Ansatze aquidistante Approximationen dereffizienten Menge bestimmt werden konnen, was die Bedeutung der in dieser Arbeitentwickelten Parametersteuerung noch erhoht.In Kapitel 3 werden von uns erstmalig Sensitivitatsuntersuchungen des skalaren Er-satzproblems von Pascoletti und Serafini fur beliebige Halbordnungen durchgefuhrt.Wir weisen unter geeigneten Voraussetzungen die Differenzierbarkeit der lokalen Mi-nimalwertfunktion nach und konnen unter Ausnutzung der Lagrange-Funktion sogardie Ableitung angeben. Dies fuhrt uns zu der wichtigen Erkenntnis, dass wir die Effi-zienzmenge mit Hilfe der Lagrange-Multiplikatoren lokal annahern konnen. Besonde-ren Augenmerk richten wir dabei auch auf den Fall der naturlichen Halbordnung alsSpezialfall der allgemeinen Ergebnisse. Hierfur geben wir auch Sensitivitatsergebnissehoherer Ordnung sowie neuartige Stabilitatsergebnisse fur die Minimallosungen derskalaren Ersatzprobleme und damit des multikriteriellen Optimierungsproblems an.Wir erhalten somit auch erstmals Informationen uber den Zusammenhang zwischenParameterwahl und Minimallosungen fur die ε-constraint-Methode.In Kapitel 4 diskutieren wir zunachst verschiedene Qualitatskriterien fur Approxi-mationen der Effizienzmenge und fuhren einen modifizierten Abdeckungsfehler neuein, der im Gegensatz zum Abdeckungsfehler von Sayin ([104]) auch bei nicht ex-plizit bekannter Effizienzmenge, was im Allgemeinen der Fall ist, berechnet werdenkann. Anschließend prasentieren wir unser neues Verfahren, welches bezogen auf dieQualitatskriterien gute Approximationen liefert. Wir stellen dafur zunachst unser Ver-fahren fur bikriterielle Optimierungsprobleme vor und nutzen hierbei die Eigenschaft,dass im R

2 jeder Kegel endlich erzeugt ist. Es gelingt uns damit eine weitere deutlicheEinschrankung des zu betrachtenden Parameterraums. Wir nahern die Effizienzmen-ge lokal an und leiten daraus eine effektive Steuerung der Parameter ab, die erstmalseine nahezu aquidistante Approximation der Effizienzmenge ermoglicht. Auch fur denSpezialfall der ε-constraint Methode geben wir einen Algorithmus zur Parameterwahlan, der es damit erstmalig auch fur diese Methode ermoglicht Approximationspunktemit vorgegebenem Abstand zu generieren. Anschließend betrachten wir den multikri-

Page 16: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4

teriellen Fall und weisen auf die Schwierigkeiten beim Ubertragen der Ergebnisse desbikriteriellen Falls hin. Es gelingt uns dennoch den Parameterraum auch fur beliebi-ge multikriterielle Optimierungsprobleme weiter einzuschranken und wir prasentiereneine Methode mit der sogar fur multikriterielle Optimierungsprobleme mit drei undmehr Zielfunktionen lokal aquidistante Punkte generiert werden. Wir haben dies spezi-ell fur den Fall von drei Zielfunktionen ausgearbeitet und prasentieren dieses neuartigeVerfahren als Algorithmus basierend auf der ε-constraint-Methode.Die Fahigkeit des Verfahrens dieser Arbeit aquidistante Approximationen zu gene-rieren zeigen wir in Kapitel 5 zunachst an einigen bi- und trikriteriellen Optimie-rungsproblemen, die auch verschiedene Schwierigkeiten wie nicht-konvexe Mengenoder nicht zusammenhangende Effizienzmengen beinhalten, die von anderen Verfah-ren bereits auch ohne Berucksichtigung von Qualitatskriterien zum Teil nicht mehroder nur unzureichend gelost werden konnen. Trotz derartig erschwerter Problemstel-lungen demonstrieren wir, dass unser Verfahren in der Lage ist qualitativ hochwertigeApproximationen mit gleichmaßig verteilten Punkten zu bestimmen.Schließlich losen wir in Kapitel 6 ein konkretes hochdimensionales Optimierungspro-blem aus der Medizin, bei dem es um die aktuelle Fragestellung eines optimalen Be-strahlungsplans zur Tumorbehandlung eines Prostatakarzinoms geht. Dieses Anwen-dungsproblem lasst sich je nach geforderten Zielsetzungen als bi- bzw. trikriteriellesOptimierungsproblem formulieren.In Kapitel 7 verwenden wir unser Verfahren zur Losung eines speziellen multikriteri-ellen Bilevel-Optimierungsproblems. Diese neuartige Losungsmethodik fur diese nochkaum betrachtete Problemklasse wenden wir an einem reellen aktuellen Problem ausder Medizintechnik erfolgreich an.

Page 17: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5

Kapitel 1

Grundlagen der multikriteriellenOptimierung

Die multikriterielle Optimierung dient zur Unterstutzung von Entscheidungstragern,wenn der Nutzen einer Entscheidung nicht nur von dem Erfulltsein einer Zielset-zung abhangt, die dann als reellwertige Funktion abgebildet und optimiert werdenkann, sondern wenn mehrere sich widersprechende Zielsetzungen verfolgt werden sol-len. Im Allgemeinen gibt es hierbei keine Losung, die alle Zielsetzungen gleichzeitigbestmoglich erfullt.

1.1 Problemdefinition

Das Ziel ist es eine vektorwertige Zielfunktion f : Rn → R

m (n, m ∈ N) unter Neben-bedingungen zu minimieren. Wir betrachten also Probleme der Form

(MOP)min f(x)

Nb. g(x) ∈ C,h(x) = 0q,x ∈ S

mit gegebenen stetigen Funktionen f : Rn → R

m, g : Rn → R

p und h : Rn → R

q

(p, q ∈ N). Es sei C ⊂ Rp ein abgeschlossener konvexer Kegel und S ⊂ R

n, S 6= ∅, seiabgeschlossen und konvex. Im Fall m = 1 ist dies ein Standardoptimierungsproblemmit einer skalarwertigen Zielfunktion. Das Thema dieser Arbeit sind jedoch Opti-mierungsprobleme mit mehreren, sich widersprechenden Zielfunktionen, also der Fallm ≥ 2. Die Menge

Ω := x ∈ S | g(x) ∈ C, h(x) = 0qheißt Restriktionsmenge des Optimierungsproblems (MOP ). In dieser Arbeit soll stetsf(Ω) 6= ∅ gelten. Wir betrachten im Folgenden nur Minimierungsprobleme, doch lasstsich jedes Maximierungsproblem als Minimierungsproblem schreiben.Wir suchen also die minimalen Werte der Funktion f fur x ∈ Ω. Dabei nehmen wiran, dass es einen Entscheidungstrager (ET) gibt, der seine Wertvorstellungen dadurch

Page 18: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 6

zum Ausdruck bringt, dass er angibt, ob er eine Alternative x einer anderen x′ ge-genuber praferiert, indem er spezifiziert, ob er f(x) gegenuber f(x′) vorzieht odernicht. Diese Angaben definieren im Bildraum R

m (bzw. im Parameterraum Rn) ei-

ne Binarrelation, auch Praferenzordnung genannt (siehe dazu [103], [129]). Es sindverschiedene Arten von Praferenzordnungen moglich, doch beobachtet man in derPraxis oft eine Halbordnung. Ein weiterer Ansatz ist das Konzept der sog. Dominanz-strukturen von Yu ([132]), bei dem die Praferenzordnung durch eine mengenwertigeAbbildung ausgedruckt wird. Fur alle y ∈ f(Ω) ⊂ R

m wird die Menge

D(y) := d ∈ Rm | y ≻ y + d ∪ 0m

definiert (siehe auch [103], S.28), wobei y ≻ y′ bedeutet, dass der ET die Alternativey gegenuber y′ vorzieht. Eine Uberschreitung um d ∈ D(y) von y wird also wenigerbevorzugt als die Alternative y selbst. Der interessanteste und wichtigste Fall derDominanzstrukturen ist der, wenn D(·) eine konstante Abbildung ist, speziell wennD(y) fur alle y ∈ f(Ω) ein spitzer konvexer Kegel K ist, also D(·) = K. Auch diessteht mit dem Begriff der Halbordnung in direktem Zusammenhang, wie wir gleichsehen werden.Eine Halbordnung ist eine Binarrelation, die reflexiv, transitiv, vertraglich mit derAddition und der skalaren Multiplikation ist. Eine Halbordnung

”≤“ heißt antisym-

metrisch, wenn zusatzlich

(x ≤ y, y ≤ x) ⇒ x = y

gilt. Der Vektorraum Rm mit einer Halbordnung versehen heißt halbgeordneter Vek-

torraum. Ein Beispiel fur eine Halbordnung auf dem Rm ist die naturliche (oder kom-

ponentenweise) Halbordnung ≤m gegeben durch

≤m = (x, y) ∈ Rm × R

m | xi ≤ yi fur alle i = 1, . . . , m.

Mit Hilfe konvexer Kegel konnen Halbordnungen charakterisiert werden. Ein konvexerKegel K im R

m ist eine Teilmenge des Rm, fur die fur alle x, y ∈ K und λ ≥ 0 stets

λx + y ∈ K gilt. Jede Halbordnung ≤ auf dem Rm definiert durch

K := x ∈ Rm | 0m ≤ x

einen konvexen Kegel, und konvexe Kegel (dann auch Ordnungskegel genannt) defi-nieren durch

≤K := (x, y) ∈ Rm × R

m | y − x ∈ Keine Halbordnung auf dem R

m. Der Ordnungskegel, der die naturliche Halbordnungim R

m charakterisiert, ist der positive Orthant Rm+ . Ein Kegel heißt spitz, falls K ∩

(−K) = 0m gilt. Eine Halbordnung ≤K ist genau dann antisymmetrisch, wenn derKegel K spitz ist.Mit Hilfe einer durch einen Ordnungskegel K auf dem R

m eingefuhrten Halbordnung≤K konnen wir nun angeben, was ein minimales Element einer Menge im R

m ist.

Page 19: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 7

Definition 1.1.1 Es sei T eine nichtleere Teilmenge des durch einen konvexen KegelK halbgeordneten Vektorraums R

m. Dann heißt y ∈ T K-minimales Element von T ,falls gilt

(y − K) ∩ T ⊂ y + K. (1.1)

Ist der Kegel K spitz, so ist (1.1) aquivalent zu

(y − K) ∩ T = y.

Gilt fur y, y ∈ T die Bedingung y − y ∈ K \ 0m, so sagen wir y dominiert y (Abb.1.1).

Abbildung 1.1: K-minimaler Punkt y. Von y dominierter Punkt y.

Damit ergibt sich die folgende Definition einer Minimallosung des multikriteriellenOptimierungsproblems (MOP):

Definition 1.1.2 Ein Punkt x ∈ Ω heißt Minimallosung, nicht dominierter, effi-zienter oder K-minimaler Punkt des Optimierungsproblems (MOP) bzgl. dem Ord-nungskegel K, wenn f(x) K-minimales Element der Menge f(Ω) ist. Die Menge derMinimallosungen bzgl. dem Kegel K bezeichnen wir mit M(f(Ω), K).Die zugehorige Bildmenge der Menge der Minimallosungen

E(f(Ω), K) := f(x) | x ∈ M(f(Ω), K)

heißt Menge der effizienten Punkte oder Effizienzmenge bzgl. dem Kegel K. Ein Punkty ∈ E(f(Ω), K) heißt K-minimaler Punkt, nichtdominiert oder effizient bzgl. demKegel K.

Existiert ein Punkt y = f(x) ∈ f(Ω) mit f(x)− f(x) ∈ K \ 0m, so sagen wir y wirdvon f(x) dominiert bzw. der Punkt x wird von x dominiert.Ist K = R

m+ , so nennt man die Minimallosungen auch Edgeworth-Pareto-minimale

(EP-minimale) Punkte nach Edgeworth, 1881 ([31]), und Pareto, 1896 ([95]). FurK = R

m− handelt es sich analog um EP-maximale Punkte.

Page 20: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 8

In einem halbgeordneten Vektorraum kann es Elemente geben, die bzgl. der Halbord-nung nicht verglichen werden konnen, wie z. B. die Punkte (1, 2) und (2, 1) im R

2 bzgl.der naturlichen Halbordnung. Daher besitzt ein multikriterielles Optimierungsproblemim Allgemeinen (außer bei diskreten Problemen) unendlich viele Losungen. Das Zieldieser Arbeit ist es, die gesamte effiziente Menge zu bestimmen und dem Entschei-dungstrager zur Verfugung zu stellen. Da eine explizite Berechnung aller Losungeni.Allg. nicht moglich ist, werden wir eine punktweise Approximation der Effizienz-menge ermitteln.Nur wenn die Ordnung total und das Optimierungsproblem losbar ist, existiert imBildraum genau eine Minimallosung. Eine durch einen konvexen Kegel K ⊂ R

m in-duzierte Ordnung ist total, wenn K ∪ (−K) = R

m gilt. So ist z. B. die lexikografischeOrdnung definiert durch den Kegel

K = y ∈ Rm | ∃k ∈ 1, . . . , m mit yi = 0 fur i < k und yk > 0 ∪ 0m

(siehe Abb. 1.2) total. Bezuglich dieser Ordnung konnen alle Punkte im Rm miteinan-

Abbildung 1.2: Kegel der lexikografischen Ordnung.

der verglichen und angeordnet werden. Es gilt jedoch (siehe [43], S.4), dass ein spitzerkonvexer Kegel nicht zugleich abgeschlossen sein und eine totale Ordnung induzierenkann. So ist z. B. der Kegel der lexikografischen Ordnung nicht abgeschlossen.Wir wollen uns in dieser Arbeit mit spitzen konvexen abgeschlossenen Kegeln befassen,daher sind die von uns betrachteten Ordnungen ≤K stets nicht total sondern nur Halb-ordnungen. Ein Spezialfall der von uns betrachteten Halbordnungen ist die naturlicheHalbordnung ≤m. Wir beschranken uns jedoch nicht auf die naturliche Halbordnungund den damit verbundenen Begriff der EP-Optimalitat (wie u. a. auch in [41], [50],[59], [96], [129]). Dieser Minimalitatsbegriff ist dann geeignet, wenn das mathema-tische multikriterielle Optimierungsproblem (MOP) das reale Entscheidungsproblemadaquat beschreibt. Es kann jedoch Praferenzen des Entscheidungstragers geben, diesich nicht durch Zielfunktionen und Nebenbedingungen alleine abbilden lassen, wiedas folgende einfache Beispiel zeigt.

Page 21: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 9

Beispiel 1.1.3 ([129], Beispiel 4.1) Wir betrachten das multikriterielle Optimierungs-problem

min

(f1(x)f2(x)

)

=

(x1

x2

)

Nb. x ∈ Ω ⊂ R2

mit Ω der Restriktionsmenge wie in Abb. 1.3. Die Praferenz des Entscheidungstragers

Abbildung 1.3: Restriktionsmenge aus Beispiel 1.1.3.

sei dabei so, wie wenn eine dritte, nicht explizit bekannte Zielfunktion f3(x) = x2 −x1

existiert. Ein Punkt y1 = f(x1) wird genau dann vom Entscheidungstrager gegenubereinem Punkt y2 = f(x2) vorgezogen, wenn

f1(x1)

f2(x1)

f3(x1)

≤3

f1(x2)

f2(x2)

f3(x2)

y11

y12

y12 − y1

1

≤3

y21

y22

y22 − y2

1

erfullt ist. Der zugehorige Ordnungskegel K ist somit definiert durch

K := y ∈ R2 | y1 ≥ 0, y2 ≥ 0, y2 − y1 ≥ 0 = y ∈ R

2 | y2 ≥ y1 ≥ 0

(Abb. 1.4). Damit ist in diesem Beispiel E(f(Ω), K) = AB ∪ BD im Gegensatz zuE(f(Ω), R2

+) = AB (mit AB bzw. BD der Strecke zwischen den Punkten A und Bbzw. B und D).

Abbildung 1.4: Ordnungskegel aus Beispiel 1.1.3.

Page 22: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 10

Viele Anwendungssituationen erfordern die Verwendung konvexer Kegel. So werdenin der Portfolio-Optimierung auf Wertpapiermarkten z. B. Dominanzordnungen bzgl.spitzer konvexer Kegel im R

m, die von mehr als m Vektoren erzeugt werden ([2],S.692), betrachtet. In Bsp. 4.2. aus [2] wird sogar der nicht endlich erzeugte sog.

”ice-cream“-Kegel K = x ∈ R

3 | x1 ≥√

x22 + x2

3 als Portfolio-Dominanzordnungangefuhrt (siehe auch Bsp. 1.2.6). Zum Begriff eines endlich erzeugten Kegels sieheDefinition 1.2.1b). Auch wenn das multikriterielle Optimierungsproblem nur Hilfspro-blem zur Losung ubergeordneter Fragestellungen ist, konnen andere Ordnungskegelals der positive Orthant R

m+ auftreten. In [43] wird ein multikriterielles Optimierungs-

problem zur Losung eines skalaren Bilevel-Optimierungsproblems konstruiert. Dazuwird ein nichtkonvexer Kegel K definiert, der sich in einer abgeschwachten Formals Vereinigung zweier konvexer Kegel, ungleich dem positiven Orthanten, darstellenlasst. Bei der Anwendung des Verfahrens dieser Arbeit zur Losung eines multikrite-riellen Bilevel-Optimierungsproblems (Kapitel 7) betrachten wir ebenfalls eine vonder naturlichen Halbordnung abweichende Ordnung im Bildraum. In [59], [72] und[123] werden auch multikriterielle Optimierungsprobleme bzgl. Halbordnungen defi-niert durch spitze konvexe Kegel ungleich dem positiven Orthanten als Hilfsproblemezur Bestimmung EP-minimaler Punkte eines multikriteriellen Optimierungsproblemsbetrachtet.

Ein schwacherer Minimalitatsbegriff als die K-Minimalitat, der vor allem in theoreti-schen Uberlegungen und weniger in der Praxis von Bedeutung ist, ist der folgende:

Definition 1.1.4 Es sei K ein spitzer konvexer Kegel mit int(K) 6= ∅. Ein Punktx ∈ Ω heißt schwache Minimallosung des Optimierungsproblems (MOP) bzgl. K, falls

(y − int(K)) ∩ f(Ω) = ∅

gilt. Die Menge der schwachen Minimallosungen bzgl. dem Kegel K bezeichnen wirmit Mw(f(Ω), K).Die Bildmenge der Menge der schwachen Minimallosungen

Ew(f(Ω), K) := f(x) | x ∈ Mw(f(Ω), K)

heißt Menge der schwach effizienten Punkte bzgl. dem Kegel K.

Wir sprechen analog wieder von schwach EP-minimalen Punkten fur K = Rm+ . Die

schwach K-minimalen Punkte sind also die minimalen Punkte bzgl. dem Kegel int(K)∪0m. Unter Beachtung des folgenden Satzes gilt daher M(f(Ω), K) ⊂ Mw(f(Ω), K)und E(f(Ω), K) ⊂ Ew(f(Ω), K).

Lemma 1.1.5 ([103], Prop. 3.1.1) Es seien K1 und K2 konvexe nichtleere Kegel mitK1 ⊂ K2. Dann gilt fur die Menge der Minimallosungen

M(f(Ω), K2) ⊂ M(f(Ω), K1).

Page 23: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.1 Problemdefinition 11

Es gibt noch weitere, starkere Minimalitatsbegriffe (siehe dazu [67] und die Referenzendarin), wie die eigentliche Minimalitat (verschiedene Definitionen dafur findet manu. a. in [6], [12], [47], [79]), die wir jedoch im Rahmen dieser Arbeit nicht weiterbenotigen und daher hier nicht weiter anfuhren.Bei der Bestimmung der Effizienzmenge konnen die folgenden Regeln hilfreich sein.

Lemma 1.1.6 ([103], S.34f) Es seien K ein nichtleerer Kegel, α > 0 ein Skalar unddie Mengen f(Ω), f(Ω) ⊂ R

m gegeben. Dann gilt

a) E(αf(Ω), K) = α E(f(Ω), K),

b) E(f(Ω) + f(Ω), K) ⊂ E(f(Ω), K) + E(f(Ω), K),

c) E(f(Ω), K) ⊃ E(f(Ω) + K, K).

d) Ist K zusatzlich spitz und konvex, so gilt

E(f(Ω), K) = E(f(Ω) + K, K).

Die folgende speziellere Rechenregel benotigen wir in Kapitel 7 uber die Bilevel-Optimierung.

Lemma 1.1.7 Wir betrachten fur A0, A1 ⊂ Rn und f : R

n → Rm die Mengen

A = A0 ∪ A1 und

A = M(f(A0), Rm+) ∪ A1

Dann gilt M(f(A), Rm+) = M(f(A), Rm

+).

Beweis: Wir zeigen zunachst M(f(A), Rm+) ⊂ M(f(A), Rm

+). Es sei dazu x ∈ M(f(A), Rm+).

Dann existiert kein Punkt x′ ∈ A mit

f(x′) ≤ f(x) und f(x′) 6= f(x). (1.2)

Es gilt x ∈ A = A0 ∪ A1.

Ist x ∈ A0, so existiert also kein x′ ∈ A0 ⊂ A mit (1.2). Damit ist x ∈M(f(A0), Rm

+ ) ⊂ A.

Ist x ∈ A1, so gilt ebenfalls x ∈ A.

Wegen A ⊂ A existiert auch kein x′ ∈ A mit (1.2) und daher gilt x ∈ M(f(A), Rm+).

Es bleibt zu zeigen M(f(A), Rm+) ⊂ M(f(A), Rm

+). Es sei dazu x ∈ M(f(A), Rm+),

d. h. es existiert kein x′ ∈ A mit (1.2). Es gilt x ∈ M(f(A0), Rm+ ) ∪ A1.

Ist x ∈ M(f(A0), Rm+), so existiert auch kein x′ ∈ A0 mit (1.2). Wegen A =

A ∪ A0 folgt x ∈ M(f(A), Rm+).

Page 24: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.2 Polyedrische Kegel 12

Ist x ∈ A1, so nehmen wir nun an, es wurde gelten x 6∈ M(f(A), Rm+). Dann

existiert ein x′ ∈ A \ A = A0 \ M(f(A0), Rm+) mit (1.2). Wegen x′ ∈ A0 und

x′ 6∈ M(f(A0), Rm+) existiert ein x0 ∈ M(f(A0), Rm

+) mit f(x0) ≤ f(x′) und es

folgt f(x0) ≤ f(x) und f(x0) 6= f(x). Wegen x0 ∈ A ist dies ein Widerspruchzu x ∈ M(f(A), Rm

+). Es gilt also x ∈ M(f(A), Rm+). 2

Zur Bestimmung der effizienten Punkte reicht es, den Rand ∂f(Ω) der Menge f(Ω)zu untersuchen, denn es gilt:

Satz 1.1.8 ([48], Satz 2.9) Es sei K ein nichtleerer konvexer Kegel mit K 6= 0m.Dann gilt

E(f(Ω), K) ⊂ ∂f(Ω).

Wie bei der skalaren Optimierung gibt es auch in der multikriteriellen Optimierungden Begriff der lokalen Minimalitat.

Definition 1.1.9 Es sei K ein spitzer abgeschlossener konvexer Kegel mit int(K) 6=∅.Ein Punkt x ∈ Ω heißt lokale Minimallosung des Optimierungsproblems (MOP) bzgl.dem Ordnungskegel K, falls es eine Umgebung U von x gibt, so dass es kein y ∈(f(Ω) ∩ U) \ f(x) mit f(x) ∈ y + K gibt.Ein Punkt x ∈ Ω heißt lokale schwache Minimallosung des Optimierungsproblems(MOP) bzgl. dem Ordnungskegel K, falls es eine Umgebung U von x gibt, so dass eskein y ∈ (f(Ω) ∩ U) \ f(x) mit f(x) ∈ y + int(K) gibt.

Fur Anwendungen und bei bestimmten numerischen Verfahren (siehe u. a. [65], [82],[118]) ist zudem das Konzept der ε-EP-Minimalitat nutzlich.

Definition 1.1.10 Es sei ε ∈ Rm mit εi > 0, i = 1, . . . , m, gegeben. Ein Punkt x ∈ Ω

heißt ε-EP-minimale Losung des Optimierungsproblems (MOP), wenn es kein x ∈ Ωgibt mit

fi(x) + εi ≤ fi(x) ∀ i ∈ 1, . . . , mund

fj(x) + εj < fj(x) fur mindestens ein j ∈ 1, . . . , m.

1.2 Polyedrische Kegel

Eine besondere Klasse der Ordnungskegel sind die polyedrischen Kegel, deren gunstigeEigenschaften bei der Losung von multikriteriellen Optimierungsproblemen genutztwerden konnen.

Page 25: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.2 Polyedrische Kegel 13

Definition 1.2.1 ([103], Def. 2.1.7, 2.1.8)

a) Eine Menge K ⊂ Rm heißt konvexer polyedrischer Kegel, falls K eine Darstel-

lung der Form

K = x ∈ Rm | (k

i)⊤x ≥ 0, i = 1, . . . , s

mit s ∈ N und Vektoren ki ∈ R

m, i = 1, . . . , s, besitzt.

b) Eine Menge K ⊂ Rm heißt endlich erzeugter konvexer Kegel, falls Vektoren

a1, a2, . . . , as, s ∈ N, im Rm existieren, so dass K ausgedruckt werden kann

durch

K = x ∈ Rm | x =

s∑

i=1

αiai, αi ≥ 0, i = 1, . . . , s.

Lemma 1.2.2 ([103], Prop. 2.1.12, [123], Lemma 2.1, Lemma 2.2) Ein konvexerKegel K ist genau dann polyedrisch, wenn er endlich erzeugt ist.

Besitzt der Kegel K die Darstellung

K = x ∈ Rm | (k

i)⊤x ≥ 0, i = 1, . . . , s

(s ∈ N), so sagen wir, dass der Kegel K von der Matrix K :=

(k1)⊤

...

(ks)⊤

erzeugt

wird. Es ist dann K = x ∈ Rn | Kx ≥s 0s.

Wird ein Kegel K von der Matrix K erzeugt und ist Kern(K) = 0m, so ist K spitzund die zugehorige Halbordnung antisymmetrisch. Der spitze Kegel der naturlichenHalbordnung ist z. B. polyedrisch und wird durch die m-dimensionale EinheitsmatrixEm erzeugt.Die Bestimmung minimaler Punkte eines multikriteriellen Optimierungsproblems bzgl.eines konvexen polyedrischen Kegels K, erzeugt durch eine Matrix K ∈ R

s×m, kannauf die Bestimmung EP-minimaler Punkte des multikriteriellen Optimierungspro-blems

min Kf(x)Nb. x ∈ Ω

mit den s Zielfunktionen (k1)⊤f(x), (k

2)⊤f(x), . . . , (k

s)⊤f(x) zuruckgefuhrt werden.

Lemma 1.2.3 ([103], Lemma 2.3.4) Wir betrachten das multikriterielle Optimie-rungsproblem (MOP) mit einem konvexen polyedrischen Kegel K, der die Darstellung

K = x ∈ Rm | Kx ≥s 0s

mit K ∈ Rs×m und Kern (K) = 0m besitzt. Dann gilt

E(f(Ω), K) = y ∈ f(Ω) | Ky ∈ E(Kf(Ω), Rs+)

Page 26: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.2 Polyedrische Kegel 14

undM(f(Ω), K) = M(Kf(Ω), Rs

+)

mit Kf(Ω) = Ky ∈ Rs | y ∈ f(Ω).

Wird ein polyedrischer Kegel K also durch eine s×m-Matrix erzeugt, so konnen wir dieBestimmung K-minimaler Punkte eines multikriteriellen Optimierungsproblems mitm Zielfunktionen auf die Bestimmung EP-minimaler Punkte eines multikriteriellenOptimierungsproblems mit s Kriterien uberfuhren. Ist s > m so wird das zu losendeOptimierungsproblem dadurch jedoch komplexer.

Beispiel 1.2.4 Wir betrachten die Bestimmung K-minimaler Punkte des Optimie-rungsproblems

minx∈Ω

f1(x)f2(x)f3(x)

(1.3)

mit

K = y ∈ R3 |

1 0 1−1 0 1

0 −1 10 1 1

y ≥4 04.

Es ist K = y ∈ R3 | −y3 ≤ y1 ≤ y3, −y3 ≤ y2 ≤ y3, y3 ≥ 0 eine Pyramide mit

Spitze im Nullpunkt.Dann ist x ∈ Ω genau dann K-minimale Losung von (1.3), wenn x EP-minimaleLosung von

minx∈Ω

f1(x) + f3(x)−f1(x) + f3(x)−f2(x) + f3(x)f2(x) + f3(x)

ist.

Wir werden auf diese besondere Eigenschaft von multikriteriellen Optimierungspro-blemen bezuglich Halbordnungen definiert durch polyedrische Kegel im Rahmen derSensitivitatsuntersuchungen noch speziell eingehen.Die folgenden zwei Beispiele fur nicht endlich erzeugte Kegel, der Kegel der LownerHalbordnung sowie der sog.

”ice-cream“-Kegel, zeigen, dass auch relevante Kegel nicht

polyedrisch sind.

Beispiel 1.2.5 Die Lowner Halbordnung im Raum Sn der symmetrischen n × n-Matrizen wird durch den konvexen Kegel Sn

+ der positiv semidefiniten n× n-Matrizen

Sn+ = A ∈ Sn | x⊤Ax ≥ 0 ∀x ∈ R

n

Page 27: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

1.2 Polyedrische Kegel 15

definiert. Mit Hilfe der folgenden matrixwertigen Abbildung kann der Sn in den Rn(n+1)/2

transformiert werden. Diese Operation wird z. B. in [122] Def. 2.3 als Operation svec(·)vorgestellt. Wir betrachten dies am Beispiel n = 2:

A =

(x yy z

)

∈ S2 7→ a =

xyz

∈ R3.

Durch diese Transformation lasst sich der Kegel der Lowner Halbordnung im R3 durch

den Kegel

K = (x, y, z) ∈ R3 | x + z ≥ 0, xz ≥ y2

= (x, y, z) ∈ R3 | x ≥ 0, z ≥ 0, xz ≥ y2

darstellen, d. h. A ∈ S2+ gilt genau dann, wenn a ∈ K erfullt ist. Der spitze kon-

vexe abgeschlossene Kegel K (Abb. 1.5) ist nicht endlich erzeugt und damit nichtpolyedrisch.

Abbildung 1.5: Kegel der Lowner Halbordnung im S2 abgebildet in den R3.

Beispiel 1.2.6 In [2], Ex. 4.2 wird ein Beispiel aus [3] aus der Portfolio-Optimierungangefuhrt, bei der die Dominanzordnung in einem dreidimensionalen Portfolio-Raumdurch den sog.

”ice-cream“-Kegel

K = (x, y, z) ∈ R3 | x ≥

y2 + z2

definiert ist. Auch dieser Kegel ist abgeschlossen, konvex und spitz, aber nicht endlicherzeugt und damit nicht polyedrisch.

Page 28: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

16

Kapitel 2

Skalarisierung

Um Losungen eines multikriteriellen Optimierungsproblems (MOP)

(MOP) min f(x)Nb. g(x) ∈ C,

h(x) = 0q,x ∈ S

mit der Restriktionsmenge Ω = x ∈ S | g(x) ∈ C, h(x) = 0q zu bestimmen, weichtman haufig auf die Losung von skalaren parameterabhangigen Optimierungsproble-men aus. Eine Moglichkeit hierbei ist die sich widersprechenden Zielfunktionen durcheine einzige skalare Zielfunktion zu ersetzen (wie durch die Bildung einer gewichtetenSumme, siehe z. B. [133]) oder indem alle Zielfunktionen bis auf eine in Restriktio-nen umgewandelt werden (ε-constraint-Methode siehe [51] zuruckgehend auf [85]). Solautet das skalare Ersatzproblem des Verfahrens der gewichteten Summe

minx∈Ω

m∑

i=1

wifi(x)

mit w ∈ K∗\0m und K∗ dem Dualkegel zum Kegel K. Bei der ε-constraint-Methodelost man fur ein k ∈ 1, . . . , m abhangig von den Parametern εi, i ∈ 1, . . . , m \ kdie skalaren Ersatzprobleme

min fk(x)Nb. fi(x) ≤ εi, ∀ i ∈ 1, . . . , m \ k,

x ∈ Ω(2.1)

zur Bestimmung EP-minimaler Punkte. Einen guten Uberblick uber Skalarisierungs-verfahren zur Losung multikriterieller Optimierungsprobleme bieten [32], [61], [67],[75], [91] und [102]. Andere Losungsansatze verwenden z.B. stochastische Methoden,wie das Verfahren von Schaffler, Schultz und Weinzierl ([107]) oder evolutionare Al-gorithmen (Uberblick hierzu in [22], [61], S.19, [128], [134]).

Page 29: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.1 Verfahren von Pascoletti und Serafini 17

Lost man die skalaren Ersatzprobleme fur verschiedene Parameter, wie z. B. verschie-dene Gewichte, so kann man verschiedene Losungen des multikriteriellen Optimie-rungsproblems erhalten. Da wir die gesamte effiziente Menge reprasentativ approxi-mieren wollen, ist es unser Ziel, durch eine geeignete Parameterwahl moglichst aqui-distant verteilte effiziente Punkte des multikriteriellen Optimierungsproblems zu ge-nerieren.Dabei hat die Gewichtungsmethode (

”weighted-sum“-Methode) den Nachteil, dass

es oft nur fur konvexe Probleme moglich ist durch geeignete Parameterwahl jedeneffizienten Punkt des multikriteriellen Optimierungsproblems als Losung des skala-ren Ersatzproblems zu erhalten (siehe auch [20], [75], weiter Nachteile siehe [41], Ex.1.1). Die ε-constraint-Methode ist in der Formulierung (2.1) nur zur BestimmungEP-minimaler Punkte geeignet und kann auch nur unter bestimmten einschranken-den Bedingungen an den Ordnungskegel K zur Bestimmung K-minimaler Punktebzgl. anderer Halbordnungen als die naturliche umformuliert werden. Da wir auchnichtkonvexe Probleme untersuchen und als Ordnungskegel K auch beliebige spitzeabgeschlossene Ordnungskegel zulassen wollen, wahlen wir zur Skalarisierung unse-res multikriteriellen Optimierungsproblems den Ansatz nach Pascoletti und Serafinivon 1984 ([96]). Dabei kann die ε-constraint-Methode als Spezialfall dieses Verfahrensangesehen werden (siehe dazu Abschnitt 3.3).

2.1 Verfahren von Pascoletti und Serafini

Zur Bestimmung von Losungen des multikriteriellen Optimierungsproblems (MOP)losen wir also die folgenden skalaren Optimierungsprobleme in Abhangigkeit der Pa-rameter a ∈ R

m und r ∈ Rm

(SP(a,r))mint,x

t

Nb. a + t r − f(x) ∈ K,g(x) ∈ C,h(x) = 0q,t ∈ R, x ∈ S

mit der von den Parametern abhangigen Restriktionsmenge

Σ(a, r) := (t, x) ∈ Rn+1 | a + t r − f(x) ∈ K, x ∈ Ω.

Dabei sei der Kegel K stets nichtleer abgeschlossen spitz und konvex. Die Definitiondieses Optimierungsproblems geht direkt auf die Definition der K-Minimalitat zuruck.Gilt fur ein x ∈ Ω mit y = f(x),

(y − K) ∩ f(Ω) = y,

so ist x K-minimal und damit ist y effizient bzgl. K (Abb. 2.1 mit m = 2 undK = R

2+). Schreiben wir nun (SP(a, r)) um zu

Page 30: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.1 Verfahren von Pascoletti und Serafini 18

Abbildung 2.1: K-Minimalitat.

min tNb. f(x) ∈ (a + tr) − K,

x ∈ Ω,t ∈ R,

so sehen wir, dass wir zur Losung dieses Optimierungsproblems den Kegel −K aufder Geraden a + t r von dem Punkt a aus in Richtung −r verschieben, bis sich dieMenge (a + t r − K) ∩ f(Ω) auf die leere Menge reduziert (Abb. 2.2 mit m = 2 undK = R

2+). Das kleinste t, fur das gerade noch (a + t r − K) ∩ f(Ω) 6= ∅ gilt, ist dann

der Minimalwert von (SP(a, r)).

Abbildung 2.2: Kegelverschiebung beim Skalarisierungsproblem (SP(a, r)).

Der Punkt a kann auch als Referenzpunkt interpretiert werden ([57]). Dann ist derPunkt f(x) = y fur eine Minimallosung x eine (schwach) K-minimale Losung (siehedazu Satz 2.2.1, c)), die am nahesten zum Referenzpunkt liegt. Der Parameter r kanndabei als Richtung verstanden werden. Ist r ∈ int(Rm

+ ), so kann r auch als Gewichtungder Zielfunktionen mit den Gewichten wi = 1

ri, i = 1, . . . , m angesehen werden.

Page 31: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 19

Pascoletti und Serafini erlauben fur den Parameter r nur r ∈ L(K), d. h. r sei ausdem kleinsten linearen Unterraum des R

m, der K enthalt. Dieses Optimierungspro-blem wird auch von Sterna-Karwat in [119] und [120] untersucht. Helbig ([57],[59])behandelt ebenfalls diesen Skalarisierungsansatz, jedoch wird bei ihm r ∈ rint(K),d. h. r sei aus dem relativen Inneren des abgeschlossenen spitzen konvexen Kegels K,vorausgesetzt.Das Optimierungsproblem (SP(a, r)) zur Skalarisierung des multikriteriellen Opti-mierungsproblems (MOP) besitzt alle wichtigen Eigenschaften, die von einem Ersatz-problem erfullt sein mussen. Ist (t, x) eine Minimallosung von (SP(a, r)), so ist derPunkt x zumindest eine schwach K-minimale Losung des multikriteriellen Optimie-rungsproblems (siehe Satz 2.2.1,c)). Variieren wir die Parameter (a, r) ∈ R

m ×Rm, so

konnen wir mit Hilfe des Skalarisierungsproblems jeden K-minimalen Punkt des mul-tikriteriellen Optimierungsproblems finden (siehe Satz 2.2.1,a)). Auf diese wichtigenEigenschaften gehen wir im folgenden Abschnitt ein.Helbig variiert in [59] zusatzlich den Kegel K und definiert fur s ∈ K∗ = y ∈ R

m |k⊤y ≥ 0 fur alle k ∈ K parameterabhangige neue Kegel K(s) mit K ⊂ K(s) undlost dann die skalaren Ersatzprobleme (SP(a, r)) bezuglich der Kegel K(s). Die Losun-gen sind dann bezuglich K(s) schwach minimal, jedoch bezuglich dem Kegel K sogarminimale Losungen des ursprunglichen multikriteriellen Optimierungsproblems. Wirwerden uns jedoch auf eine Variierung der Parameter a und r und meist sogar nurauf den Parameter a beschranken. Durch eine geeignete Steuerung des Parameters akonnen wir dann gezielt nahezu aquidistant verteilte effiziente Punkte des multikri-teriellen Optimierungsproblems generieren und damit eine gute Approximation dereffizienten Menge bestimmen (siehe dazu Kapitel 4).

2.2 Eigenschaften des skalaren Ersatzproblems

Im Folgenden fassen wir die wesentlichen Eigenschaften des von uns verwendetenskalaren Ersatzproblems (SP(a, r)) zusammen, die zum Teil bereits von Pascolettiund Serafini in [96] gezeigt wurden. Es sei im Weiteren wieder K ein nichtleererabgeschlossener spitzer Ordnungskegel im R

m.

Satz 2.2.1 Wir betrachten das skalare Optimierungsproblem (SP(a, r)) zum multi-kriteriellen Optimierungsproblem (MOP).

a) Ist x schwach K-minimale Losung des multikriteriellen Optimierungsproblems(MOP), so ist (0, x) Minimallosung von (SP(a, r)) mit a = f(x) und r ∈int (K).

b) Ist x K-minimale Losung des multikriteriellen Optimierungsproblems (MOP),so ist (0, x) Minimallosung von (SP(a, r)) mit a = f(x) und r ∈ K \ 0m.

c) Ist (t, x) Minimallosung von (SP(a, r)), so ist x schwach K-minimale Losung desmultikriteriellen Optimierungsproblems (MOP) und es gilt a + t r − f(x) ∈ ∂Kmit ∂K dem Rand des Kegels K.

Page 32: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 20

d) Ist x lokal schwach K-minimale Losung des multikriteriellen Optimierungspro-blems (MOP), so ist (0, x) lokale Minimallosung von (SP(a, r)) mit a = f(x)und r ∈ int (K). Ist x lokal K-minimal, so gilt dies fur a = f(x) und r ∈K \ 0m.

e) Ist (t, x) eine lokale Minimallosung von (SP(a, r)) und sind fi, i = 1, . . . , m,stetig, so ist x lokal schwach K-minimale Losung des multikriteriellen Optimie-rungsproblems (MOP) und es gilt a + r t − f(x) ∈ ∂K.

Beweis: zu a) Es sei a = f(x) und r ∈ int (K). Dann ist (0, x) zulassig fur (SP(a, r))und minimal, denn angenommen es gibt einen zulassigen Punkt (t′, x′) mit t′ < 0,dann existiert ein k′ ∈ K mit

a + t′ r − f(x′) = k′,

also f(x) = f(x′) + k′ − t′ r. Dann ist k′ − t′ r ∈ int (K) und damit f(x) ∈f(x′) + int (K) im Widerspruch zur schwachen K-Minimalitat von x.

zu b) Es sei a = f(x) und r ∈ K \ 0m. Dann ist (0, x) zulassig fur (SP(a, r)).Angenommen es existiert ein t′ < 0 und ein x′ ∈ Ω mit (t′, x′) zulassig fur(SP(a, r)), dann existiert auch ein k′ ∈ K mit a + t′ r − f(x′) = k′, also

f(x) = f(x′) + k′ − t′ r ∈ f(x′) + K.

Da x K-minimal ist folgt f(x) = f(x′) und damit k′ = t′ r. Wegen k′ ∈ Kund t′ r ∈ −K, und da der Kegel K spitz ist, muss gelten t′ r = k′ = 0m imWiderspruch zu t′ < 0 und r 6= 0m. Also ist (0, x) Minimallosung.

zu c) Ist x nicht schwach K-minimal, so existiert ein x′ ∈ Ω und ein k′ ∈ int (K)mit f(x) = f(x′)+k′. Da (t, x) Minimallosung und damit zulassig fur (SP(a, r))ist, existiert ein k ∈ K mit a + t r − f(x) = k. Da k + k′ ∈ int (K) existiert einε > 0 mit k + k′ − ε r ∈ int (K). Damit folgt aus a + t r − f(x′) = k + k′

a + (t − ε) r − f(x′) ∈ int (K).

Dann ist (t−ε, x′) ebenfalls zulassig fur (SP(a, r)) mit t−ε < t im Widerspruchzur Minimalitat von (t, x). Mit den gleichen Argumenten zeigt man k ∈ ∂K.

zu d) und e) Die Beweise findet man in [96], S.504f. 2

Es sei jedoch darauf hingewiesen, dass aus Satz 2.2.1 c) nicht folgt, dass wir fur beliebi-ge Parameter a, r ∈ R

m stets durch Losen des Optimierungsproblems (SP(a, r)) einenschwach K-minimalen Punkt x des multikriteriellen Optimierungsproblems (MOP)erhalten. Es kann auch sein, dass das skalare Ersatzproblem (SP(a, r)) keine Mini-mallosung besitzt, wie in dem in Abb. 2.3 dargestellten Fall fur m = 2 und K = R

2+.

Page 33: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 21

Abbildung 2.3: Es existiert fur K = R2+ keine Minimallosung, da der Zielfunktionswert

nach unten unbeschrankt ist.

Besitzt das Optimierungsproblem (SP(a, r)) fur a ∈ Rm, r ∈ int(K) keine Mini-

mallosung, so lasst dies unter bestimmten Bedingungen darauf schließen, dass das mul-tikriterielle Optimierungsproblem (MOP), zu dem das skalare Ersatzproblem (SP(a, r))formuliert wurde, keine K-minimale Losung besitzt. Wir benotigen hierfur den fol-genden Satz von Helbig ([57], Theorem 2.2).

Satz 2.2.2 Es sei K ⊂ Rm ein abgeschlossener konvexer spitzer Kegel mit int(K) 6= ∅

und die Menge f(Ω)+K sei abgeschlossen und konvex. Es gelte E(f(Ω), K) 6= ∅. Dannist

(a, r) ∈ Rm × int(K) | Σ(a, r) 6= ∅ = R

m × int(K),

d. h. fur jede Wahl von Parametern (a, r) ∈ Rm × int(K) besitzt das skalare Optimie-

rungsproblem (SP(a, r)) zulassige Punkte.Zudem besitzt das skalare Optimierungsproblem (SP(a, r)) fur alle Parameter (a, r) ∈R

m × int(K) eine Minimallosung.

Damit folgt fur uns direkt:

Korollar 2.2.3 Es sei K ⊂ Rm ein abgeschlossener konvexer spitzer Kegel mit int(K)

6= ∅ und die Menge f(Ω) + K sei abgeschlossen und konvex. Besitzt das skalare Opti-mierungsproblem (SP(a, r)) fur Parameter (a, r) ∈ R

m×int(K) keine Minimallosung,so gilt E(f(Ω), K) = ∅.

Losen wir also das skalare Optimierungsproblem (SP(a, r)) zu dem multikriteriellenOptimierungsproblem (MOP) mit den Eigenschaften wie in Korollar 2.2.3 fur einbeliebiges Parameterpaar (a, r) ∈ R

m × int(K), so erhalten wir stets entweder einezumindest schwach K-minimale Losung von (MOP) oder die Information, dass dasmultikriterielle Optimierungsproblem keine K-minimalen Punkte besitzt.Diese Eigenschaft wird nicht von jedem Skalarisierungsverfahren erfullt. So ist z. B.bei der ε-constraint-Methode (Spezialfall des Verfahrens von Pascoletti und Serafini

Page 34: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 22

fur den jedoch r ∈ ∂K gilt, siehe auch Abschnitt 3.3) das skalare Ersatzproblem nichtfur alle Parameter ε ∈ R

m−1 losbar, auch wenn die sonstigen Voraussetzungen desKorollars 2.2.3 erfullt sind und E(f(Ω), K) 6= ∅ gilt.

Beispiel 2.2.4 Es sei f : R2 → R

2 mit f(x) = x fur alle x ∈ R2 gegeben und wir

betrachten das bikriterielle Optimierungsproblem

min f(x) = xNb. ‖x‖2 ≤ 1,

x ∈ R2

bezuglich der naturlichen Halbordnung. Dann ist die Effizienzmenge gegeben durch

x = (x1, x2)⊤ ∈ R

2 | ‖x‖2 = 1, x1 ≤ 0, x2 ≤ 0 6= ∅.

Das skalare Ersatzproblem der ε-constraint-Methode lautet dann fur k = 2

min f2(x)Nb. f1(x) ≤ ε1,

‖x‖2 ≤ 1,x ∈ R

2

und besitzt fur ε1 < −1 keine Losung (und insbesondere keine zulassigen Punkte).

In Brosowski ([14], Ex. 7.3) findet man ein einfaches Beispiel, bei dem die Gewich-tungsmethode nur fur genau einen Parameter eine Losung liefert.

Beispiel 2.2.5 Wir betrachten das bikriterielle Optimierungsproblem

min f(x) = xNb. x1 + x2 ≥ 1,

x ∈ R2

bezuglich der naturlichen Halbordnung. Die Losungsmenge lautet

x = (x1, x2)⊤ ∈ R

2 | x1 + x2 = 1.

Das skalare Ersatzproblem entsprechend der Methode der gewichteten Summe ist dann

min w1 f1(x) + w2 f2(x)Nb. x1 + x2 ≥ 1,

x ∈ R2

mit w1, w2 ≥ 0 und2∑

i=1

wi = 1, und liefert nur fur die Parameter w1 = w2 = 0.5 eine

Losung. Fur alle anderen Parameter besitzt das Ersatzproblem zwar zulassige Punkte,ist aber nicht losbar.

Page 35: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 23

Fur den Spezialfall der naturlichen Halbordnung, also K = Rm+ , gibt es einen Satz

mit ahnlicher Aussage von Bernau ([8], Lemma 1.3).

Satz 2.2.6 Es gelte Mw(f(Ω), Rm+) 6= ∅. Dann ist der Zielfunktionswert des skala-

ren Ersatzproblems (SP(a, r)) (fur a ∈ Rm und r ∈ int(Rm

+ ) beliebig) nach untenbeschrankt.

Beweis: Es sei x ∈ Mw(f(Ω), Rm+) ein schwach EP-minimaler Punkt. Wir setzen

t := min1≤i≤m

fi(x) − ai

ri

. (2.2)

Dann ist t ≤ 1ri

(fi(x) − ai) fur i = 1, . . . , m. Nehmen wir nun an, es existiertein fur (SP(a, r)) zulassiger Punkt (t, x) mit t < t. Dann gilt x ∈ Ω und mitri > 0, i = 1, . . . , m, und (2.2) folgt

fi(x) ≤ ai + t ri < ai + t ri ≤ fi(x) fur i = 1, . . . , m

im Widerspruch zu x schwach K-minimal. Damit ist t eine untere Schranke derZielfunktion von (SP(a, r)). 2

Damit folgt direkt

Korollar 2.2.7 Ist der Zielfunktionswert des Optimierungsproblems (SP(a, r)) fura ∈ R

m, r ∈ int(Rm+) nach unten unbeschrankt, so gilt M(f(Ω), Rm

+) = ∅, d. h. daszugehorige multikriterielle Optimierungsproblem besitzt keine EP-minimalen Punkte.

Wir erhalten also durch Losen von (SP(a, r)) fur r ∈ int(Rm+) stets entweder die In-

formation, dass keine EP-minimalen Punkte existieren, oder einen zumindest schwachEP-minimalen Punkt des multikriteriellen Optimierungsproblems (MOP) und damiteinen Approximationspunkt der Bildmenge der schwach EP-minimalen Punkte.Eine wichtige Eigenschaft unseres skalaren Ersatzproblems ist, dass wir bei geeig-neter Parameterwahl alle (schwach) K-minimalen Punkte des multikriteriellen Opti-mierungsproblems finden konnen (Satz 2.2.1a)). Ist (t, x) Minimallosung des skalarenErsatzproblems und damit schwach K-minimal, jedoch nicht K-minimal, so gilt furdie den Punkt f(x) dominierenden Punkte:

Satz 2.2.8 ([96], Theorem 3.3) Wir betrachten das skalare Optimierungsproblem(SP(a, r)). Ist (t, x) Minimallosung von (SP(a, r)) mit k := a + t r − f(x) und gibt eseinen Punkt y = f(x) ∈ f(Ω), der den Punkt f(x) bezuglich dem Kegel K dominiert,so ist (t, x) ebenfalls Losung von (SP(a, r)) und es existiert ein k ∈ ∂K, k 6= 0m, mita + t r − f(x) = k + k.

Damit folgt unmittelbar

Page 36: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 24

Korollar 2.2.9 Ist (t, x) bildeindeutige Minimallosung von (SP(a, r)) bzgl. f , d. h.gibt es keine Minimallosung (t, x) mit f(x) 6= f(x), so ist x K-minimale Losung desmultikriteriellen Optimierungsproblems (MOP).

Unser Ziel ist es, die gesamte Bildmenge der K-minimalen Punkte des multikriteriel-len Optimierungsproblems (MOP) zu approximieren, indem wir fur verschiedene Pa-rameterwerte jeweils das skalare Optimierungsproblem (SP(a, r)) losen. Dafur reichtes aus, nur den Parameter a ∈ R

m auf einer Hyperebene H = y ∈ Rm | b⊤y = β

mit b ∈ Rm \ 0m, β ∈ R zu variieren und den Parameter r ∈ K konstant zu

wahlen, um als Minimallosung von (SP(a, r)) bereits jeden K-minimalen Punkt desmultikriteriellen Optimierungsproblems erhalten zu konnen.

Satz 2.2.10 Es sei x K-minimale Losung des multikriteriellen Optimierungspro-blems (MOP). Weiterhin sei mit b ∈ R

m \ 0m und β ∈ R die Hyperebene

H = y ∈ Rm | b⊤y = β

im Rm gegeben und es sei r ∈ K mit b⊤r 6= 0. Dann existieren ein a ∈ H und ein

t ∈ R mit (t, x) Minimallosung von (SP(a, r)).

Beweis: Wir setzen

t =b⊤f(x) − β

b⊤rund

a = f(x) − t r.

Dann gilt a ∈ H und (t, x) ist zulassig fur (SP(a, r)). Wir nehmen an, (t, x) istkeine Minimallosung von (SP(a, r)). Dann existieren t′ ∈ R, t′ < t, x′ ∈ Ω undk′ ∈ K mit

a + t′ r − f(x′) = k′.

Damit folgt aus der Wahl von a

f(x) − t r + t′ r − f(x′) = k′.

Es ergibt sichf(x) = f(x′) + k′ + (t − t′)

︸ ︷︷ ︸

>0

r︸︷︷︸

∈K

und aus der Konvexitat des Kegels K folgt

f(x) ∈ f(x′) + K. (2.3)

Da der Kegel K spitz und da r 6= 0m ist, ist

k′ + (t − t′)︸ ︷︷ ︸

>0

r 6= 0m

und damit f(x) 6= f(x′). Mit (2.3) ergibt sich f(x) ∈ f(x′)+K \0m fur x′ ∈ Ωim Widerspruch zu x K-minimal. 2

Page 37: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 25

Fur unsere Sensitivitatsuntersuchungen und der anschließenden Parametersteuerungin den nachsten Kapiteln ist in diesem Zusammenhang der folgende Satz von Bedeu-tung.

Satz 2.2.11 Es sei die Hyperebene H = y ∈ Rm | b⊤y = β mit b ∈ R

m \ 0m undβ ∈ R gegeben. Es sei (t, x) Minimallosung des Optimierungsproblems (SP(a, r)) mita ∈ H und r ∈ R

m mit b⊤r 6= 0. Es existiert also ein k ∈ K mit

a + t r − f(x) = k.

Dann existiert ein a′ ∈ H und ein t′ ∈ R, mit (t′, x) Minimallosung von (SP(a′, r))mit

a′ + t′ r − f(x) = 0m.

D. h. die Restriktion a′ + t r − f(x) ∈ K des Optimierungsproblems (SP(a′, r)) ist in(t′, x) mit Gleichheit erfullt.

Beweis: Wir setzen

t′ =b⊤f(x) − β

b⊤r

unda′ = a + (t − t′) r − k = f(x) − t′ r.

Dann gilt a′ ∈ H und a′ + t′ r − f(x) = 0m. Der Punkt (t′, x) erfullt damit dieRestriktionen von (SP(a′, r)). Er ist auch Minimallosung, denn angenommen esgebe einen zulassigen Punkt (t, x) mit t < t′ und x ∈ Ω, dann existiert ein k ∈ Kmit

a′ + t r − f(x) = k.

Dann folgt mit der Definition von a′

a + (t − t′ + t) r − f(x) = k + k ∈ K.

D. h. (t − t′ + t, x) ist zulassig fur (SP(a, r)) mit t − t′ + t < t im Widerspruchzur Minimalitat von (t, x) fur (SP(a, r)). 2

Bemerkung 2.2.12 Es existiert also zu jedem Optimierungsproblem (SP(a, r)) mitMinimallosung (t, x) und

a + t r − f(x) = k, k 6= 0m,

ein Parameter a′ ∈ H und ein t′ ∈ R, so dass (t′, x) Minimallosung von (SP(a′, r))mit

a′ + t′ r − f(x) = 0m

ist (siehe Abb. 2.4).

Page 38: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 26

Abbildung 2.4: Veranschaulichung der Bemerkung 2.2.12.

Fur unser Ziel, die Parameter der skalaren Optimierungsprobleme (SP(a, r)) so zusteuern, dass gezielt aquidistant verteilte effiziente Punkte des multikriteriellen Opti-mierungsproblems generiert werden, sind die Lagrange-Multiplikatoren von zentralerBedeutung (siehe Kapitel 3). Betrachten wir ein skalares Optimierungsproblem

min F (x)Nb. G(x) ∈ C,

H(x) = 0q,x ∈ S

mit C einem abgeschlossenen konvexen Kegel in Rp, S einer offenen Teilmenge des R

n,S ⊂ S abgeschlossen und konvex und mit auf S stetig differenzierbaren FunktionenF : S → R, G : S → R

p und H : S → Rq (n, p, q ∈ N0), dann lautet die zugehorige

Lagrange-Funktion L : Rn × C∗ × R

q → R (mit C∗ dem Dualkegel zu C)

L(x, µ, ξ) = F (x) − µ⊤G(x) − ξ⊤H(x).

Ist x zulassig und existieren (µ, ξ) ∈ C∗ × Rq mit

∇xL(x, µ, ξ)⊤(s − x) ≥ 0 ∀s ∈ S

undµ⊤G(x) = 0,

so heißen µ und ξ Lagrange-Multiplikatoren zu x.Wir verwenden die folgende Annahme:

Annahme 2.2.13 Es sei K ein spitzer konvexer abgeschlossener Kegel im Rm und

C sei ein konvexer abgeschlossener Kegel im Rp. Es sei S eine nichtleere offene Teil-

menge des Rn und S ⊂ S sei abgeschlossen und konvex. Die Funktionen f : S → R

m,g : S → R

p und h : S → Rq seien stetig differenzierbar auf S.

Wir zeigen hier zunachst, dass sich die Lagrange-Multiplikatoren unter der Transfor-mation aus Satz 2.2.11 nicht verandern.

Page 39: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.2 Eigenschaften des skalaren Ersatzproblems 27

Lemma 2.2.14 Es gelte die Annahme 2.2.13. Es sei (t, x) Minimallosung von (SP(a, r))und es existieren Lagrange-Multiplikatoren (µ, ν, ξ) ∈ K∗×C∗×R

q zu (t, x). Nach Satz2.2.11 existiert dann ein Parameter a′ ∈ H und ein t′ ∈ R mit (t′, x) Minimallosungvon (SP(a′, r)) und a′+t′ r = f(x). Dann sind (µ, ν, ξ) auch Lagrange-Multiplikatorenzu (t′, x) fur das skalare Ersatzproblem (SP(a′, r)).

Beweis: Die Lagrange-Funktion L zum skalaren Optimierungsproblem (SP(a, r)),formuliert zum multikriteriellen Optimierungsproblem (MOP), lautet

L(t, x, µ, ν, ξ, a, r) = t − µ⊤(a + t r − f(x)) − ν⊤g(x) − ξ⊤h(x).

Sind (µ, ν, ξ) die Lagrange-Multiplikatoren zum Punkt (t, x), so gilt

∇(t,x)L(t, x, µ, ν, ξ, a, r)⊤(

t − tx − x

)

=

[(10

)

−m∑

i=1

µi

(ri

−∇xfi(x)

)

−p∑

j=1

νj

(0

∇xgj(x)

)

−q∑

k=1

ξk

(0

∇xhk(x)

)]⊤(t − tx − x

)

≥ 0 ∀t ∈ R, x ∈ S.

Also ist 1 − µ⊤r = 0 und(µ⊤∇xf(x) − ν⊤∇xg(x) − ξ⊤∇xh(x)

)(x − x) ≥ 0 fur

alle x ∈ S. Weiterhin gilt µ⊤(a + t r − f(x)) = 0 und ν⊤g(x) = 0. Fur dieMinimallosung (t′, x) zu (SP(a′, r)) gilt

a′ + t′ r − f(x) = 0m,

also ist auch µ⊤(a′ + t′ r − f(x)) = 0, und wegen

∇(t,x)L(t′, x, µ, ν, ξ, a′, r) = ∇(t,x)L(t, x, µ, ν, ξ, a, r)

gilt auch

∇(t,x)L(t′, x, µ, ν, ξ, a′, r)⊤(

t − t′

x − x

)

≥ 0 ∀t ∈ R, x ∈ S.

Damit sind (µ, ν, ξ) auch Lagrange-Multiplikatoren zum Punkt (t′, x) fur (SP(a′, r)).2

Im Abschnitt uber die Sensitivitatsanalyse werden die Lagrange-Multiplikatoren zueiner Minimallosung von großer Bedeutung sein.

Page 40: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.3 Zusammenhang mit anderen Skalarisierungsverfahren 28

2.3 Zusammenhang mit anderen Skalarisierungs-

verfahren

Das sehr allgemein formulierte skalare Ersatzproblem von Pascoletti und Serafinienthalt als Spezialfall andere, bekannte Skalarisierungsverfahren wie die ε-constraint-Methode oder die Skalarisierung mittels einer gewichteten Tschebyscheff-Norm. Wei-tere Verfahren, wie die Normal-Boundary-Intersection-Methode oder die modifiziertePolak-Methode, weisen eine Verwandtschaft zu den von uns betrachteten Optimie-rungsproblemen (SP(a, r)) auf. Diese Zusammenhange wollen wir hier vorstellen.

Gembicki und Haimes stellten 1975 ([46]) die”goal-attainment“-Methode zur Be-

stimmung EP-minimaler Punkte vor. Dies ist ein Spezialfall fur das von uns gewahlteVerfahren mit K = R

2+ fur den bikriteriellen Fall. Gembicki und Haimes interpretier-

ten den Parameter a als Ziel und den Parameter r mit ri > 0, i = 1, 2, als Gewichtungder Abweichung der einzelnen Zielfunktionen vom Zielpunkt a. Zur Generierung ver-schiedener effizienter Punkte variierten sie den Parameter r ∈ R

2 mit r1, r2 > 0 undr1 + r2 = 1.

Allgemeiner anwendbar fur beliebige Dimensionen ist dagegen die Skalarisierung mitHilfe einer gewichteten Tschebyscheff-Norm ([29], [61], S.13, [81]). Hierbei werden zurBestimmung EP-minimaler Punkte zu einem Referenzpunkt a mit ai < min

x∈Ωfi(x),

i = 1, . . . , m, skalare Optimierungsprobleme der Form

minx∈Ω

maxi∈1,...,m

wi(fi(x) − ai) (2.4)

mit Gewichten wi > 0, i = 1, . . . , m betrachtet. Das Optimierungsproblem (2.4) lasstsich durch Einfuhren einer zusatzlichen Variablen t ∈ R (siehe auch [67], S.305, [81],S.14) umformen zu

min tNb. wi (fi(x) − ai) ≤ t, ∀ i = 1, . . . , m,

x ∈ Ω,t ∈ R,

bzw.min tNb. ai + 1

wit − fi(x) ≥ 0, ∀ i = 1, . . . , m,

x ∈ Ω,t ∈ R.

.

Dies ist identisch zu (SP(a, r)) mit K = Rm+ und ri = 1

wi> 0.

Auch die ε-constraint-Methode ist ein Spezialfall von (SP(a, r)), wobei jedoch dieRichtung r und die Hyperebene, aus der der Parameter a gewahlt wird, festgelegtsind. Auf diesen sehr bekannten Spezialfall gehen wir ausfuhrlich im Abschnitt 3.3ein.

Page 41: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.3 Zusammenhang mit anderen Skalarisierungsverfahren 29

Ein weiteres Beispiel fur ein relativ neues Skalarisierungsverfahren zur Bestimmungschwach EP-minimaler Punkte, das einen starken Zusammenhang zum Skalarisie-rungsverfahren von Pascoletti und Serafini aufweist, ist das von Gourion und Luc2005 ([49]) vorgestellte Verfahren. Dieses bezieht sich auf Maximierungsprobleme

maxx∈Ω

f(x)

fur f : Rn → R

m mit f(Ω) ⊂ Rm+ . Damit ist der Ordnungskegel im Bildraum K = R

m− .

Es werden fur verschiedene Parameter α ∈ Rm+ die skalaren Optimierungsprobleme

max sNb. f(x) ≥ s α,

x ∈ Ω, s ∈ R

(2.5)

mit Maximalwert sα gelost. Die Punkte

x ∈ Ω | f(x) ≥ sα α = x ∈ Ω | (sα, x) Minimallosung von (2.5)

sind schwach EP-maximal. Setzen wir nun r = −α ∈ Rm− sowie t = −s, so lautet das

Optimierungsproblem (2.5)

max (−t)Nb. f(x) ≥ (−r) · (−t),

x ∈ Ω, t ∈ R

und ist damit aquivalent zum Optimierungsproblem (SP(a, r)) von Pascoletti undSerafini mit a = 0m und K = R

m− , also zu

− min tNb. t r − f(x) ∈ K,

x ∈ Ω, t ∈ R.

Damit entsprechen die skalaren Ersatzprobleme aus dem Verfahren von Gourion undLuc mit verschiedenen Parametern α ∈ R

m+ den skalaren Ersatzproblemen (SP(a, r))

von Pascoletti und Serafini mit dem Parameter a konstant als a = 0m gewahlt unddem Parameter r = −α ∈ R

m− variierend.

Zur Bestimmung der Parameter r = −α stellen Gourion und Luc ein Auswahlverfah-ren vor und geben einen Konvergenzbeweis fur dieses Verfahren. Weiterhin wird furbestimmte Mengen f(Ω) (Ω ⊂ R

n) gezeigt, dass die Minimalwertfunktion (ubertragenauf unsere Formulierung)

r 7→ mint | t r − f(x) ∈ K, t ∈ R, x ∈ Ω

stetig auf der Menge r ∈ Rm+ |

m∑

i=1

ri = 1 ist ([49], Lemma 2.4).

Nun mochten wir noch auf die Normal-Boundary-Intersection-Methode (NBI-Methode)von Das und Dennis ([19], [21]) eingehen. Hier wird zur Bestimmung EP-minimaler

Page 42: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.3 Zusammenhang mit anderen Skalarisierungsverfahren 30

Punkte fur verschiedene Werte des Parameters β ∈ Rm+ mit

m∑

i=1

βi = 1 das Optimie-

rungsproblemmax sNb. Φβ + s n = f(x) − f ∗,

x ∈ Ω, s ∈ R

(2.6)

gelost. Dabei ist f ∗ der sogenannte ideale Punkt, fur den

f ∗i = fi(x

i) = minx∈Ω

fi(x) fur i = 1, . . . , m,

gilt. Weiterhin ist Φ ∈ Rm×m eine Matrix, deren i-te Spalte gleich f(xi) − f ∗ ist

(i = 1, . . . , m). Damit beschreibt die Menge

Φβ | β ∈ Rm+ ,

m∑

i=1

βi = 1

die Menge aller Konvexkombinationen der Extrempunkte f(xi), i = 1, . . . , m, diesog. CHIM. Der Vektor n sei der Einheitsnormalenvektor zu der Ebene, die die CHIMenthalt, der in Richtung des negativen Orthanten zeigt. Wird dieses skalare Ersatz-problem fur eine aquidistante Auswahl an Parametern β gelost, so wird gehofft aucheine gleichmaßige Approximation der Effizienzmenge zu erhalten. Dabei kann jedochbereits fur m > 2 nicht mehr jeder EP-minimale Punkt generiert werden (siehe [21],Fig. 3). Zudem sind die Minimallosungen von (2.6) nicht notwendigerweise schwachEP-minimal, so dass diese dominierten Punkte wieder eliminiert werden mussen. Set-zen wir nun

a = f ∗ + Φβ, r = −n und t = −s,

so lasst sich (2.6) schreiben als

−min tNb. a + t r − f(x) = 0m,

x ∈ Ω, t ∈ R,(2.7)

aquivalent zu (SP(a, r)) fur K = 0m. Wir bestimmen also K-minimale Punkte (sieheSatz 2.2.1c)) mit K = 0m. Wurden wir uns bei der Wahl von β nicht einschrankenund damit a aus einer ganzen Hyperebene zulassen, so konnten wir jeden K-minimalenPunkt des zugehorigen multikriteriellen Optimierungsproblems als Minimallosung von(2.7) finden (siehe Satz 2.2.10) und wegen K ⊂ R

m+ nach Satz 1.1.5 auch jede EP-

minimale Losung.Dieses spezielle Optimierungsproblem (2.7), bei dem die Ungleichungsrestriktion

a + t r − f(x) ∈ Rm+

durch eine Gleichungsrestriktion ersetzt wird, wird fur uns im Laufe der Sensitivitats-untersuchungen im Kapitel 3, dann jedoch fur beliebige Ordnungskegel, noch von

Page 43: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.3 Zusammenhang mit anderen Skalarisierungsverfahren 31

speziellem Interesse sein. Unsere Erkenntnisse zur Parametersteuerung lassen sich da-mit auch auf die Steuerung der Parameter β der NBI-Methode ubertragen um eineverbesserte Approximation der effizienten Menge zu erreichen.

Auch die modifizierte Polak-Methode ([61], [69], [97]), bei der z. B. fur den bikriteri-ellen Fall fur verschiedene Werte des Parameters y1 ∈ R die skalaren Optimierungs-probleme

min f2(x)Nb. f1(x) = y1,

x ∈ Ω(2.8)

zu losen sind, weist einen ahnlichen Zusammenhang zum Verfahren von Pascolet-ti und Serafini auf. Zunachst ist das Optimierungsproblem (2.8) nahe verwandt zurε-constraint-Methode, die ja ein Spezialfall der von uns verwendeten Skalarisierungist, nur dass die Ungleichungsrestriktionen des ε-constraint-Problems, wie hier z. B.f1(x) ≤ ε1, durch die Gleichungsrestriktion f1(x) = y1 (mit y1 = ε1) ersetzt wurden.Es handelt sich also auch hierbei um einen Spezialfall der Pascoletti-Serafini-Methode,bei der die Ungleichungsrestriktionen wie bei der NBI-Methode durch Gleichungsre-striktionen ersetzt wurden.

Abschließend wollen wir noch kurz auf den Zusammenhang zur Gewichtungsmethodeeingehen. Bei der Gewichtungsmethode minimiert man die gewichtete Summe derZielfunktionen. Man lost also skalare Ersatzprobleme der Form

minm∑

i=1

wifi(x) = w⊤f(x)

Nb. x ∈ Ω(2.9)

mit Gewichten w ∈ K∗ \ 0m und erhalt als Minimallosungen von (2.9) schwach K-minimale Punkte des multikriteriellen Optimierungsproblems. Ist die Menge f(Ω)+Kkonvex, so kann bei entsprechender Wahl der Gewichte jeder K-minimale Punkt desmultikriteriellen Optimierungsproblems als Minimallosung von (2.9) gefunden wer-den. Das Optimierungsproblem (2.9) hangt mit der Skalarisierung von Pascoletti undSerafini

min tNb. a + t r − f(x) ∈ Kw,

t ∈ R, x ∈ Ω(2.10)

mit a ∈ Rm beliebig, Kw = y ∈ R

m | w⊤y ≥ 0 und r ∈ int(Kw) zusammen, dennwir konnen (2.10) umformen zu

min tNb. w⊤(a + t r − f(x)) ≥ 0,

t ∈ R, x ∈ Ω,

was fur w⊤r 6= 0 aquivalent zur Losung des Optimierungsproblems

min w⊤f(x)−w⊤aw⊤r

Nb. x ∈ Ω(2.11)

Page 44: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

2.3 Zusammenhang mit anderen Skalarisierungsverfahren 32

ist. Da der konstante Term −w⊤aw⊤r

in der skalaren Zielfunktion von (2.11) ignoriertwerden kann, und da w⊤r > 0 fur r ∈ int(Kw) gilt, ist ein Punkt x ∈ Ω genau dannMinimallosung von (2.11), wenn er Minimallosung von (2.9) ist. Eine Variierung derGewichte w ∈ K∗\0m bei der Gewichtungsmethode entspricht also einer Variierungdes polyedrischen Kegels Kw beim Verfahren von Pascoletti und Serafini. Der KegelKw ist ein abgeschlossener konvexer jedoch nichtspitzer Kegel. Daher lassen sich diefur das Optimierungsproblem (SP(a, r)) geltenden Eigenschaften, wie die in Satz 2.2.1,nicht auf das Verfahren der gewichteten Summe ubertragen.

Page 45: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

33

Kapitel 3

Sensitivitatsanalyse

Wir wollen in diesem Kapitel die Abhangigkeit der Minimallosungen (t(a, r), x(a, r))der Optimierungsprobleme (SP(a, r))

(SP(a,r)) mint,x

f(t, x, a, r) := t

Nb. g1(t, x, a, r) := a + t r − f(x) ∈ K,g2(t, x, a, r) := g(x) ∈ C,

h(t, x, a, r) := h(x) = 0q,t ∈ R, x ∈ S,

und damit auch der generierten schwach effizienten Punkte f(x(a, r)) des multikrite-riellen Optimierungsproblems (MOP), von der Wahl der Parameter a und r untersu-chen. Dabei setzten wir die Annahme 2.2.13 voraus.Dazu betrachten wir die Minimalwertfunktion τ : R

m × Rm → R des parameter-

abhangigen Optimierungsproblems (SP(a, r)) die durch

τ(a, r) := inft | (t, x) ∈ Σ(a, r)

gegeben ist, mit Σ(a, r) der Restriktionsmenge von (SP(a, r)) in Abhangigkeit von aund r, also

Σ(a, r) = (t, x) ∈ R × S | a + t r − f(x) ∈ K, g(x) ∈ C, h(x) = 0q= (t, x) ∈ R

n+1 | a + t r − f(x) ∈ K, x ∈ Ω.

Wir gehen fur unsere Betrachtungen von einem Referenzproblem (SP(a0, r0)) ausund beschranken uns auf lokale Untersuchungen. Ist (t0, x0) eine Minimallosung von(SP(a0, r0)), so interessieren wir uns dafur, wie sich kleine Veranderungen der Para-meter a und r auf den Minimalwert t(a, r) und die Minimallosung (t(a, r), x(a, r)) ineiner Umgebung von (t0, x0) auswirken. Wir betrachten also fur ein δ > 0 die lokaleMinimalwertfunktion τ δ : R

m × Rm → R

τ δ(a, r) := inft | (t, x) ∈ Σ(a, r) ∩ Bδ(t0, x0).

Unter bestimmten Bedingungen ist die lokale Minimalwertfunktion differenzierbarund ihre Ableitung kann mit Hilfe der Lagrange-Funktion zum Optimierungsproblem

Page 46: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 34

(SP(a, r)) bestimmt werden. Damit ist es uns moglich die lokale Minimalwertfunk-tion zu approximieren und somit Aussagen uber das lokale Verhalten der Punktef(x(a, r)) in Abhangigkeit von den Parametern a und r zu machen. Untersuchungenzur Minimalwertfunktion dieses Skalarisierungsansatzes und deren Stetig- und Diffe-renzierbarkeit findet man auch in [119].Kennen wir zumindest lokal den Zusammenhang zwischen den Parametern (a, r) undden erzeugten schwach K-minimalen Punkten f(x(a, r)), so ist es uns moglich, denVerlauf der effizienten Menge in einer Umgebung von f(x0) zu approximieren oderweitere Approximationspunkte zu bestimmen, die von dem Punkt f(x0) einen vorge-gebenen Abstand haben.

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung

Wir beschaftigen uns zunachst mit dem allgemeinen Fall von beliebigen abgeschlos-senen konvexen Kegeln K und C und den dadurch definierten Halbordnungen. An-schließend werden wir unsere Ergebnisse auf den speziellen aber wichtigen Fall dernaturlichen Halbordnung, d. h. K = R

m+ und C = R

p+, anwenden.

Die Differenzierbarkeit der lokalen Minimalwertfunktion unter bestimmten Bedingun-gen fur parametrische skalare Optimierungsprobleme uber beliebigen normierten Vek-torraumen hat Alt in [4] gezeigt. Wir wollen zunachst diesen Satz von Alt vorstellen.Dafur erinnern wir an den bekannten Begriff der Frechet-Ableitung.

Definition 3.1.1 Es seien (X, ‖·‖X) und (Y, ‖·‖Y ) normierte Vektorraume und S seieine nichtleere offene Teilmenge von X. Es sei F : S → Y eine Abbildung und x ∈ S.Gibt es eine stetige lineare Abbildung Fx(x) : X → Y mit der Eigenschaft

lim‖h‖X→0

‖F (x + h) − F (x) − Fx(x)(h)‖Y

‖h‖X= 0,

so heißt Fx(x) Frechet-Ableitung von F in x und F heißt Frechet-differenzierbar inx.

Ist F : Rn → R eine reellwertige differenzierbare Funktion, so ist die Frechet-Ableitung

von F in einem Punkt x ∈ Rn gleich dem Gradienten von F in x. Es gilt also fur

h ∈ Rn

Fx(x)(h) = ∇F (x)⊤h.

Der Begriff der Lagrange-Funktion und der Lagrange-Multiplikatoren (siehe Seite 26)lasst sich unter Benutzung der Frechet-Ableitung direkt auf den Fall beliebiger nor-mierter Vektorraume ubertragen (siehe z. B. [66], S.119). Alt zeigt, dass unter be-stimmten Voraussetzungen die Ableitung der lokalen Minimalwertfunktion parame-terabhangiger Optimierungsprobleme mit der Ableitung der Lagrange-Funktion nachden Parametern ubereinstimmt.

Page 47: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 35

Satz 3.1.2 ([4], Theorem 5.3 und Theorem 6.1) Es seien X, Y, Z Banachraume, Wsei ein normierter Raum, S sei eine nichtleere offenen Teilmenge von X, S ⊂ S seieine abgeschlossene konvexe Menge und C ⊂ Y sei ein abgeschlossener konvexer Kegel.Weiterhin seien Abbildungen F : S × W → R, G : S × W → Y und H : S × W → Zgegeben. Fur w ∈ W betrachten wir das parameterabhangige Problem

(P(w)) min F (x, w)Nb. G(x, w) ∈ C,

H(x, w) = 0Z ,x ∈ S.

Die Restriktionsmenge in Abhangigkeit von w ∈ W lautet dann

Σ(w) = x ∈ S | G(x, w) ∈ C, H(x, w) = 0Z.

Wir betrachten (P(w0)) als Referenzproblem. Es sei x0 lokale Minimallosung von(P(w0)).

a) Es gebe Umgebungen N1(x0) ⊂ S von x0 und N1(w

0) ⊂ W von w0, so dassfur alle w ∈ N1(w

0) die Abbildungen F (·, w), G(·, w) und H(·, w) auf N1(x0)

zweimal Frechet-differenzierbar sind.

b) Die Abbildungen G, H, Fx, Gx, Hx, Fxx, Gxx und Hxx seien stetig auf N1(x0)×

N1(w0).

c) Es gebe Umgebungen N2(x0) ⊂ N1(x

0) von x0 und N2(w0) ⊂ N1(w

0) von w0,so dass Fx, G, Gx, H und Hx die folgenden Lipschitz-Bedingungen fur allex ∈ N2(x

0) und alle w1, w2 ∈ N2(w0) mit Konstanten c′F , cG, c′G, cH und c′H

erfullen:‖Fx(x, w1) − Fx(x, w2)‖ ≤ c′F‖w1 − w2‖,‖G(x, w1) − G(x, w2)‖ ≤ cG‖w1 − w2‖,‖Gx(x, w1) − Gx(x, w2)‖ ≤ c′G‖w1 − w2‖,‖H(x, w1) − H(x, w2)‖ ≤ cH‖w1 − w2‖,‖Hx(x, w1) − Hx(x, w2)‖ ≤ c′H‖w1 − w2‖.

d) Die Abbildungen F, G und H seien stetig Frechet-differenzierbar auf N2(x0) ×

N2(w0).

e) Der Punkt x0 sei regular fur Σ(w0), d. h. es gelte

0Y ×Z ∈ int

(G(x0, w0)

0Z

)

+

(Gx(x

0, w0)(x − x0)Hx(x

0, w0)(x − x0)

)

−(

c0Z

) ∣∣∣∣

x ∈ S, c ∈ C

.

Page 48: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 36

f) Es sei die folgende strenge Bedingung zweiter Ordnung erfullt: es gebe Lagrange-Multiplikatoren (µ0, ξ0) ∈ C∗ × Z∗ und eine Konstante α > 0, so dass fur diezweite Frechet-Ableitung der Lagrange-Funktion L(x, µ, ξ, w) in (x0, µ0, ξ0, w0)

Lxx(x0, µ0, ξ0, w0)(x, x) ≥ α‖x‖2

fur alle x ∈ X mit Hx(x0, w0)(x) = 0Z gilt.

g) Es sei P := X∗ × Y × Z und BP die abgeschlossene Einheitskugel in P . Esexistiere ein ζ > 0, so dass fur je zwei beliebige Punkte p1, p2 ∈ ζBP mitpi = (x∗i, ui, vi), i = 1, 2, stets gilt:

Sind x1 bzw. x2 die Losungen der quadratischen Probleme (QP )pi fur i = 1, 2gegeben durch

(QP )pi min J(x, pi)Nb. G(x0, w0) + Gx(x

0, w0)(x − x0) − ui ∈ C,Hx(x

0, w0)(x − x0) − vi = 0Z ,x ∈ S

mit

J(x, pi) :=1

2Lxx(x

0, µ0, ξ0, w0)(x−x0, x−x0)+Fx(x0, w0)(x−x0)−x∗i(x−x0),

so sind die Lagrange-Multiplikatoren (µi, ξi) zu xi, i = 1, 2, eindeutig bestimmtund es gibt eine Konstante cM , so dass

‖(µ1, ξ1) − (µ2, ξ2)‖ ≤ cM

(‖x1 − x2‖ + ‖p1 − p2‖

)

erfullt ist.

Dann existiert ein Skalar δ > 0 und eine Umgebung N(w0) ⊂ W von w0, so dass dielokale Minimalwertfunktion τ δ : W → R definiert durch

τ δ(w) = infF (x, w) | x ∈ Σ(w) ∩ Bδ(x0)

auf N(w0) Frechet-differenzierbar ist mit

τ δw(w) = Lw(x(w), µ(w), ξ(w), w),

wobei x(w) die lokal eindeutige Minimallosung von (P(w)) ist und (µ(w), ξ(w)) dieeindeutigen Lagrange-Multiplikatoren zu x(w).Außerdem ist die Funktion φ : N(w0) → Bδ(x

0) × Bδ(µ0, ξ0) mit

φ(w) = (x(w), µ(w), ξ(w))

Lipschitz-stetig auf N(w0).

Page 49: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 37

Der Beweis in [4] benutzt einen Satz uber implizite Funktionen von Robinson ([100]).Wir wollen den Satz 3.1.2 jedoch nicht auf das parameterabhangige Optimierungs-problem (SP(a, r)) anwenden, sondern auf ein leicht modifiziertes Problem, denn dieBetrachtung von (SP(a, r)) hat den Nachteil, dass wir aus Aussagen uber das Ande-rungsverhalten des Minimalwertes t(a, r) in Abhangigkeit von a und r nicht auf Ande-rungen der generierten schwach effizienten Punkte f(x(a, r)) schließen konnen wie dasfolgende Beispiel zeigt.

Beispiel 3.1.3 Wir betrachten das bikriterielle Optimierungsproblem

min

(x1

x2

)

Nb. 1 ≤ x1 ≤ 3,1 ≤ x2 ≤ 3,x ∈ R

2

mit K = R2+ (siehe Abb. 3.1).

Abbildung 3.1: Veranschaulichung des bikriteriellen Optimierungsproblems aus Bei-spiel 3.1.3.

Das zugehorige skalare Minimierungsproblem (SP(a, r)) lautet

min tNb. a + t r − f(x) ≥2 02,

x ∈ Ω, t ∈ R.

Das Referenzproblem sei SP(a0, r0) mit

a0 =

(2

5/2

)

, r0 =

(1/21/4

)

.

Page 50: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 38

Eine Minimallosung ist (t0, x0) mit t0 = −2 und x0 = (1, 32). Halten wir den Pa-

rameter r0 fest und verschieben den Punkt a0 in Richtung (1, 0), betrachten wir al-so (SP(aε, r0)) mit aε := a0 + ε · (1, 0)⊤, so ist fur 0 ≤ ε ≤ 2 der Minimalwertt(ε) = −2 − 2ε in Abhangigkeit von der Verschiebung ε. Da (t(ε), x0) fur 0 ≤ ε ≤ 1Minimallosung von (SP(aε, r0)) ist, bleibt der erzeugte schwach EP-minimale Punktf(x(ε)) = f(x0) des multikriteriellen Optimierungsproblems fur 0 ≤ ε ≤ 1 un-verandert. Wir konnen hier also von einer Anderung der Minimalwerte t(ε) (erzeugtdurch eine Anderung des Parameters a) nicht auf eine Anderung der Punkte f(x(ε))schließen.Fur ε = 1 erfullt (t(ε), x0) die Restriktion aε + t r0 − f(x) ≥2 02 mit Gleichheit, d. h.es gilt a1 +t(1) r0 = f(x0). Erst eine weitere Verschiebung um ε > 1 fuhrt dann sicherzu einem neuen schwach EP-minimalen Punkt x(ε) 6= x0.

Eine auswertbare Sensitivitatsanalyse ist in diesem Fall also nur ausgehend von einemReferenzproblem (SP(a0, r0)) sinnvoll, fur das die Restriktion a0 + t r0 − f(x) ∈ K in(t0, x0) mit Gleichheit erfullt ist. Dies ist unproblematisch, da sich nach Satz 2.2.11 zujeder Minimallosung (t0, x0) von (SP(a0, r0)) ein Parameter a′ und ein t′ finden lasst, sodass (t′, x0) Minimallosung von (SP(a′, r0)) ist, und die Restriktion a′+t r0−f(x) ∈ Kfur dieses Problem in (t′, x0) mit Gleichheit erfullt ist. Um dann von Aussagen uber dasAnderungsverhalten des Minimalwertes t(a, r) auf Anderungen des Punktes f(x(a, r))schließen zu konnen, betrachten wir das Hilfsproblem (SP (a, r))

(SP (a, r))min t

Nb. a + t r − f(x) = 0m,g(x) ∈ C,h(x) = 0q,t ∈ R, x ∈ S

mit der Restriktionsmenge

Σ(a, r) := (t, x) ∈ R × S | a + t r − f(x) = 0m, g(x) ∈ C, h(x) = 0q= (t, x) ∈ R

n+1 | a + t r − f(x) = 0m, x ∈ Ω.Dieses Hilfsproblem hat allerdings die negative Eigenschaft, dass nicht fur jede Mini-mallosung (t, x) gilt, dass der Punkt f(x) schwach effiziente Losung des ursprunglichenmultikriteriellen Optimierungsproblems (MOP) ist. Die Skalarisierung mit der Glei-chungsrestriktion a + t r − f(x) = 0m wurde bereits von Das und Dennis ([21]) inder Normal-Boundary-Intersection Methode zur Bestimmung EP-optimaler Punkteverwendet (siehe dazu Abschnitt 2.2).

Pascoletti und Serafini ([96]) haben fur das skalare Ersatzproblem (SP(a, r)) Sensi-tivitatsuntersuchungen durchgefuhrt. Sie haben sich dabei jedoch auf den speziellenFall eines polyedrischen Kegels K sowie C = R

p+ ohne die Berucksichtigung einer

Grundmenge S beschrankt. Der Vorteil von polyedrischen Kegeln ist der, dass sieendlich erzeugt sind und damit eine Darstellung der Form

K = x ∈ Rm | x = K y fur ein y ∈ R

s+

Page 51: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 39

mit einer Matrix K ∈ Rm×s besitzen. Die Restriktion a + t r − f(x) ∈ K lasst sich

durch Hinzunahme einer weiteren Variablen y ∈ Rs dann zu

a + t r − f(x) − K y = 0m,y ≥ 0s

(3.1)

umformen. Damit besitzt das so umgeformte Optimierungsproblem nur noch Glei-chungs- und Ungleichungsrestriktionen bzgl. der naturlichen Halbordnung. Die Un-gleichungsrestriktionen, die fur das Referenzproblem aktiv bzw. inaktiv sind, konnendann separat untersucht werden. Außerdem kann bei Nichtdegeneriertheit unter be-stimmten Bedingungen gezeigt werden, dass die Indexmenge der aktiven Restriktionenfur kleine Parameteranderungen unverandert bleibt. Damit konnen die aktiven Un-gleichungsrestriktionen wie Gleichungsrestriktionen behandelt werden. Zu weiterenAussagen gelangt man dann durch Anwendung des Satzes uber implizite Funktionen.Pascoletti und Serafini zeigen auf diese Weise, dass die Minimallosung x(a, r) lokaleine differenzierbare Funktion der Parameter a und r ist ([96], Theorem 4.1). DieDifferenzierbarkeit der Minimalwertfunktion und deren Ableitung wurden nicht be-trachtet. Wir werden auf den speziellen Fall polyedrischer Kegel nochmals am Endedieses Abschnitts eingehen.

Betrachten wir das Optimierungsproblem (SP(a, r)) mit allgemeinem Kegel, so lautetdie Hesse-Matrix (entspricht der zweiten Frechet-Ableitung) der Lagrange-Funktion

∇2(t,x)L(t, x, µ, ν, ξ, a, r) =

(0 00 W (x, µ, ν, ξ)

)

mit

W (x, µ, ν, ξ) =

m∑

i=1

µi∇2xfi(x) −

p∑

j=1

νj∇2xgj(x) −

q∑

k=1

ξk∇2xhk(x).

Fur alle (t, x) = (t, 0n) mit t 6= 0 gilt

∇(t,x)h(t, x, a, r)

(t0n

)

= (0n,∇xh(x))

(t0n

)

= 0q

und

(t, 0⊤n )∇2(t,x)L(t, x, µ, ν, ξ, a, r)

(t0n

)

= 0.

Es ist aber

α

∥∥∥∥

(t0n

)∥∥∥∥

2

= α |t|2 > 0

fur α > 0 und damit ist die Voraussetzung f) von Satz 3.1.2 nicht erfullbar.

Wir untersuchen daher das besser auswertbare Optimierungsproblem (SP(a, r)). Dazuuberprufen wir zunachst die Anwendbarkeit des Satzes 3.1.2 auf das Optimierungs-problem (SP(a, r)). Wir benotigen dafur eine Erweiterung unserer Annahme 2.2.13sowie das folgende Lemma.

Page 52: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 40

Annahme 3.1.4 Es gelte die Annahme 2.2.13. Weiterhin seien die Funktionen f , gund h zweimal stetig differenzierbar auf S.

Bemerkung 3.1.5 Unter der Annahme 3.1.4 sind die Funktionen f , g1, g2 und h desOptimierungsproblems (SP(a, r)) zweimal stetig differenzierbar auf R× S ×R

m ×Rm.

Lemma 3.1.6 Es gelte die Annahme 3.1.4. Es sei (t0, x0) lokale Minimallosung von(SP(a0, r0)) mit Lagrange-Multiplikatoren (µ0, ν0, ξ0) ∈ R

m × C∗ × Rq. Zur Matrix

W (x0, µ0, ν0, ξ0) = µ0⊤∇2xf(x0) − ν0⊤∇2

xg(x0) − ξ0⊤∇2xh(x0)

existiere ein α > 0, so dass

x⊤W (x0, µ0, ν0, ξ0)x ≥ α ‖x‖2 (3.2)

fur alle x ∈ x ∈ Rn | ∇xh(x0)x = 0q, ∇xf(x0)x = r0 t fur ein t ∈ R gilt.

Dann existiert ein α > 0, so dass fur die Lagrange-Funktion L zum Optimierungspro-blem (SP(a, r)) gilt

(t, x⊤)∇2(t,x)L(t0, x0, µ0, ν0, ξ0, a0, r0)

(tx

)

≥ α

∥∥∥∥

(tx

)∥∥∥∥

2

(3.3)

fur alle (t, x) ∈ (t, x) ∈ R × Rn | ∇xh(x0)x = 0q, ∇xf(x0)x = r0 t, d. h. die

Bedingung f) aus Satz 3.1.2 ist fur das Problem (SP(a0, r0)) im Punkt (t0, x0) erfullt.

Beweis: Da (t0, x0) lokale Minimallosung von (SP(a0, r0)) mit Lagrange-Multiplikatoren(µ0, ν0, ξ0) ist, gilt fur die zugehorige Lagrange-Funktion

∇(t,x)L(t0, x0, µ0, ν0, ξ0, a0, r0)⊤(

t − t0

x − x0

)

≥ 0 ∀t ∈ R, x ∈ S. (3.4)

Mit∂L(t0, x0, µ0, ν0, ξ0, a0, r0)

∂t= 1 − µ0⊤r0

und da (3.4) fur alle t ∈ R erfullt sein muss, folgt

µ0⊤r0 = 1 (3.5)

und insbesondere µ0 6= 0m, r0 6= 0m. Da alle Normen im Rn bzw. R

m aquivalentsind, existieren fur (t, x) ∈ R × R

n positive Konstanten M l, Mu ∈ R bzw.M l, Mu ∈ R mit

M l‖x‖2 ≤ ‖x‖ ≤ Mu‖x‖2

und

M l

∥∥∥∥

(tx

)∥∥∥∥

2

≤∥∥∥∥

(tx

)∥∥∥∥≤ Mu

∥∥∥∥

(tx

)∥∥∥∥

2

.

Page 53: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 41

(Bezeichnet ‖·‖ die euklidische Norm, so gilt dies fur M l = Mu = 1 bzw.M l = Mu = 1.) Fur alle (t, x) ∈ R × R

n mit ∇xf(x0)x = r0 t gilt wegen (3.5)

µ0⊤∇xf(x0)x = t

und damit ergibt sich die Abschatzung

|t|2 = |µ0⊤∇xf(x0)x|2 ≤ ‖µ0‖22 ‖∇xf(x0)‖2

2 ‖x‖22.

Mit

α :=α (M l)2

(Mu)2 (1 + ‖µ0‖22 ‖∇xf(x0)‖2

2)> 0

folgt dann aus (3.2) fur alle (t, x) ∈ (t, x) ∈ R×Rn | ∇xh(x0)x = 0q, ∇xf(x0)x =

r0 t

x⊤W (x0, µ0, ν0, ξ0) x ≥ α ‖x‖2 ≥ a (M l)2‖x‖22

= α (Mu)2(1 + ‖µ0‖2

2 ‖∇xf(x0)‖22

)‖x‖2

2

≥ α (Mu)2 (‖x‖22 + |t|2)

= α (Mu)2

∥∥∥∥

(tx

)∥∥∥∥

2

2

≥ α

∥∥∥∥

(tx

)∥∥∥∥

2

.

Mit

∇2(t,x)L(t0, x0, µ0, ν0, ξ0, a0, r0) =

(0 00 W (x0, µ0, ν0, ξ0)

)

folgt dann die Aussage des Satzes. 2

Die Bedingung (3.3) fur alle (t, x), in denen die Ableitungen der Gleichungsrestriktio-nen 0 ergibt, wird als strenge Bedingung zweiter Ordnung bezeichnet. Ist sie in einemPunkt, fur den Regularitat gilt (siehe auch Bedingung e) aus Satz 3.1.2), erfullt, soist dies hinreichend dafur, dass der Punkt eine lokal eindeutige Minimallosung desbetrachteten Optimierungsproblems ist (siehe [88], Theorem 5.2).Wir konnen nun Satz 3.1.2 auf unser Problem (SP(a, r)) anwenden.

Satz 3.1.7 Es gelte die Annahme 3.1.4. Wir betrachten das parameterabhangige Pro-blem (SP(a, r)) mit der Restriktionsmenge Σ(a, r) ausgehend von dem Referenzpro-blem (SP(a0, r0)) mit lokaler Minimallosung (t0, x0) mit Lagrange-Multiplikatoren(µ0, ν0, ξ0) ∈ R

m × C∗ × Rq. Es gelte:

i) Der Punkt (t0, x0) sei regularer Punkt der Menge Σ(a0, r0), d. h. es gelte

0m+p+q ∈

int

0m

g(x0)0q

+

r0 (t − t0) − ∇xf(x0)(x − x0)∇xg(x0)(x − x0)∇xh(x0)(x − x0)

0m

c0q

∣∣∣∣∣∣

c ∈ Cx ∈ St ∈ R

.

Page 54: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 42

ii) Es existiere ein α > 0, so dass fur die Matrix

W (x0, µ0, ν0, ξ0) = µ0⊤∇2xf(x0) − ν0⊤∇2

xg(x0) − ξ0⊤∇2xh(x0) (3.6)

fur alle x ∈ x ∈ Rn | ∇xh(x0)x = 0q, ∇xf(x0)x = r0 t fur ein t ∈ R gilt:

x⊤W (x0, µ0, ν0, ξ0)x ≥ α ‖x‖2.

iii) Es existiere ein ζ > 0, so dass fur je zwei beliebige Punkte p1, p2 ∈ ζB (mit B derabgeschlossenen Einheitskugel im R

1+n+m+p+q) mit pi = (t∗i, x∗i, ui, vi, wi), i =1, 2, stets gilt: Sind (t1, x1) bzw. (t2, x2) Losungen der quadratischen Probleme(QP )pi fur i = 1, 2 gegeben durch

(QP )pi min J(t, x, pi)Nb. r0 (t − t0) −∇xf(x0)(x − x0) − ui = 0m,

g(x0) + ∇xg(x0)(x − x0) − vi ∈ C,∇xh(x0)(x − x0) − wi = 0q,t ∈ R, x ∈ S,

mit

J(t, x, pi) :=1

2(x − x0)⊤W (x − x0) + (t − t0) − t∗i (t − t0) − (x∗i)⊤(x − x0),

und W = W (x0, µ0, ν0, ξ0) wie in (3.6), so sind die Lagrange-Multiplikatoren(µi, νi, ξi) zu (ti, xi), i = 1, 2, eindeutig bestimmt und es gibt eine KonstantecM , so dass gilt:

‖(µ1, ν1, ξ1) − (µ2, ν2, ξ2)‖ ≤ cM

(‖(t1, x1) − (t2, x2)‖ + ‖p1 − p2‖

).

Dann existiert ein δ > 0 und eine Umgebung N(a0, r0) von (a0, r0), so dass die lokaleMinimalwertfunktion

τ δ(a, r) := inft | (t, x) ∈ Σ(a, r) ∩ Bδ(t0, x0)

auf N(a0, r0) differenzierbar ist mit

∇(a,r)τδ(a, r) = ∇(a,r)L(t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r), a, r).

Dabei bezeichnet (t(a, r), x(a, r)) die lokal eindeutige Minimallosung des Optimie-rungsproblems (SP(a, r)) mit den eindeutigen Lagrange-Multiplikatoren (µ(a, r),ν(a, r),ξ(a, r)). Außerdem ist die Funktion φ : N(a0, r0) → Bδ(t

0, x0) × Bδ(µ0, ν0, ξ0) mit

φ(a, r) = (t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r))

Lipschitz-stetig auf N(a0, r0).

Page 55: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 43

Beweis: Wir weisen nach, dass alle Voraussetzungen des Satzes 3.1.2 erfullt sind.Nach Bemerkung 3.1.5 impliziert die Annahme 3.1.4 die Voraussetzungen a),b) und d) des Satzes 3.1.2. Da nach Annahme 3.1.4 die Funktionen ∇(t,x)f , g1,

∇(t,x)g1, g2, ∇(t,x)g

2, h und ∇(t,x)h nach (a, r) stetig partiell differenzierbar sind,genugen diese Funktionen lokal einer Lipschitz-Bedingung bezuglich (a, r) in ei-ner Umgebung von (a0, r0) und damit ist auch die Voraussetzung c) erfullt. DieBedingung i) bzw. iii) entspricht der Voraussetzung e) bzw. g). Nach Bedingungii) sind die Voraussetzungen von Lemma 3.1.6 erfullt. Aus diesem Lemma folgtdie Gultigkeit der Voraussetzung f) von Satz 3.1.2 und damit sind alle Voraus-setzungen des Satzes 3.1.2 erfullt. 2

Bemerkung 3.1.8 Die Voraussetzung iii) des Satzes 3.1.7 bzw. die Voraussetzungg) des Satzes 3.1.2 ist stets erfullt, wenn nur Gleichungsrestriktionen auftreten ([4],Theorem 7.1) oder wenn im Falle der naturlichen Halbordnung die Gradienten deraktiven Restriktionen linear unabhangig sind ([37], Theorem 2.1, [70], Theorem 2,[100], Theorem 4.1).

Lemma 3.1.9 Es seien die Voraussetzungen des Satzes 3.1.7 mit S = Rn erfullt.

Dann existiert ein δ > 0 und eine Umgebung N(a0, r0) von (a0, r0), so dass fur dieAbleitung der lokalen Minimalwertfunktion bezuglich dem Parameter a

∇aτδ(a, r) = −µ(a, r) −∇aν(a, r)⊤g(x(a, r))

und bezuglich dem Parameter r

∇rτδ(a, r) = −t(a, r)µ(a, r) −∇rν(a, r)⊤g(x(a, r))

fur alle (a, r) ∈ N(a0, r0) gilt. Dabei bezeichnet (t(a, r), x(a, r)) fur alle (a, r) ∈N(a0, r0) die eindeutige Minimallosung von (SP(a, r)) mit Lagrange-Multiplikatoren(µ(a, r), ν(a, r), ξ(a, r)).

Beweis: Nach Satz 3.1.7 existiert eine Umgebung N(a0, r0) von (a0, r0), so dass furalle (a, r) ∈ N(a0, r0) eine eindeutige Minimallosung (t(a, r), x(a, r)) mit eindeu-tigen Lagrange-Multiplikatoren (µ(a, r), ν(a, r), ξ(a, r)) existiert. Fur die Ablei-tung der Lagrange-Funktion gilt wegen S = R

n

∇(t,x)L(t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r), a, r) = 0n+1.

Page 56: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 44

Damit ergibt sich

0m = ∇a

(t(a, r)x(a, r)

)⊤∇(t,x)L(t(a, r), x(a, r), µ(a, r), ν(a, r),

ξ(a, r), a, r)

= ∇at(a, r) −m∑

i=1

µi(a, r)(

∇at(a, r) ri −

∇ax(a, r)⊤∇xfi(x(a, r)))

−p∑

j=1

νj(a, r)∇ax(a, r)⊤∇xgj(x(a, r))

−q∑

k=1

ξk(a, r)∇ax(a, r)⊤∇xhk(x(a, r)). (3.7)

Nach Satz 3.1.7 existiert ein δ > 0, so dass die Ableitung der lokalen Minimal-wertfunktion durch

∇(a,r)τδ(a, r) = ∇(a,r)L(t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r), a, r)

gegeben ist . Mit den Ableitungsregeln und (3.7) folgt hieraus

∇aτδ(a, r) = ∇at(a, r) −

m∑

i=1

µi(a, r)(

ei + ∇at(a, r)ri

− ∇ax(a, r)⊤∇xfi(x(a, r)))

−m∑

i=1

∇aµi(a, r) (ai + t(a, r) ri − fi(x(a, r)))︸ ︷︷ ︸

=0

−p∑

j=1

νj(a, r)∇ax(a, r)⊤∇xgj(x(a, r)) −p∑

j=1

∇aνj(a, r)gj(x(a, r))

−q∑

k=1

ξk(a, r)∇ax(a, r)⊤∇xhk(x(a, r)) −q∑

k=1

∇aξk(a, r) hk(x(a, r))︸ ︷︷ ︸

=0

= −µ(a, r) −∇aν(a, r)⊤g(x(a, r)).

∇rτδ(a, r) folgt analog. 2

Ist C = Rp+, so entspricht die Bedingung g(x) ∈ C den Restriktionen gj(x) ≥ 0,

j = 1, . . . , p, und wir konnen im Punkt (t0, x0) zwischen den aktiven Restriktionen

gj(x0) = 0

Page 57: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.1 Sensitivitatsanalyse bei beliebiger Halbordnung 45

und den inaktiven Restriktionengj(x

0) > 0

unterscheiden. Die Restriktionen, die in x0 inaktiv sind, bleiben aufgrund der Stetig-keit von gj und x(a, r) auch in einer Umgebung N(a0, r0) von (a0, r0) inaktiv (sieheauch [38], Theorem 3.2.2 und Beweis zu Theorem 3.4.1), also gj(x(a, r)) > 0 fur(a, r) ∈ N(a0, r0). Damit gilt fur die zugehorigen Lagrange-Multiplikatoren νj(a, r) =0 fur (a, r) ∈ N(a0, r0), also ∇(a,r)νj(a

0, r0) = 02m. Fur C = Rp+ gilt somit

∇(a,r)ν(a0, r0)⊤g(x(a0, r0)) =

p∑

j=1

∇(a,r)νj(a0, r0)gj(x(a0, r0)) = 02m.

Damit folgt

Korollar 3.1.10 Es gelten die Voraussetzungen des Lemmas 3.1.9. Weiterhin seiC = R

p+. Dann gilt

∇(a,r)τδ(a0, r0) = −

(µ0

t0 µ0

)

.

Die Ableitung der lokalen Minimalwertfunktion und damit der Funktion t(·, ·) nachdem Parameter a im Punkt (a0, r0) ist damit einfach das Negative des Lagrange-Multiplikators µ0, den wir beim Losen des skalaren Ersatzproblems (SP(a0, r0)) zurRestriktion a0 + t r0 − f(x) ∈ K erhalten. Losen wir also das Optimierungsproblem(SP(a0, r0)) mit Minimallosung (t0, x0) und Lagrange-Multiplikatoren (µ0, ν0, ξ0) (undnehmen an, die Restriktion a0 + t r0−f(x) ∈ K ist mit a0 + t0 r0−f(x0) = 0m erfullt),so erhalten wir damit die folgende lokale Approximation erster Ordnung nach Taylorfur die Minimalwerte t(a, r)

t(a, r) ≈ t0 − µ0⊤(a − a0) − t0 µ0⊤(r − r0).

Wir nehmen dazu an, dass die Voraussetzungen hierfur erfullt sind und setzen eineDifferenzierbarkeit hoherer Ordnung der lokalen Minimalwertfunktion voraus. Unter-suchungen, unter welchen Bedingungen dies gewahrleistet ist, findet man in [5], [10],[11], Theo. 4.102, Theo. 4.139 und Theo. 4.142, [112], [113], [114] und speziell fur dennichtdegenerierten Fall der naturlichen Halbordnung auch in [38] Theo. 3.4.1.Wir interessieren uns in diesem Zusammenhang vor allem fur die Punkte f(x(a, r))der Menge f(Ω), da diese die Approximation der effizienten Menge, die wir ermit-teln wollen, bilden. Deren Abhangigkeit vom Parameter a enthalt wichtige trade-off-Informationen fur den Entscheidungstrager, also Informationen, in welchem Maß dieVerbesserung bzgl. einer Zielfunktion zu einer Verschlechterung bzgl. einer anderenZielfunktion fuhrt. Zum trade-off-Begriff siehe auch [73].

Korollar 3.1.11 Es gelten die Voraussetzungen des Satzes 3.1.7. Dann gilt lokal ineiner Umgebung von a0

∇afi(x(a, r)) = ei + ∇aτδ(a, r) ri

Page 58: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 46

und∇rfi(x(a, r)) = t(a, r) ei + ∇rτ

δ(a, r) ri

fur i = 1, . . . , m. Sind zusatzlich die Voraussetzungen des Korollars 3.1.10 erfullt, sogilt insbesondere

∇af(x(a0, r0)) = Em − r0 (µ0)⊤ und ∇rf(x(a0, r0)) = t0 Em − t0 r0 (µ0)⊤.

Ein Spezialfall liegt, wie bereits in Lemma 1.2.3 und auf Seite 38 erwahnt, vor, wenndie betrachteten Halbordnungen durch polyedrische Kegel definiert sind. Haben wires mit dem Spezialfall polyedrischer Kegel zu tun, d. h. besitzen die Kegel K und Ceine Darstellung der Form

K = x ∈ Rm | Kx ≥ 0u

undC = x ∈ R

p | Cx ≥ 0vmit K ∈ R

u×m und C ∈ Rv×p, u, v ∈ N, so kann das multikriterielle Optimierungs-

problem (MOP) zu

min Kf(x)Nb. Cg(x) ∈ R

v+,

h(x) = 0q,x ∈ S

umformuliert werden. Nun suchen wir die minimalen Punkte bezuglich der naturlichenHalbordnung im R

u. Das zugehorige skalare Optimierungsproblem (SP(a, r)) lautetdann

min t

Nb. ai + t ri − kif(x) ≥ 0, i = 1, . . . , u,

cjg(x) ≥ 0, j = 1, . . . , v,h(x) = 0q,t ∈ R, x ∈ S

mit ki

bzw. cj den Zeilenvektoren der Matrix K bzw. C. Eine weitere Variante derUmformung durch die Einfuhrung weiterer Variablen ist in (3.1) dargestellt. Die Sen-sitivitatsanalyse dieser Probleme fallt damit unter den in Abschnitt 3.2 behandeltenSpezialfall der Sensitivitatsanalyse bei naturlicher Halbordnung.

3.2 Sensitivitatsanalyse bei naturlicher Halbord-

nung

Im Folgenden wollen wir den Spezialfall der Bestimmung EP-minimaler Punkte desmultikriteriellen Optimierungsproblems, also minimaler Punkte bzgl. der naturlichenHalbordnung definiert durch den Kegel K = R

m+ , untersuchen. Zusatzlich seien die

Page 59: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 47

Ungleichungsrestriktionen von der Form gj(x) ≥ 0 fur j = 1, . . . , p, d. h. es sei C = Rp+,

und wir betrachten zumindest lokal keine weiteren Restriktionen außer den explizitenUngleichungs- und Gleichungsrestriktionen, d. h. es sei S = R

n. Es soll in diesemAbschnitt damit die folgende Annahme gelten:

Annahme 3.2.1 Es sei K = Rm+ und C = R

p+. Es sei S = S = R

n. Es seien dieFunktionen f : R

n → Rm, g : R

n → Rp und h : R

n → Rq gegeben.

In diesem speziellen Fall konnen wir unser multikriterielles Optimierungsproblemschreiben als

(MOP) min f(x)Nb. gj(x) ≥ 0, j = 1, . . . , p,

hk(x) = 0, k = 1, . . . , q,x ∈ R

n.

Das zugehorige parameterabhangige skalare Optimierungsproblem (SP(a, r)) lautetdann

(SP(a, r)) min tNb. ai + t ri − fi(x) ≥ 0, i = 1, . . . , m,

gj(x) ≥ 0, j = 1, . . . , p,hk(x) = 0, k = 1, . . . , q,t ∈ R, x ∈ R

n

mit a ∈ Rm und r ∈ R

m. Unter diesen speziellen Voraussetzungen gilt, dass dieBedingung g) des Satzes 3.1.2 erfullt ist, wenn die Gradienten der aktiven Restrik-tionen linear unabhangig sind ([4], S.22). Wir fuhren dazu die folgenden Indexmen-gen ein. Ist (t0, x0) Minimallosung des Referenzproblems (SP(a0, r0)) mit Lagrange-Multiplikatoren (µ0, ν0, ξ0), so zerlegen wir die Indexmengen der Restriktionen I :=1, . . . , m und J := 1, . . . , p in disjunkte Mengen durch I = I+ ∪ I0 ∪ I− bzw.J = J+ ∪ J0 ∪ J− wie folgt

I+ = i ∈ I | a0i + t0 r0

i − fi(x0) = 0, µ0

i > 0,I0 = i ∈ I | a0

i + t0 r0i − fi(x

0) = 0, µ0i = 0,

I− = i ∈ I | a0i + t0 r0

i − fi(x0) > 0, µ0

i = 0(3.8)

undJ+ = j ∈ J | gj(x) = 0, ν0

j > 0,J0 = j ∈ J | gj(x) = 0, ν0

j = 0,J− = j ∈ J | gj(x) > 0, ν0

j = 0.(3.9)

Die linken Seiten der in (t0, x0) aktiven Restriktionen sind somit

a0i + t0 r0

i − fi(x0) fur i ∈ I+ ∪ I0,

gj(x) fur j ∈ J+ ∪ J0 undhk(x) fur k ∈ 1, . . . , q.

Page 60: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 48

Restriktionen, die aktiv sind, aber deren zugehoriger Lagrange-Multiplikator Null ist,werden als degeneriert bezeichnet. Dies sind also die Ungleichungsrestriktionen mitIndex i ∈ I0 bzw. j ∈ J0. Da unter den Voraussetzungen des Satzes 3.2.2 akti-ve nichtdegenerierte Ungleichungsrestriktionen fur kleine Parameteranderungen aktivbleiben, konnen wir diese wie Gleichungsrestriktionen behandeln. Zugleich bleibeninaktive Restriktionen inaktiv und konnen damit ignoriert werden. Daher ist es furdiesen Spezialfall der naturlichen Halbordnung ausreichend und moglich, das skalareOptimierungsproblem (SP(a, r)) anstelle der Modifikation (SP (a, r)) zu betrachten:

Satz 3.2.2 ([4], S.21f) Es gelte die Annahme 3.2.1. Wir betrachten das skalare Op-timierungsproblem (SP(a, r)) ausgehend vom Referenzproblem (SP(a0, r0)). Es sei(t0, x0) lokale Minimallosung von (SP(a0, r0)) mit Lagrange-Multiplikatoren (µ0, ν0, ξ0).Es gebe ein γ > 0, so dass die Funktionen f , g und h zweimal stetig differenzierbarauf einer offenen Umgebung von Bγ(x

0) sind. Es seien die Indexmengen I+, I0, I−

und J+, J0, J− wie in (3.8) und (3.9) gegeben.Es gelte:

a) Die Gradienten bzgl. (t, x) im Punkt (t0, x0) der in (t0, x0) aktiven Restriktionendes Optimierungsproblems (SP(a0, r0)), d. h. die Vektoren

(ri

−∇xfi(x0)

)

, i ∈ I+ ∪ I0,

(0

∇xgj(x0)

)

, j ∈ J+ ∪ J0,(

0∇xhk(x

0)

)

, k = 1, . . . , q,

seien linear unabhangig.

b) Es gebe eine Konstante α > 0, so dass fur die Hesse-Matrix der Lagrange-Funktion L im Punkt (t0, x0)

(t, x⊤)∇2(t,x)L(t0, x0, µ0, ν0, ξ0, a0, r0)

(tx

)

≥ α ‖(

tx

)

‖2

fur alle

(t, x) ∈ (t, x) ∈ Rn+1 | ri t = ∇xfi(x

0)⊤x, ∀ i ∈ I+,

∇xgj(x0)⊤x = 0 ∀ j ∈ J+, ∇xhk(x

0)⊤x = 0 ∀ k = 1, . . . , q

gilt.

Dann ist (t0, x0) lokal eindeutige Minimallosung von (SP(a0, r0)) mit eindeutigenLagrange-Multiplikatoren (µ0, ν0, ξ0) und es existiert ein δ > 0 und eine UmgebungN(a0, r0) von (a0, r0), so dass die lokale Minimalwertfunktion τ δ : R

m × Rm → R mit

τ δ(a, r) = inft | (t, x) ∈ Σ(a, r) ∩ Bδ(t0, x0) auf N(a0, r0) differenzierbar ist und

∇(a,r)τδ(a, r) = ∇(a,r)L(t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r), a, r)

Page 61: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 49

gilt. Dabei bezeichnet (t(a, r), x(a, r)) die lokal eindeutige Minimallosung des Optimie-rungsproblems (SP(a, r)) mit den eindeutigen Lagrange-Multiplikatoren (ν(a, r),µ(a, r),ξ(a, r)). Außerdem ist die Funktion φ : N(a0, r0) → Bδ(t

0, x0) × Bδ(µ0, ν0, ξ0) mit

φ(a, r) = (t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r))

Lipschitz-stetig auf N(a0, r0).

Dieses Ergebnis von Satz 3.2.2 findet man auch in Jittorntrum [70], Theorem 2. Fiac-co zeigt in [37], Theorem 2.1 (siehe auch die Bemerkung in [70], S.128f.) ebenfallsdie Differenzierbarkeit der Minimalwertfunktion. Er setzt jedoch zusatzlich die Nicht-degeneriertheit der Ungleichungsrestriktionen voraus, d. h. I0 = ∅ und J0 = ∅. BeiNichtdegeneriertheit bleibt die Indexmenge der aktiven und inaktiven Restriktionenunter den Voraussetzungen des Satzes 3.2.2 wie bereits erwahnt konstant (siehe auch[38], Theorem 3.2.2c)). Es reicht daher aus und ist moglich die Sensitivitatsfunktiondes Optimierungsproblems (SP(a, r)) direkt zu untersuchen, ohne auf ein Ersatzpro-blem mit der Restriktion a + t r − f(x) = 0m als Gleichungsrestriktion auszuweichen.Gilt fur die Minimallosung (t0, x0) des Referenzproblems (SP(a0, r0))

a0i + t0 r0

i − fi(x0) = 0 fur i ∈ I+,

so gilt auch fur die Minimallosungen (t(a, r), x(a, r)) zu (SP(a, r)) mit (a, r) aus einerUmgebung von (a0, r0)

ai + t(a, r) ri − fi(x(a, r)) = 0 fur i ∈ I+.

Wir konnen damit aus dem lokalen Verhalten von t(a, r) direkt auf das lokale Verhaltenvon f(x(a, r)) schließen. Analog zu Korollar 3.1.10 konnen wir die Ableitung derlokalen Minimalwertfunktion im Punkt (a0, r0) mit Hilfe des Lagrange-Multiplikatorsµ0 zur Restriktion a0 + t r0 − f(x) ≥ 0m angeben.

Lemma 3.2.3 Es gelten die Voraussetzungen des Satzes 3.2.2. Dann gilt fur die Ab-leitung der lokalen Minimalwertfunktion im Punkt (a0, r0)

∇(a,r)τδ(a0, r0) =

(−µ0

−t0 µ0

)

.

Beweis: Analog zum Beweis von Lemma 3.1.9 folgt

∇(a,r)τδ(a, r) = −

(µ(a, r)

t(a, r) µ(a, r)

)

−m∑

i=1

∇(a,r)µi(a, r)(ai + t(a, r) ri − fi(x(a, r)))

−p∑

j=1

∇(a,r)νj(a, r)gj(x(a, r))

−q∑

k=1

∇(a,r)ξk(a, r) hk(x(a, r))︸ ︷︷ ︸

=0

.

Damit folgt im Punkt (a0, r0) mit t(a0, r0) = t0, x(a0, r0) = x0 und (µ(a0, r0),

Page 62: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 50

ν(a0, r0),ξ(a0, r0))=(µ0, ν0, ξ0)

∇(a,r)τδ(a0, r0) = −

(µ0

t0 µ0

)

− ∑

i∈I+∪I0

∇(a,r)µi(a0, r0) (a0

i + t0 r0i − fi(x

0))︸ ︷︷ ︸

=0

− ∑

i∈I−∇(a,r)µi(a

0, r0)(a0i + t0 r0

i − fi(x0))

− ∑

j∈J+∪J0

∇(a,r)νj(a0, r0) gj(x

0)︸ ︷︷ ︸

=0

− ∑

j∈J−

∇(a,r)νj(a0, r0)gj(x

0).

Fur i ∈ I− ist a0i +t0 r0

i −fi(x0) > 0. Da die Funktionen ai+t(a, r) ri−fi(x(a, r))

stetig in ai und ri sind, existiert eine Umgebung N(a0, r0) von (a0, r0), so dassfur alle (a, r) ∈ N(a0, r0) und jede Minimallosung (t(a, r), x(a, r)) von (SP(a, r))

ai + t(a, r) ri − fi(x(a, r)) > 0 fur i ∈ I−

gilt. Dann ist µi(a, r) = 0 fur alle (a, r) ∈ N(a0, r0) und somit ∇(a,r)µi(a0, r0) =

02m fur i ∈ I−. Analog ist ∇(a,r)νj(a0, r0) = 02m fur j ∈ J− und es folgt

∇(a,r)τδ(a0, r0) =

(−µ0

−t0 µ0

)

.

2

Um das lokale Verhalten der lokalen Minimalwertfunktion und damit von t(a, r) besserapproximieren zu konnen, ist die Kenntnis hoherer Ableitungen wie der Hesse-Matrixvon Vorteil. Durch eine Approximation zweiter Ordnung verbessert sich auch die Ap-proximation der Lage der schwach effizienten Punkte f(x(a, r)) fur (a, r) aus einerUmgebung von (a0, r0).

Satz 3.2.4 Es gelten die Voraussetzungen des Satzes 3.2.2. Zusatzlich gelte Nichtde-generiertheit der Restriktionen, d. h. I0 = ∅ und J0 = ∅. Dann gilt fur die Hesse-Matrix der lokalen Minimalwertfunktion im Punkt (a0, r0) bzgl. dem Parameter a

∇2aτ

δ(a0, r0) = −∇aµ(a0, r0)

sowie bzgl. dem Parameter r

∇2rτ

δ(a0, r0) = t0µ0(µ0)⊤ − t0∇rµ(a0, r0).

Beweis: Nach Satz 3.2.2 existiert eine offene Umgebung N(a0, r0) von (a0, r0), sodass fur (a, r) ∈ N(a0, r0)

∇(a,r)τδ(a, r) = ∇(a,r)L(t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r), a, r)

Page 63: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 51

gilt. Mit den gleichen Argumenten wie im Beweis von Lemma 3.1.9 folgt hieraus

∇aτδ(a, r) = −µ(a, r) −

m∑

i=1

∇aµi(a, r)(ai + t(a, r) ri − fi(x(a, r)))

−p∑

j=1

∇aνj(a, r)gj(x(a, r)). (3.10)

Außerdem folgt ebenfalls mit Argumenten wie im Beweis von Lemma 3.1.9 fur(a, r) ∈ N(a0, r0) und i ∈ I−

∇aµi(a, r) = 0m (3.11)

und fur j ∈ J−

∇aνj(a, r) = 0m. (3.12)

Fur i ∈ I+ gilt µi(a0, r0) > 0. Da die Funktion µ(·, ·) nach Satz 3.2.2 stetig

ist, existiert eine Umgebung Nµ(a0, r0) ⊂ N(a0, r0) von (a0, r0), so dass fur(a, r) ∈ Nµ(a0, r0)

µi(a, r) > 0

gilt fur i ∈ I+ und damit

ai + t(a, r) ri − fi(x(a, r)) = 0 (3.13)

fur alle (a, r) ∈ Nµ(a0, r0), i ∈ I+. Analog existiert eine Umgebung Nν(a0, r0) ⊂N(a0, r0) mit Nν(a0, r0) ⊂ Nµ(a0, r0) von (a0, r0) mit

gj(x(a, r)) = 0 (3.14)

fur alle (a, r) ∈ Nν(a0, r0), j ∈ J+. Aus der Nichtdegeneriertheit, d. h. I+∪I− =1, . . . , m und J+ ∪ J− = 1, . . . , p folgt mit (3.11)-(3.14) aus (3.10)

∇aτδ(a, r) = −µ(a, r).

Da unter Nichtdegeneriertheit fur die Funktion µ(·, ·) nicht nur Stetigkeit son-dern sogar stetige Differenzierbarkeit unter den Voraussetzungen des Satzes (sie-he dazu auch [38], Theorem 3.2.2.b) gilt, ergibt sich sofort

∇2aτ

δ(a0, r0) = −∇aµ(a0, r0).

Analog zeigt man∇rτ

δ(a, r) = −t(a, r) µ(a, r).

Daraus folgt fur die Hesse-Matrix der lokalen Minimalwertfunktion bzgl. r

∇2rτ

δ(a0, r0) = −t(a0, r0)∇rµ(a0, r0) − µ(a0, r0) (∇rt(a0, r0))⊤

= −t0 ∇rµ(a0, r0) − µ0 (∇rτδ(a0, r0))⊤

= −t0 ∇rµ(a0, r0) − µ0 (−t(a0, r0) µ(a0, r0))⊤

= −t0 ∇rµ(a0, r0) + t0 µ0(µ0)⊤.

2

Page 64: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 52

Dieses Ergebnis fur Anderungen des Parameters a, also fur den Fall, dass nur die

”rechte“ Seite der Restriktionen variiert wird (umformuliert zu fi(x) − t ri ≤ ai, i =

1, . . . , m), findet man auch in [38], Korollar 3.4.4.Aus Satz 3.2.2 folgt, dass die Funktion φ : N(a0, r0) → Bδ(t

0, x0) × Bδ(µ0, ν0, ξ0) mit

φ(a, r) = (t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r))

Lipschitz stetig auf N(a0, r0) ist. Dabei bezeichnet (t(a, r), x(a, r)) wieder die lo-kal eindeutige Minimallosung des Optimierungsproblems (SP(a, r)) mit (a, r) aus ei-ner Umgebung von (a0, r0) und (µ(a, r), ν(a, r), ξ(a, r)) die zugehorigen eindeutigenLagrange-Multiplikatoren. Es sind jedoch auch fur diese Funktion genauere Sensiti-vitatsinformationen bekannt, so dass auch eine lokale Approximation der Funktionφ moglich ist. Fiacco hat dies in [38] (Cor. 3.2.4) fur den Fall der Nichtdegeneriert-heit der Restriktionen untersucht. Angewandt auf unser Problem erhalten wir denfolgenden Satz:

Satz 3.2.5 Es gelten die Voraussetzungen des Satzes 3.2.2. Zusatzlich gelte Nichtde-generiertheit, d. h. I0 = ∅ und J0 = ∅. Wir betrachten die Funktion φ : N(a0, r0) →Bδ(t

0, x0) × Bδ(µ0, ν0, ξ0) mit

φ(a, r) = (t(a, r), x(a, r), µ(a, r), ν(a, r), ξ(a, r))

und erhalten hierfur die folgende Approximation erster Ordnung fur (a, r) aus einerUmgebung von (a0, r0):

φ(a, r) = φ(a0, r0) + M−1N

(a − a0

r − ro

)

+ o

(∥∥∥∥

(a − a0

r − r0

)∥∥∥∥

)

mit M = [M1 |M2] ∈ R(1+n+m+p+q)×(1+n+m+p+q) und

M1 =

0 0⊤n −r1 . . . −rm

0n ∇2xL(φ(a0, r0), a0, r0) ∇xf1(x

0) . . . ∇xfm(x0)

µ01r1 −µ0

1∇xf1(x0)⊤ k0

1 0 . . . 0 0...

......

. . ....

µ0mrm −µ0

m∇xfm(x0)⊤ 0 0 . . . 0 k0m

0 ν01∇xg1(x

0)⊤ 0 . . . 0...

......

. . ....

0 ν0p∇xgp(x

0)⊤ 0 . . . 0

0 ξ01∇xh1(x

0)⊤ 0 . . . 0...

......

. . ....

0 ξ0p∇xhq(x

0)⊤ 0 . . . 0

Page 65: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 53

und

M2 =

0 . . . 0 0 . . . 0−∇xg1(x

0) . . . −∇xgp(x0) −∇xh1(x

0) . . . ∇xhq(x0)

0m . . . 0m 0m . . . 0m

g1(x0) 0 . . . 0 0 0 . . . 0

.... . .

......

. . ....

0 0 . . . 0 gp(x0) 0 . . . 0

0q . . . 0q 0q . . . 0q

mit k0 = a0 + t0 r0 − f(x0) ∈ Rm und

N =

[

02m×(n+1),−µ01

(e1

t0 e1

)

, . . . ,−µ0m

(e1

t0 e1

)

, 02m×(p+q)

]⊤∈ R

(1+n+m+p+q)×(2m)

mit 02m×(n+1) bzw. 02m×(p+q) der Matrix im R2m×(n+1) bzw. im R

2m×(p+q), die nurNullen enthalt, und ei, i = 1, . . . , m, dem i-ten Einheitsvektor im R

m.

Mit Hilfe dieser Sensitivitatsinformationen konnen wir also nicht nur die Lage desPunktes f(x(a, r)) approximieren (fur (a, r) aus einer Umgebung von (a0, r0)), son-dern auch x(a, r) selbst, und konnen damit unter anderem gunstige Startpunkte zurAnwendung numerischer Losungsverfahren zur Losung von (SP(a, r)) ermitteln. DieAnwendung dieser Approximationen wird im Kapitel 4 uber die Parametersteuerungbeschrieben. Ein Beispiel findet sich dort ebenfalls als Beispiel 4.2.11 auf Seite 77.Eine weitere Anwendung betrachten wir in Kapitel 7, in dem wir mit Hilfe dieserApproximation ein multikriterielles Bilevel-Optimierungsproblem losen.Den Fall der degenerierten Restriktionen hat Jittorntrum in [70], Theorem 3 und 4,untersucht. Liegt Degeneriertheit vor, so ist die im Satz 3.2.5 beschriebene MatrixM nicht invertierbar. Betrachten wir nicht beliebige Veranderungen der Parameter(a, r) in einer Umgebung von (a0, r0), sondern nur Verschiebungen der Parameterin eine vorgegebene Richtung v ∈ R

2m, so konnen wir fur diesen Fall dennoch eineApproximation erster Ordnung der Funktion φ angeben. Wir betrachten also nur dieParameter (

ar

)

=

(a0

r0

)

+ s v mit v =

(va

vr

)

∈ R2m

und s ∈ R, s ≥ 0, va, vr ∈ Rm. Damit sind Informationen uber die Richtungsableitung

der Funktion φ in Richtung v ausreichend, die auch im degenerierten Fall vorliegen.Wir betrachten im Folgenden speziell das nur von dem Parameter s abhangige Pro-blem (SP(s)) mit

min tNb. (a0 + s · va) + t (r0 + s · vr) − f(x) ≥ 0

g(x) ≥ 0p

x ∈ Rn

Page 66: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.2 Sensitivitatsanalyse bei naturlicher Halbordnung 54

ohne Gleichungsrestriktionen fur v fest mit Minimallosung (t(s), x(s)) und Lagrange-Multiplikatoren (µ(s), ν(s)). Dabei gilt (t(s),x(s),µ(s),ν(s)) =(t(a, r),x(a, r),µ(a, r),ν(a, r)) mit (a, r) = (a0 + s · va, r0 + s · vr).

Satz 3.2.6 (nach [70], Theorem 4) Es gelten die Voraussetzungen des Satzes 3.2.2.Weiterhin besitze das Problem (SP(a, r)) nur Ungleichungsrestriktionen. Es bezeichne(t0, x0) die Minimallosung von (SP(a0, r0)) mit Lagrange-Multiplikatoren (µ0, ν0). Wirbetrachten Parameteranderungen

(ar

)

=

(a0

r0

)

+ s · v

mit v = (va, vr) ∈ R2m fur s ≥ 0.

Dann besitzt das folgende System von Gleichungen und Ungleichungen genau eineLosung (t, x, µ, ν) und es gilt

limh→0+

t(h)−t(0)h

x(h)−x(0)h

µ(h)−µ(0)h

ν(h)−ν(0)h

=

t

x

µ

ν

mit (t(s), x(s), µ(s), ν(s)) der Minimallosung und den Lagrange-Multiplikatoren von(SP(a, r)) mit (a, r) = (a0, r0) + s · v, s ≥ 0.Das System von Gleichungen und Ungleichungen lautet

−m∑

i=1

µi r0i = µ0⊤vr,

m∑

i=1

µ0i∇2

xfi(x0)x −

p∑

j=1

ν0j∇2

xgj(x0)x +

m∑

i=1

µi∇xfi(x0) −

p∑

j=1

νj∇xgj(x0) = 0n,

r0i t −∇xfi(x

0)⊤x = −vai − t0 vr

i , ∀i ∈ I+,

r0i t −∇xfi(x

0)⊤x ≥ −vai − t0 vr

i , µi ≥ 0, ∀i ∈ I0,µi

(r0i t −∇xfi(x

0)⊤x + vai + t0 vr

i

)= 0, ∀i ∈ I0,

µi = 0, ∀i ∈ I−,

∇xgj(x0)⊤x = 0, ∀j ∈ J+,

∇xgj(x0)⊤x ≥ 0, νj ≥ 0, ∀j ∈ J0,

νj

(∇xgj(x

0)⊤x)

= 0, ∀j ∈ J0,νj = 0, ∀j ∈ J−.

Da Nichtdegeneriertheit zugelassen ist, ist in diesem Satz naturlich auch der Fall vonGleichungsrestriktionen mit eingeschlossen.

Page 67: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.3 Spezialfall ε-constraint-Methode 55

3.3 Spezialfall ε-constraint-Methode

Wir wollen nun diese Ergebnisse auf die ε-constraint-Methode anwenden. Die be-kannte ε-constraint Methode (nachzulesen u. a. in [32], [51], [91]) ist ein Spezialfalldes Skalarisierungsverfahrens nach Pascoletti und Serafini fur den Fall K = R

m+ . Es

gelte im Folgenden die Annahme 3.2.1. Die Skalarisierung des multikriteriellen Opti-mierungsproblems (MOP) durch die ε-constraint Methode mit Hilfe von Parameternεi ∈ R, i ∈ 1, . . . , m \ k fur ein k ∈ 1, . . . , m lautet

(Pk(ε)) min fk(x)Nb. fi(x) ≤ εi, ∀i ∈ 1, . . . , m \ k,

gj(x) ≥ 0, j = 1, . . . , p,hl(x) = 0, l = 1, . . . , q,x ∈ R

n.

Den Zusammenhang zum Verfahren von Pascoletti und Serafini zeigt das folgendeLemma.

Lemma 3.3.1 Es gelte die Annahme 3.2.1. Der Punkt x0 ist Minimallosung von(Pk(ε

0)) mit Lagrange-Multiplikatoren µ0i ∈ R+ fur i ∈ 1, . . . , m \ k, ν0 ∈ R

p+ und

ξ0 ∈ Rq genau dann, wenn (fk(x

0), x0) Minimallosung von (SP(a0, r0)), also von

min tNb. a0

i + t r0i − fi(x) ≥ 0, ∀i ∈ 1, . . . , m,

gj(x) ≥ 0, j = 1, . . . , p,hl(x) = 0, l = 1, . . . , q,t ∈ R, x ∈ R

n,

mit Lagrange-Multiplikatoren (µ0, ν0, ξ0) mit µ0k = 1 und

a0i = ε0

i , ∀i ∈ 1, . . . , m \ k, a0k = 0 und r0 = ek, (3.15)

ist.

Beweis: Das Minimierungsproblem (Pk(ε0)) lasst sich durch Hinzunahme einer wei-

teren Variablen t ∈ R umformen zu

min tNb. ε0

i − fi(x) ≥ 0 ∀i ∈ 1, . . . , m \ k,t − fk(x) ≥ 0,gj(x) ≥ 0 j = 1, . . . , p,hl(x) = 0 l = 1, . . . , q,t ∈ R, x ∈ R

n.

(3.16)

Ist x0 Minimallosung von (Pk(ε0)), so ist (t, x) = (fk(x

0), x0) Minimallosungdieses umgeformten Optimierungsproblems. Das Optimierungsproblem (3.16)stimmt mit (SP(a0, r0)) mit den Parametern a0 und r0 wie in (3.15) uberein.

Page 68: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.3 Spezialfall ε-constraint-Methode 56

Da µ0i , i ∈ 1, . . . , m \ k, ν0

j , j = 1, . . . , p, ξ0l , l = 1, . . . , q Lagrange-Multipli-

katoren zu x0 fur das Problem (Pk(ε0)) sind, gilt

µ0i (ε

0i − fi(x

0)) = 0 ∀i ∈ 1, . . . , m \ k,ν0

j (gj(x0)) = 0 ∀j ∈ 1, . . . , p,

sowie

∇xfk(x0) +

m∑

i=1

i6=k

µ0i∇xfi(x

0) −p∑

j=1

ν0j∇xgj(x

0) −q∑

l=1

ξ0l ∇xhl(x

0) = 0n. (3.17)

Der Gradient der Lagrange-FunktionL(t, x, µ, ν, ξ, a, r) zum Problem (SP(a0, r0))im Punkt (fk(x

0), x0) lautet

∇(t,x)L(fk(x0), x0, µ, ν, ξ, a0, r0) =

(10

)

− µk

(1

−∇xfk(x0)

)

−m∑

i=1

i6=k

µi

(0

−∇xfi(x0)

)

−p∑

j=1

νj

(0

∇xgj(x0)

)

−q∑

l=1

ξl

(0

∇xhl(x0)

)

.

Setzen wir µ0k = 1, so gilt unter Verwendung von (3.17)

∇(t,x)L(fk(x0), x0, µ0, ν0, ξ0, a0, r0) = 0n+1,

und (µ0, ν0, ξ0) sind Lagrange-Multiplikatoren zu (fk(x0), x0) fur das Optimie-

rungsproblem (SP(a0, r0)). Die Umkehrung folgt analog. 2

Fur die Parameterwahl (a, r) wie in (3.15) folgt, dass die Restriktion ak+t rk−fk(x) ≥0 in (fk(x

0), x0) stets aktiv ist.Der Zusammenhang aus Lemma 3.3.1 zwischen der ε-constraint-Methode und derPascoletti-Serafini-Methode ist auch am Beispiel eines einfachen bikriteriellen Opti-mierungsproblems mit m = 2 und k = 2 in Abbildung 3.2 grafisch dargestellt.Fur die Abhangigkeit der Minimalwerte fk(x(ε)) der Minimierungsprobleme (Pk(ε))von den Parametern εi, i ∈ 1, . . . , m \ k ergibt sich aus diesem Zusammenhangund als Folge von Satz 3.2.2 und Lemma 3.2.3 damit:

Satz 3.3.2 Es gelte die Annahme 3.2.1. Wir betrachten das skalare Optimierungspro-blem (Pk(ε)) ausgehend vom Referenzproblem (Pk(ε

0)). Es sei x0 lokale Minimallosungvon (Pk(ε

0)) mit Lagrange-Multiplikatoren µ0i ∈ R+ fur i ∈ 1, . . . , m \ k, ν0 ∈ R

p+

und ξ0 ∈ Rq. Es gebe ein γ > 0, so dass die Funktionen f , g und h zweimal stetig dif-

ferenzierbar auf einer offenen Umgebung von Bγ(x0) sind. Es seien die Indexmengen

I+ ∪ I0 ∪ I− = 1, . . . , m \ k und J+ ∪ J0 ∪ J− = 1, . . . , p wie folgt gegeben:

I+ = i ∈ 1, . . . , m \ k | fi(x0) = ε0

i , µ0i > 0,

I0 = i ∈ 1, . . . , m \ k | fi(x0) = ε0

i , µ0i = 0,

I− = i ∈ 1, . . . , m \ k | fi(x0) < ε0

i , µ0i = 0

(3.18)

und J+, J0, J− wie in (3.9).

Page 69: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.3 Spezialfall ε-constraint-Methode 57

Abbildung 3.2: Zusammenhang ε-constraint-Methode und Methode von Pascolettiund Serafini.

Es gelte

a) Die Gradienten der in x0 aktiven Restriktionen, also die Vektoren ∇xfi(x0) fur

alle i ∈ I+ ∪ I0, ∇xgj(x0) fur alle j ∈ J+ ∪ J0 und ∇xhl(x

0) fur l ∈ 1, . . . , qseien linear unabhangig.

b) Es existiere eine Konstante α > 0, so dass fur die Hesse-Matrix ∇2xL der

Lagrange-Funktion im Punkt x0 zum Problem (Pk(ε0)) gilt:

x⊤ ∇2xL(x0, µ0, ν0, ξ0, ε0) x ≥ α‖x‖2

fur alle

x ∈ x ∈ Rn | ∇xfi(x

0)x = 0, ∀ i ∈ I+, ∇xgj(x0)x = 0, ∀ j ∈ J+,

∇xhl(x0)x = 0, ∀ l = 1, . . . , q

=: W. (3.19)

Dann ist x0 lokal eindeutige Minimallosung von (Pk(ε0)) mit eindeutigen Lagrange-

Multiplikatoren und es existiert ein δ > 0 und eine Umgebung N(ε0) von ε0, so dassdie lokale Minimalwertfunktion τ δ : R

m−1 → R,

τ δ(ε) = inffk(x) | fi(x) ≤ εi, i ∈ 1, . . . , m \ k, gj(x) ≥ 0, j = 1, . . . , p,

hl(x) = 0, l = 1, . . . , q, x ∈ Bδ(x0)

in N(ε0) differenzierbar ist und

∂τ δ(ε0)

∂εi= −µ0

i

gilt.

Page 70: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.3 Spezialfall ε-constraint-Methode 58

Beweis: Wir zeigen, dass die Voraussetzungen des Satzes 3.2.2 fur das zu (Pk(ε0))

gehorige Minimierungsproblem (SP(a0, r0)) (siehe dazu Lemma 3.3.1) erfulltsind. Es bleibt dafur zu zeigen, dass Bedingung b) des Satzes 3.2.2 aus Bedin-gung b) dieses Satzes folgt. Es bezeichne L die Lagrange-Funktion zum Problem(SP(a0, r0)) mit a0, r0 wie in Lemma 3.3.1 in (3.15). Dann reicht es wegen

∇2(t,x)L(fk(x

0), x0, µ0, ν0, ξ0, a0, r0) =

(0 00 W

)

und W := ∇2xL(x0, µ0, ν0, ξ0, ε0) zu zeigen, dass ein β > 0 existiert mit

x⊤ W x ≥ β

∥∥∥∥

(tx

)∥∥∥∥

2

fur alle (t, x) mit

(t, x) ∈ (t, x) ∈ R × Rn | x ∈ W,∇xfk(x

0)⊤x = t.

Fur die Definition von W siehe (3.19). Dies ist aquivalent zu

x⊤ W x ≥ β

∥∥∥∥

(∇xfk(x

0)xx

)∥∥∥∥

2

fur alle x ∈ W. Da im Rn bzw. R

n+1 alle Normen aquivalent sind, existierenpositive Konstanten M l, Mu ∈ R und M l, Mu ∈ R mit

M l‖x‖2 ≤ ‖x‖ ≤ Mu‖x‖2

und

M l

∥∥∥∥

(∇xfk(x

0)⊤xx

)∥∥∥∥

2

≤∥∥∥∥

(∇xfk(x

0)⊤xx

)∥∥∥∥≤ Mu

∥∥∥∥

(∇xfk(x

0)⊤xx

)∥∥∥∥

2

.

Wir setzen

β :=α (M l)2

(Mu)2 (‖∇xfk(x0)‖22 + 1)

> 0,

so folgt aus Bedingung b) des Satzes 3.3.2 und wegen W = ∇2xL(x0, µ0, ν0, ξ0, ε0)

x⊤ W x ≥ α‖x‖2 ≥ α (M l)2 ‖x‖22

= β (Mu)2(‖∇xfk(x

0)‖22 + 1

)‖x‖2

2

≥ β (Mu)2(|∇xfk(x

0)⊤x|2 + ‖x‖22

)

= β (Mu)2

∥∥∥∥

(∇xfk(x

0)⊤xx

)∥∥∥∥

2

2

≥ β

∥∥∥∥

(∇xfk(x

0)⊤xx

)∥∥∥∥

2

fur alle x ∈ W. Damit sind die Voraussetzungen des Satzes 3.2.2 erfullt. 2

Page 71: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

3.3 Spezialfall ε-constraint-Methode 59

Zu diesem Ergebnis kommt man ebenfalls durch direkte Anwendung des Sensitivitats-theorems von Luenberger ([84], S.236). Polak verwendet in [97] auch dieses Sensiti-vitatstheorem von Luenberger. Er betrachtet skalare Ersatzprobleme vom Typ derε-constraint-Methode (Pk(ε)) fur k = m und verwendet die Information, dass dieAbleitung der Minimalwertfunktion mit den bei der Losung der skalaren Optimie-rungsprobleme erhaltenen Lagrange-Multiplikatoren zusammenhangt, um die Mini-malwertfunktion, bei Polak Sensitivitatsfunktion genannt, mit Hilfe einer kubischenHermite-Interpolation anzunahern. Es wird versucht, den dabei gemachten Interpola-tionsfehler abzuschatzen und durch eine geeignete Parameterwahl zu begrenzen. AuchChankong und Haimes verwenden dieses Sensitivitatstheorem ([15], S. 58) und inter-pretieren damit die Lagrange-Multiplikatoren der ε-constraint-Methode als trade-off-Informationen zwischen den einzelnen Zielfunktionen ([15], S. 160 und Kapitel 7.4.1)Sie betrachten dabei auch den linearen Fall ([15], Theorem 4.31) und formulierenschließlich ein interaktives Losungsverfahren, die Surrogate Worth Trade-off Methode(siehe [15], Kapitel 8, die Referenzen darin, und [52]), basierend auf der ε-constraint-Methode mit einer aquidistanten Parameterwahl und Befragungen des Entscheidungs-tragers unter Verwendung der Sensitivitatsinformationen. In [60] werden wie in dieserArbeit Skalarisierungsansatze fur multikriterielle Optimierungsprobleme als parame-terabhangige skalare Optimierungsprobleme aufgefasst um dann Ergebnisse zu Warm-Start-Strategien bei Innere-Punkte-Algorithmen anzuwenden. Auch hier spielen Sta-bilitatsuntersuchungen (Satz 2.2.2 in [60]) eine wichtige Rolle. Es werden schließlichbikriterielle konvex-quadratische Optimierungsprobleme mit Hilfe des Skalarisierungs-ansatzes der gewichteten Summe gelost.

Mit Hilfe von Satz 3.3.2 konnen wir auch beim Bestimmen EP-minimaler Punkte mitHilfe der ε-constraint-Methode Sensitivitatsinformationen ausnutzen. Losen wir dasskalare Ersatzproblem (Pk(ε

0)) mit Minimallosung x0 und Lagrange-Multiplikatorenµ0

i zu den Restriktionen fi(x) ≤ ε0i fur i = 1, . . . , m, i 6= k, so gilt fur die Punkte

f(x(ε)) mit x(ε) Minimallosung von (Pk(ε)) fur ε aus einer Umgebung von ε0:

fk(x(ε)) ≈ fk(x(ε0)) −m∑

i=1

i6=k

µ0i (εi − ε0

i ).

Alle aktiven nichtdegenerierten Restriktionen bleiben aktiv, d. h. es gilt fur diese

fi(x(ε)) = εi.

Wie wir die in diesem Kapitel beschriebenen Sensitivitatsinformationen fur eine ge-eignete Parameterwahl der skalaren Ersatzprobleme (SP(a, r)) bzw. (Pk(ε)) nutzenwollen, wird in dem folgenden Kapitel uber die Parametersteuerung beschrieben.

Page 72: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

60

Kapitel 4

Parametersteuerung

Das Ziel dieser Arbeit ist eine moglichst gute Approximation der Effizienzmenge desmultikriteriellen Optimierungsproblems (MOP). Dabei verstehen wir unter einer gu-ten Approximation eine Approximation mit nahezu aquidistant verteilten Punkten.Wir werden Qualitatskriterien fur Approximationen der Effizienzmenge in Abschnitt4.1 genauer untersuchen. Die Wichtigkeit einer Approximation der gesamten Effizi-enzmenge mit gleichmaßig verteilten Approximationspunkten wird z. B. auch in [7],[20], [40] und [41] betont. In vielen Arbeiten uber Verfahren zur Losung multikrite-rieller Optimierungsprobleme (z. B. in [21], [75], [89], [90]) ist es das Ziel solch einemoglichst aquidistante Approximation zu erreichen.Zur Bestimmung einzelner Approximationspunkte losen wir das skalare Optimie-rungsproblem (SP(a, r)) von Pascoletti und Serafini (siehe Kapitel 2). Bezeichnet(t(a, r), x(a, r)) die Minimallosung von (SP(a, r)) in Abhangigkeit von den Parame-tern (a, r), so ist f(x(a, r)) ein Approximationspunkt der Bildmenge der schwachK-minimalen Punkte. Wir suchen nun eine Auswahl geeigneter Parameter, wobei wiruns meist auf eine Variierung des Parameters a beschranken, so dass wir, wenn wirdie skalaren Optimierungsprobleme (SP(ai, r)) fur diese Parameter ai, i = 1, . . . , N ,losen, moglichst aquidistante Approximationspunkte f(x(ai, r)) = f(xi), i = 1, . . . , N ,erhalten, die alle Bereiche der effizienten Menge abdecken.Wir schranken uns fur die Auswahl der Parameter a dabei auf eine Hyperebene H =y ∈ R

m | b⊤y = β mit b ∈ Rm \ 0m, β ∈ R und b⊤ r 6= 0 ein. Es gelte also

ai ∈ H fur i = 1, . . . , N.

Aus Satz 2.2.10 folgt, dass es ausreichend ist, die Parameter aus einer Hyperebene Hauszuwahlen, um dennoch die gesamte Effizienzmenge approximieren zu konnen.Da diese Hyperebene fur bikriterielle Optimierungsprobleme (m = 2) eine Gerade ist,ist eine totale Ordnung der Parameter ai, i = 1, . . . , N , zum Beispiel aufsteigend nachIhrer ersten Komponente, also

a11 ≤ a2

2 ≤ . . . ≤ aN1

(lexikografische Ordnung), moglich. Dabei gilt fur bzgl. dieser Ordnung aufeinander-folgende Parameter ai und ai+1, i ∈ 1, . . . , N−1, dass diese unmittelbar benachbart

Page 73: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.1 Qualitatskriterien einer Approximation 61

sind, dass es also keinen anderen Parameter aj gibt, der einen kurzeren Abstand als‖ai+1 − ai‖ zu den Punkten ai und ai+1 besitzt. Sind die Parameter benachbart, sosind dies i. Allg. auch die durch Losen der skalaren Ersatzprobleme erhaltenen Ap-proximationspunkte.Wir wollen die Parameter ai dabei sukzessive so bestimmen, dass wir die lokalenInformationen uber den Verlauf der Effizienzmenge, die wir beim Losen der skalarenOptimierungsprobleme (SP(a, r)) mit Hilfe der Sensitivitatsanalyse (siehe Kapitel 3)gewinnen, direkt zur Bestimmung der weiteren Parameter nutzen konnen, um das Zielmoglichst aquidistanter Approximationspunkte gut erfullen zu konnen.Ist jedoch m ≥ 3, so ist die Hyperebene H mindestens zweidimensional und es istkeine totale Ordnung der Parameter mehr moglich, so dass alle Parameter, die zuein-ander benachbart sind und damit die kurzesten Abstande zueinander aufweisen, auchbzgl. dieser Ordnung aufeinanderfolgen. Dies bildet eine wesentliche Schwierigkeit beider Bestimmung von aquidistanten Approximationen der Effizienzmenge von multi-kriteriellen Optimierungsproblemen mit m ≥ 3. Wir behandeln daher den Fall m = 2in Abschnitt 4.2 getrennt von dem Fall m ≥ 3 in Abschnitt 4.3.Wir werden im ersten Unterkapitel nun also zunachst klaren was wir unter einer gutenApproximation verstehen und Qualitatskriterien vorstellen. Dann werden wir die Pa-rametersteuerung im bikriteriellen Fall untersuchen, bevor wir im dritten Abschnittauf die Parametersteuerung fur Probleme mit drei und mehr Zielfunktionen eingehen.

4.1 Qualitatskriterien einer Approximation

Bevor wir Qualitatskriterien fur Approximationen der Effizienzmenge betrachten,mochten wir definieren, was wir unter einer Approximation der Effizienzmenge ver-stehen (nach [54], S.5).

Definition 4.1.1 Eine endliche Menge von Punkten A ⊂ f(Ω) heißt Approximationder Effizienzmenge E(f(Ω), K) des multikriteriellen Optimierungsproblems (MOP),falls fur alle Approximationspunkte y1, y2 ∈ A, y1 6= y2 gilt:

y1 6∈ y2 + K und y2 6∈ y1 + K, (4.1)

d. h. falls sich die Punkte aus A bzgl. dem Kegel K nicht gegenseitig dominieren.

Eine diskrete Menge A bezeichnen wir daher als eine Approximation der schwachenEffizienzmenge Ew(f(Ω), K) des multikriteriellen Optimierungsproblems (MOP), fallsA eine Diskretisierung von E(f(Ω), int(K) ∪ 0m) ist und sich die Approximations-punkte bzgl. dem Inneren des Kegels K nicht gegenseitig dominieren. Dabei betrach-ten wir hier stets Approximationen der effizienten Menge, also der Bildmenge derK-minimalen Punkte, doch ist die Definition einer Approximation A ebenso wie diefolgenden Qualitatskriterien auch auf eine Approximation der Menge der K-minimalenPunkte ubertragbar.Wir konzentrieren uns hier auf eine Approximation der Effizienzmenge, da der Ent-scheidungstrager, der mit Hilfe der Approximation eine fur sich subjektiv beste Losung

Page 74: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.1 Qualitatskriterien einer Approximation 62

auswahlen kann, die Entscheidungen gewohnlich im Bild- und nicht im Parameter-raum trifft. Zudem ist die Dimension des Parameterraums n oft deutlich hoher alsdie des Bildraumes m. In dem in Kapitel 6 vorgestellten Anwendungsproblem ist z. B.m = 2 gegenuber n = 400. Eine Approximation der K-minimalen Losungen im R

n

ware nicht mehr visualisierbar und meist auch fur einen Entscheidungstrager nichtmehr interpretierbar. Außerdem fuhren zwei Losungen x, y ∈ Ω mitunter auf den glei-chen effizienten Punkt f(x) = f(y), was sie angesichts der Zielfunktionen nicht mehrunterscheidbar macht, und die zu approximierende Menge dennoch vergroßert. DieseThematik wird auch von Benson und Sayin in [7] diskutiert. Es gibt jedoch auch Pro-bleme, bei denen eine moglichst gute Approximation der K-minimalen Punkte selbstnotig ist. Einen solchen Fall stellen wir im Kapitel 7 vor, in dem wir mit Hilfe unseresVerfahrens ein multikriterielles Bilevel-Optimierungsproblem losen.Wir bestimmen zunachst eine Approximation der schwachen Effizienzmenge um ausdieser, wegen E(f(Ω), K) ⊂ Ew(f(Ω), K), eine Approximation der EffizienzmengeE(f(Ω), K) zu erhalten. Wir bezeichnen in diesem Zusammenhang auch die Menge

x ∈ Ω | f(x) ∈ A

als Approximation, wenn A eine Approximation ist.Eine Approximation von E(f(Ω), K) muss der Definition entsprechend nicht notwen-dig aus effizienten Punkten der Menge f(Ω) bestehen. Approximationen, die nichtaus effizienten Punkten bestehen, erhalt man z.B., wenn man diese mit Hilfe evoluti-onarer Algorithmen bestimmt (siehe u. a. [44], [128], [134]). Daher wird in diesem Fallunter anderem der Abstand der Punkte der Approximation von der Effizienzmenge alsQualitatskriterium vorgeschlagen ([17], [76], [128], S. 6-15 oder [134], S. 46). Weitere inArbeiten uber evolutionare Algorithmen zur Losung multikriterieller Optimierungs-probleme vorgestellte Metriken zur Beurteilung und dem Vergleich der Qualitat vonApproximationen findet man in [23], [76], [128] und [134].Wir erhalten unsere Approximation A = f(xi) | i = 1, . . . , N durch Losen derskalaren Optimierungsprobleme (SP(ai, r)). Damit sind alle Approximationspunkteschwach K-minimal (nach Satz 2.2.1c)). Die so generierten Punkte erfullen damitauch direkt die fur eine Approximation geforderte Eigenschaft (4.1) bzgl. int(K) ∪0m. Wegen A ⊂ Ew(f(Ω), K) ist das Kriterium der Minimierung des Abstands derApproximationspunkte von der Effizienzmenge fur uns also uninteressant.Wir wollen stattdessen die drei von Sayin ([104]) vorgeschlagenen Qualitatskriterien,Abdeckung der Effizienzmenge, Gleichformigkeit der Verteilung der Approximations-punkte und Machtigkeit (Umfang) der Approximation, betrachten.Um das Kriterium Abdeckung der Effizienzmenge zu messen, verwendet Sayin denAbdeckungsfehler ε.

Definition 4.1.2 Es sei ε > 0 eine reelle Zahl. Eine Approximation A der Effizi-enzmenge E(f(Ω), K) heißt dε-Reprasentantensystem von E(f(Ω), K), falls fur alley ∈ E(f(Ω), K) ein y ∈ A existiert mit ‖y − y‖ ≤ ε.Das kleinste ε, fur das A ein dε-Reprasentantensystem von E(f(Ω), K) ist, heißt Ab-deckungsfehler von A.

Page 75: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.1 Qualitatskriterien einer Approximation 63

Dieser Abdeckungsfehler ε kann durch

ε = maxy∈E(f(Ω),K)

miny∈A

‖y − y‖ (4.2)

berechnet werden, doch ist dafur die Kenntnis der Effizienzmenge E(f(Ω), K) notig.Dabei ist (4.2) fur eine Approximation A = y1, . . . , yN aquivalent zur Losung desProblems

ε = max δNb. δ ≤ ‖y − yi‖, i = 1, . . . , N,

y ∈ E(f(Ω), K),δ ∈ R.

Um den Abdeckungsfehler auch ohne Kenntnis der Effizienzmenge berechnen zu kon-nen, gehen wir davon aus, dass wir auf Grund unserer Methode zur Bestimmungder Approximationspunkte durch eine entsprechende Parameterwahl bereits eine Ab-deckung der gesamten Effizienzmenge sichergestellt haben ohne großere Bereiche zuvernachlassigen. Dann entspricht das Ziel eines moglichst kleinen Abdeckungsfeh-lers dem Ziel, dass die Abstande zwischen benachbarten Approximationspunktenmoglichst klein sind. Dabei ist jedoch zu beachten, dass die Effizienzmenge nicht not-wendig zusammenhangend ist, sondern Lucken auftreten konnen (wie im Folgenden indem Beispiel 4.1.4). Kriterien fur eine stetige, zusammenhangende Effizienzmenge fin-det man in [58], [62], [83] oder [92]. Dabei heißt eine Menge A im topologischen Sinnezusammenhangend, wenn keine offenen Mengen O1, O2 existieren, so dass A ⊂ O1∪O2,A∩O1 6= ∅, A∩O2 6= ∅, A∩O1∩O2 = ∅ gilt ([32], S.69, [103], S.66). Ein Abstand zwi-schen aufeinanderfolgenden Approximationspunkten, wenn sich diese in nichtzusam-menhangenden Teilen der Effizienzmenge befinden, ist also entsprechend der Großeder Lucke nicht zu verhindern und hat keinen Einfluss auf den Abdeckungsfehler. Aufdie Problematik einer nicht zusammenhangenden Effizienzmenge fur die Definitionvon Qualitatskriterien weist auch Colette in [17], S.780 hin.Ist die Effizienzmenge zusammenhangend, so konnen wir auch ohne explizite Kenntnisder Effizienzmenge einen modifizierten Abdeckungsfehler durch

ε =1

2max

j∈1,...,Nmax

y∈N (yj)‖yj − y‖ (4.3)

berechnen, wobei y1, . . . , yN die Menge der Approximationspunkte bezeichnet undN (yj) die Menge der zu yj benachbarten Punkte in A sei. Gilt im Fall m = 2

y11 ≤ y2

1 ≤ . . . ≤ yN1 ,

so ist N (yj) = yj−1, yj+1 fur j ∈ 2, . . . , N − 1, bzw. N (y1) = y2 und N (yN) =yN−1. Fur m ≥ 3 kann man die 2(m − 1) Approximationspunkte mit geringstemAbstand zu yj als die zu yj benachbarten Punkte bezeichnen. Ist die Effizienzmengenicht zusammenhangend, so muss dies bei der Bestimmung der Menge der benach-barten Punkte N (·) berucksichtigt werden. Je kleiner der Abdeckungsfehler ist, destobesser wird jeder Punkt der Effizienzmenge durch die Approximation reprasentiert.

Page 76: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.1 Qualitatskriterien einer Approximation 64

Dass dem Ziel der moglichst luckenlosen Abdeckung der Effizienzmenge eine großeBedeutung zukommt wird auch in Anwendungsproblemen betont. So findet sich z. B.bei Kufer et al. ([78], S.231) die Definition einer -Abdeckung als eine Menge vonPunkten, so dass jeder Punkt dieser Menge innerhalb eines -Abstands von mindestenseinem anderen Punkt der Menge liegt (siehe auch [56], S. 23).Ein weiteres Kriterium ist die Gleichformigkeit der Verteilung der Approximations-punkte. Eine zu dichte Anhaufung der Punkte ist unerwunscht, da die zu dichtenPunkte kaum neue Informationen liefern und dennoch die vom Entscheidungstragerzu betrachtende Anzahl an Punkten sowie den Rechenaufwand erhohen. Eine im Sinnedes Ziels Gleichverteilung ideale Approximationsmenge ware daher eine Approxima-tion mit aquidistant verteilten Punkten. Das Ziel aquidistanter Wegstrecken zwischenApproximationspunkten wird auch in [60], S.59 vorgeschlagen. Als Definition fur denGleichverteilungsgrad δ schlagt Sayin das Folgende vor.

Definition 4.1.3 Es sei A ein dε-Reprasentantensystem von E(f(Ω), K) mit demAbdeckungsfehler ε von A. Dann heißt A ein δ-uniformes dε-Reprasentantensystem,falls gilt

minx,y∈Ax 6=y

‖x − y‖ ≥ δ.

Das großte δ, fur das A ein δ-uniformes dε-Reprasentantensystem ist, heißt Gleich-verteilungsgrad der Approximation A.

Wir konnen den Gleichverteilungsgrad δ einfach durch Losen von

δ = minx,y∈Ax 6=y

‖x − y‖

berechnen. Je großer δ fur eine dε-Approximation ist, desto besser ist die Gleichver-teilung dieser Approximation.Das dritte Kriterium, die Machtigkeit oder der Umfang der Approximation, wirddurch die Anzahl voneinander verschiedener Punkte der Approximation gemessen,wobei eine moglichst geringe Anzahl an Punkten angestrebt wird. Sie ist in unseremFall also maximal N .Das folgende Beispiel nach [101], S.67 verdeutlicht noch einmal diese drei von Sayinvorgeschlagenen Qualitatskriterien.

Beispiel 4.1.4 Wir betrachten die in Abbildung 4.1 dargestellte Approximation derEffizienzmenge eines bikriteriellen Optimierungsproblems mit K = R

2+ bestehend aus

den drei Punkten y1, y2 und y3. Die Machtigkeit betragt also 3. Wir verwenden alsNorm die euklidische Norm. Dann beschreibt der Gleichverteilungsgrad δ den kleinstenAbstand zwischen zwei Approximationspunkten und damit ist

δ = ‖y1 − y2‖2.

Der Abdeckungsfehler ist der Abstand zwischen den durch einen Approximationspunktam schlechtesten reprasentierten Punkt der Effizienzmenge und dem nachsten Appro-ximationspunkt, in unserem Beispiel also

ε = ‖y3 − y‖2.

Page 77: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.1 Qualitatskriterien einer Approximation 65

Abbildung 4.1: Approximation aus Beispiel 4.1.4.

Es ist klar, dass sich diese Qualitatsmerkmale auch widersprechen. So bedeutet einmoglichst geringer Abdeckungsfehler eine hohe Anzahl an Approximationspunkten.Weiterhin konnen nicht alle Approximationen miteinander verglichen und als besseroder schlechter eingestuft werden, wie das folgende Beispiel zeigt.

Beispiel 4.1.5 Wir betrachten die folgenden zwei Approximationen A1 und A2 derEffizienzmenge eines bikriteriellen Optimierungsproblems mit K = R

2+ (Abb. 4.2):

Abbildung 4.2: Approximationen aus Beispiel 4.1.5.

A1 = y2, y4, y6, y8 undA2 = y3, y7.

Es gelte fur ein β > 0

‖yi+1 − yi‖2 =β

2fur i = 1, . . . , 8.

Dann ist ε1 = β2

der Abdeckungsfehler von A1 und ε2 = β der von A2. Der Gleichver-teilungsgrad der Approximation A1 ist δ1 = β und der der Approximation A2 betragtδ2 = 2β.

Page 78: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 66

Die beiden Approximationen sind bzgl. des dritten Kriteriums, der Machtigkeit derApproximation, optimal, d. h. es gibt keine Approximation mit Abdeckungsfehler ε1

und Gleichverteilungsgrad δ1 bzw. ε2 und δ2 mit einer geringeren Anzahl von Appro-ximationspunkten. Dennoch kann nicht entschieden werden, welche Approximationbesser ist.

Dem Entscheidungstrager, der eine Approximation der Effizienzmenge wunscht, kannalso nicht eine eindeutig beste Approximation vorgelegt werden. Es konnen nur ein-zelne Ziele, wie der Abdeckungsfehler oder die Machtigkeit der Approximation, vomEntscheidungstrager vorgegeben werden, die dann unter Berucksichtigung der weite-ren Qualitatskriterien versucht werden bestmoglichst zu erreichen.Wir haben unser Ziel als eine moglichst aquidistante Approximation angegeben. Dabeiwollen wir dem Entscheidungstrager einen Diskretisierungsabstand α > 0 vorgebenlassen. Zueinander benachbarte Punkte sollen dann einen Abstand von α haben. Diesbedeutet fur uns, dass der Abdeckungsfehler bzw. die von uns in (4.3) vorgestell-te Modifikation zwar moglichst klein sein soll, ein Wert von α/2 jedoch ausreicht.Zugleich soll der Gleichverteilungsgrad einen Wert von α haben, d. h. die Approxi-mationspunkte sollen nicht zu dicht liegen, sondern den vorgegebenen Abstand vonα zueinander haben. Die Machtigkeit der Approximation ergibt sich dann aus denanderen Forderungen als Folge, wenn ein aquidistanter Abstand zwischen den Appro-ximationspunkten erreicht wird.In den folgenden Abschnitten stellen wir unser Verfahren vor, bei dem wir unser Zielvon nahezu aquidistanten Abstanden zwischen den Approximationspunkten durchgeeignete Parameterwahl erreichen, deren Auswahl wir durch Ausnutzung von Sensi-tivitatsinformationen uber die skalaren Ersatzprobleme steuern.

4.2 Parametersteuerung im bikriteriellen Fall

Zur Approximation der Effizienzmenge eines multikriteriellen Optimierungsproblems(MOP) mit zwei Zielfunktionen (m = 2) losen wir wie erwahnt das skalare Ersatz-problem (SP(a, r)). Wir werden uns dabei nur mit einer Variierung der Parameter abefassen und den Parameter r mit r ∈ K \ 0m fest wahlen.Zunachst bestimmen wir die Hyperebene H (fur m = 2 eine Gerade), aus der wirunsere Parameter a auswahlen, mit

H = y ∈ R2 | b⊤y = β = y ∈ R

2 | b1y1 + b2y2 = β

mit b ∈ R2, β ∈ 0, 1 und b⊤r 6= 0. Wir konnen hierfur z. B. b = r und β = 0 wahlen,

denn dann ist b⊤r = r⊤r = r21 + r2

2 6= 0 fur r 6= 02. Eine Auswahl des Parameters anur aus dieser Hyperebene H ist nach Satz 2.2.10 ausreichend um alle K-minimalenPunkte des bikriteriellen Optimierungsproblems als Losungen von (SP(a, r)) zu finden.Fur unser weiteres Vorgehen nutzen wir die gunstige Eigenschaft, dass im R

2 allekonvexen spitzen Kegel polyedrisch und damit endlich erzeugt sind. Wir verwendendies um die Menge, aus der wir unsere Parameter a auswahlen, weiter einzuschranken.

Page 79: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 67

Lemma 4.2.1 Es sei K ein spitzer konvexer abgeschlossener nicht trivialer Kegel imR

2. Dann ist K polyedrisch und damit endlich erzeugt und es existiert entweder eink ∈ R

2 \ 02 mitK = λk | λ ≥ 0

oder es existieren l1, l2 ∈ R2\02, l1, l2 linear unabhangig, und l1, l2 ∈ R

2\02, l1, l2

linear unabhangig, mit

K = y ∈ R2 | l1⊤y ≥ 0, l2⊤y ≥ 0

= y ∈ R2 | y = λ1l1 + λ2l2, λ1, λ2 ≥ 0.

Beweis: Wir fuhren einen konstruktiven Beweis mit dessen Hilfe k bzw. l1, l2 undl1, l2 durch das Losen einfacher Optimierungsprobleme bestimmt werden kann.Wir losen zunachst

min ϕ

Nb.

(cos ϕsin ϕ

)

∈ K

ϕ ∈ [0, 2 π]

(4.4)

mit der Minimallosung ϕ1. Ist nun ϕ1 6= 0, so losen wir zusatzlich

max ϕ

Nb.

(cos ϕsin ϕ

)

∈ K

ϕ ∈ [0, 2 π]

(4.5)

mit der Losung ϕ2. Da der Kegel K abgeschlossen und nichtrivial ist, besitzendie Probleme (4.4) und (4.5) stets eine Minimallosung. Da der Kegel K spitzist, gilt ϕ2 ∈ [ϕ1, ϕ1 + π[.

Ist nun ϕ1 = ϕ2, so gilt

K = λ k | k =

(cos ϕ1

sin ϕ1

)

, λ ≥ 0.

Ist dagegen ϕ1 6= ϕ2, so gilt auf Grund der Konvexitat des Kegels K

K = y ∈ R2 | y = λ (cos ϕ, sin ϕ)⊤, λ ≥ 0, ϕ ∈ [ϕ1, ϕ2]

= y ∈ R2 | y = λ1 (cos ϕ1, sin ϕ1)⊤ + λ2 (cos ϕ2, sin ϕ2)⊤,

λ1, λ2 ≥ 0.

Der Fall ϕ1 = 0 folgt analog. Wir erhalten also

l1 :=

(cos ϕ1

sin ϕ1

)

und l2 :=

(cos ϕ2

sin ϕ2

)

.

Mit geeigneten orthogonalen Vektoren l1, l2 zu l1, l2 erhalten wir die Darstellung

K = y ∈ R2 | l1⊤y ≥ 0, l2⊤y ≥ 0.

2

Page 80: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 68

Ist nun der Ordnungskegel K im R2 durch

K = y ∈ R2 | l1⊤y ≥ 0, l2⊤y ≥ 0 (4.6)

gegeben, so ist int(K) = y ∈ R2 | l1⊤y > 0, l2⊤y > 0. Um nun die Menge H , aus

der wir die Parameter a auswahlen wollen, weiter einzuschranken, losen wir zunachstdie skalaren Optimierungsprobleme

minx∈Ω

l1⊤f(x) (4.7)

mit Minimallosung x1 undminx∈Ω

l2⊤f(x) (4.8)

mit Minimallosung x2. Ist die Menge f(Ω) kompakt, so sind die Probleme (4.7) und(4.8) losbar. Dabei sind die Minimallosungen schwach K-minimale Punkte des mul-tikriteriellen Optimierungsproblems. Diese Aussage gilt auch fur polyedrische Kegelim R

m mit m ≥ 2 beliebig, und es existieren dann Parameter a und r so, dass dieMinimallosungen von (4.7) und (4.8) auch Minimallosungen von (SP(a, r)) sind.

Lemma 4.2.2 Wir betrachten das multikriterielle Optimierungsproblem (MOP) furm ∈ N, m ≥ 2. Es sei K ⊂ R

m ein polyedrischer Kegel mit der Darstellung

K = y ∈ Rm | li⊤y ≥ 0, i = 1, . . . , s

fur ein s ∈ N. Es sei xj Minimallosung von

minx∈Ω

lj⊤f(x) (4.9)

fur ein j ∈ 1, . . . , s. Dann ist xj schwach K-minimal.

Wir betrachten nun das skalare Optimierungsproblem (SP(a, r)) mit r ∈ K sowielj⊤r > 0 (erfullt fur r ∈ int(K)). Setzen wir fur b ∈ R

m mit b⊤r 6= 0, β ∈ R

tj :=b⊤f(xj) − β

b⊤rund aj := f(xj) − tj r,

so ist (tj , xj) Minimallosung von (SP(aj , r)).

Beweis: Wir zeigen zunachst xj ∈ Mw(f(Ω), K). Dazu nehmen wir an, xj ware nichtschwach K-minimal und es existiert daher ein x ∈ Ω mit

f(xj) ∈ f(x) + int(K).

Dann gilt lj⊤(f(xj) − f(x)) > 0 bzw. lj⊤f(xj) > lj⊤f(x) im Widerspruch zu xj

Minimallosung von (4.9).

Wir zeigen nun, dass (tj , xj) Minimallosung von (SP(aj , r)) ist. Wegen

aj + tj r − f(xj) = 0m

Page 81: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 69

ist (tj , xj) zulassig. Angenommen (tj, xj) ist keine Minimallosung, dann existiertein (t′, x′) mit t′ < tj. Da (t′, x′) zulassig fur (SP(aj , r)) ist, folgt

aj + t′ r − f(x′) ∈ K

und mit der Definition von aj ergibt sich

f(xj) − tj r + t′ r − f(x′) ∈ K.

Damit giltlj⊤(f(xj) + (t′ − tj) r − f(x′)

)≥ 0

und es folgtlj⊤f(xj) ≥ lj⊤f(x′) + (tj − t′)

︸ ︷︷ ︸

>0

lj⊤r︸︷︷︸

>0

> lj⊤f(x′)

im Widerspruch zu xj Minimallosung von (4.9). 2

Diese Aussage gilt fur r ∈ ∂K = K \ int(K) im Allgemeinen nicht mehr, wie dasfolgende Beispiel zeigt:

Beispiel 4.2.3 Wir betrachten das bikriterielle Optimierungsproblem

min

(x1

x2

)

Nb. 1 ≤ x1 ≤ 3,1 ≤ x2 ≤ 3,x ∈ R

2

bezuglich dem Kegel K = R2+ = y ∈ R

2 | (1, 0) y ≥ 0, (0, 1) y ≥ 0.Dann ist fur l1 = (1, 0)⊤ z. B. der Punkt x1 = (1, 2) Minimallosung von (4.9) und auchschwach EP-minimal. Fur H = y ∈ R

2 | (0, 1) y = 0, d.h. b = (0, 1)⊤, β = 0, undr = (0, 1)⊤ erhalten wir t = 2 und a1 = (1, 0)⊤ entsprechend Lemma 4.2.2, doch ist(t1, x1) = (2, 1, 2) keine Minimallosung von (SP(a1, r)), sondern der Punkt (1, 1, 1).

Bemerkung 4.2.4 Erganzen wir die Voraussetzungen in Lemma 4.2.2 um die An-nahme, dass die Minimallosung von (4.9) eindeutig ist, so gilt die Aussage des Lemmasauch fur lj⊤r ≥ 0, was bereits von r ∈ K erfullt ist.

Betrachten wir wieder nur den bikriteriellen Fall, so konnen wir die folgende starkereAussage treffen.

Lemma 4.2.5 Wir betrachten das multikriterielle Optimierungsproblem (MOP) furm = 2. Es sei K ⊂ R

2 gegeben durch

K = y ∈ R2 | li⊤y ≥ 0, i = 1, 2.

Page 82: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 70

Es sei x1 eine Minimallosung von (4.7) und x2 eine Minimallosung von (4.8). Danngilt fur alle x ∈ M(f(Ω), K)

l1⊤f(x1) ≤ l1⊤f(x) ≤ l1⊤f(x2)

undl2⊤f(x2) ≤ l2⊤f(x) ≤ l2⊤f(x1).

Beweis: Da x1 bzw. x2 Minimallosung von (4.7) bzw. (4.8) ist folgt fur alle x ∈M(f(Ω), K) ⊂ Ω direkt

l1⊤f(x) ≥ l1⊤f(x1) und l2⊤f(x) ≥ l2⊤f(x2).

Nehmen wir an, es ist fur x ∈ M(f(Ω), K) nun l2⊤f(x) > l2⊤f(x1), so folgtl2⊤(f(x)−f(x1)) > 0 zusatzlich zu l1⊤(f(x)−f(x1)) ≥ 0, also f(x)−f(x1) ∈ K\02 im Widerspruch zu x K-minimal. Es muss also gelten l2⊤f(x) ≤ l2⊤f(x1).Analog zeigt man l1⊤f(x) ≤ l1⊤f(x2). 2

Korollar 4.2.6 Es gelten die Voraussetzungen von Lemma 4.2.5. Besteht die Effi-zienzmenge des multikriteriellen Optimierungsproblems (MOP) nicht nur aus einemPunkt, was im Allgemeinen der Fall ist, so gilt

l1⊤f(x1) < l1⊤f(x2)

undl2⊤f(x2) < l2⊤f(x1).

Denn ist l1⊤f(x1) = l1⊤f(x2), so gilt nach Lemma 4.2.5 fur alle x ∈ M(f(Ω), K) auchl1⊤f(x) = l1⊤f(x1). Es folgt E(f(Ω), K) = f(x2). Ist l2⊤f(x2) = l2⊤f(x2), so giltE(f(Ω), K) = f(x1).Nun projizieren wir die Punkte f(x1) und f(x2) entlang der Richtung r auf die GeradeH (siehe Abbbildung 4.3 fur l1 = (1, 0) und l2 = (0, 1), also K = R

2+) und erhalten

dadurch die Punkte a1 ∈ H und a2 ∈ H . Dabei ist

ai := f(xi) − ti r mit ti :=b⊤f(xi) − β

b⊤r, i = 1, 2. (4.10)

Es reicht nun die Menge

Ha = y ∈ H | y = λa1 + (1 − λ)a2, λ ∈ [0, 1]zur Auswahl der Parameter a zu betrachten, denn es gilt:

Satz 4.2.7 Wir betrachten das multikriterielle Optimierungsproblems (MOP) mit m =2 und K wie in (4.6). Weiterhin seien a1 und a2 wie in (4.10) gegeben mit x1 und x2

Minimallosung von (4.7) bzw. (4.8). Dann gilt fur die Menge

Ha := y ∈ R2 | y = λa1 + (1 − λ)a2, λ ∈ [0, 1]

Ha ⊂ H = y ∈ R2 | b⊤y = β und zu jeder K-minimalen Losung x des multikri-

teriellen Optimierungsproblems (MOP) existiert ein a ∈ Ha und ein t ∈ R mit (t, x)Minimallosung von (SP(a, r)).

Page 83: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 71

Abbildung 4.3: Projektion der Punkte f(x1) und f(x2) in Richtung r in H .

Beweis: Es gilt a1, a2 ∈ H und damit auch Ha ⊂ H . Aus Satz 2.2.10 folgt bereits,dass zu x ∈ M(f(Ω), K) ein a ∈ H und ein t ∈ R existieren mit (t, x) Mini-mallosung von (SP(a, r)). Dies ist erfullt durch

t =b⊤f(x) − β

b⊤rund a = f(x) − t r.

Es bleibt zu zeigen, dass a auf der Strecke zwischen den Punkten a1 und a2 liegt,dass also a = λa1 +(1−λ)a2 fur ein λ ∈ [0, 1] gilt. Dabei ist a = λa1 +(1−λ)a2

den Definitionen von a, a1 und a2 entsprechend aquivalent zu

f(x) − t r = λ (f(x1) − t1 r) + (1 − λ) (f(x2) − t2 r). (4.11)

Besteht die Effizienzmenge des multikriteriellen Optimierungsproblems nur auseinem Punkt und damit also nur aus f(x1) bzw. f(x2), so ist (4.11) fur λ = 1bzw. λ = 0 erfullt. Sonst gilt nach Bemerkung 4.2.6

l1⊤f(x1) < l1⊤f(x2) (4.12)

undl2⊤f(x2) < l2⊤f(x1). (4.13)

Wir formen (4.11) zunachst um zu

f(x) = λ f(x1) + (1 − λ) f(x2) + (t − λ t1 − (1 − λ) t2) r (4.14)

und fuhren eine Fallunterscheidung durch fur

(t − λ t1 − (1 − λ) t2) =1

b⊤r(b⊤(f(x) − λ f(x1) − (1 − λ) f(x2)) ≥ 0

bzw. (t − λ t1 − (1 − λ) t2) < 0.

Page 84: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 72

Ist t − λ t1 − (1 − λ) t2 ≥ 0 und wir nehmen an, (4.14) ist fur λ < 0 erfullt, sofolgt durch Anwendung der linearen Abbildung l1 auf (4.14), mit r ∈ K undzusammen mit (4.12)

l1⊤f(x) = λ l1⊤f(x1) + (1 − λ) l1⊤f(x2) + (t − λ t1 − (1 − λ) t2)︸ ︷︷ ︸

≥0

l1⊤r︸︷︷︸

≥0

≥ λ︸︷︷︸

<0

l1⊤f(x1)︸ ︷︷ ︸

<l1⊤f(x2)

+(1 − λ)l1⊤f(x2)

> λ l1⊤f(x2) + (1 − λ) l1⊤f(x2)= l1⊤f(x2)

im Widerspruch zur Aussage von Lemma 4.2.5.

Nehmen wir dagegen an, (4.14) ist fur λ > 1 erfullt, so folgt durch Anwendungder linearen Abbildung l2 auf (4.14) und zusammen mit (4.13)

l2⊤f(x) ≥ λ l2⊤f(x1) + (1 − λ)︸ ︷︷ ︸

<0

l2⊤f(x2)︸ ︷︷ ︸

<l2⊤f(x1)

> l2⊤f(x1)

wieder im Widerspruch zu Lemma 4.2.5. Fur t − λ t1 − (1 − λ) t2 ≥ 0 gilt alsoλ ∈ [0, 1].

Analog folgt fur t − λ t1 − (1 − λ) t2 < 0 auch λ ∈ [0, 1]. 2

Bemerkung 4.2.8 Eine noch bessere, scharfere Einschrankung fur die Parameter-menge Ha wurden wir erhalten, wenn wir in den Problemen (4.7) und (4.8) statt x ∈ Ωnur x ∈ M(f(Ω), K) zulassen. Dann ware weiterhin erfullt, dass fur x ∈ M(f(Ω), K)ein a ∈ Ha und ein t ∈ R existieren mit (t, x) Minimallosung von (SP(a, r)). Die Men-ge M(f(Ω), K) ist jedoch i. Allg. nicht bekannt, und wir konnen nicht uber der Mengeder Minimallosungen des multikriteriellen Optimierungsproblems minimieren.

Wir konnen den Satz 4.2.7 direkt auf den Spezialfall der ε-constraint-Methode an-wenden. Nach Lemma 3.3.1 ist die ε-constraint-Methode (P2(ε)) (zur Definition von(Pk(ε)) siehe Seite 55) zur Bestimmung EP-minimaler Punkte (hier m = 2, K = R

2+)

ein Spezialfall des Verfahrens von Pascoletti und Serafini mit

r =

(01

)

und a ∈ H = y ∈ R2 | y2 = 0 =

(ε0

)

| ε ∈ R

(also b = (0, 1), β = 0). Wegen K = R2+ ist l1 = (1, 0) und l2 = (0, 1) und damit

lauten (4.7) und (4.8)minx∈Ω

f1(x) und minx∈Ω

f2(x).

Sind nun x1 und x2 entsprechende Minimallosungen, so folgt

Ha = y ∈ H | y = λ1a1 + (1 − λ)a2, λ ∈ [0, 1]

Page 85: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 73

mit

ai = f(xi) − b⊤f(xi) − β

b⊤rr =

(f1(x

i)0

)

, i = 1, 2.

Also ist

Ha = y = (ε, 0)⊤ | ε = λ f1(x1) + (1 − λ) f1(x

2), λ ∈ [0, 1]= y = (ε, 0)⊤ | f1(x

1) ≤ ε ≤ f1(x2)

und damit folgt:

Korollar 4.2.9 Es sei K = R2+ und x sei EP-minimale Losung des multikriteri-

ellen Optimierungsproblems (MOP) mit m = 2. Es sei x1 eine Minimallosung vonminx∈Ω f1(x) und x2 eine Minimallosung von minx∈Ω f2(x).Dann existiert ein ε ∈ y ∈ R | f1(x

1) ≤ y ≤ f1(x2) mit x Minimallosung von

(P2(ε)).Diese Aussage gilt analog fur (P1(ε)).

Wir betrachten nun wieder das Optimierungsproblem (SP(a, r)) zu einem beliebigenbikriteriellen Optimierungsproblem (MOP). Wir nehmen nun an, der Kegel K istdurch K = λk | λ ≥ 0 fur ein k ∈ R

2 \ 02 gegeben. Dann kann das Optimierungs-problem (SP(a, r)) fur r ∈ K \ 02, also r = λr k fur ein λr > 0, durch Einfuhrungeiner zusatzlichen Variablen λ ∈ R, geschrieben werden als

min tNb. a + (t λr − λ) k = f(x),

t ∈ R, x ∈ Ω, λ ≥ 0.(4.15)

Nehmen wir an, dass fur eine Minimallosung (t, x, λ) nun λ > 0 gilt, so ist auch(t− λ

λr , x, 0) zulassig fur (4.15) mit t− λλr < t im Widerspruch zu (t, x, λ) Minimallosung

von (4.15). Fur die Minimallosungen (t, x, λ) von (4.15) gilt also stets λ = 0 und damitkonnen wir anstelle von (4.15) auch das Optimierungsproblem

min tNb. a + t r = f(x),

t ∈ R, x ∈ Ω,(4.16)

betrachten.Um die Menge Ha als Teilmenge der Menge H zu bestimmen ist es dann ausreichend,die Menge f(Ω) entlang der Richtung r in die Hyperebene H zu projizieren (sieheAbbildung 4.4). Bestimmen wir zunachst ein l ∈ R

2 \ 02 mit l⊤r = 0, so konnenwir mit l1 = l und l2 = −l die Probleme (4.7) und (4.8) losen und analog wie in Satz4.2.7 die Menge Ha bestimmen.Damit ist auch dieser Fall eines Ordnungskegels K im R

2 abgedeckt.

Es sei nun also die Menge Ha gegeben mit

Ha = y ∈ R2 | y = λ a1 + (1 − λ) a2, λ ∈ [0, 1].

Page 86: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 74

Abbildung 4.4: Projektion der Menge f(Ω) in Richtung r in H .

Es sei o. B. d.A. a11 < a2

1. Wir wollen nun ausgehend von einem Parameter a0 (wirbeginnen mit a0 = a1) sukzessive Parameter a1, a2,. . . bestimmen (in unserem Fallmit a0

1 ≤ a11 ≤ a2

1 ≤ . . .), so dass die zugehorigen Approximationspunkte f(xi),i = 1, 2, . . ., einen aquidistanten Abstand α haben. Wir wollen dazu die Erkenntnisseaus der Sensitivitatsanalyse der Optimierungsprobleme (SP(a, r)) und (SP(a, r)) ausKapitel 3 nutzen. In diesem Abschnitt gelte daher im Weiteren die folgende Annahme:

Annahme 4.2.10 Es gelte die Annahme 3.1.4. Zu jedem Parameterpaar (a, r), furdas wir das Optimierungsproblem (SP(a, r)) bzw. (SP(a, r)) betrachten, existiere eineMinimallosung (t, x) mit Lagrange-Multiplikatoren (µ, ν, ξ) ∈ R

m ×C∗ ×Rq. Es seien

die Voraussetzungen des Satzes 3.1.7 in (t, x) erfullt. Zusatzlich gelte S = Rn.

Wir losen nun also fur einen Parameter a0 ∈ Ha das skalare Optimierungsproblem(SP(a0, r)) und erhalten eine Minimallosung (t0, x0) mit Lagrange-Multiplikatoren(µ0, ν0, ξ0).

Wir nehmen zunachst an, die Restriktion a0 + t r − f(x) ∈ K sei in (t0, x0) mitGleichheit erfullt und es gelte daher a0 + t r − f(x) = 02. Auf den Fall, dass dieseRestriktion nicht mit Gleichheit erfullt ist, gehen wir spater (ab Seite 79) ein, dochlasst sich dieser Fall leicht auf den hier behandelten uberfuhren. Wegen a0+t r−f(x) =02 ist (t0, x0) auch Minimallosung von (SP(a0, r))

min tNb. a0 + t r − f(x) = 02,

t ∈ R, x ∈ Ω

mit Lagrange-Multiplikatoren (µ0, ν0, ξ0) (Lemma 2.2.14). Wir gehen davon aus, dassals Folge des Satzes 3.1.7 die Ableitung ∇aτ

δ(a0, r) der lokalen Minimalwertfunktionin (a0, r) bekannt ist.Wir verwenden die Kenntnis dieser Ableitung fur eine lokale Approximation der loka-len Minimalwertfunktion des Optimierungsproblems (SP(a, r)). Wir nehmen dazu an,

Page 87: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 75

dass wir eine Taylor-Approximation erster Ordnung der lokalen Minimalwertfunktionangeben konnen und erhalten wegen τ δ(a0, r) = t(a0, r) = t0 (mit (t(a, r), x(a, r)) derlokalen Minimallosung von (SP(a, r)))

t(a, r) ≈ t0 + ∇aτδ(a0, r)⊤(a − a0).

Auf Literatur zu Untersuchungen der Differenzierbarkeit hoherer Ordnung und zuderartigen Approximationen der Minimalwertfunktion wurde bereits auf S.45 hinge-wiesen. Wir nutzen den fur das Optimierungsproblem (SP(a, r)) geltenden Zusam-menhang

f(x(a, r)) = a + t(a, r) r

und erhalten mit f(x0) = a0 + t0 r

f(x(a, r)) ≈ a0 + (a − a0) + (t0 + ∇aτδ(a0, r)⊤(a − a0)) r

= f(x0) + (a − a0) + ∇aτδ(a0, r)⊤(a − a0) r.

Wir nehmen nun (t(a, r), x(a, r)) als Approximation der Minimallosung(t(a, r), x(a, r)) von (SP(a, r)) (es gilt zumindest t(a, r) ≤ t(a, r) und (t(a, r), x(a, r))zulassig fur (SP(a, r))) und erhalten als Naherung fur die erzeugten schwach K-minimalen Punkte des multikriteriellen Optimierungsproblems in Abhangigkeit vomParameter a fur a aus einer Umgebung von a0

f(x(a, r)) ≈ f(x0) + (a − a0) + ∇aτδ(a0, r)⊤(a − a0) r. (4.17)

Dabei wollen wir den Parameter a1 so bestimmen, dass fur ein vorgegebenes α ∈ R+

‖f(x(a0, r)) − f(x(a1, r))‖ = α (4.18)

mit f(x(a0, r)) = f(x0) gilt. Der neu zu bestimmende Approximationspunkt f(x(a1, r))soll von dem vorherigen Punkt f(x0) also einen Abstand von α haben. Zudem solla1 ∈ Ha gelten. Wir wahlen dazu eine Verschiebungsrichtung v ∈ R

2 mit a0 + s v ∈ Hfur s ∈ R. Es muss also b⊤v = 0 gelten. Da zudem a0

1 ≤ a11 gelten soll, fordern wir

s ≥ 0 und v1 ≥ 0. Dies ist z. B. fur den Vektor v = a2−a1 erfullt. Es ist nun ein s1 ∈ R

gesucht mit a1 = a0 + s1 v, so dass (4.18) erfullt ist. Wir nutzen zur Bestimmung vona1 die Naherung (4.17) von f(x(a, r)) und erhalten mit a1 − a0 = s1 v

α = ‖f(x(a0, r)) − f(x(a1, r))‖≈ ‖f(x0) − (f(x0) + s1 v + s1 (∇aτ

δ(a0, r)⊤v) r)‖= |s1| ‖v + (∇aτ

δ(a0, r)⊤v) r‖.Unter Verwendung der Naherung (4.17) erreichen wir das Ziel (4.18) damit fur

|s1| =α

‖v + (∇aτδ(a0, r)⊤v) r‖ . (4.19)

Wir setzen daher a1 = a0 + s1 v mit s1 = α‖v+(∇aτδ(a0,r)⊤v) r‖ > 0. Losen wir nun

(SP(a1, r)), so erhalten wir einen schwach K-minimalen Punkt x(a1, r) =: x1 undwenn unsere Naherung gut war, gilt

‖f(x0) − f(x1)‖ ≈ α.

Page 88: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 76

Fur die Berechnung von s1 ist die Kenntnis von ∇aτδ(a0, r) notig. Ist der Kegel

C = Rp+, so ist nach Korollar 3.1.10

∇aτδ(a0, r) = −µ0.

Ist der Kegel C jedoch beliebig, so konnen wir den Ausdruck

∇aτδ(a0, r) = −µ0 −∇aν(a0, r)⊤g(x0)

im Allgemeinen nicht weiter vereinfachen. Die Ableitung der Funktion ν(·, ·) in (a0, r)nach den Parameter a kann durch numerische Differentiation angenahert werden,doch muss dazu das Problem (SP(a, r)) zunachst fur weitere Parameter a in einerUmgebung von a0 gelost werden.Es konnen auch bessere Approximationen der lokalen Minimalwertfunktion, z. B. biszum Grad 2 durch Verwendung von Ableitungen zweiter Ordnung, gebildet werden.Gilt K = R

2+, C = R

p+ und Nichtdegeneriertheit der Restriktionen, so ist nach Satz

3.2.4∇2

aτδ(a0, r) = −∇aµ(a0, r),

wobei wir die Ableitung der Funktion µ(·, ·) in (a0, r) nach a wieder durch numerischeDifferentiation annahern konnen. Wir erhalten dann

t(a, r) ≈ t0 + ∇aτδ(a0, r)⊤(a − a0) +

1

2(a − a0)⊤∇2

aτδ(a0, r)(a − a0)

und damit fur a1 = a0 + s1 v

α = ‖f(x0) − f(x1)‖≈ ‖f(x0) − (f(x0) + s1 v + s1∇aτ

δ(a0, r)⊤v r + 12(s1)2(v⊤∇2

aτδ(a0, r)v) r)‖

= ‖s1 v + s1 ∇aτδ(a0, r)⊤v r + 1

2(s1)2(v⊤∇2

aτδ(a0, r)v) r‖.

Zur Losung von

‖s1 v + s1 ∇aτδ(a0, r)⊤v r +

1

2(s1)2(v⊤∇2

aτδ(a0, r)v) r‖ = α (4.20)

mussen im Allgemeinen numerische Verfahren wie das Newton-Verfahren verwendetwerden. Als Startpunkt bietet sich hierbei die Losung s1 aus einer Naherung derlokalen Minimalwertfunktion erster Ordnung entsprechend (4.19) an. Betrachten wirdie euklidische Norm und den bikriteriellen Fall, so entspricht die Gleichung (4.20)der Nullstellenbestimmung des folgenden Polynoms in s vom Grad 4:

κ4 s4 + κ3 s3 + κ2 s2 + κ0

mitκ4 = 1

4·(v⊤∇2

aτδ(a0, r)v

)2 · ‖r‖22,

κ3 =(v⊤r + ∇aτ

δ(a0, r)⊤v‖r‖22

)·(v⊤∇2

aτδ(a0, r)v

),

κ2 = ‖v + ∇aτδ(a0, r)⊤v r‖2

2,

κ0 = −α2.

Page 89: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 77

In diesem Fall (K = R2+, C = R

p+, Nichtdegeneriertheit) wissen wir auch (siehe

Seite 49), dass die aktiven Restriktionen aktiv bleiben, und damit fur die Restriktiona + t r − f(x) ∈ K des Optimierungsproblems (SP(a, r)) fur a aus einer Umgebungvon a0 auch a + t r − f(x) = 02 gilt, wenn a0 + t0 r − f(x0) = 02 ist. Damit ist fur aaus dieser Umgebung auch (t(a, r), x(a, r)) = (t(a, r), x(a, r)) und wir brauchen denUmweg uber das modifizierte Optimierungsproblem (SP(a, r)) nicht zu betrachten.

Haben wir nun den neuen Parameter a1 bestimmt, so konnen wir in dem speziellenFall der naturlichen Halbordnung (also K = R

m+ , C = R

m+) auch die Lage der Mini-

mallosung (t1, x1) einfach approximieren. Diese Naherung kann dann z.B. als Start-punkt fur ein numerisches Losungsverfahren zur Bestimmung der Minimallosung von(SP(a1, r)) genutzt werden. Eine Approximation der Lage der Minimallosungen ist furuns auch im Kapitel 7 wichtig, in dem wir mit Hilfe solcher Naherungen eine aqui-distante Approximation der Menge der K-minimalen Punkte anstelle wie sonst derEffizienzmenge bestimmen. Im nichtdegenerierten Fall konnen wir diese Approxima-tion mit Hilfe von Satz 3.2.5 bestimmen. In Satz 3.2.6 ist auch der degenerierte Fallmit eingeschlossen. Das Vorgehen veranschaulichen wir an dem folgenden einfachenProblem von Hazen [55], S.186.

Beispiel 4.2.11 Wir betrachten das bikriterielle Optimierungsproblem

min

(f1(x)f2(x)

)

Nb. x ∈ R2

mitf1(x) =

x21

2+ x2

2 − 10x1 − 100,

f2(x) = x21 +

x22

2− 10x2 − 100

(siehe auch Testproblem 1 auf S.98). Zur Bestimmung effizienter Punkte verwendenwir die skalaren Ersatzprobleme (SP(a, r)) mit

a ∈ H := y = (y1, y2) ∈ R2 | y2 = 0 und r0 = (0, 1)⊤.

Fur a0 = (−133.5, 0)⊤ erhalten wir die Minimallosung (t0, x01, x

02) = (−93, 5, 2) mit

den Lagrange-Multiplikatoren (µ01, µ

02) = (2, 1). Es ist leicht zu uberprufen, dass die

Voraussetzungen des Satzes 3.2.2 erfullt sind, und wir erhalten als Ableitung der lo-kalen Minimalwertfunktion

∇aτδ(a0, r0) =

(−2−1

)

.

Bestimmen wir nun den Parameter a1 := a0 + s1v wie in (4.19) fur v = (1, 0)⊤ undα = 20, so erhalten wir s1 = 4

√5 und damit a1 = (−133.5 + 4

√5, 0)⊤. Wir haben

Page 90: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 78

hierzu die Lage des Punktes f(x(a1)) durch

f(x(a1)) ≈ f(x0) + s1v + ∇aτδ(a0, r0)⊤(s1v)r0

=

(−133.5−93

)

+ 4√

5

(10

)

+ 4√

5

(−2−1

)⊤(10

)(01

)

≈(

−124.5557−110.8885

)

(4.21)

approximiert. Mit Hilfe von Satz 3.2.5 konnen wir auch die Lage von (t(a1, r0), x(a1, r0))und die Lagrange-Multiplikatoren (µ1(a

1, r0), µ2(a1, r0)) approximieren. Es ist

M =

0 0 0 0 −10 4 0 −5 100 0 5 4 −80 10 −8 0 01 −10 8 0 0

und

N =

0 0 0 −2 00 0 0 0 −10 0 0 186 00 0 0 0 93

und wir erhalten

t(a1, r0)x1(a

1, r0)x2(a

1, r0)µ1(a

1, r0)µ2(a

1, r0)

−935221

+ M−1N

4√

5000

=

−110.88853.81692.75751.0535

1

.

Gehen wir stattdessen entsprechend Satz 3.2.6 vor, so mussen wir zunachst die Losung(t, x, µ) des folgenden Gleichungssystems bestimmen:

0 0 00 4 00 0 5

(tx

)

− µ1

05−4

− µ2

1−108

=

000

05−4

⊤(

tx

)

= −1

1−108

⊤(

tx

)

= 0

Die Losung lautet (gerundet) (t, x, µ) = (−2,−0.1323, 0.0847,−0.1058, 0) und wirerhalten damit fur den Punkt (t(a1, r0), x(a1, r0), µ(a1, r0)) mit a1 = a0 +s v, s = 4

√5

Page 91: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 79

durch

t(a1, r0)x(a1, r0)µ(a1, r0)

t0

x0

µ0

+ s ·

txµ

· v

die gleiche Approximation wie eben. Die exakte Minimallosung von (SP(a1, r0)) lautet(gerundet)

t1

x11

x12

=

−107.56213.99942.7278

mit den Lagrange-Multiplikatoren (µ11, µ

12) = (1.3330, 1). Der Bildpunkt der exakten

Losung ist

f(x1) =

(−124.5557−107.5621

)

und damit betragt der tatsachliche Abstand der beiden Approximationspunkte f(x0)und f(x1)

‖f(x1) − f(x0)‖2 = 17.0896.

Ein besseres Ergebnis erhalten wir, wenn wir in (4.21) eine Approximation hohererals erster Ordnung verwenden. Die Approximation wird ebenfalls genauer, wenn wirden Abstand α verringern.

Wir wollen nun noch den Fall betrachten, dass die Restriktion a0 + t r− f(x) ∈ K furdie Minimallosung (t0, x0) des Optimierungsproblems (SP(a0, r)) nicht mit Gleichheiterfullt ist, sondern dass ein k0 ∈ K \ 02 existiert mit

a0 + t0 r − f(x0) = k0

(siehe Abb. 4.5).

Abbildung 4.5: Bikriterielles Beispiel mit a0 + t0 r − f(x0) 6= 02 fur K = R2+.

Dann existiert jedoch nach Satz 2.2.11 ein t0 ∈ R und ein Parameter a0 ∈ H mit

a0 + t0 r − f(x0) = 02,

Page 92: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 80

d. h. das Problem (SP(a, r)) ist fur den Parameter a0 in (t0, x0) mit Gleichheit erfullt.Das Lemma 2.2.14 zeigt die Ubertragbarkeit der Lagrange-Multiplikatoren, die zurAngabe der Ableitung der lokalen Minimalwertfunktion in dem Punkt (a0, r) notigsind. Bezeichnet (µ0, ν0, ξ0) die Lagrange-Multiplikatoren zum Punkt (t0, x0) des Opti-mierungsproblems (SP(a0, r)), so sind (µ0, ν0, ξ0) auch Lagrange-Multiplikatoren zumPunkt (t0, x0) des Optimierungsproblems (SP(a0, r)).Wir konnen also anstelle des Parameters a0 unsere Parameterbestimmung mit demParameter a0 fortsetzen und die betrachtete Restriktion ist dann in (t0, x0) mit Gleich-heit erfullt. Nach dem Beweis von Satz 2.2.11 konnen t0 und a0 mit a0 ∈ H durch

t0 =b⊤f(x0) − β

b⊤rund a0 = f(x0) − t0 r (4.22)

berechnet werden.Der folgende Satz zeigt uns (fur m ≥ 2 beliebig), dass wir, wenn wir die Strecke aufder Gerade H zwischen den Parametern a0 und a0 nicht weiter diskretisieren und alleParameter a mit a = a0 + µ (a0 − a0) ∈ H fur ein µ ∈]0, 1[ ignorieren, dennoch alleK-minimalen Punkte x ∈ M(f(Ω), K) des multikriteriellen Optimierungsproblems(MOP) als Minimallosung von (SP(a, r)) mit a ∈ H erzeugen konnen. Dabei existiertnach Satz 4.2.7 zu jedem x ∈ M(f(Ω), K) ein Parameter a ∈ Ha und ein t ∈ R mit(t, x) Minimallosung von (SP(a, r)) so dass a + t r − f(x) = 0m gilt. Dabei ist

t =b⊤f(x) − β

b⊤rund a = f(x) − t r. (4.23)

Satz 4.2.12 Es sei (t0, x0) Minimallosung von (SP(a0, r)) fur a0 ∈ H = y ∈ Rm |

b⊤y = β, mita0 + t0 r − f(x0) = k0 (4.24)

und mit k0 ∈ K \0m. Dann existiert kein K-minimaler Punkt x ∈ M(f(Ω), K) mit

a = a0 + µ (a0 − a0) fur ein µ ∈]0, 1[ (4.25)

mit a wie in (4.23) und a0 wie in (4.22).

Beweis: Wir nehmen an es existiert ein K-minimaler Punkt x mit (4.25) und fuhrendies auf einen Widerspruch zuruck. Wir setzen dazu

t′ := t − (1 − µ) (t0 − t0)

und nehmen eine Fallunterscheidung vor.

1.Fall: Es sei t′ ≥ t0. Dann gilt mit (4.23), (4.24), (4.25), sowie mit

a0 − a0 = (t0 − t0) r − k0 (4.26)

Page 93: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 81

und der Definition von t′ fur µ ∈]0, 1[

f(x) − f(x0) = a + t r − (a0 + t0 r − k0)

= a0 + µ (a0 − a0) + t r − (a0 + t0 r − k0)

= µ((t0 − t0) r − k0) + (t − t0) r + k0

= µ((t0 − t0) r − k0)

+(t′ + (1 − µ)(t0 − t0) − t0) r + k0

= (1 − µ)︸ ︷︷ ︸

>0

k0︸︷︷︸

6=0m

+ (t′ − t0)︸ ︷︷ ︸

≥0

r ∈ K \ 0m

im Widerspruch zu x K-minimal.

2.Fall: Es sei nun t′ < t0. Dann ist der Punkt (t0−t0+t′, x) zulassig fur das Problem(SP(a0, r)), denn mit der Definition von t′, (4.23), (4.25) und (4.26) folgt

a0 + (t0 − t0 + t′) r − f(x) = a0 + (t0 − t0

+t − (1 − µ) (t0 − t0)) r − (a + t r)

= (a0 − a) + µ (t0 − t0) r

= −µ (a0 − a0) + µ (t0 − t0) r

= −µ ((t0 − t0) r − k0) + µ (t0 − t0) r

= µ k0 ∈ K.

Da jedoch nach Voraussetzung des zweiten Falls t0−t0+t′ = t0+(t′−t0) < t0

gilt, ist dies ein Widerspruch zu (t0, x0) Minimallosung von (SP(a0, r)).

2

Ist nun also k0 = a0+t0 r−f(x0) 6= 02 mit (t0, x0) einer Minimallosung von (SP(a0, r)),so bestimmen wir zunachst

a0 := f(x0) − t0 r mit t0 :=b⊤f(x0) − β

b⊤r.

Nach Satz 4.2.12 brauchen wir die Parameter a ∈ a0 + µ · (a0 − a0) | µ ∈]0, 1[nicht weiter zu betrachten. Wir bestimmen unsere Parameter sukzessive und nachVereinbarung aufsteigend bezuglich der ersten Komponente, d. h. a0

1 ≤ a11 ≤ a2

1 ≤ . . ..Es ist a0

1 ≥ a01 fur

(

t0 − b⊤f(x0) − β

b⊤r

)

r1 ≥ k01.

Im Spezialfall der ε-constraint-Methode mit k = 2 ist b = (0, 1)⊤, β = 0 und r =(0, 1)⊤ und es gilt a0

1 ≥ a01 genau dann wenn k0

1 = 0 ist.Wir konnen dann die Parametersteuerung direkt mit dem Parameter a0 fortsetzen(bzw. den Parameter a0 durch a0 ersetzen). Wie bereits angemerkt (siehe auch Lemma

Page 94: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 82

2.2.14) ist (t0, x0) Minimallosung von (SP(a0, r)) und die Lagrange-Multiplikatorenlassen sich ubertragen.Ist jedoch a0

1 < a01 (Abb. 4.6), so macht es keinen Sinn, den Parameter a0 durch a0 zu

ersetzen, da wir Parameter aufsteigend bezuglich der ersten Komponente suchen. Umden neuen Parameter a1 ausgehend von a0 zu bestimmen, konnen wir aber nicht wiebisher f(x(a, r)) = a + t(a, r) r annehmen, da ja f(x0) = a0 + t0 r − k0 mit k0 6= 02

gilt. Wir konnen jedoch annehmen, dass diese Restriktion auch in einer Umgebung

Abbildung 4.6: Bikriterielles Beispiel mit a0 + t0 r − f(x0) 6= 02 fur K = R2+.

von a0 inaktiv bleibt, dass also a + t(a, r) r − f(x(a, r)) = k 6= 02 gilt, und wir daher

f(x(a, r)) = f(x0) + s · k0, (4.27)

fur s ∈ R, s ≥ 1 und fur a aus einer Umgebung von a0 mit a1 ≥ a01, annehmen konnen.

Fur den neuen Approximationspunkt f(x(a1, r)) soll aufgrund unseres Ziels einesGleichverteilungsgrades von α

‖f(x(a1, r)) − f(x0)‖ ≥ α (4.28)

gelten. Der Abdeckungsfehler soll dabei moglichst klein sein und jeder Punkt dereffizienten Menge soll einen Abstand von maximal α/2 zu einem Approximationspunkthaben. Damit ergibt sich die Forderung

‖f(x(a1, r)) − f(x0)‖ ≤ α (4.29)

bzw. dass die Bedingung

‖a0 + t0 r − f(x(a1, r))‖ ≤ α

2(4.30)

erfullt wird. Es kann Bedingung (4.30) anstelle von (4.29) verwendet werden, da nachSatz 4.2.12 die Parameter auf der Strecke zwischen den Punkten a0 und a0 nichtweiter betrachtet werden mussen. Damit liegen auf der Strecke zwischen den Punktenf(x0) = a0 + t0 r und a0 + t0 r aber auch keine Punkte der effizienten Menge.

Page 95: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 83

Ersetzen wir in den obigen Bedingungen (4.28),(4.29) und (4.30) den Punkt f(x(a1, r))durch unsere Annahme f(x0) + s · k0 mit s ≥ 1 (entsprechend (4.27)), so erhalten wirdie Bedingungen

s ≥ α

‖k0‖ , (4.31)

s ≤ α

‖k0‖ (4.32)

sowies ≤ 1 +

α

2‖k0‖ . (4.33)

Es genugt, wenn zusatzlich zu Bedingung (4.31) die Bedingung (4.32) oder (4.33)erfullt ist. Wollen wir nun s maximal wahlen, so ergibt sich hieraus

s =

α

‖k0‖ falls ‖k0‖ < α2,

1 + α2‖k0‖ falls ‖k0‖ ≥ α

2

und damit f(x(a1, r)) = f(x0) + s k0. Der entsprechende zugehorige Parameter a1

berechnet sich dann zu

a1 := f(x0) + s k0 − b⊤(f(x0) + s k0) − β

b⊤r· r = a0 + s(k0 − b⊤k0

b⊤rr).

Im Spezialfall der ε-constraint-Methode fur k = 2 gilt a01 < a0

1 fur k01 6= 0 und k0

2 = 0.Es ergibt sich

s =

αk01

falls k01 < α

2,

1 + α2k0

1

falls k01 ≥ α

2

und damit

f(x(a1, r)) =

f(x0) + (α, 0)⊤ falls k0

1 < α2,

f(x0) + k0 + (α/2, 0)⊤ falls k01 ≥ α

2.

Es gilt dann a1 := (f1(x(a1, r)), 0)⊤.

Algorithmus zur Parametersteuerung im bikriteriellen Fall

Im Folgenden gelte die Annahme 3.2.1, sowie die Annahme 4.2.10 fur m = 2. Wir stel-len fur diesen speziellen Fall einen Algorithmus zur Parametersteuerung vor, so dasswir Approximationspunkte der Effizienzmenge des multikriteriellen Optimierungspro-blems erzeugen, die voneinander einen Abstand von α > 0 bzgl. der euklidischen Normhaben.Wir betrachten im Folgenden also nur multikriterielle Optimierungsprobleme derForm

min f(x) =

(f1(x)f2(x)

)

Nb. gj(x) ≥ 0, j = 1, . . . , p,hk(x) = 0, k = 1, . . . , q,x ∈ R

n.

Page 96: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 84

Wir wahlen den Parameter r ∈ K = R2+ der skalaren Ersatzprobleme (SP(a, r)) fest.

Es sei o. B. d.A. r1 > 0. Zudem setzen wir voraus, dass fur alle betrachteten Parametera ∈ R

2 die Voraussetzungen des Satzes 3.2.2 erfullt sind, d. h. wir fordern u.a., dass dieFunktionen f1, f2, gj, j = 1, . . . , p, und hk, k = 1, . . . , q, zweimal stetig differenzierbarsind.Unter den Voraussetzungen des Satzes 3.2.2 (siehe auch Lemma 3.2.3) ergibt sich furdie Ableitung der lokalen Minimalwertfunktion in einem Punkt (a0, r) ∈ R

2 × R2

∇aτδ(a0, r) = −µ0

mit µ0 ∈ R2+ dem Lagrange-Multiplikator zur Restriktion a0 + t r − f(x) ≥2 02.

Gilt zusatzlich Nichtdegeneriertheit der Restriktionen, so folgt nach Satz 3.2.4 fur dieHesse-Matrix der lokalen Minimalwertfunktion

∇2aτ

δ(a0, r) = −∇aµ(a0, r).

Wir fassen unser Vorgehen in dem folgenden Algorithmus zusammen:

Algorithmus zur Parametersteuerung im bikriteriellen Fall (allgemein)

Eingabe: Daten des multikriteriellen Optimierungsproblems: Zielfunktionenf1 und f2, sowie Ungleichungsrestriktionen g1, . . . , gp und Glei-chungsrestriktionen h1, . . . , hq.Wahle r ∈ R

2+ mit r1 > 0, sowie den gewunschten Abstand der

Approximationspunkte (bzgl. der euklidischen Norm) α ∈ R, α >0.Lege die Hyperebene H = y ∈ R

2 | b⊤y = β durch b ∈ R2 mit

b⊤r 6= 0, β ∈ 0, 1 fest.Gebe M1 ∈ R mit M1 > f2(x) − f1(x) r2

r1fur alle x ∈ Ω := x ∈

Rn | gj(x) ≥ 0, j = 1, . . . , p, hk(x) = 0, k = 1, . . . , q an.

Setze u := 1, falls eine Approximation der lokalen Minimalwert-funktion zweiten Grades gewunscht ist (und Nichtdegeneriertheitvorausgesetzt wird), sonst u := 0 fur eine Approximation erstenGrades.

Schritt 1: Bestimme die Minimallosung (t1, x1) von (SP(a1, r)) mit a1 =(0, M1)⊤, sowie den Lagrange-Multiplikator µ1 ∈ R

2+ zur Restrikti-

on a1 + t r − f(x) ≥2 02.Berechne

t1 :=1

b⊤r

(b⊤f(x1) − β

)

sowiea1 := f(x1) − t1 r

und setze k1 := 02, l := 1.

Page 97: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 85

Schritt 2: Lose das skalare Optimierungsproblem minx∈Ω f2(x) mit Mini-mallosung xE . Berechne

tE :=1

b⊤r

(b⊤f(xE) − β

)

undaE := f(xE) − tE r.

Setze v := aE − a1.

Schritt 3: Bestimme al+1 durch:• Falls kl

2 = 0 und (u = 0 oder l = 1 oder kl−12 6= 0):

Setzeal+1 := al +

α

‖v + ((−µl)⊤v) r‖ · v.

• Falls kl2 6= 0:

Berechne

tl :=1

b⊤r

(b⊤f(xl) − β

),

sowieal := f(xl) − tl r.

Ist al1 ≥ al

1, so setze

al+1 := al +α

‖v + (−µl)⊤v r‖ · v, (4.34)

andernfalls (al1 < al

1) bestimme

s :=

α

‖kl‖ falls ‖kl‖ < α2,

1 + α2‖kl‖ falls ‖kl‖ ≥ α

2

und setze

al+1 := al + s · (kl − b⊤kl

b⊤rr).

• Falls kl2 = 0 und u = 1 und l ≥ 2 und kl−1

2 = 0:Falls b1 6= 0 und b2 6= 0 approximiere ∇2

aτδ(al, r) durch

∇2aτ

δ(al, r) =

µl1−µl−1

1

al1−al−1

1

µl1−µl−1

1

al2−al−1

2

µl2−µl−1

2

al1−al−1

1

µl2−µl−1

2

al2−al−1

2

=: Hτ .

Page 98: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 86

Falls b1 = 0, so setze

Hτ :=

(H11 00 0

)

mit H11 :=µl

1 − µl−11

al1 − al−1

1

.

Falls b2 = 0, so setze

Hτ :=

(0 00 H22

)

mit H22 :=µl

2 − µl−12

al2 − al−1

2

.

Bestimme numerisch eine Losung s ∈ R, s > 0, der Gleichung

‖s v − s(µl)⊤v r +1

2s2 (v⊤ Hτ v) r‖2 = α2

vierten Grades und setze

al+1 := al + s · v.

Schritt 4: Setze l:=l+1.

Ist al = a1 + λ · v fur ein λ ∈ [0, 1], so lose das skalare Opti-mierungsproblem (SP(al, r)) mit Minimallosung (tl, xl), Lagrange-Multiplikator µl zur Restriktion al + t r − f(x) ≥2 02 und setze

kl := al + tl r − f(xl)

und gehe zu Schritt 3.

Sonst beende den Algorithmus.

Ausgabe: Die MengeA := x1, · · · , xl−1, xE

ist eine Approximation der Menge der schwach EP-minimalenPunkte.

Die Losung des skalaren Optimierungsproblems (SP(a1, r)) im Schritt 1 entspricht derBestimmung des Extrempunktes minx∈Ω f1(x). Es gilt

minx∈Ω

f1(x) = f1(x1).

Besitzt die Minimallosung (t1, x1) von (SP(a1, r)) den Lagrange-Multiplikator µ1 zurRestriktion a1 + t r − f(x) ≥2 02, so besitzt nach Lemma 2.2.14 die Minimallosung(t1, x1) von (SP(a1, r)) mit a1 ∈ H ebenfalls den Lagrange-Multiplikator µ1 zur Re-striktion a1 + t r − f(x) ≥2 02.

Page 99: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 87

Wir erhalten als Ergebnis eine Approximation der schwach EP-minimalen Punkte.Wahlen wir aus der Menge A die bezuglich der naturlichen Halbordnung nicht domi-nierten Punkte aus, so erhalten wir eine Approximation der Menge der EP-minimalenPunkte. Diese Approximation muss dennoch nicht nur aus EP-minimalen Punktenbestehen, sondern kann auch schwach EP-minimale Punkte enthalten.Das Losen der auftretenden skalarwertigen Optimierungsprobleme wie (SP(a1, r)),minx∈Ω f2(x) oder (SP(al, r)) erfolgt durch geeignete skalare Losungsverfahren, wiedie

”sequential-quadratic-programming“(SQP)-Methode (u. a. in [39], [98], [110]). Da

dies jedoch ein lokales Losungsverfahren ist, kann es zu lokalen statt globalen Mini-mallosungen und damit auch zur Bestimmung von nur lokal schwach EP-minimalenPunkten und zu nicht (global) EP-minimalen Approximationspunkten kommen, wieim Testproblem 4 in Kapitel 5 aufgezeigt. Ist dies der Fall, so muss auf globale Losungs-verfahren ausgewichen werden. Fur einen Uberblick zu globalen Losungsverfahren sie-he [9], [63] oder [127]. Beispiele fur globale Verfahren sind die Methode von Schaffler([105], [106]) basierend auf stochastischer Integration oder das Verfahren

”Direct“ von

Jones, Perttunen und Stuckman ([71]).Als Startpunkt fur ein numerisches Losungsverfahren zur Losung von (SP(al, r)) kannin Schritt 4 der Punkt (tl−1, xl−1) verwendet werden. Um diesen Startpunkt zu ver-bessern, kann auch eine Approximation des Punktes (tl, xl) entsprechend Satz 3.2.5bzw. Satz 3.2.6 vorgenommen werden.

Abschließend zum bikriteriellen Fall stellen wir im Folgenden den vereinfachten Al-gorithmus zur Parametersteuerung im Spezialfall der ε-constraint-Methode (P2(ε))vor. Es sei also H = y ∈ R

2 | y2 = 0, d. h. b = (0, 1)⊤, β = 0 sowie r = (0, 1)⊤.Wir verwenden eine Approximation zweiten Grades der lokalen Minimalwertfunktion(unter der Annahme, dass Nichtdegeneriertheit vorliegt), d. h. der Parameter u imvorherigen allgemeinen Algorithmus wird auf 1 gesetzt. Das skalare Ersatzproblem(P2(ε)) fur ε ∈ R lautet

min f2(x)Nb. f1(x) ≤ ε,

x ∈ Ω

mit Minimallosung x und Lagrange-Multiplikator µ ∈ R+ zur Restriktion f1(x)− ε ≤0. Wir werden in diesem Fall die Parameter al abweichend von unserem bisherigenVorgehen absteigend nach der ersten Komponente, also a1

1 ≥ a21 ≥ . . ., bestimmen,

um bereits zur Bestimmung von a2 Sensitivitatsinformationen ausnutzen zu konnen.Damit gilt ε1 ≥ ε2 ≥ . . ..

Page 100: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.2 Parametersteuerung im bikriteriellen Fall 88

Algorithmus zur Parametersteuerung im bikriteriellen Fall mit Hilfe derε-constraint-Methode

Eingabe: Daten des multikriteriellen Optimierungsproblems: Zielfunktionenf1 und f2, sowie Ungleichungsrestriktionen g1, . . . , gp und Glei-chungsrestriktionen h1, . . . , hq.Wahle gewunschten Abstand der Approximationspunkte (bzgl. dereuklidischen Norm) α ∈ R, α > 0.Gebe M2 ∈ R mit M2 > f1(x) fur alle x ∈ Ω an.

Schritt 1: Bestimme die Minimallosung x1 von (P2(M2)) mit Lagrange-

Multiplikator µ1 und setze ε1 := f1(x1) und l := 1.

Schritt 2: Lose das skalare Optimierungsproblem

minx∈Ω

f1(x)

mit Minimallosung xE .

Schritt 3: Bestimme εl+1 durch:

• Falls l = 1 :Setze

εl+1 := εl − α√

1 + (µl)2.

• Falls l ≥ 2 :

Berechne Hτ := µl−µl−1

εl−εl−1 , berechne eine Losung s ∈ R, s > 0 derGleichung vierten Grades

s4 (1

4H2

τ ) + s3 (Hτµl) + s2 (1 + (µl)2) − α2 = 0

und setze εl+1 := εl − s.

Schritt 4: Setze l:=l+1.

Ist εl ≥ f1(xE), so lose das skalare Optimierungsproblem (P2(ε

l))mit Minimallosung xl und Lagrange-Multiplikator µl und gehe zuSchritt 3.

Sonst beende den Algorithmus.

Ausgabe: Die MengeA := x1, · · · , xl−1, xE

ist eine Approximation der Menge der schwach EP-minimalenPunkte.

Page 101: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 89

Zur Losung der Gleichung vierten Grades im Schritt 3 kann z.B. das Newton-Verfahrenmit Startpunkt

s =α

1 + (µl)2

verwendet werden.

4.3 Parametersteuerung im multikriteriellen Fall

(m ≥ 3)

Bei der Parametersteuerung fur multikriterielle Optimierungsprobleme mit drei undmehr Zielfunktionen treten im Vergleich zur Parametersteuerung im bikriteriellen Fallwesentliche Schwierigkeiten auf (siehe auch [74]).Zunachst ist im Gegensatz zum zweidimensionalen Fall (siehe Lemma 4.2.1) nichtmehr jeder spitze konvexe abgeschlossene Kegel im R

m mit m ≥ 3 polyedrisch, wiez. B. der transformierte Kegel der Lowner Halbordnung aus Beispiel 1.2.5. Doch auchfur polyedrische Ordnungskegel ergeben sich Probleme.Aus Satz 2.2.10 folgt, dass es ausreichend ist, die Parameter a aus einer Hyperebene

H := y ∈ Rm | b⊤y = β ⊂ R

m

mit b ∈ Rm \ 0m, β ∈ 0, 1 auszuwahlen.

Im bikriteriellen Fall ist diese Hyperebene eine Gerade, so dass sich die Parameter a aufdieser Gerade total anordnen lassen. Wie bereits in der Einleitung zu diesem Kapitelerwahnt geht diese gunstige Eigenschaft fur m ≥ 3 verloren. Im bikriteriellen grenzenwir die Menge, aus der wir unsere Parameter a aus der Hyperebene H auswahlen,mit Hilfe der polyedrischen Struktur des Ordnungskegels K weiter ein. Ist der KegelK ⊂ R

2 gegeben durch

K = y ∈ R2 | l1⊤y ≥ 0, l2⊤y ≥ 0

mit l1, l2 ∈ R2\02, l1 6= l2, so losen wir zunachst die skalaren Optimierungsprobleme

minx∈Ω

li⊤f(x) (4.35)

fur i = 1, 2 (siehe auch (4.7) und (4.8)) mit Minimallosungen x1 bzw. x2 und bestim-men dann die Punkte

ai := f(xi) − b⊤f(xi) − β

b⊤rr ∈ H (4.36)

fur i = 1, 2. Aus Satz 4.2.7 folgt, dass es ausreichend ist, fur den Parameter a Kon-vexkombinationen dieser Punkte zu betrachten, also die Parameter a fur unser skala-risiertes Optimierungsproblem (SP(a, r)) aus der Menge

Ha := y ∈ R2 | y = λa1 + (1 − λ) a2, λ ∈ [0, 1]

Page 102: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 90

auszuwahlen, um alle effizienten Punkte des bikriteriellen Optimierungsproblems ge-nerieren zu konnen. Wollen wir diese Vorgehensweise schon nur auf den trikriteriellenFall ubertragen, so stoßen wir auf das Problem, dass der Ordnungskegel K ⊂ R

m

nicht polyedrisch sein muss. Doch selbst wenn der Kegel K polyedrisch ist, also eineDarstellung der Form

K = y ∈ Rm | li⊤y ≥ 0, i = 1, . . . , s

mit li ∈ R3 \ 03, i = 1, . . . , s mit s ∈ N besitzt, muss er nicht notwendig von nur

s = m = 3 Vektoren li erzeugt werden. Es ist auch s > m moglich, wie z. B. bei demOrdnungskegel K aus Beispiel 1.2.4.Doch sogar wenn wir von einem polyedrischen Ordnungskegel K im R

3 ausgehen, dervon genau drei Vektoren erzeugt wird, wie der Kegel der naturlichen Halbordnung,konnen wir im Allgemeinen nicht wie im bikriteriellen vorgehen und die Menge Ha

zur Parameterwahl wie bisher einschranken, wie das folgende Beispiel zeigt:

Beispiel 4.3.1 Es sei die Funktion f : R3 → R

3 mit f(x) = x fur alle x ∈ R3 gegeben,

sowie die Menge

Ω = x = (x1, x2, x3) ∈ R3 | x2

1 + x22 + x2

3 ≤ 1 ⊂ R3,

die die Einheitskugel im R3 beschreibt. Der Ordnungskegel im R

3 sei K = R3+, der

von den drei Vektoren

l1 = (1, 0, 0)⊤, l2 = (0, 1, 0)⊤, l3 = (0, 0, 1)⊤

erzeugt wird und die Darstellung K = y ∈ R3 | li⊤y ≥ 0, i = 1, 2, 3 besitzt. Wir

betrachten das trikriterielle Optimierungsproblem

minx∈Ω

f(x)

mit der Menge der EP-minimalen Punkte

M(f(Ω), R3+) = x = (x1, x2, x3) ∈ R

3 | x21 + x2

2 + x23 = 1, xi ≤ 0, i = 1, 2, 3.

Losen wir nun die drei skalaren Optimierungsprobleme

minx∈Ω

li⊤f(x)

mit i = 1, 2, 3 wie in (4.35), so erhalten wir die Minimallosungen

x1 = (−1, 0, 0)⊤, x2 = (0,−1, 0)⊤, x3 = (0, 0,−1)⊤.

Wir betrachten die Hyperebene

H = y ∈ R3 | (−1,−1,−1) · y = 1

d. h. b = (−1,−1,−1)⊤, β = 1. Dann gilt f(xi) = xi ∈ H fur i = 1, 2, 3.

Page 103: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 91

Es sei nun r = (1, 1, 1)⊤ und wir bestimmen die Punkte ai ∈ H, i = 1, 2, 3, wie in(4.36). Dann erhalten wir

a1 = (−1, 0, 0)⊤, a2 = (0,−1, 0)⊤, a3 = (0, 0,−1)⊤.

Damit lautet die Menge Ha gebildet analog zum bikriteriellen Fall als Konvexkombi-nation der Punkte ai, i = 1, 2, 3,

Ha := y ∈ R3 | y =

3∑

i=1

λiai, λi ≥ 0, i = 1, 2, 3,

3∑

i=1

λi = 1.

Es gilt nun nicht mehr, dass zu jedem K-minimalen Punkt x des multikriteriellenOptimierungsproblems ein Parameter a ∈ Ha sowie ein t ∈ R existieren mit (t, x)Minimallosung von (SP(a, r)). Beispielsweise ist der Punkt x = (−1/

√2,−1/

√2, 0)⊤

EP-minimal. Es existiert jedoch kein Parameter a ∈ Ha, so dass wir den Punkt xdurch Losen von (SP(a, r)) erhalten. Fur a = −1/(3

√2) · (1 +

√2, 1 +

√2,√

2 − 2)⊤

und t = (1 −√

2)/3 gilt zwar, dass (t, x) Minimallosung von (SP(a, r)) ist, doch ista 6∈ Ha.

Auf eine ahnliche Problematik stoßen Das und Dennis bei Ihrer Normal-Boundary-Intersection-Methode ([21], S.635f).Eine einfache allgemeinere Einschrankung der Menge H fur die Parameterwahl desParameters a erhalten wir, indem wir die Menge f(Ω) entlang der Richtung r in dieMenge H projizieren, d. h. indem wir die Menge

H := y ∈ H | y + t r = f(x), t ∈ R, x ∈ Ω ⊂ H (4.37)

bestimmen (siehe Abbildung 4.7 fur m = 3).

Abbildung 4.7: Bestimmung der Mengen H und H0.

Eine wesentlich bessere Einschrankung wurden wir erhalten, wenn wir nur die effi-zienten Punkte der Menge f(Ω) in die Hyperebene H projizieren, also die Mengey ∈ H | y + t r = f(x), t ∈ R, x ∈ M(f(Ω), K) ⊂ H bestimmen, doch ist dieMenge der K-minimalen Punkte im Allgemeinen nicht bekannt, und es ist gerade dasZiel unseres Verfahrens diese naherungsweise zu bestimmen.

Page 104: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 92

Wir betten nun die Menge H ⊂ H , die im Allgemeinen einen unregelmaßig gekrumm-ten Rand besitzt und dadurch ein systematisches Vorgehen erschwert, in einen (m−1)-dimensionalen Quader H0 ⊂ R

m ein, der minimal gewahlt werden soll, um die Parame-termenge moglichst stark einzuschranken. Um die Menge H0 zu bestimmen, benotigenwir zunachst m−1 Vektoren v1, . . . , vm−1, die die Hyperebene H mit H ⊂ H aufspan-nen. Wir fordern zusatzlich Orthogonalitat dieser Vektoren und wahlen sie normiertbzgl. der euklidischen Norm. Es soll also

〈vi, vj〉 =

0, fur i 6= j, i, j ∈ 1, . . . , m − 1,1, fur i = j, i, j ∈ 1, . . . , m − 1 (4.38)

gelten, mit 〈vi, vj〉 =m∑

k=1

vikv

jk (Orthonormalbasis des kleinsten Unterraumes des R

n,

der H enthalt). Zusammen mit der Bedingung vi ∈ H , i = 1, . . . , m − 1, also

b⊤vi = β, i = 1, . . . , m − 1 (4.39)

sind dies ((m − 1) + 2 − 1

2

)

+ (m − 1) =m2 + m − 2

2

Gleichungen fur (m − 1) · m = m2 − m Unbekannte. Wir haben also 12(m2 − 3m + 2)

Freiheitsgrade fur m ≥ 2. Fur den Fall m = 3 haben wir damit nur einen Freiheitsgradund erhalten als mogliche Losungen fur die Vektoren v1 und v2 in Abhangigkeit vonb = (b1, b2, b3)

v1 =

( b1b3

,− b3b2− b2

1

b2b3, 1)⊤ falls b2 6= 0, b3 6= 0,

(b3, 0,−b1)⊤ falls b2 = 0, b3 6= 0,

(0, 0,−b1)⊤ falls b1 6= 0, b3 = 0,

(1, 0, 0)⊤ falls b1 = 0, b3 = 0,

und v1 =v1

‖v1‖2

sowie

v2 =

(b3, 0,−b1)⊤ falls b2 6= 0, b3 6= 0,

(0, 1, 0)⊤ falls b2 = 0, b3 6= 0,(− b2

b1, 1, 0)⊤ falls b1 6= 0, b3 = 0,

(0, 0, 1)⊤ falls b1 = 0, b3 = 0,

und damit v2 =v2

‖v2‖2

.

Es gilt damit

H = y ∈ Rm | y =

m−1∑

i=1

sivi, s ∈ R

m−1. (4.40)

Ist nun H wie in (4.37), so konnen wir den gesuchten Quader bestimmen, indem wirdie folgenden 2(m − 1) skalaren Optimierungsprobleme

min sj

Nb.m−1∑

i=1

sivi + t r = f(x),

t ∈ R,x ∈ Ω,s ∈ R

m−1

(4.41)

Page 105: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 93

fur j ∈ 1, . . . , m − 1 mit den Minimallosungen (tmin,j, xmin,j, smin,j) und dem jewei-ligen Minimalwert smin,j

j und

min −sj

Nb.m−1∑

i=1

sivi + t r = f(x),

t ∈ R,x ∈ Ω,s ∈ R

m−1

(4.42)

fur j ∈ 1, . . . , m− 1 mit den Minimallosungen (tmax,j, xmax,j, smax,j) und dem jewei-ligen Minimalwert −smax,j

j losen. Damit ergibt sich die Menge H0 zu

H0 = y ∈ Rm | y =

m−1∑

i=1

sivi, si ∈ [smin,i

i , smax,ii ], i = 1, . . . , m − 1

mit H ⊂ H0.

Satz 4.3.2 Es sei x K-minimale Losung des multikriteriellen Optimierungsproblems(MOP ), dann existiert ein a ∈ H0 und ein t ∈ R mit (t, x) Minimallosung von(SP(a, r)).

Beweis: Nach Satz 2.2.10 gilt fur

t =b⊤f(x) − β

b⊤rund a = f(x) − t r,

dass (t, x) Minimallosung von (SP(a, r)) mit a ∈ H ist. Es ist H0 ⊂ H . Es bleibtzu zeigen a ∈ H0. Da a ∈ H gilt, existiert nach der Darstellung in (4.40) eins ∈ R

m−1 mit

a =m−1∑

i=1

sivi.

Wegen a+t r = f(x) ist der Punkt (t, x, s) zulassig fur die Optimierungsprobleme(4.41) und (4.42) und damit muss gelten smin,i

i ≤ si ≤ smax,ii fur i = 1, . . . , m−1.

Es gilt also a ∈ H0. 2

Wir betrachten fur das skalare Ersatzproblem (SP(a, r)) im Weiteren also nur nochParameter a ∈ H0 und r ∈ R

m fest.Wie bereits zu Beginn des Abschnitts erlautert ergeben sich fur den Fall m ≥ 3Probleme, wenn wir Sensitivitatsinformationen, also Informationen uber das lokaleVerhalten der lokalen Minimalwertfunktion, ausnutzen wollen. Wir benotigen dafurdie Information, welche bereits bestimmten Approximationspunkte in der Umgebungeines neu zu bestimmenden Approximationspunktes liegen. Diese Schwierigkeit um-gehen wir, indem wir zunachst eine grobe aquidistante Diskretisierung mit einer vom

Page 106: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 94

Entscheidungstrager vorzugebenden Feinheit des (m − 1)-dimensionalen Quaders H0

vornehmen. Der Entscheidungstrager kann z.B. die gewunschte Anzahl N i an Diskre-tisierungspunkten je Richtung vi, i = 1, . . . , m − 1, angeben.Mit N i ∈ N, i = 1, . . . , m − 1, erhalten wir die folgende Menge

DH0

:= y ∈ H0 | y =m−1∑

i=1

sivi, si ∈ smin,i

i +Li

2+ l · Li | l = 0, . . . , N i − 1,

i = 1, . . . , m − 1aquidistanter Diskretisierungspunkte mit

Li :=smax,i

i − smin,ii

N i.

Die Menge DH0

enthalt damitm−1∏

i=1

N i Punkte.

Fur jeden dieser Diskretisierungspunkte d ∈ DH0

losen wir nun das skalare Optimie-rungsproblem (SP(d, r))

min tNb. d + t r − f(x) ∈ K,

t ∈ R,x ∈ Ω

mit der Minimallosung (td, xd) (falls diese existiert). Die Menge

DH0,f := f(xd) | ∃ td ∈ R und ein d ∈ DH0

mit (td, xd) Minimallosung von (SP(d, r))bildet bereits eine Approximation der Menge der effizienten Punkte des multikrite-riellen Optimierungsproblems. Dabei ist im Allgemeinen die Machtigkeit der MengeDH0,f geringer als die der Menge DH0

, da zum Teil verschiedene Parameter d auf dengleichen Approximationspunkt f(xd) fuhren.Mit Hilfe der Menge DH0,f kann dem Entscheidungstrager bereits eine erste grobeNaherung der Effizienzmenge zur Verfugung gestellt werden. Um so kleiner hierbeidie Zahlen N i, i = 1, . . . , m−1, sind, um so geringer ist auch die Anzahl an Approxi-mationspunkten, mit denen sich der Entscheidungstrager befassen muss. Andererseitserhalt der Entscheidungstrager durch eine großere Anzahl an Approximationspunkteneine bessere Ubersicht uber den Verlauf der effizienten Menge.Unser Verfahren wird nun zu einem interaktiven Verfahren, also ein Verfahren, dasdurch Entscheidungen des Entscheidungstragers beeinflusst wird. Dieser kann nun ausder Menge DH0,f fur ihn interessante Punkte auswahlen und in deren Umgebung weite-re Approximationspunkte mit vorgegebenem Abstand erzeugen lassen. Wir betrachtennun im Weiteren daher nur die vom Entscheidungstrager ausgewahlte Losung (bzw.Losungen) und deren Umgebung. Es sei dazu y := yd = f(xd) ∈ DH0,f mit (td, xd)Minimallosung von (SP(d, r)) fur ein d ∈ DH0

ein solcher ausgewahlter Punkt. Wirbestimmen als zugehorigen Parameter

a = f(xd) − t r mit t =b⊤f(xd) − β

b⊤r

Page 107: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 95

mit der Eigenschaft a + t r − f(xd) = 0m. Durch das Losen des entsprechendenOptimierungsproblems (SP(d, r)) haben wir Informationen uber das lokale Verhal-ten der lokalen Minimalwertfunktion erhalten. Wir gehen im Weiteren davon aus,dass die Voraussetzungen von Lemma 3.2.3 erfullt sind, d. h. unter anderem S =R

n, K = Rm+ , C = R

p+. Dann gilt ∇aτ

δ(a, r) = −µ mit (µ, ν, ξ) den Lagrange-Multiplikatoren im Punkt (t, xd) zum Optimierungsproblem (SP(a, r)) (identisch mitden Lagrange-Multiplikatoren im Punkt (td, xd) zum Optimierungsproblem (SP(d, r))und wir konnen lokal den Minimalwert t(a, r) des Optimierungsproblems (SP(a, r))in einer Umgebung von a durch

t(a, r) ≈ t − µ⊤(a − a) (4.43)

approximieren. Ist der Entscheidungstrager nun an Approximationspunkten interes-siert, die von dem bisher ermittelten einen Abstand von α ∈ R, α > 0 haben, sokonnen wir benachbarte Punkte entsprechend der Richtungen v1, . . . , vm−1 mit diesemAbstand ermitteln. Wollen wir den Parameter a dazu zunachst nur in eine Richtungvk mit k ∈ 1, . . . , m−1 verschieben, d. h. soll fur den neuen Parameter ak = a+s·vk

gelten, so folgt mit (4.43) und mit f(x) = a + t r

f(x(ak)) = ak + t(ak, r) r≈ a + s vk + t r − µ⊤(ak − a) r= f(xd) + s(vk − (µ⊤vk)r)= y + s(vk − (µ⊤vk)r)

und damit wird das Ziel ‖f(x(ak))− y‖ = α unter Verwendung dieser Naherung durch

|s| =α

‖vk − (µ⊤vk)r‖

erreicht. Wir erhalten mit sk = |s| die beiden Parameter

ak,1 = a + skvk und ak,2 = a − skvk.

Dies wiederholen wir fur alle k ∈ 1, . . . , m−1. Losen wir nun zu diesen Parameternak,i, k = 1, . . . , m − 1, i = 1, 2, die skalaren Optimierungsprobleme (SP(ak,i, r)) mitden Minimallosungen (tk,i, xk,i), so wird fur die Punkte f(xk,i) entsprechend unsererSensitivitatsanalyse ‖f(xk,i) − y‖ ≈ α gelten.Es besteht jedoch auch die Moglichkeit, dass der Entscheidungstrager eine Richtungv ∈ H vorgibt in die er weitere Informationen uber den Verlauf der effizienten Mengewunscht. Dabei berechnet sich s analog. Auch die Bestimmung von mehr als einemneuen Approximationspunkt je Richtung, dann mit dem Abstand 2α, 3α usw., istmoglich.Beim Losen der skalaren Optimierungsprobleme (SP(ak,i, r)) erhalten wir auch wie-der Sensitivitatsinformationen an den Stellen ak,i. Die Punkte f(xk,i), k = 1, . . . , m−1, i = 1, 2, konnen nun der Approximationsmenge DH0,f hinzugefugt werden und die-ser Vorgang (Auswahl des Entscheidungstragers, Bestimmung benachbarter Punkte)kann beliebig wiederholt werden.

Page 108: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 96

Wir fassen diese einzelnen Schritte in dem folgenden Algorithmus fur den Spezialfallder ε-constraint-Methode (P3(ε)) mit m = 3 zusammen, d. h. es ist ε = (ε1, ε2) ∈ R

2,K = R

3+, H = y ∈ R

3 | y3 = 0, b = (0, 0, 1)⊤, β = 0 und r = (0, 0, 1)⊤ und dasskalare Ersatzproblem (P3(ε)) lautet

min f3(x)Nb. f1(x) ≤ ε1,

f2(x) ≤ ε2,x ∈ Ω.

Algorithmus zur Parametersteuerung im trikriteriellen Fall mit Hilfe derε-constraint-Methode

Eingabe: Daten des multikriteriellen Optimierungsproblems: Zielfunktionenf1, f2 und f3, sowie Ungleichungsrestriktionen g1, . . . , gp und Glei-chungsrestriktionen h1, . . . , hq.Gewunschte Anzahl an Diskretisierungspunkten N1 in Richtungv1 = (1, 0, 0)⊤ und N2 in Richtung v2 = (0, 1, 0)⊤.

Schritt 1: Bestimme jeweils die Minimallosung der folgenden skalaren Opti-mierungsprobleme:

minx∈Ω

fi(x)

mit Minimallosung xmin,i und Minimalwert f(xmin,i) =: εmini fur

i = 1, 2 und

maxx∈Ω

fi(x)

mit Maximallosung xmax,i und Maximalwert f(xmax,i) =: εmaxi fur

i = 1, 2.

Schritt 2: Setze

Li :=εmax

i − εmini

N ifur i = 1, 2.

Lose das skalare Optimierungsproblem (P3(ε)) fur alle ε ∈ E mit

E := ε = (ε1, ε2) ∈ R2 | εi = εmin

i +Li

2+ li · Li fur

li = 0, . . . , N i − 1, i = 1, 2.

Bestimme die Menge

AE := (ε, x, µ) | x Minimallosung von (P3(ε)) mit Lagrange-Multiplikator µ zur Restriktion (f1(x), f2(x))⊤ ≤2 ε fur ε ∈ E.

Page 109: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

4.3 Parametersteuerung im multikriteriellen Fall (m ≥ 3) 97

Schritt 3: Bestimme die Menge

DH0,f := f(x) | ∃ ε ∈ R2, µ ∈ R2

+ mit (ε, x, µ) ∈ AE= f(x) | x Minimallosung von (P3(ε)) fur ε ∈ E.

Eingabe: Wahle y ∈ DH0,f mit y =: f(xε), ε = (f1(xε), f2(x

ε)) und(ε, xε, µε) ∈ AE .

Falls y eine ausreichend gute Losung ist, so beende den Algorith-mus.

Falls weitere Punkte in der Umgebung von y gewunscht werden,so gebe Abstand α ∈ R, α > 0 vor und die Anzahl der neu zugenerierenden Punkte nl ∈ N je Richtung und gehe zu Schritt 4.

Schritt 4: Fur alle

(i, j) ∈ (i, j) ∈ Z2 | i = −nl, . . . , nl, j = −nl, . . . , nl, (i, j) 6= (0, 0)

setze

εi,j := ε + i · α√

1 + (µε1)

2

(10

)

+ j · α√

1 + (µε2)

2·(

01

)

und lose das skalare Optimierungsproblem (P3(εi,j)).

Existiert eine Losung xi,j mit Lagrange-Multiplikator µi,j, so setzeAE = AE ∪ (εi,j, xi,j, µi,j).

Gehe zu Schritt 3.

Mit Hilfe dieses Algorithmuses ist es also moglich lokal eine aquidistante Approxi-mation der Effizienzmenge in vom Entscheidungstrager ausgewahlten Bereichen zubestimmen. Durch die grobe Approximation in Schritt 3 ist sichergestellt, dass keineBereiche der effizienten Menge unberucksichtigt bleiben und der Entscheidungstragereinen Uberblick uber den Verlauf der gesamten Losungsmenge erhalt. Das Verfahrenist im weiteren Verlauf dann nur insofern interaktiv, dass der Entscheidungstragerinteressante Bereiche auswahlt und die Feinheit der nun lokal zu bestimmenten aqui-distanten Approximation vorgibt. Dabei kann der Entscheidungstrager auch mehrerePunkte y ∈ DH0,f zugleich auswahlen, in deren Umgebung verfeinert und Schritt 4durchgefuhrt wird, bevor ihm die nun verbesserte Approximation erneut vorgelegtwird.

Page 110: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

98

Kapitel 5

Testprobleme

Bevor wir uns in Kapitel 6 einem konkreten Anwendungsproblem aus der Medizinsowie im Kapitel 7 einer Anwendung unseres Verfahrens in der Bilevel-Optimierungzuwenden, mochten wir die Eigenschaften und Vorteile der Parametersteuerung mitdem in dieser Arbeit vorgestellten Verfahren an einigen Testproblemen darstellen.Zum Testen von Losungsverfahren zur multikriteriellen Optimierung stehen inzwi-schen ganze Sammlungen von Testproblemen, die vor allem zum Testen von evoluti-onaren Algorithmen entwickelt wurden, zur Verfugung (siehe [22], [24], [25], [128]).

5.1 Bikriterielle Testprobleme

Testproblem 1: ε-constraint-Methode

Wir betrachten zunachst erneut das einfache Problem von Hazen ([55], S.186), welcheswir bereits in Beispiel 4.2.11 untersucht haben. Das bikriterielle Optimierungsproblemmit Ordnungskegel K = R

2+ lautet

min

(x21

2+ x2

2 − 10x1 − 100

x21 +

x22

2− 10x2 − 100

)

Nb. x ∈ R2

und besitzt eine konvexe Bildmenge f(Ω). Wir approximieren die effiziente Mengedieses Optimierungsproblems mit Hilfe der ε-constraint-Methode (P2(ε)) als Spezi-alfall der Formulierung von Pascoletti und Serafini. Es ist ausreichend, die Parame-ter ε aus dem Intervall [−150, 0] zu wahlen. Nutzt man nicht die in dieser Arbeitvorgestellte Parametersteuerung, sondern wahlt eine aquidistante Diskretisierung desIntervalls [−150, 0] mit einem Abstand von 8.5, so erhalt man die in Abbildung 5.1dargestellte Approximation, die vor allem im linken Teil der effizienten Menge (furf1(x) ∈ [−150,−130]) große Approximationslucken erkennen lasst, also einen großenAbdeckungsfehler besitzt.

Page 111: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 99

−160 −140 −120 −100 −80 −60 −40 −20 0 20

−140

−120

−100

−80

−60

−40

−20

0

20

f1

f2

Abbildung 5.1: Testproblem 1: Approximation mit aquidistanten Parametern.

Eine deutlich bessere Approximation erhalt man durch Ausnutzung von Sensitivitats-informationen zur Parametersteuerung wie im Algorithmus auf Seite 88 beschrie-ben. Verwenden wir eine Approximation zweiten Grades der lokalen Minimalwert-funktion um einen aquidistanten Abstand von α = 12 zwischen den Approximati-onspunkten zu erzeugen, so erhalten wir die in Abb. 5.2 dargestellte nach unserenQualitatskriterien deutlich bessere Approximation der Menge der effizienten Punktef(M) = f(M(f(Ω), K)) mit ebenfalls 19 Approximationspunkten. Die ausgewahltenParameter ε, zu denen die skalaren Ersatzprobleme gelost wurden, sind als Punkte(ε, 10) ∈ R

2 in beiden Abbildungen mit einem Plus-Symbol eingezeichnet.

−160 −140 −120 −100 −80 −60 −40 −20 0 20

−140

−120

−100

−80

−60

−40

−20

0

20

f1

f2

Abbildung 5.2: Testproblem 1: Approximation mit Parametersteuerung.

Page 112: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 100

Testproblem 2: Vergleich mit Gewichtungsmethode

Das folgende Testproblem wurde ausgewahlt, um die Vorteile des Verfahrens dieserArbeit gegenuber der sehr verbreiteten Methode der gewichteten Summe darzustel-len. Auch mit der Gewichtungsmethode (siehe (2.9), S.31) ist durch Variierung derGewichte eine Approximation der effizienten Menge moglich.Fur den bikriteriellen Fall lautet das skalare Ersatzproblem entsprechend der Gewich-tungsmethode

minx∈Ω

w1f1(x) + w2f2(x)

mit Gewichten w1, w2 ∈ [0, 1], w1 + w2 = 1.Das einfache bikriterielle Optimierungsproblem bzgl. der naturlichen Halbordnung,das wir nun betrachten, lautet

min

( √

1 + x21

x21 − 4x1 + x2 + 5

)

Nb. x21 − 4x1 + x2 + 5 ≤ 3.5,

x1 ≥ 0, x2 ≥ 0,x ∈ R

2

und besitzt eine konvexe Bildmenge f(Ω).Wenden wir die Gewichtungsmethode mit aquidistant verteilten Gewichten

(w1

w2

)

∈(

01

)

,

(0.070.93

)

, . . . ,

(0.980.02

)

an, so erhalten wir die in Abb. 5.3 dargestellten 15 Approximationspunkte, die ei-

0.5 1 1.5 2 2.5 31

1.5

2

2.5

3

3.5

f1

f2

f(M)

Abbildung 5.3: Testproblem 2: Approximation mit Gewichtungsmethode.

ne sehr ungleichmaßige Verteilung in der Effizienzmenge f(M) besitzen. Wir habendamit bei einem geringen Gleichverteilungsgrad einen hohen Abdeckungsfehler.

Page 113: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 101

Verwenden wir stattdessen das Verfahren dieser Arbeit mit dem skalaren Ersatzpro-blem (SP(a, r)) fur a aus der Hyperebene H = y ∈ R

2 | (1, 1)y = 2.5, r = (1, 0)⊤,einem gewunschten Abstand von α = 0.2 zwischen den Approximationspunkten undeiner Approximation der lokalen Minimalwertfunktion ersten Grades, so erhalten wirdie in Abb. 5.4 dargestellte deutlich bessere Approximation mit ebenfalls 15 Punkten.

−0.5 0 0.5 1 1.5 21

1.5

2

2.5

3

3.5

f1

f2

H

f(M)

Abbildung 5.4: Testproblem 2: Approximation mit Parametersteuerung.

Testproblem 3: Nicht-konvexes Testproblem

Als drittes Testproblem betrachten wir ein bikriterielles Optimierungsproblem mitnicht-konvexer Bildmenge f(Ω) von van Veldhuizen ([128], S. 545, auch [25], S.4):

min

1 − exp(−n∑

i=1

(xi − 1√n)2)

1 − exp(−n∑

i=1

(xi + 1√n)2)

xi ∈ [−4, 4], ∀i = 1, . . . , n,x ∈ R

n

fur n ∈ N beliebig wahlbar. Der Ordnungskegel sei K = R2+. Bei derartigen nicht-

konvexen Problemen sind bereits viele Losungsverfahren nicht mehr anwendbar. Auchdie Gewichtungsmethode ist, auch fur eine beliebige Variierung der Gewichte, nur inder Lage, zwei Punkte der effizienten Menge zu finden (die Punkte (0, 0.9817) und(0.9817, 0)).Eine Besonderheit dieses bikriteriellen Optimierungsproblems ist die beliebige Ska-lierbarkeit der Dimension n, sowie dass sich die Menge der K-minimalen Punkteunabhangig von n ∈ N explizit angeben lasst. Es ist

M(f(Ω), R2+) = x ∈ R

n | x1 ∈ [− 1√n

,1√n

], xi = x1, ∀i = 2, . . . , n

Page 114: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 102

und

E(f(Ω), R2+) =

(1 − exp(−4(t − 1)2)

1 − exp(−4t2)

)

| t ∈ [0, 1]

.

Damit ist es moglich fur eine Approximation A = f(xi) | i = 1, . . . , N der Effizi-enzmenge E(f(Ω), R2

+) direkt mit Hilfe der Definition von Sayin (siehe Abschnitt 4.1,sowie [104]) den Abdeckungsfehler ε zu berechnen. Es ist

ε = maxy∈E(f(Ω),K)

miny∈A

‖y − y‖2

(siehe auch (4.2)). Wir haben die Effizienzmenge dieses Problems fur n = 40 mit Hilfeder Parametersteuerung wie im Algorithmus auf Seite 84 beschrieben approximiertund dazu r = (1, 1)⊤, b = (1, 0)⊤, β = 1.2 sowie u = 1 (fur eine Approximationzweiten Grades der lokalen Minimalwertfunktion) gewahlt. Fur α = 0.15 ist dieseApproximation in Abb. 5.5 dargestellt.

−0.5 0 0.5 1 1.50

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

f1

f2

H

f(M)

Abbildung 5.5: Testproblem 3: Nicht-konvexes bikriterielles Optimierungsproblem.

Das Erfulltsein der verschiedenen Qualitatskriterien Abdeckungsfehler ε, Gleichver-teilungsgrad δ und Machtigkeit der Approximation N sind fur verschiedene Abstandeα der folgenden Tabelle zu entnehmen.

α = 0.05 α = 0.1 α = 0.15 α = 0.2 α = 0.25 α = 0.3 α = 0.4ε 0.0245 0.0518 0.0764 0.0885 0.1100 0.1324 0.1538δ 0.0367 0.0569 0.1147 0.0982 0.0122 0.0330 0.3075N 30 16 11 9 8 7 5εα

0.4900 0.5180 0.5093 0.4425 0.4400 0.4413 0.3845

Die zum Teil sehr kleinen Werte fur den Gleichverteilungsgrad δ ergeben sich dar-aus, dass nach Abschluss der parametergesteuerten Approximation noch der bereitsberechnete Punkt f(xE) mit xE der Minimallosung von minx∈Ω f2(x) der Approxima-tionsmenge hinzugefugt wird. Unterlasst man dies, erhalt man z.B. fur α = 0.3 einenGleichverteilungsgrad von δ = 0.2314.

Page 115: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 103

Der Abdeckungsfehler ε soll zwar im Allgemeinen moglichst klein sein (was zugleichjedoch einer hohen Anzahl an Approximationspunkten entspricht), doch haben wiraquidistante Punkte und damit den Wert α/2 als Ziel. Es sollte also ε/α = 1/2 gel-ten. Wie man der Tabelle entnehmen kann verschlechtert sich dieser Wert fur großerwerdende α. Dies liegt daran, dass die Approximation der lokalen Minimalwertfunk-tion in einem Punkt a0 mit zunehmendem Abstand von a0 ungenauer wird, und mitgroßerem α auch diese Abstande zum nachsten Parameter großer werden.

Testproblem 4: Nicht-zusammenhangende Effizienzmenge

Im Testproblem 3 war die Menge f(Ω) zwar nicht konvex, aber die effiziente Menge wardennoch zusammenhangend. Wir wollen nun den Fall einer nicht-zusammenhangendenEffizienzmenge anhand des folgenden Testproblems von Tanaka ([124]) betrachten.Zur Definition des Zusammenhangs einer Menge (hier im topologischen Sinne) sieheS.63 oder u. a. [32], S.69, [103], S.66.Das bikriterielle Optimierungsproblem bzgl. der naturlichen Halbordnung lautet

min

(x1

x2

)

Nb. x21 + x2

2 − 1 − 0.1 cos(

16 arctan(x1

x2))

≥ 0,

(x1 − 0.5)2 + (x2 − 0.5)2 ≤ 0.5,x1, x2 ∈ [0, π],x ∈ R

2.

Es ist also f(Ω) = Ω. Die EP-minimalen Punkte liegen in diesem Beispiel auf demRand der durch die erste Restriktion beschriebenen Menge. Da diese Ungleichungsre-striktion eine periodische Funktion ist und zudem die zweite Restriktion erfullt seinmuss, sind nicht alle Punkte auf diesem Rand EP-minimal, und die effiziente Mengeist nicht-zusammenhangend.Bestimmen wir nun eine Approximation der Effizienzmenge, z. B. durch Wahl vonr = (1, 2)⊤, b = (1, 1)⊤, β = 0.5, α = 0.08 und einer Approximation ersten Gradesder lokalen Minimalwertfunktion, so ergibt sich das Problem, dass es fur die skala-ren Ersatzprobleme (SP(a, r)) neben der globalen Losung z.T. auch weitere lokaleMinimallosungen gibt. Damit reicht ein lokales Verfahren zur Losung der skalarenErsatzprobleme (SP(a, r)) nicht aus, und es muss stattdessen ein globales Losungs-verfahren verwendet werden. Durch Anwendung eines solchen Verfahrens erhalten wirdie in Abb. 5.6 dargestellte Approximation.Bei einem lokalen Losungsverfahren besteht nicht nur das Problem, dass in manchenBereichen der Effizienzmenge keine Approximationspunkte gefunden werden, sondernauch, dass zum Teil nur lokal EP-minimale Punkte, die nicht (global) EP-minimalsind, bestimmt werden. Verwendet man als Losungsverfahren fur die skalaren Ersatz-probleme (SP(a, r)) z. B. das SQP-Verfahren (

”Sequential-Quadratic-Programming“-

Methode) wie es in Matlab implementiert ist, so erhalt man bei gleicher Parame-terwahl (r = (1, 2)⊤, b = (1, 1)⊤, β = 0.5, α = 0.08) und bei Verwendung des

Page 116: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 104

Abbildung 5.6: Testproblem 4: Nicht-zusammenhangende Effizienzmenge.

jeweils fur den Parameter zuvor gefundenen Minimalpunktes als Startpunkt, die inAbb. 5.7 dargestellte unzureichende Approximation der Effizienzmenge. Hier wurdedie Parametersteuerung ausgehend vom ersten Parameter a1 = (−0.1517, 0.6517) ge-steuert, doch besitzt das skalare Optimierungsproblem (SP(a, r)) fur alle Parametera4 = (−0.0095, 0.5095) bis a20 = (0.8438,−0.3438) aufgrund der lokalen Minimalitatvon x3 = (0.1996, 0.9290) nur noch den Approximationspunkt f(x3).Betrachten wir nun wieder die Approximation aus Abb. 5.6 mit globalen Losungen derskalaren Optimierungsprobleme (SP(a, r)) und wollen nun Aussagen uber die Qualitatder Approximation machen, so ist dies aufgrund der nicht-zusammenhangenden effizi-enten Menge zum Teil problematisch. Die Anzahl der Approximationspunkte ist nocheinfach zu bestimmen. Zu den 21 Parametern a ∈ H erhalten wir 17 verschiedeneApproximationspunkte und es ist N = 17. Auch der Gleichverteilungsgrad lasst sichrelativ einfach bestimmen und betragt

δ = minx,y∈Ax 6=y

‖x − y‖2 = ‖f(x2) − f(x1)‖2 = 0.0360.

Abbildung 5.7: Testproblem 4: Nicht-zusammenhangende Effizienzmenge mit lokalemVerfahren.

Page 117: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 105

Zur Bestimmung des Abdeckungsfehlers durch (4.2) ist jedoch die Kenntnis der ge-samten Effizienzmenge zur Berechnung notig, oder, um die von uns eingefuhrte Modi-fikation des Abdeckungsfehlers nach (4.3) zu bestimmen, die Kenntnis der jeweiligenNachbarpunkte der einzelnen Approximationspunkte. Da eine explizite Berechnungder Effizienzmenge hier nur unter großerem Aufwand moglich ist, verwenden wir dieModifikation des Abdeckungsfehlers. Zur Bestimmung der Nachbarpunkte ist nur dieKenntnis der Bereiche notig, in denen die Effizienzmenge nicht-zusammenhangend ist.Diese Bereiche erkennt man bereits beim Losen der skalaren Ersatzprobleme, wenndie Restriktion a + t r − f(x) ≥2 02 im Losungspunkt nicht mit Gleichheit erfulltist, oder wenn mehrere Parameter a auf den gleichen Approximationspunkt fuhren.So ist f(x4) = f(x5) = f(x6) = f(x7) und zwischen den Approximationspunktenf(x7) und f(x8) befindet sich eine Lucke der effizienten Menge, ebenso wie zwischenf(x16) = f(x17) und f(x18). Damit besitzen die Approximationspunkte f(xi) miti = 1, 4, 8, 16, 18, 21 jeweils nur einen benachbarten Punkt, was bei den Berechnungenin (4.3) zu berucksichtigen ist.Die Abstande zwischen den berechneten Punkten f(xj), j = 1, . . . , 21, die zu denParametern aj gehoren, konnen der folgenden Tabelle entnommen werden.

j 1 2 3 4 5‖f(xj) − f(xj+1)‖2 0.0360 0.0817 0.0762 0 0

j 6 7 8 9 10‖f(xj) − f(xj+1)‖2 0 0.2928 0.0714 0.0792 0.0793

j 11 12 13 14 15‖f(xj) − f(xj+1)‖2 0.0758 0.1133 0.0730 0.0585 0.0789

j 16 17 18 19 20‖f(xj) − f(xj+1)‖2 0 0.2770 0.0502 0.0752 0.0695

Damit ergibt sich

ε =1

2max

j∈1,...,21max

y∈N (f(xj))‖f(xj) − y‖ =

1

2· 0.1133 = 0.0567

mit N (f(xj)) der Menge der Nachbarpunkte des Approximationspunktes f(xj).

Testproblem 5: Variierende Ordnungskegel

Um die Auswirkung verschiedener Halbordnungen im Zielraum und deren Einfluss aufdie Parameterwahl zu veranschaulichen, betrachten wir das folgende einfache bikrite-rielle Optimierungsproblem

min

(x1

x2

)

Nb. (x1 − 5)2 + 4(x2 − 3)2 ≤ 16,x ∈ R

2.

(5.1)

Page 118: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 106

0 1 2 3 4 5 6 7 8 9

−2

−1

0

1

2

3

4

5

f1

f2

H

a) bzgl. K0 = R2+

0 1 2 3 4 5 6 7 8 9−3

−2

−1

0

1

2

3

4

5

f1

f2

H

b) bzgl. Kmax = −R2+

Abbildung 5.8: Testproblem 5: Approximation der Effizienzmenge.

Wir wollen von diesem Optimierungsproblem die effiziente Menge bzgl. der naturlichenHalbordnung bestimmen, also bzgl. dem Kegel K0 = R

2+, und wollen es außerdem auch

wie ein Maximierungsproblem betrachten, indem wir in einer zweiten Berechnung dennegativen Orthanten Kmax = −R

2+ als Ordnungskegel verwenden. Weiterhin wollen

wir die Halbordnungen, die durch die Kegel

K1 = y ∈ R2 | (2,−1)y ≥ 0, (−1, 2)y ≥ 0 und

K2 = y ∈ R2 | (0, 1)y ≥ 0, (1, 1)y ≥ 0

gegeben sind, betrachten. Diese Kegel werden durch die Matrizen

K1

=

(2 −1−1 2

)

und K2

=

(0 11 1

)

definiert. Der Kegel K0 wird von der Einheitsmatrix und der Kegel Kmax von demNegativen der Einheitsmatrix gebildet. Es gibt verschiedene Moglichkeiten das bikri-terielle Optimierungsproblem fur diese Kegel zu losen.Wir konnen zum einen direkt das Ersatzproblem (SP(a, r)) betrachten. Dieses lautetfur die Kegel Ki, i = 1, 2,

min tNb. a + t r − f(x) ∈ Ki,

t ∈ R, x ∈ Ω

mit Ω = x ∈ R2 | (x1 − 5)2 + 4(x2 − 3)2 ≤ 16. Zur Verwendung eines numerischen

Losungsverfahrens formulieren wir dieses um zu

min t

Nb. Ki(a + t r − f(x)) ≥2 02,

t ∈ R, x ∈ Ω

fur i = 1, 2. Fur die Ausnutzung der Sensitivitatsinformationen ist die Kenntnis derLagrange-Multiplikatoren zur Restriktion a + t r − f(x) ∈ Ki notig. Ist µ Lagrange-

Multiplikator zur Restriktion K(a+t r−f(x)) ≥2 02, so ist K⊤µ Lagrange-Multiplikator

Page 119: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.1 Bikriterielle Testprobleme 107

0 2 4 6 8−3

−2

−1

0

1

2

3

4

5

f1

f2

H

a) bzgl. K1

0 1 2 3 4 5 6 7 8 9

−2

−1

0

1

2

3

4

5

f1

f2

H

b) bzgl. K2

Abbildung 5.9: Testproblem 5: Approximation der Effizienzmenge.

zur Restriktion a + t r − f(x) ∈ K, wenn der Kegel K durch die Matrix K erzeugtwird.Eine weitere Moglichkeit zur Losung ist die Umformulierung von (5.1) bzgl. dem KegelKi zu

min Kif(x)

Nb. x ∈ Ω

bzgl. der naturlichen Halbordnung (siehe Lemma 1.2.3). Das skalare Ersatzproblemzu diesem bikriteriellen Optimierungsproblem lautet

min t

Nb. a + t r − Kif(x) ≥2 02,

t ∈ R, x ∈ Ω.

Wir konnen auch hier die Sensitivitatsinformationen und den Zusammenhang Kif(x) =

a + t r ausnutzen. Da wir jedoch die Parameter zur Abstandssteuerung zwischen den

Approximationspunkten bzgl. f(·) und nicht bzgl. Kif(·) auswahlen wollen, sind hier

weitere Umrechnungen unter Einbeziehung der Inversen der Matrix Ki

notig. Wirbetrachten daher im Folgenden die erste hier vorgestellte Umformung.Zur Bestimmung einer Approximation der Effizienzmenge wahlen wir H = y ∈R

2 | (1, 1)y = 0, r = (1, 1)⊤ bzw. r = (−1,−1)⊤ bei Kmax, α = 0.4, und wirnehmen eine Approximation der lokalen Minimalwertfunktion erster Ordnung vor.Die erhaltenen Naherungen der Effizienzmenge sind in den Abbildungen 5.8 und 5.9dargestellt. Man erkennt, dass um so großer der Ordnungskegel um so kleiner dieEffizienzmenge ist (siehe auch Lemma 1.1.5). Auch fur andere Ordnungen als dienaturliche Halbordnungen liefert unser Verfahren aquidistante Approximationen.

Page 120: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 108

5.2 Trikriterielle Testprobleme

Testproblem 6: Konvexe Bildmenge

Als erstes trikriterielles Optimierungsproblem betrachten wir

min

−x1

−x2

−x3

Nb. x41 + 2x3

2 + 5x23 ≤ 1,

xi ≥ 0, ∀ i = 1, 2, 3,

bzgl. der naturlichen Halbordnung von Kim und de Weck aus [74], S.8. Die Bildmengedieses Optimierungsproblems ist eine konvexe Menge. Daher ist es moglich jeden EP-minimalen Punkt mit Hilfe der Gewichtungsmethode zu erhalten, und wir konnenauch mit Hilfe dieser Methode eine Approximation der Effizienzmenge bestimmen.Wir losen dazu die skalaren Ersatzprobleme

min −(λ1x1 + λ2x2 + λ3x3)Nb. x ∈ Ω

mit Ω = x ∈ R3+ | x4

1 + 2x32 + 5x2

3 ≤ 1. Fur die Parameter sollen λi ≥ 0, i = 1, 2, 3,

und∑3

i=1 λi = 1 gelten. Wir wahlen dabei die Parameter wie in [74], jedoch mit einergroberen Diskretisierung, und setzten daher

λ1 = α1α2,

λ2 = (1 − α1)α2,

λ3 = 1 − α2

fur α1, α2 ∈ 0, 15, 2

5, . . . , 1. Die damit erhaltene Approximation ist in Abb. 5.10 dar-

gestellt. Wir haben zur besseren Darstellbarkeit das Negative der Zielfunktionen ab-

0

0.2

0.4

0.6

0.8

1

00.2

0.40.6

0

0.1

0.2

0.3

0.4

−f1

−f2

−f 3

Abbildung 5.10: Testproblem 6: Approximation mit Gewichtungsmethode.

getragen und die einzelnen Punkte linear verbunden. Aufgrund der verschiedenartigen

Page 121: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 109

0.2

0.4

0.6

0.8

1

0.20.4

0.6

0

0.1

0.2

0.3

0.4

−f1

−f2

−f 3

a) Aquidistante Parameterwahl

0.2

0.4

0.6

0.8

1

0.20.4

0.6

0

0.1

0.2

0.3

0.4

−f1

−f2

−f 3

b) Verbesserung in ausgewahltenBereichen

Abbildung 5.11: Testproblem 6: Approximation der Effizienzmenge.

Krummung der effizienten Menge entlang der Koordinatenachsen gibt es Bereiche derEffizienzmenge, die gut approximiert sind, wohingegen andere Bereiche unzureichendmit einem zu hohen Abdeckungsfehler angenahert werden.Wir wollen dieses multikriterielle Optimierungsproblem nun entsprechend unseres inAbschnitt 4.3 beschriebenen Algorithmuses losen. Wir bestimmen also zunachst dieLosungen der skalaren Optimierungsprobleme

minx∈Ω

fi(x) und maxx∈Ω

fi(x) fur i = 1, 2.

Wir erhalten aus den Minimallosungen die Punkte εmin = (−1,−0.7937) und εmax =(0, 0) und wahlen N1 = N2 = 5. Dann ist L1 = 0.2000 und L2 = 0.1587. Fur dieParameter ε = (ε1, ε2) mit

ε1 = −1 +

(1

2+ l1

)

· 0.2000 fur l1 = 0, . . . , 4,

ε2 = −0.7937 +

(1

2+ l2

)

· 0.1587 fur l2 = 0, . . . , 4,

losen wir die skalaren Ersatzprobleme entsprechend der ε-constraint-Methode (P3(ε))

min −x3

Nb. −x1 ≤ ε1,−x2 ≤ ε2,x ∈ Ω.

Die Bildmenge DH0,f der Minimallosungen von (P3(ε)) fur die verschiedenen Parame-ter ε sieht man in Abb. 5.11a).Auch diese Approximation der Effizienzmenge besitzt einen zu großen Abdeckungsfeh-ler. Sie reicht jedoch um dem Entscheidungstrager einen Eindruck uber den Verlaufder effizienten Menge zu geben und um Bereiche bzw. Approximationspunkte aus-zuwahlen, die fur ihn, basierend auf der bisherigen Auswahl, beste Losungen darstellen

Page 122: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 110

oder in deren Umgebung er genauere Informationen uber den Verlauf der Losungs-menge wunscht. In einer Umgebung dieser Punkte konnen nun unter Ausnutzung derbeim Losen der Optimierungsprobleme (P3(ε)) gewonnenen Sensitivitatsinformatio-nen weitere Approximationspunkte bestimmt werden (Schritt 4 des Algorithmus ausAbschnitt 4.3), die dann in dem interessanten Bereich eine nahezu aquidistante Ap-proximation bilden. Wir wahlen dafur n1 = 2 als Anzahl der neuen Punkte je Richtungund je bisheriger Approximationspunkt und α = 0.06 als gewunschten Abstand derPunkte zueinander und fuhren dies an zwei zufallig ausgewahlten Approximations-punkten vor (Abb. 5.11b)).

Testproblem 7: Nicht-konvexe Bildmenge

Das folgende Testproblem ist ebenfalls an ein Problem in [75] angelehnt, wurde jedochmodifiziert und besitzt eine nicht-konvexe Bildmenge. Das trikriterielle Optimierungs-problem bzgl. der naturlichen Halbordnung lautet

min

−x1

−x2

−x23

Nb. − cos(x1) − exp(−x2) + x3 ≤ 0,0 ≤ x1 ≤ π,x2 ≥ 0,x3 ≥ 1.2.

Da dieses Optimierungsproblem eine nicht-konvexe Bildmenge besitzt, kann mit derGewichtungsmethode allein nicht jeder EP-minimale Punkt bestimmt werden, undentsprechend unzureichend ist eine Approximation unter Verwendung der Gewich-tungsmethode. Gehen wir dafur wie im Testproblem 6 beschrieben vor und wahlenα1, α2 ∈ 0, 1

9, 2

9, . . . , 1, so erhalten wir die in Abbildung 5.12a) dargestellte Appro-

ximation. Verwenden wir stattdessen das Verfahren dieser Arbeit, so erhalten wir furN1 = N2 = 8 zunachst die Approximation der Effizienzmenge in Abb. 5.12b).Wir nehmen nun an, der Entscheidungstrager interessiert sich vor allem fur den Be-reich der Effizienzmenge, fur den f1(x) ≤ −0.4 und −0.6 ≤ f2(x) ≤ −0.4 gilt. In derUmgebung der Approximationspunkte, die in diesem Bereich liegen, soll die Appro-ximation um zusatzliche Punkte mit aquidistantem Abstand im Bildraum erweitertwerden. Wir wahlen dafur n1 = 2 und α = 0.06. Wir losen die entsprechenden skalarenErsatzprobleme und erhalten die in Abb. 5.13 dargestellte verbesserte Approximation.Die zu der Approximation aus Abb. 5.13 gehorigen Parameter ε ∈ R

2, zu denendas Optimierungsproblem (P3(ε)) gelost wurde, sieht man in Abb. 5.14. Dabei sindmit kleinen blauen Punkten diejenigen Parameter eingezeichnet, die bei der erstengroben Approximation zu keiner Minimallosung des Ersatzproblems (P3(ε)) gefuhrthaben. Die großen blauen Punkte markieren die Parameter des ersten Durchgangs,die Approximationspunkte geliefert haben. Mit rot sind schließlich die Parameter, diezu der nachtraglichen Verbesserung der Effizienzmenge ausgewahlt wurden, markiert.

Page 123: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 111

0

0.5

1

00.5

11.5

1.5

2

2.5

3

3.5

4

−f1−f

−f 3

a) Aquidistante Parameterwahl mitGewichtungsmethode

0.20.4

0.60.8

11.2

00.5

11.5

1.5

2

2.5

3

3.5

−f1−f

2

−f 3

b) Aquidistante Parameterwahl mitε-constraint-Methode

Abbildung 5.12: Testproblem 7: Approximation der Effizienzmenge.

Wir konnen hier gut erkennen, wie der Abstand zwischen den neu bestimmten Pa-rametern ε abhangig von dem jeweiligen Approximationspunkt variiert. Je steiler dieEffizienzmenge in dem Bereich um den jeweiligen Approximationspunkt verlauft, umso mehr wird der Abstand zwischen den Parametern verringert, verursacht durch diejeweiligen Sensitivitatsinformationen in Form der Lagrange-Multiplikatoren, um imBildraum noch aquidistante Approximationspunkte zu erhalten.

0.20.4

0.60.8

11.2

00.5

11.5

1.5

2

2.5

3

3.5

−f1−f

2

−f 3

Abbildung 5.13: Testproblem 7: Verbesserte Approximation in ausgewahlten Berei-chen.

Page 124: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 112

−1.4 −1.2 −1 −0.8 −0.6 −0.4 −0.2 0−1.6

−1.4

−1.2

−1

−0.8

−0.6

−0.4

−0.2

0

epsilon1

epsi

lon 2

Abbildung 5.14: Testproblem 7: Parametermenge.

Testproblem 8:”Kometenproblem“

Dieses Testproblem aus [25], S.9, ist nach der Form der Effizienzmenge benannt, die ei-ne kometenhafte Gestalt hat, mit einem breiten kurzen und einem langen sehr schma-len Bereich. Es lautet

min

(1 + x3)(x31x

22 − 10x1 − 4x2)

(1 + x3)(x31x

22 − 10x1 + 4x2)

3(1 + x3)x21

Nb. 1 ≤ x1 ≤ 3.5,−2 ≤ x2 ≤ 2,0 ≤ x3 ≤ 1

mit Ordnungskegel K = R3+. Die Menge der EP-minimalen Punkte ist

M(f(Ω), R3+) = (x1, x2, x3) ∈ R

3 | 1 ≤ x1 ≤ 3.5, −2 ≤ x31x2 ≤ 2, x3 = 0.

In Abb. 5.15 ist mit blauen Punkten eine Approximation der Bildmenge der Restrikti-onsmenge eingezeichnet, fur die wir die Restriktionsmenge mit aquidistanten Punktenim Abstand 0.1 diskretisiert haben. Die aus dieser Punktmenge EP-minimalen Punktesind rot markiert. Wir haben wieder das Negative der Zielfunktionen abgetragen.Dieses Testproblem deckt eine Schwachstelle der von uns verwendeten ε-constraint-Methode auf. Viele der Parameter ε ∈ R

2, die wir zunachst aquidistant wahlen umeine grobe Approximation der Effizienzmenge zu erhalten, fuhren auf keinen neuenApproximationspunkt, da das zugehorige Optimierungsproblem (P3(ε)) keine Losungbesitzt oder die Losung mit einem bereits gefundenen Approximationspunkt uberein-stimmt. So bestimmen wir fur N1 = N2 = 12 zunachst 144 aquidistante Parameter εund erhalten nur 7 Approximationspunkte (Abb. 5.16a)).Da diese Approximation einen sehr hohen Abdeckungsfehler hat, verbessern wir diese,nun unter Ausnutzung der Sensitivitatsinformationen, in der Umgebung jedes bisheri-gen Approximationspunktes, in dessen Umgebung kein weiterer Approximationspunkt

Page 125: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 113

−250−200

−150−100

−500

50

−250−200

−150−100

−500

50

−60−40−20

−f1

−f2

−f 3

Abbildung 5.15: Testproblem 8: Bildmenge und Effizienzmenge.

mit Abstand kleiner 5 liegt. Wir wahlen n1 = 3 sowie α = 4. Die zusatzlich erhaltenenApproximationspunkte sind in Abb. 5.16b) rot markiert. Um unsere Approximationzu verbessern, haben wir also nur in der Umgebung von Parametern, die bereits zu Ap-

0

20

40

60

020

4060

−70

−60

−50

−40

−30

−20

−10

−f1−f

2

−f 3

a) Aquidistante Parameterwahl

0

20

40

60

020

4060

−70

−60

−50

−40

−30

−20

−10

−f1−f

2

−f 3

b) Verbesserung in ausgewahltenBereichen

Abbildung 5.16: Testproblem 8: Approximation der Effizienzmenge.

Page 126: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 114

proximationspunkten gefuhrt haben, weitere Parameter ausgewahlt, und diese Wahldabei so gesteuert, dass eine gleichmaßige Naherung der effizienten Menge entstand.Herkommliche Verfahren hatten fur eine Verbesserung der Approximation die Feinheitfur die Bestimmung der aquidistanten Parameter erhoht. Dies erhoht jedoch geradein diesem Beispiel enorm die Anzahl der zu losenden skalaren Optimierungsprobleme,von denen jedoch nur wenige auf neue Approximationspunkte fuhren und damit auchwenig zu einer guten Approximation beitragen.

Testproblem 9: Nicht-zusammenhangende Effizienzmenge

Abschließend nun auch ein trikriterielles Optimierungsproblem, bei dem die Effizi-enzmenge, bzgl. der naturlichen Halbordnung, nicht-zusammenhangend ist (BeispielDTLZ7 aus [25]):

min

x1

x2

(1 + g(x))(3 −2∑

i=1

(xi

1+g(x)(1 + sin(3πxi))

)

Nb. xi ∈ [0, 1], ∀ i = 1, . . . , 22,x ∈ R

22

mit

g(x) = 1 +9

20

22∑

i=3

xi.

Es gibt vier nicht-zusammenhangende Bereiche der Effizienzmenge. Die Menge derEP-minimalen Punkte ist eine Teilmenge der Menge x ∈ R

22 | xi = 0, i = 3, . . . , 22.Entsprechend ist die Effizienzmenge eine Teilmenge der Menge

y ∈ R3

∣∣∣∣∣y1, y2 ∈ [0, 1], y3 = 2 ·

(

3 −2∑

i=1

(yi

2(1 + sin(3πyi))

))

,

die in Abb. 5.17 dargestellt ist.Fur unser Verfahren wahlen wir N1 = N2 = 10. Wir verbessern die Approximation nurin einem der vier zusammenhangenden Bereiche der Effizienzmenge fur den f1(x) ∈[0, 0.3] sowie f2(x) ∈ [0, 0.3] gilt. Fur diese Verfeinerung wahlen wir n1 = 2 und α =0.15. Das Ergebnis ist in Abbildung 5.18 aus verschiedenen Blickwinkeln dargestellt.

Page 127: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

5.2 Trikriterielle Testprobleme 115

0 0.2 0.4 0.6 0.8 1

00.5

12.5

3

3.5

4

4.5

5

5.5

6

Abbildung 5.17: Testproblem 9: Unterer Rand der Menge f(Ω).

0.20.40.60.80.20.40.60.8

3

3.5

4

4.5

5

5.5

f1

f2

f 3

0.2

0.4

0.6

0.8

0.20.4

0.60.8

3

3.5

4

4.5

5

5.5

f1

f2

f 3

Abbildung 5.18: Testproblem 9: Approximation der Effizienzmenge aus verschiedenenBlickwinkeln.

Page 128: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

116

Kapitel 6

Anwendung: Bestrahlungsplanungin der Krebstherapie

Viele Entscheidungssituationen sind von der Struktur her multikriteriell und werdenin der Praxis dennoch haufig wie Probleme mit nur einer Zielfunktion behandelt. EinBeispiel hierfur ist das aktuelle Problem der optimalen Strahlentherapieplanung in derMedizin (intensitatsmodulierte Strahlentherapie, IMRT). Das Ziel hierbei ist es einenmalignen Tumor im Korper des Patienten mit Hilfe von Bestrahlung zu zerstorenbzw. zu verkleinern und gleichzeitig die umliegenden Gewebe zu schonen (siehe u. a.[1], [18], [34], [78], [80], [125]).Diese Problemstellung ist multikriteriell, da der Arzt zum einen das Ziel verfolgt,den Tumor mit einer ausreichend hohen Dosis zu bestrahlen, und gleichzeitig dieumliegenden Organe und Gewebe, die dadurch belastet werden, moglichst gut zuschonen. Dabei kann der Mediziner zudem zwischen der verschieden starken Schonungder einzelnen umliegenden Organe abwagen und z.B. ein Organ zulasten eines andereneiner geringeren Bestrahlung aussetzen.Dieses multikriterielle Optimierungsproblem wurde bisher meist durch einen Gewich-tungsansatz gelost, d. h. die verschiedenen Zielfunktionen wurden mit Hilfe einer ge-wichteten Summe zu einer Funktion zusammengefasst. Das Problem hierbei liegtdarin, dass die Wahl der Gewichte keine klinische Bedeutung hat, und sich einemvom Arzt bevorzugten Bestrahlungsplan nur durch ein muhsames

”Trial-and-Error“-

Verfahren angenahert werden kann ([78], S.224). Daher wurde von Hamacher undKufer ([53], [78]) ein multikriterieller Losungsansatz entwickelt. Die Zahl der betrach-teten Zielfunktionen liegt dabei meist zwischen 4 und 15 je nach Anzahl der demTumor umgebenden gesunden Organen, den sog. Risikoorganen. Bei der Losung die-ser multikriteriellen Optimierungsprobleme stellt sich jedoch heraus, dass meist nurwenige der Zielfunktionen direkt miteinander in Konkurrenz treten, wohingegen dieanderen im Schatten der starker dominierenden Zielsetzungen liegen.Aufbauend auf diesem Wissen werden wir zwei bzw. drei besonders stark miteinanderin Konkurrenz stehende Zielsetzungen herausgreifen, die die anderen Zielsetzungendominieren. Wir reduzieren das hoherdimensionale multikriterielle Optimierungspro-blem also auf ein bi- bzw. trikriterielles Problem. Die weiteren Zielfunktionen, die

Page 129: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.1 Problembeschreibung mit bikriteriellem Ansatz 117

im Schatten der dominierenden Zielsetzungen stehen, werden in die Restriktionenmitaufgenommen. Unser Ziel ist es, die gesamte effiziente Losungsmenge (bzgl. dernaturlichen Halbordnung) zu beschreiben und dem Mediziner zur Verfugung zu stel-len.Da diese jedoch im Allgemeinen sehr groß ist, bestimmen wir mit Hilfe des in Ka-pitel 4 vorgestellten Verfahrens eine diskrete Approximation der Losungsmenge, dieentsprechend unserer Qualitatskriterien moglichst gut sein soll, also moglichst aquidi-stante Approximationspunkte besitzen soll (wie auch in [78], S.229 gefordert). Damitkann der Mediziner zwischen allen effizienten Losungen den seinem Erachten nachbesten Bestrahlungsplan auswahlen. Zudem kann er die einzelnen Losungen mitein-ander vergleichen, um zu erkennen, ob eine geringe Verbesserung bzgl. eines Organseine ubermaßig starke Zunahme der Belastung eines anderen Organs bewirkt, undkann diese sog.

”trade-off“-Information in seine Entscheidung miteinfließen lassen.

6.1 Problembeschreibung mit bikriteriellem Ansatz

Wir betrachten als Beispiel die Entwicklung eines Bestrahlungsplans fur einen Patien-ten mit einem Prostatakarzinom basierend auf einem Modell und Daten von Kufer etal. ([77]). Dabei wird der Tumor von 5 aquidistanten Bestrahlungsquellen bestrahlt,die sich in 400 einzeln steuerbare Strahlen, den sogenannten Bixels, zerlegen lassen.Wir setzen also voraus, dass die Einstrahlgeometrie festgelegt ist, und beschranken unsauf die Optimierung der Bestrahlungsintensitaten. Zur Optimierung der Einstrahlgeo-metrie siehe [33], [35], [111] und die sich darin befindlichen Referenzen. Der relevanteKorperausschnitt des Patienten wird mit Hilfe einer Computertomografie (CT) darge-stellt (siehe Abbildungen 6.11, 6.21) und entsprechend der Schichtdicke der CT-Bilderin Wurfel zerlegt, den sogenannten Voxels vj , j = 1, . . . , 435 501. Die sehr hohe Zahlan Voxeln (435 501) kann durch ein Clustering-Verfahren ([78], [109]) auf 11 877 redu-ziert werden, indem Voxel mit gleicher Strahlenbelastung zusammengefasst werden.Diese Cluster bezeichnen wir mit c1, . . . , c11877. Jedem Cluster ist eines der siebenbetrachteten Volumina (Organe) V0, . . . , V6 zugeordnet.Die vom Mediziner als relevante Risikoorgane abgegrenzten Gewebe sind in diesemBeispiel das Rektum (Volumen V2), der linke (V3) und rechte (V4) Huftknochen, dasumliegende Restgewebe (V5) und die Blase (V6), siehe auch Abb. 6.3. Untersuchungenvon Kufer et al. ([77]) haben gezeigt, dass sich vor allem Blase (V6) und Rektum(V2) als Gegenspieler erweisen, d. h. die Schonung bzw. Belastung der Blase und desRektums stehen in engem, entgegengesetztem Zusammenhang. Wir werden uns daherauf diese beiden Organe als Zielfunktionen konzentrieren.Die Strahlung durch das Bixel Bi (i ∈ 1, . . . , 400) in den Cluster cj (j ∈ 1, . . . , 11 877)bei Einheitsstrahlung ist durch die Bestrahlungsmatrix P = (Pji)j=1,...,11 877,i=1,...,400

gegeben ([53], S.149, [125], Kapitel 3). Bezeichnet x ∈ R400 das Intensitatsprofil der

Bixel, so wird durch Pjx (mit Pj der j-ten Zeile der Matrix P ) die Strahlenmen-

1mit freundlicher Genehmigung von Dr.med. R. Janka, Radiologisches Institut, Univ. Erlangen-Nurnberg

Page 130: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.1 Problembeschreibung mit bikriteriellem Ansatz 118

Abbildung 6.1: Axialer CT-Schnitt.1

ge in dem Cluster cj verursacht durch die verschiedenen Bixel Bi, i = 1, . . . , 400bei Bestrahlungsplan x beschrieben. Um die Strahlenbelastung der einzelnen Orga-ne messen und vergleichen zu konnen, verwenden wir das Konzept der

”equivalent

uniform dose“(EUD) ([13]) unter Benutzung von Niemierko’s EUD ([93]) basierendauf p-Normen. Dabei ist die EUD definiert als diejenige gleichmaßig uber das ge-samte Organ wirkende Bestrahlungsmenge, die den gleichen biologischen Effekt hat,wie die tatsachliche ungleichmaßige Bestrahlung, bewirkt durch die Bestrahlungsin-tensitat x und dargestellt durch Px, in diesem Organ. Dabei wird die Abweichungder Bestrahlungsmenge in einem kritischen Organ Vk, k ∈ 2, . . . , 6, von einer obe-ren gewunschten Bestrahlungsgrenze Uk, der sog. Toleranzdosis, durch die konvexeFunktion

EUDk(x) =1

Uk

1

N(Vk)

j|vj∈Vk(Pjx)pk

1

pk

− 1 mit pk ∈ [1,∞[

gemessen, mit N(Vk) der Anzahl der Voxel im Organ Vk ([125], S.33). Der Expo-nent pk ist organabhangig. So verwendet man große Werte fur pk bei einer seriellenStruktur des Organs wie beim Ruckenmark, was der Bestimmung der Maximaldosisin einem der Voxel entspricht, und eher kleine Werte nahe 1 fur pk bei eher parallelenBaustrukturen wie der Leber oder der Lunge, was eher der Ermittlung eines Mit-telwertes gleichkommt. Die statistisch ermittelten Werte fur pk, Uk, die Anzahl derVoxel N(Vk) sowie eine maximale obere Schranke fur die Bestrahlungsbelastung Qk

der Risikoorgane Vk, k = 2, . . . , 6, sind in der folgenden Tabelle dargestellt.

Page 131: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.1 Problembeschreibung mit bikriteriellem Ansatz 119

Abbildung 6.2: Coronarer CT-Schnitt mit Markierung der Hohe des axialen Schnittsaus Abb. 6.1.1

Organnummer (k) pk Uk Qk N(Vk)Rektum 2 3.0 30 36 6 459Linker Huftknochen 3 2.0 35 42 3 749Rechter Huftknochen 4 2.0 35 42 4 177Restgewebe 5 1.1 25 35 400 291Blase 6 3.0 35 42 4 901

Wir betrachten als Zielfunktionen die Minimierung der Abweichung der EUD-Wertevon der Toleranzdosis in den Organen Blase (Volumen V6) und Rektum (Volumen V2),also

EUDk(x) → min! k = 2, 6.

Da wir nur mit zu Clustern zusammengefassten Voxeln arbeiten, lautet die Formulie-rung der Zielfunktionen EUDk fur uns

EUDk(x) =1

Uk

1

N(Vk)

j|cj∈VkN(cj) · (Pjx)pk

1

pk

− 1, k = 2, 6

mit N(cj) der Anzahl der Voxel in dem Cluster cj. Dabei ist

j|cj∈VkN(cj) = N(Vk)

Page 132: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.1 Problembeschreibung mit bikriteriellem Ansatz 120

ZielgewebeProstata

Risiko­organe

Abbildung 6.3: Schematischer axialer Korperschnitt mit Ziel- und Risikoorganen.

fur k = 2, . . . , 6. Die Strahlenbelastung der anderen kritischen Organe V3, V4 und V5

soll dabei unterhalb der maximalen oberen Schranke Qk, k ∈ 3, 4, 5, liegen. Wirhaben damit Restriktionen der Form

Uk(EUDk(x) + 1) ≤ Qk, k ∈ 3, 4, 5, (6.1)

aquivalent zur Formulierung

1

N(Vk)

j|cj∈VkN(cj) · (Pjx)pk

1

pk

≤ Qk, k ∈ 3, 4, 5.

Es ist p3 = p4 = 2 und p5 = 1.1. Damit konnen wir diese Restriktionen durch diefolgenden Umformungen ersetzen:

j|cj∈V3N(cj) · (Pjx)2 ≤ Q2

3 · N(V3) = 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ Q2

4 · N(V4) = 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ Q1.1

5 · N(V5) = 19 991 744.

Auch fur die Strahlendosen im Ziel-Bereich, dem sogenannten Boost- und Target-Bereich, verlangen wir, dass eine obere Grenze nicht uberschritten wird, da dies einerVerbrennung im Korper des Patienten entspricht, und auch eine gewisse Homogenitatin der Bestrahlung gegeben sein soll. Zudem muss eine untere Grenze uberschrittenwerden, damit die malignen Zellen sicher zerstort werden (Kurativdosis). Wir unter-scheiden dabei zwischen dem sogenannten Target-Bereich (V0) und einem besondersstark zu bestrahlenden Boost-Bereich (V1). Da diese Bedingungen fur jede einzelne

Page 133: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 121

Zelle des Target- und Boost-Bereichs erfullt sein mussen, ergeben sich fur jeden Clu-ster cj der Volumina V0 und V1 die folgenden Restriktionen

L0(1 − ε0) ≤ Pjx ≤ L0(1 + δ0), ∀j mit cj ∈ V0,bzw. L1(1 − ε1) ≤ Pjx ≤ L1(1 + δ1), ∀j mit cj ∈ V1,

(6.2)

mit L0, L1, ε0, ε1, δ0 und δ1 vom Mediziner zu bestimmende Konstanten, die fur unserBeispiel der folgenden Tabelle entnommen werden konnen.

Organnummer (k) Lk δk εk

Target-Bereich 0 67 0.11 0.11Boost-Bereich 1 72 0.07 0.07

Dabei enthalt der Target-Bereich 8 593 Cluster und der Boost-Bereich 302 Cluster.Wir haben also 17 790 weitere Ungleichungsrestriktionen.Damit lautet das von uns betrachtete bikriterielle Optimierungsproblem

min

(f1(x)f2(x)

)

=

(EUD6(x)EUD2(x)

)

Nb.∑

j|cj∈V3N(cj) · (Pjx)2 ≤ 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ 19 991 744,

L0(1 − ε0) − Pjx ≤ 0, ∀j mit cj ∈ V0,

Pjx − L0(1 + δ0) ≤ 0, ∀j mit cj ∈ V0,

L1(1 − ε1) − Pjx ≤ 0, ∀j mit cj ∈ V1,

Pjx − L1(1 + δ1) ≤ 0, ∀j mit cj ∈ V1,

xi ≥ 0, i = 1, . . . , 400.

(6.3)

Wir betrachten die Minimallosungen bzgl. der naturlichen Halbordnung. Bei diesembikriteriellen Optimierungsproblem sind sowohl die Zielfunktionen als auch die Re-striktionsmenge konvex.

6.2 Losung des bikriteriellen Optimierungsproblems

Wir bestimmen einzelne Approximationspunkte der Losungsmenge des Problems (6.3)indem wir die skalaren Ersatzprobleme (SP(a, r)) mit den Parametern a = (a1, a2) ∈R

2 und r = (r1, r2) ∈ R2 losen. Es sei (SP2(a, r)) also

min t

Nb. a1 + t r1 − EUD6(x) ≥ 0,a2 + t r2 − EUD2(x) ≥ 0,t ∈ R, x ∈ Ω2

(6.4)

Page 134: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 122

mit Ω2 der Restriktionsmenge von (6.3) gegeben durch

Ω2 = x ∈ R400+ | ∑

j|cj∈V3N(cj) · (Pjx)2 ≤ 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ 19 991 744,

L0(1 − ε0) ≤ Pjx ≤ L0(1 + δ0), ∀j mit cj ∈ V0,L1(1 − ε1) ≤ Pjx ≤ L1(1 + δ1), ∀j mit cj ∈ V1.

Das Problem (6.4) hat damit 401 Variablen, 17 795 zum Teil nichtlineare Restriktionenund 400 der Variablen sind nach unten beschrankt.Durch Variierung des Parameters a und Losen der Probleme (SP2(a, r)) fur dieseParameter bestimmen wir nun verschiedene Approximationspunkte der Losungsmengedes Problems (6.3). Der Parameter r sei fest r = (1, 1)⊤. Den Parameter a wahlen wiraus der Hyperebene

H := y = (y1, y1) ∈ R2 | y1 = 0 = y ∈ R

2 | (1, 0) · y = 0.

Es ist also b = (1, 0)⊤, β = 0.Wir gehen im weiteren vor wie im Algorithmus zur Parametersteuerung im bikri-teriellen Fall in Abschnitt 4.2 beschrieben. Wir wahlen M1 = 100 000 mit M1 >f2(x) − f1(x) fur alle x ∈ Ω2. Wir verwenden nur eine Approximation ersten Gradesund setzen daher u = 0. Zunachst losen wir also das Problem (SP2(a

1, r)) fur denParameter a1 = (0, M1)⊤ mit Minimallosung (t1, x1) aquivalent zur Bestimmung derMinimallosung x1 von min

x∈Ω2

f1(x) = minx∈Ω2

EUD6(x). Damit ist der Parameter a1 gegeben

durch

a1 := f(x1) − 1

b⊤r(b⊤f(x1) − β) =

(0

f2(x1) − f1(x

1)

)

=

(0

0.3004

)

.

Als zweiten Schritt losen wir das Problem minx∈Ω2

f2(x) = minx∈Ω2

EUD2(x) mit der Mini-

mallosung xE zur Bestimmung von

aE :=

(0

f2(xE) − f1(x

E)

)

=

(0

−0.4020

)

.

Wir betrachten im weiteren also nur Parameter a aus der Menge

Ha := y ∈ R2 | y = λ a1 + (1 − λ) aE, λ ∈ [0, 1]

= y ∈ R2 | y1 = 0, y2 = λ · 0.3004 + (1 − λ) · (−0.4020), λ ∈ [0, 1].

Es sei nun l = 1 und wir bestimmen in Schritt 3 ausgehend vom Parameter al denParameter al+1. Dieser ist gegeben durch

al+1 := al +α

‖v + (−µl)vr‖ · v

Page 135: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 123

mit v := aE − a1 = (0,−0.7024)⊤, α dem von uns gewunschte Abstand zwischen denApproximationspunkten der Effizienzmenge und µl dem Lagrange-Multiplikator zurRestriktion al +t r−f(x) ≥2 02 des Optimierungsproblems (SP2(a

l, r)) (bzw. fur l = 1zu a1 + t r − f(x) ≥2 02). Dieses Vorgehen setzen wir fort bis al+1 6∈ Ha, d. h. solangeal+1

2 > aE2 .

Die fur α = 0.1 und r = (1, 1)⊤ erhaltene Approximation mit 8 Punkten (mitein-ander linear verbunden) der effizienten Menge ist in Abb. 6.4 dargestellt. Mit Plus-

−0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5 0.6

−0.4

−0.3

−0.2

−0.1

0

0.1

0.2

0.3

0.4

EUD6

EU

D2

Abbildung 6.4: Approximation der effizienten Menge fur α = 0.1.

Zeichen sind dabei die Parameter a auf der Hyperebene H eingezeichnet. Der Bereichder Abweichung der EUD-Werte von der Toleranzdosis, also die Werte der FunktionEUDk(·) des Organs Rektum (V2) bewegt sich fur alle EP-minimalen Bestrahlungs-plane x1, . . . , x8 im Bereich von

[−0.0252, 0.3150],

und fur das Organ Blase (V6) im Bereich von

[0.0145, 0.3768].

Die Approximation fur α = 0.1 mit den 8 Punkten x1,. . . ,x8 besteht aus den in der fol-genden Tabelle angegebenen effizienten Punkten. Es sind ebenfalls die FunktionswerteEUDk(x

i), i = 1, . . . , 8, der anderen Risikoorgane linker (V3) und rechter Huftknochen

Page 136: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 124

(V4), sowie Restgewebe (V5) eingetragen. Weiterhin ist der Abstand zwischen den ein-zelnen Approximationspunkten

δi := ‖f(xi) − f(xi−1)‖2,

der von uns als α = 0.1 angestrebt wurde, angegeben.

App.punkt i = 1 i = 2 i = 3 i = 4 i = 5 i = 6 i = 7 i = 8EUD2(x

i) 0.3150 0.2165 0.1240 0.0340 -0.0078 -0.0245 -0.0278 -0.0252EUD6(x

i) 0.0145 0.0161 0.0275 0.0551 0.1545 0.2509 0.3476 0.3768EUD3(x

i) 0.2000 0.2000 0.2000 0.2000 0.1871 0.1587 0.1388 0.1477EUD4(x

i) 0.1918 0.2000 0.1997 0.1994 0.1560 0.1138 0.0987 0.1161EUD5(x

i) -0.4117 -0.4228 -0.4297 -0.4303 -0.4207 -0.4075 -0.4024 -0.4027δi - 0.0984 0.0933 0.0941 0.1078 0.0978 0.0968 0.0293

Der zu kleine Abstand δ8 = 0.0293 kommt dabei dadurch zu Stande, dass wir amEnde unserer Approximation noch den Punkt f(xE) = f(x8), den wir gleich zu Beginnberechnet haben, anfugen.Betrachten wir das Verhalten der Werte der einzelnen Organe fur die verschiedenenEP-minimalen Bestrahlungsplane, so sehen wir, dass sich die Organe Rektum (V2),rechter (V3) und linker Huftknochen (V4) gleichgerichtet verhalten (abnehmende Wertefur x1, . . . , x8), wobei die Anderungen im Rektum am starksten sind. Das Organ Blase(V6) verhalt sich dem entgegengesetzt und das Restgewebe (V5) ist dagegen relativneutral und die Werte schwanken nur leicht.Es war in den Restriktionen gefordert, dass fur alle x ∈ Ω2 sowohl Pj(x) ∈ [59.63, 74.37]fur j mit cj ∈ V0 als auch Pjx ∈ [66.96, 77.04] fur j mit cj ∈ V1 gilt. Fur alle Appro-ximationspunkte gilt naturlich, dass sie diese Bedingungen erfullen. Insbesondere giltfur xi, i = 1, . . . , 8:

mini∈1,...,8 minj|cj∈V0 Pjxi = 59.63, maxi∈1,...,8 maxj|cj∈V0 Pjx

i = 74.37,mini∈1,...,8 minj|cj∈V1 Pjx

i = 66.96, maxi∈1,...,8 maxj|cj∈V1 Pjxi = 77.04.

Die Funktionswerte EUDk(·) messen die Abweichung der Bestrahlung in den Voxelneines kritischen Organs Vk von der oberen gewunschten Bestrahlungsgrenze Uk. DieBestrahlung eines Organs Vk durch einen Bestrahlungsplan x selbst wird also durchden Ausdruck

Ek(x) := Uk · (EUDk(x) + 1) =1

N(Vk)

j|cj∈VkN(cj) · (Pjx)pk (6.5)

angegeben. Dieser Wert soll nach Moglichkeit unter der Grenze Uk bleiben und alsmaximal zugelassene Grenze unterhalb von Qk. In der folgenden Tabelle sind die mi-nimalen und maximalen Bestrahlungswerte Ek(·) der Organe k = 2, · · · , 6, fur unsereApproximationspunkte der effizienten Menge, also die Bestrahlungsplane x1,. . . ,x8,sowie nochmals die vorgegebenen Grenzen Uk und Qk angegeben:

Page 137: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 125

k mini∈1,...,8 Ek(xi) maxi∈1,...,8 Ek(x

i) Uk Qk

2 29.17 39.45 30 363 39.86 42.00 35 424 38.45 42.00 35 425 14.24 14.94 25 356 35.51 48.19 35 42

Dabei sind es vor allem diejenigen Bestrahlungsplane, die die Blase zu Lasten desRektums schonen, die bei den Organen linker- und rechter Huftknochen eine Strah-lenbelastung bis an die Obergrenze von 42 bewirken.Die Bestrahlung der Organe V2 und V6 haben unsere Zielfunktionen definiert. Dabeisehen wir, dass es Losungen gibt, die die maximale obere Bestrahlungsgrenze Qk furjeweils eines dieser Organe uberschreiten. Dies sind die Bestrahlungsplane x1 und x2

fur das Rektum und x6, x7, x8 fur die Blase. Der Mediziner kann sich also dafur ent-scheiden eine der Losungen auszuwahlen, bei der fur eines dieser Organe die maximaleempfohlene Strahlendosis Qk uberschritten wird, oder er greift auf eine der Losungenx3, x4 oder x5 zuruck.Wir nehmen nun an, der behandelnde Arzt will keine Uberschreitung der Strahlen-belastung uber Qk fur ein Organ zulassen, ist aber dann an einer großeren Auswahleffizienter Punkte und einer genaueren Approximation des fur ihn interessanten Be-reichs der effizienten Menge interessiert.Wir losen daher das von uns betrachtete bikriterielle Optimierungsproblem erneut,betrachten aber nur einen Ausschnitt der bisherigen effizienten Menge indem wir diezusatzlichen Restriktionen

30 · (EUD2(x) + 1) ≤ 36 (6.6)

sowie35 · (EUD6(x) + 1) ≤ 42 (6.7)

analog zu den Restriktionen (6.1) hinzufugen. Es ist dann

Ω2 = Ω2 ∩ x ∈ R400 | 30 · (EUD2(x) + 1) ≤ 36, 35 · (EUD6(x) + 1) ≤ 42.

Das Ergebnis mit 10 Approximationspunkten ist in Abb. 6.5 fur einen Wert vonα = 0.04 dargestellt. Dann ist

f(x1) =

(EUD6(x

1)EUD2(x

1)

)

=

(0.01590.2000

)

mit f1(x1) = min

x∈Ω2

f1(x) und

f(xE) =

(EUD6(x

E)EUD2(x

E)

)

=

(0.2000−0.0197

)

mit f2(xE) = min

x∈Ω2

f2(x). Damit haben wir die Parametermenge

H1 = y ∈ R2 | y1 = 0, y2 = λ · 0.1841 + (1 − λ) · (−0.2197), λ ∈ [0, 1].

Page 138: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.2 Losung des bikriteriellen Optimierungsproblems 126

−0.2 −0.1 0 0.1 0.2 0.3 0.4−0.25

−0.2

−0.15

−0.1

−0.05

0

0.05

0.1

0.15

0.2

0.25

EUD6

EU

D2

Abbildung 6.5: Approximation eines Ausschnitts der effizienten Menge fur α = 0.04.

Die EUD-Werte des Rektums bewegen sich fur die 10 gefundenen EP-minimalen Punk-te im Bereich von

[−0.0197, 0.2000]

und die EUD-Werte der Blase im Bereich von

[0.0159, 0.2000].

In der folgenden Tabelle sind die Zielfunktionswerte der 10 Approximationspunktex1,. . . ,x10, sowie die EUD-Werte der weiteren Risikoorgane und die Abstande δi derApproximationspunkte eingetragen.

Page 139: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.3 Problembeschreibung mit trikriteriellem Ansatz 127

App.punkt i = 1 i = 2 i = 3 i = 4 i = 5EUD2(x

i) 0.2000 0.1625 0.1197 0.0819 0.0515EUD6(x

i) 0.0159 0.0184 0.0187 0.0278 0.0374EUD3(x

i) 0.1999 0.1998 0.2000 0.2000 0.2000EUD4(x

i) 0.1984 0.1998 0.2000 0.1999 0.2000EUD5(x

i) -0.4250 -0.4292 -0.4334 -0.4342 -0.4314δi - 0.0375 0.0429 0.0389 0.0319App.punkt i = 6 i = 7 i = 8 i = 9 i = 10EUD2(x

i) 0.0228 0.0012 -0.0126 -0.0197 -0.0197EUD6(x

i) 0.0615 0.0964 0.1376 0.1796 0.2000EUD3(x

i) 0.2000 0.1998 0.1963 0.1776 0.1790EUD4(x

i) 0.2000 0.1429 0.1125 0.1063 0.1143EUD5(x

i) -0.4293 -0.4176 -0.4156 -0.4122 -0.4128δi 0.0375 0.0411 0.0434 0.0426 0.0204

Wie wir sehen ist der Abstand zwischen den einzelnen Approximationspunkten δi, i =2, . . . , 10, wieder nahe dem von uns vorgegebenen Abstand α = 0.04. Wir konnen auchwieder sehen, dass die Starke der Strahlenbelastung in den Organen linker (V3) undrechter Huftknochen (V4) der dominierenden Zielfunktion EUD2 folgt. Wir vergleichenerneut den minimalen bzw. maximalen Bestrahlungswert Ek(·) in den einzelnen Or-ganen Vk, k = 2, · · · , 6, fur die EP-minimalen Bestrahlungsplane x1,. . . ,x10 mit denempfohlenen Grenzen.

k mini∈1,...,10 Ek(xi) maxi∈1,...,10 Ek(x

i) Uk Qk

2 29.41 36.00 30 363 41.22 42.00 35 424 38.72 42.00 35 425 14.15 14.69 25 356 35.55 42.00 35 42

Wir sehen, dass in allen Organen die maximale obere Bestrahlungsgrenze Qk einge-halten wurde. Zwischen den 10 Approximationspunkten der effizienten Menge kannder Mediziner nun den seinem Erachten nach besten Bestrahlungsplan auswahlen. Ermuss dafur abwagen, ob er eher die Blase schont und damit das Rektum und dieHuftknochen starker belastet, oder ob er eher das Rektum schont zulasten der Bla-se. Naturlich kann der Feinheitsgrad α = 0.04 der Approximation, gerade in fur denMediziner interessanten Bereichen der effizienten Menge, noch weiter verbessert wer-den, so dass der Entscheidungstrager noch weitere effiziente Bestrahlungsplane zurAuswahl hat. Dabei bietet sich auch ein Interpolationsverfahren an ([125], S.70).

6.3 Problembeschreibung mit trikriteriellem An-

satz

Wir betrachten erneut das Problem der Bestrahlungsplanung eines Prostatakarzinomsmit den Daten wie in Abschnitt 6.1 beschrieben. Wir haben bisher nur die Kriteri-

Page 140: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.3 Problembeschreibung mit trikriteriellem Ansatz 128

en Strahlenbelastung der gesunden Organe Blase und Rektum berucksichtigt. Es hatsich jedoch gezeigt, dass fur eine erfolgreiche Behandlung nicht nur eine ausreichendhohe Bestrahlung im Boost- und Target-Bereich notig ist, sondern dass die Bestrah-lung auch moglichst homogen sein muss ([53], S.150). Damit ergibt sich als weitereZielsetzung neben

EUDi(x) → min! fur i = 2, 6

noch eine Minimierung der Abweichung der Bestrahlungsdosis in den Voxeln desBoost- und Target-Bereichs von einer Zieldosis L0 bzw. L1, also

H(x) :=

√√√√

j|cj∈V0N(cj) (Pjx − L0)2 +

j|cj∈V1N(cj) (Pjx − L1)2

N(V0) + N(V1)→ min!

Dabei bezeichnet N(cj) die Anzahl der Voxel in dem Cluster cj und es ist wieder

j|cj∈VkN(cj) = N(Vk) fur k = 0, 1.

Fur unser Problem gilt L0 = 67, L1 = 72, N(V0) = 13 238 und N(V1) = 2 686. DieseForderung nach Bestrahlungshomogenitat im Tumor wirkt den beiden anderen Zie-len der Minimierung der Strahlenbelastung in Blase und Rektum entgegen. Die dreiZielfunktionen bilden damit die fur den Mediziner besonders interessanten Zielset-zungen ab, zwischen deren unterschiedlichen Erreichungsgraden er abwagen muss, daes keinen Bestrahlungsplan gibt, der alle drei Zielfunktionen gleichzeitig bestmoglicherfullt.Als Restriktionen haben wir wieder die Beschrankung der Strahlenschadigung in denweiteren Risikoorganen linker (V3) und rechter (V4) Huftknochen sowie Restgewebe(V5) auf die Grenze Qk fur k ∈ 3, 4, 5:

Uk(EUDk(x) + 1) ≤ Qk, k = 3, 4, 5.

Umformuliert erhalten wir damit wieder die Restriktionen∑

j|cj∈V3N(cj) · (Pjx)2 ≤ Q2

3 · N(V3) = 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ Q2

4 · N(V4) = 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ Q1.1

5 · N(V5) = 19 991 744.

Wir nehmen zusatzlich die Restriktionen (6.6) und (6.7), also

30 · (EUD2 + 1) ≤ 36 und 35 · (EUD6 + 1) ≤ 42

mit auf, um Losungen, die die maximale Bestrahlungsgrenze Qk fur k = 2, 6 uber-schreiten, auszuschließen.

Page 141: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 129

Um eine Mindestbestrahlung im Boost- und Target-Bereich zu garantieren und gleich-zeitig eine Maximaldosis nicht zu uberschreiten, kommen noch die Restriktionen ent-sprechend (6.2) hinzu. Damit ergibt sich das trikriterielle Optimierungsproblem dieserModellierung zu

min

F1(x)F2(x)F3(x)

:=

EUD6(x)EUD2(x)

H(x)

Nb.∑

j|cj∈V3N(cj) · (Pjx)2 ≤ 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ 19 991 744,

30 · (EUD2 + 1) − 36 ≤ 0,

35 · (EUD6 + 1) − 42 ≤ 0,

L0(1 − ε0) − Pjx ≤ 0, ∀j mit cj ∈ V0,

Pjx − L0(1 + δ0) ≤ 0, ∀j mit cj ∈ V0,

L1(1 − ε1) − Pjx ≤ 0, ∀j mit cj ∈ V1,

Pjx − L1(1 + δ1) ≤ 0, ∀j mit cj ∈ V1,

xi ≥ 0, i = 1, . . . , 400.

(6.8)

Wir betrachten die Minimallosungen von (6.8) bzgl. der naturlichen Halbordnung.Sowohl die Zielfunktionen also auch die Restriktionsmenge sind konvex.

6.4 Losung des trikriteriellen Optimierungsproblems

Wir bestimmen wieder einzelne Approximationspunkte der Effizienzmenge des Opti-mierungsproblems (6.8), indem wir die skalaren Ersatzprobleme (SP3(a, r)) mit Pa-rametern a, r ∈ R

3 losen:

min t

Nb. a1 + t r1 − EUD6(x) ≥ 0,a2 + t r2 − EUD2(x) ≥ 0,a3 + t r3 − H(x) ≥ 0,t ∈ R, x ∈ Ω3

(6.9)

Page 142: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 130

mit Ω3 der Restriktionsmenge von (6.8) gegeben durch

Ω3 = x ∈ R400+ | ∑

j|cj∈V3N(cj) · (Pjx)2 ≤ 6 613 236,

j|cj∈V4N(cj) · (Pjx)2 ≤ 7 368 228,

j|cj∈V5N(cj) · (Pjx)1.1 ≤ 19 991 744,

30 · (EUD2 + 1) − 36 ≤ 0,35 · (EUD6 + 1) − 42 ≤ 0,L0(1 − ε0) − Pjx ≤ 0, ∀j mit cj ∈ V0,Pjx − L0(1 + δ0) ≤ 0, ∀j mit cj ∈ V0,L1(1 − ε1) − Pjx ≤ 0, ∀j mit cj ∈ V1,Pjx − L1(1 + δ1) ≤ 0, ∀j mit cj ∈ V1.

Das Problem (6.9) hat damit 401 Variablen, 17 798 zum Teil nichtlineare Restriktionenund 400 der Variablen sind nach unten beschrankt.Wir arbeiten hier mit der ε-constraint-Methode als Spezialfall, d. h. wir wahlen

H = y ∈ R3 | y3 = 0 = y ∈ R

3 | (0, 0, 1)⊤y = 0und damit b = (0, 0, 1)⊤, β = 0. Weiterhin sei r = (0, 0, 1)⊤ fest. Das skalare Ersatz-problem lasst sich dann fur einen Parameter a = (ε1, ε2, 0)⊤ formulieren als

min H(x)Nb. EUD6(x) ≤ ε1,

EUD2(x) ≤ ε2,x ∈ Ω3.

(6.10)

Wir gehen im Weiteren vor wie im Algorithmus zur Parametersteuerung im trikriteri-ellen Fall mit Hilfe der ε-constraint-Methode in Abschnitt 4.3 beschrieben. Wir losendaher zunachst die Probleme

minx∈Ω3

EUDk(x), maxx∈Ω3

EUDk(x) fur k = 2, 6 (6.11)

mit den Minimalwerten −0.0141 fur k = 2 und 0.0158 fur k = 6 sowie den Maximal-werten 0.2000 fur k = 2 und 0.2000 fur k = 6. Wir betrachten nun nur noch Parametera = (ε1, ε2, 0) aus der Menge H0 mit

H0 = y ∈ R3 | y1 ∈ [0.0158, 0.2000], y2 ∈ [−0.0141, 0.2000], y3 = 0.

Wir wahlen N1 = N2 = 3 und setzen entsprechend Schritt 2 des Algorithmus ausAbschnitt 4.3

L1 = 0.2000−0.01583

= 0.0614 und

L2 = 0.2000−(−0.0141)3

= 0.0714.

Anschließend losen wir das Problem (6.10) fur die 9 Parameter ε = (ε1, ε2) ∈ E mit

E := ε ∈ R2 | ε1 = 0.0158 + (l1 + 1

2) L1, l1 ∈ 0, 1, 2,

ε2 = −0.0141 + (l2 + 12) L2, l2 ∈ 0, 1, 2

= ε ∈ R2 | ε1 ∈ 0.0465, 0.1079, 0.1693, ε2 ∈ 0.0216, 0.0929, 0.1643.

Page 143: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 131

Wir verwenden hierzu das in Matlab implementierte SQP-Verfahren mit 600 Itera-tionen und einem Neustart nach jeweils 150 Iterationsschritten. Wir erhalten damitfur den Parameter ε = (0.0465, 0.0216) keinen zulassigen Punkt. Fur die restlichen8 Parameter ε ∈ E resultiert das Verfahren in den folgenden 8 Approximations-punkten der Effizienzmenge des trikriteriellen Optimierungsproblems, die in Abb.6.6b) dargestellt sind. Dabei sind mit Kreismarkierungen die Bilder unter F (·) =(EUD6(·), EUD2(·), H(·)) der Losungen von (6.11) eingetragen. Die ParametermengeE selbst ist in Abb. 6.6a) veranschaulicht.

App.funkt i = 1 i = 2 i = 3 i = 4EUD2(x

i) 0.0465 0.0465 0.1079 0.1079EUD6(x

i) 0.0929 0.1643 0.0216 0.0929H(xi) 2.6981 2.2294 2.8866 2.1878EUD3(x

i) 0.2053 0.2040 0.2048 0.2008EUD4(x

i) 0.2320 0.2035 < 0 0.2007EUD5(x

i) < 0 < 0 < 0 < 0App.punkt i = 5 i = 6 i = 7 i = 8EUD2(x

i) 0.1079 0.1693 0.1693 0.1693EUD6(x

i) 0.1643 0.0216 0.0929 0.1643H(xi) 1.8446 2.5875 1.9813 1.6685EUD3(x

i) 0.2005 0.2047 < 0 0.2006EUD4(x

i) 0.2006 < 0 < 0 0.2004EUD5(x

i) < 0 < 0 < 0 < 0

Aufgrund der hohen Dimension der betrachteten Optimierungsprobleme zusammenmit der großen Anzahl an Restriktionen ergibt sich bei der Losung der skalaren Opti-mierungsprobleme die Problematik, dass wir bei einem Abbruch nach 600 Iterationennoch leicht unzulassige Losungen erhalten. So musste fur eine zulassige Losung z. B.EUD3(x

1) ≤ 0.2000 statt wie hier EUD3(x1) = 0.2053 gelten. Dies kann durch An-

wendung anderer Losungsverfahren oder langere Rechenzeiten beseitigt werden. Dabei

0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0.2

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

epsilon1

epsi

lon 2

0 0.1 0.2 0.3 0.4

−0.100.10.20.31.5

2

2.5

3

3.5

4

EUD6

EUD2

H

Abbildung 6.6: a) Parametermenge b) Approximation.

Page 144: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 132

0.02 0.04 0.06 0.08 0.1 0.12 0.14 0.16 0.18 0.2

0

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

epsilon1

epsi

lon 2

Abbildung 6.7: Erweiterte Parametermenge.

sind die Restriktionen

Uk(EUDk(x) + 1) ≤ Qk, k ∈ 2, 3, 4, 5, 6

entsprechend (6.1), (6.6) und (6.7) erfullt, wenn EUDk(x) ≤ 0.2 fur k ∈ 2, 3, 4, 6und EUD5(x) ≤ 0.4 gilt. Eine Erfullung dieser Restriktionen bedeutet, dass dieBestrahlung der jeweiligen Organe durch einen Bestrahlungsplan x, also der WertEk(x) entsprechend (6.5), maximal die absolute Obergrenze Qk erreicht. Gilt sogarEUDk(x) < 0 fur k ∈ 2, . . . , 6, so entspricht dies einer Bestrahlung im Organ Vk

von weniger als der gewunschten Obergrenze Uk.Es war in den Restriktionen gefordert, dass Pj(x) ∈ [59.63, 74.37] fur j mit cj ∈ V0

fur alle zulassigen Bestrahlungsplane x, sowie Pjx ∈ [66.96, 77.04] fur j mit cj ∈ V1,gilt. Auch diese Restriktionen sind nicht immer strikt eingehalten. Insbesondere giltfur xi, i = 1, . . . , 8:

mini∈1,...,8 minj|cj∈V0 Pjxi = 59.57, maxi∈1,...,8 maxj|cj∈V0 Pjx

i = 74.43,mini∈1,...,8 minj|cj∈V1 Pjx

i = 66.91, maxi∈1,...,8 maxj|cj∈V1 Pjxi = 77.10.

Mit der Menge

DH0,F = F (x) | x Minimallosung von (6.10) fur ein ε ∈ E

haben wir entsprechend dem Schritt 3 also eine erste Approximation der effizientenMenge des trikriteriellen Optimierungsproblems.Wir nehmen nun an, der Entscheidungstrager wahlt aus dieser Menge die fur ihnbesonders interessanten Punkte aus und dies seien die Punkte F (xi), i = 1, 2, 3, 4, 8.

Page 145: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 133

0 0.1 0.2 0.3 0.4

−0.100.10.20.31.5

2

2.5

3

3.5

4

EUD6

EUD2

H

Abbildung 6.8: Verfeinerte Approximation durch lokal aquidistante Punkte.

In der Umgebung dieser Punkte soll die Approximation der effizienten Menge nunlokal mit aquidistanten Punkten verfeinert werden. Wir wollen hierfur n1 = 1 Punkteje Richtung, also insgesamt 8 Punkte je ausgewahlten Punkt F (xi), bestimmen. Dieneuen Approximationspunkte sollen von dem vorherigen einen Abstand von α = 0.07haben. Damit ergeben sich z. B. fur den Punkt x2, der Losung von (6.10) zu demParameter ε = (0.0465, 0.1643) ist, entsprechend Schritt 4 des Algorithmus dieserArbeit unter Ausnutzung der Lagrange-Multiplikatoren die neuen Parameter ε =(ε1, ε2) zu ε1 ∈ 0.0401, 0.0465, 0.0529, ε2 ∈ 0.1493, 0.1643, 0.1793 und (ε1, ε2) 6=(0.0465, 0.1643). Fur diese jeweils 8 neuen Parameter je ausgewahlten Punkt losenwir das Optimierungsproblem (6.10) erneut.Die neu ausgewahlten Parameter sind in Abb. 6.7 rot eingetragen. Dabei kann mangut erkennen wie die Abstande zwischen den gewahlten Parametern variieren unddamit der verschiedenartigen Krummung der Effizienzmenge Rechnung tragen. DieBildmenge unter F der berechneten Losungen von (6.10) ist in Abb. 6.8 dargestellt.Wir haben damit also eine Approximation der effizienten Menge mit lokal aquidi-stanten Punkten. Betrachten wir z. B. die um den Punkt F (x2) neu bestimmtenApproximationspunkte und benutzen die in der Abb. 6.9 dargestellte Numerierungder Strecken zwischen benachbarten Punkten, so erhalten wir mit den Langen dieserStrecken die Abstande der Punkte zueinander, die dem angestrebten Abstand vonα = 0.07 relativ nahe kommen.Die Abstande sind:

Page 146: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

6.4 Losung des trikriteriellen Optimierungsproblems 134

Strecke: 1 2 3 4 5 6Lange: 0.0697 0.0801 0.0795 0.0814 0.0880 0.0679Strecke: 7 8 9 10 11 12Lange: 0.0736 0.0624 0.0663 0.0687 0.0640 0.0712

0.040.05

0.06

0.150.160.170.180.192.1

2.15

2.2

2.25

2.3

2.35

2.4

2.45

2.5

EUD6EUD

2

H

1

2

63

7

5

8

4

11

10

9 12

Abbildung 6.9: Ausschnitt der Approximationsmenge um F (x2).

Page 147: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

135

Kapitel 7

Anwendung in derBilevel-Optimierung

Mit Hilfe des Verfahrens dieser Arbeit ist es auch moglich Probleme aus der multikri-teriellen nichtlinearen Bilevel-Optimierung zu losen. Fur einen Uberblick zur Bilevel-Optimierung siehe [26], [27], [28] und die Referenzen darin. Anwendungen der Bilevel-Optimierung, auch speziell der multikriteriellen Bilevel-Optimierung, werden u. a. in[45], [130] vorgestellt. Einen interaktiven Losungsansatz fur nichtlineare multikriteri-elle Bilevel-Optimierungsprobleme findet man in [115], [116], doch beschaftigt sich dieuberwiegende Zahl der Arbeiten zur multikriteriellen Bilevel-Optimierung bisher mitlinearen Problemen (z. B. [94]).

7.1 Grundlagen der Bilevel-Optimierung

In der Bilevel-Optimierung, auch Zwei-Ebenen-Optimierung genannt, unterscheidetman zwischen den Variablen der unteren Ebene (lower level), im Folgenden x ∈ R

n1

(n1 ∈ N), und den Variablen der oberen Ebene (upper level), im Folgenden y ∈ Rn2

(n2 ∈ N). Fur ein festes y sei dann der Vektor x = x(y) Minimallosung eines durch yparametrisierten Optimierungsproblems, also

x(y) ∈ Ψ(y) := argminxf(x, y) | (x, y) ∈ G ⊂ Rn1

mit f : Rn1 × R

n2 → Rm1 , m1 ∈ N und G ⊂ R

n1 × Rn2 . Das von y abhangige Opti-

mierungsproblem

minx

f(x, y)

Nb. x ∈ G(y) := x ∈ Rn1 | (x, y) ∈ G (7.1)

wird dabei als Optimierungsproblem der unteren Ebene bezeichnet. Das ubergeord-nete Entscheidungsproblem lautet dann

”min

y“ F (x(y), y)

Nb. x(y) ∈ Ψ(y),

y ∈ G

(7.2)

Page 148: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.1 Grundlagen der Bilevel-Optimierung 136

mit F : Rn1 × R

n2 → Rm2 , m2 ∈ N und G ⊂ R

n2. Dabei handelt es sich um einmultikriterielles Bilevel-Optimierungsproblem wenn m1 ≥ 2 oder m2 ≥ 2 ist.Ist die Minimallosung des untergeordneten Optimierungsproblems (7.1) nicht eindeu-tig, so ist die Zielfunktion F (x(·), ·) fur festes y nicht eindeutig definiert, weswegen in(7.2) das Ziel der Minimierung

”min“ in Anfuhrungszeichen gesetzt wurde.

Beim Losen von Bilevel-Optimierungsproblemen wird daher haufig vorausgesetzt, dassdie Minimallosung des untergeordneten Optimierungsproblems (7.1) eindeutig ist. Istdas untergeordnete Optimierungsproblem jedoch multikriteriell (m1 ≥ 2), so kanndies nicht mehr angenommen werden. Im Falle der Nichteindeutigkeit wird oft dersogenannte optimistische Ansatz verwendet, ([27], S.5, [94], S.166), bei dem davonausgegangen wird, dass der Entscheidungstrager der unteren Ebene sich bei festemParameter y fur diejenige Minimallosung entscheidet, die fur die obere Ebene amgunstigsten ist. Es wird also das x(y) ∈ Ψ(y) gewahlt, welches die Zielfunktion F deroberen Ebene fur ein festes y minimiert, und somit

minx

F (x, y) | x ∈ Ψ(y) =: ϕ0(y).

Damit reduziert sich das Bilevel-Optimierungsproblem zu

miny

ϕ0(y)

Nb. y ∈ G.

Dies ist aquivalent zuminx,y

F (x, y)

Nb. x ∈ Ψ(y),

y ∈ G.

Wir wollen mit diesem optimistischen Ansatz speziell Bilevel-Probleme mit einer bi-kriteriellen Zielfunktion auf der unteren Ebene d. h. m1 = 2 losen. In der oberen Ebenebetrachten wir ebenfalls ein bikriterielles Optimierungsproblem, d. h. m2 = 2. Es istzwar mit dem hier vorgestellten Verfahren auch der Fall m2 > 2 einfach zu behandeln,doch beschranken wir uns zu Gunsten einer einfachen Visualisierbarkeit der Ergebnis-se auf m2 = 2. Wir verwenden jeweils die naturliche Halbordnung induziert durch denKegel R

2+. Der Parameter der unteren Ebene, also die Variable der oberen Ebene y,

sei eindimensional (n2 = 1), und die Menge G ⊂ R sei ein Intervall [c, d] mit c, d ∈ R.Wir betrachten also im Folgenden das spezielle bikriterielle Bilevel-Problem

miny

(F1(x, y)F2(x, y)

)

Nb. x ∈ My(f(G), R2+),

y ∈ [c, d]

(7.3)

mit My(f(G), R2+) der Menge der R

2+-minimalen Punkte des von y abhangigen bikri-

teriellen Optimierungsproblems

minx

(f1(x, y)f2(x, y)

)

Nb. x ∈ G(y) := x ∈ Rn | (x, y) ∈ G

Page 149: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.1 Grundlagen der Bilevel-Optimierung 137

fur G ⊂ Rn × R mit n = n1 ∈ N. Unter Verwendung des optimistischen Ansatzes

erhalten wir damit das Problem

minx,y

(F1(x, y)F2(x, y)

)

Nb. x ∈ My(f(G), R2+),

y ∈ [c, d].

Betrachten wir die Restriktionsmenge

Ω := (x, y) ∈ Rn × R | x ∈ My(f(G), R2

+), y ∈ [c, d]

dieses Optimierungsproblems, so ist diese identisch zur Losungsmenge des trikriteri-ellen Optimierungsproblems

minx,y

f(x, y) :=

f1(x, y)f2(x, y)

y

Nb. (x, y) ∈ G,y ∈ [c, d]

(7.4)

bezuglich der durch den Kegel K = R2+ ×0 definierten Halbordnung. Die Menge Ω

wird auch induzierte Menge genannt.

Satz 7.1.1 Es sei M die Menge der K-minimalen Punkte des trikriteriellen Opti-mierungsproblems (7.4) mit K = R

2+ × 0. Dann gilt Ω = M.

Beweis:

Es ist (x, y) ∈ Ω⇔ x ∈ My(f(G), R2

+) ∧ y ∈ [c, d]⇔ 6 ∃ x ∈ G(y) mit f(x, y) ∈ f(x, y) + R

2+ \ 02

∧ y ∈ [c, d] ∧ x ∈ G(y)⇔ 6 ∃ (x, y) ∈ G mit f(x, y) ∈ f(x, y) + R

2+ \ 02

∧ y = y ∧ y ∈ [c, d] ∧ (x, y) ∈ G⇔ 6 ∃ (x, y) ∈ G mit

f1(x, y)f2(x, y)

y

f1(x, y)f2(x, y)

y

+ (R2+ × 0) \ 03

∧ y ∈ [c, d] ∧ (x, y) ∈ G

⇔ 6 ∃(x, y) ∈ G mit f(x, y) ∈ f(x, y) + K \ 03∧ y ∈ [c, d] ∧ (x, y) ∈ G

⇔ (x, y) ∈ M.

2

Page 150: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.2 Diskretisierung der Restriktionsmenge 138

Konnen wir also die Losungsmenge des trikriteriellen Optimierungsproblems (7.4)bestimmen, so haben wir damit die Restriktionsmenge des ubergeordneten Optimie-rungsproblems ermittelt, welches wir damit losen konnen. Dieses reduziert sich damitzu minx,y(F1(x, y), F2(x, y)) | (x, y) ∈ M.Wir gehen daher wie folgt vor: Wir bestimmen eine diskrete Approximation derLosungsmenge des trikriteriellen Optimierungsproblems (7.4) wobei wir die spezielleStruktur dieses Problems ausnutzen. Fur die ermittelten Approximationspunkte be-rechnen wir anschließend die Bilder unter der Funktion F und wahlen hieraus dieEP-minimalen Punkte (bzw. ε-EP-minimalen Punkte entsprechend der Definition aufSeite 12) bzgl. F und dem Ordnungskegel R

2+ aus.

Je nach Feinheit der vorausgehenden Diskretisierung der Restriktionsmenge Ω, die wirdirekt steuern wollen, befinden sich die somit erhaltenen, nicht dominierten Punkte inder Nahe der tatsachlichen Losungsmenge des Problems. Durch gezielte Verfeinerungder Approximation der Restriktionsmenge in der Umgebung der bereits ermitteltenPunkte konnen wir unsere Losungen noch weiter verbessern.

7.2 Diskretisierung der Restriktionsmenge

Wie eben gezeigt ist die Restriktionsmenge des ubergeordneten Optimierungsproblemsgleich der Losungsmenge des trikriteriellen Optimierungsproblems (7.4), die wir da-her zunachst approximieren wollen. Wir verwenden hierfur wieder das Verfahren vonPascoletti und Serafini und wahlen damit die folgende parameterabhangige Diskreti-sierung (SP(a, r))

mint,x,y

t

Nb. a + t r − f(x, y) ∈ K,(x, y) ∈ G,y ∈ [c, d],t ∈ R

(7.5)

mit a ∈ R3 und r ∈ K = R

2+×0. Wir verwenden speziell a ∈ H := x ∈ R

3 | x2 = 0und r = (0, 1, 0)⊤.Dann ist ein Punkt (t, x, y) genau dann Minimallosung von (SP(a, r)) fur a = (a1, 0, a3)

⊤,r = (0, 1, 0)⊤, wenn (t, x) Minimallosung von (SP(a, r, a3)) gegeben durch

mint,x

t

Nb. a + t r − f(x, a3) ∈ R2+,

(x, a3) ∈ G,t ∈ R.

(7.6)

mit a = (a1, 0)⊤ ∈ H := x ∈ R2 | x2 = 0, a3 ∈ [c, d] und r = (0, 1)⊤ ist.

Page 151: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.2 Diskretisierung der Restriktionsmenge 139

Satz 7.2.1 Wir betrachten die Optimierungsprobleme (7.5) und (7.6) mit G = (x, y) ∈R

n+1 | gj(x, y) ≥ 0, j = 1, . . . , p. Ist der Punkt (t, x) Minimallosung von (SP(a, r, a3))mit a = (a1, 0)⊤ und r = (0, 1)⊤ sowie a3 ∈ [c, d] mit eindeutigen Lagrange-Multiplika-toren (µ1, µ2) ∈ R

2+ zur Restriktion a+t r−f(x, a3) ∈ R

2+ und ν ∈ R

p+ zu g(x, y) ≥p 0p,

so ist (t, x, a3) Minimallosung von (SP(a, r)) mit a = (a1, 0, a3)⊤, r = (0, 1, 0)⊤ und

Lagrange-Multiplikatoren (µ1, µ2, µ3) ∈ R3 mit

µ3 = −(

µ1∂f1

∂y(x, a3) + µ2

∂f2

∂y(x, a3)

)

+

p∑

j=1

νj∂gj

∂y(x, a3)

zur Restriktion a + t r − f(x, y) ∈ K und ν ∈ Rp+ dem Lagrange-Multiplikator zur

Restriktion g(x, y) ≥p 0p.

Beweis: Ist (t, x) Minimallosung von (SP(a, r, a3)), so gilt fur die zugehorige Lagrange-Funktion L

L(t, x, µ1, µ2, ν) = t −2∑

i=1

µi (ai + t ri − fi(x, a3)) −p∑

j=1

νjgj(x, a3)

und

∇(t,x)L(t, x, µ1, µ2, ν) =

(10n

)

+ µ1

(0

∇xf1(x, a3)

)

+µ2

(−1

∇xf2(x, a3)

)

−p∑

j=1

νj

(0

∇xgj(x, a3)

)

= 0n+1.

Betrachten wir nun die Restriktion a + t r − f(x, y) ∈ K von (SP(a, r)) mitK = R

2+ × 0 so ist diese aquivalent zu den Restriktionen

a + t r − f(x, y) ∈ R+2

unda3 − y ∈ 0.

Es folgt also direkt a3 = y. Damit sieht man sofort, dass (t, x, y) mit y = a3

Minimallosung von (SP(a, r)) ist. Die Lagrange-Funktion L zu (SP(a, r)) lautet(mit ν ∈ R

p+)

L(t, x, y, µ1, µ2, µ3, ν) = t −3∑

i=1

µi (ai + t ri − fi(x, y)) −p∑

j=1

νjgj(x, y)

Page 152: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.2 Diskretisierung der Restriktionsmenge 140

und damit ist (mit y = a3 und f3(x, y) = y)

∇(t,x,y)L(t, x, y, µ1, µ2, µ3, ν) =

10n

0

+ µ1

0∇xf1(x, a3)

∂f1

∂y(x, a3)

+µ2

−1∇xf2(x, a3)

∂f2

∂y(x, a3)

+ µ3

00n

1

−p∑

j=1

νj

0∇xgj(x, a3)

∂gj

∂y(x, a3)

.

Da auch ∇(t,x)L(t, x, y, µ1, µ2, µ3, ν) = 0n+1 gelten muss und die Lagrange-Mul-tiplikatoren von (SP(a, r, a3)) eindeutig sind, folgen aus

∇(t,x)L(t, x, µ1, µ2, ν) = 0n+1

die Gleichungen µ1 = µ1, µ2 = µ2 , ν = ν. Setzen wir nun

µ3 = µ3 = −µ1∂f1

∂y(x, a3) − µ2

∂f2

∂y(x, a3) +

p∑

j=1

νj∂gj

∂y(x, a3),

so ist auch ∂L∂y

(t, x, y, µ1, µ2, µ3, ν) = 0. 2

Es lassen sich naturlich auch Gleichungsrestriktionen analog miteinbeziehen.Suchen wir also Losungen von (SP(a, r)) mit a ∈ H und r = (0, 1, 0)⊤, so ist diesgleichbedeutend mit dem Losen von (SP(a, r, y)) fur a ∈ H , r = (0, 1)⊤ und fury = a3 ∈ [c, d].Um eine Approximation der Losungsmenge von (7.4) zu bestimmen diskretisieren wirdaher zunachst das Intervall [c, d] durch y1 := c ≤ y2 := y1 + β ≤ y3 := y1 + 2β ≤. . . ≤ yny

:= y1 + (ny − 1) β ≤ d (β ∈ R+, ny ∈ N) und approximieren jeweils fur yk

fest die Losungsmenge des bikriteriellen Optimierungsproblems

minx

(f1(x, yk)f2(x, yk)

)

Nb. (x, yk) ∈ G

(7.7)

durch Losen der skalaren Ersatzprobleme (SP(a, r, yk)).Wir wollen also eine Approximation der Restriktionsmenge bestimmen, indem wir dieLosungsmenge des Problems (7.4) approximieren, was wir wiederum erreichen wollen,indem wir fur verschiedene Werte von yk das Problem (7.7) losen. Dabei geht es unsbeim Losen von (7.7) jedoch nicht wie bisher um eine moglichst gute im Sinne vonmoglichst aquidistante Approximation der effizienten Menge, also der Bildmenge der

Page 153: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.2 Diskretisierung der Restriktionsmenge 141

minimalen Punkte unter f , sondern um eine moglichst aquidistante Approximationder Menge der minimalen Punkte selbst.Wir wahlen nun y = yk fest und bestimmen wie bisher verschiedene Approximations-punkte der Losungsmenge des bikriteriellen Problems (7.7) mit Hilfe der Skalarisierung(SP(a, r, yk)) durch die Wahl verschiedener Parameter a ∈ H mit a0

1 ≤ a11 ≤ a2

1 ≤ . . ..Es soll nun aber fur die Minimallosungen (ti, xi) zu (SP(ai, r, yk)) fur i = 1, 2, . . .

‖xi+1 − xi‖ ≈ α

mit α ∈ R+ einem vorgegebenen Abstand gelten. Wir betrachten das Optimierungs-

problem (SP(a0, r, yk)) als Referenzproblem mit Minimallosung (t0, x0) und Lagrange-Multiplikatoren (µ0, ν0). Wir nutzen die Sensitivitatsinformationen aus Satz 3.2.5(und nehmen dazu an, dass die entsprechenden Voraussetzungen erfullt sind). Imdegenerierten Fall verwenden wir entsprechend den Satz 3.2.6. Fur die Funktionφ(a, r) = (t(a, r), x(a, r), µ(a, r), ν(a, r)) gilt dann

φ(a, r) = φ(a0, r0) + M−1N

(a − a0

r − r0

)

+ o

(∥∥∥∥

(a − a0

r − ro

)∥∥∥∥

)

(mit den Matrizen M, N wie in Satz 3.2.5). Mit r = r0 in unserem Fall konstantund a = (a1, 0)⊤ = a0 + λ · (1, 0)⊤ fur ein λ > 0 (und damit v := (1, 0, 0, 0)⊤) und(t0, x0) = (t(a0, r), x(a0, r)) der Minimallosung zu (SP(a0, r, yk)) erhalten wir

t(a, r)x(a, r)µ(a, r)ν(a, r)

t0

x0

µ0

ν0

+ λ M−1Nv.

Mit

(M−1Nv)∣∣x

= M−1Nv ·

0⊤nEn

0(m+p)×(m+p)

(mit 0⊤n = (0, . . . , 0) ∈ Rn und 0(m+p)×(m+p) der Matrix im R

(m+p)×(m+p) die nur Nullenenthalt) dem zu x gehorigen, also dem zweiten bis (n + 1)-ten Eintrag des VektorsM−1N · v⊤, haben wir also

‖x1 − x0‖ = ‖x(a1, r) − x(a0, r)‖= ‖x(a0 + λ (1, 0)⊤, r) − x(a0, r)‖≈ ‖x0 + λ(M−1Nv)

∣∣x− x0‖

= |λ| ‖(M−1Nv)∣∣x‖.

Damit ist ‖x(a1, r) − x(a0, r)‖ ≈ α fur

λ =α

‖(M−1Nv)∣∣x‖ .

Page 154: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.3 Bestimmung und Verfeinerung der Approximation der Losungsmenge 142

Also ist a1 zu wahlen als a0+λ·(1, 0)⊤. Nun wird die Minimallosung von (SP(a1, r, yk))bestimmt und die weiteren Parameter erhalt man analog. Wir fuhren die Abstands-bestimmung damit also im Parameterraum statt im Bildraum durch. Das weitereVorgehen zur Losung der bikriteriellen Probleme ist analog wie in Abschnitt 4.2 undwird nun fur jeden Diskretisierungspunkt yk ∈ [c, d], k = 1, . . . , ny durchgefuhrt. DieLosungen (t, x) zu (7.7) bestimmen dann jeweils mit (x, yk) einen Approximations-punkt der Restriktionsmenge Ω.

7.3 Bestimmung und Verfeinerung der Approxi-

mation der Losungsmenge

Wir haben nun also eine Approximation A0 = (x, y) | ∃t mit (t, x) Minimallosungvon (7.7) fur y = yk, k = 1, . . . , ny der Restriktionsmenge

Ω = (x, y) ∈ Rn+1 | (x, y) Minimallosung von (7.4)

des ubergeordneten Optimierungsproblems bestimmt. Aus dieser diskreten Mengewahlen wir nun die minimalen Punkte bzgl. der Zielfunktion (F1, F2) und dem Ord-nungskegel R

2+ aus. Wir bestimmen also alle Punkte (x, y) ∈ A0 fur die gilt: es existiert

kein Punkt (x′, y′) ∈ A0 mit F (x′, y′) 6= F (x, y) und mit

Fi(x′, y′) ≤ Fi(x, y), i = 1, 2.

Diese Menge der nichtdominierten Punkte bezeichnen wir mit M(F (A0), R2+). An-

stelle der minimalen Punkte konnen wir auch die ε-minimalen Punkte fur ein ε > 0bestimmen. Dabei hat die ε-Minimalitat den Vorteil, dass i. Allg. mehr Punkte aus A0

dieses Kriterium erfullen und auch die ε-minimalen aber nicht EP-minimalen PunkteInformationen uber die Effizienzmenge des Bilevel-Problems liefern und bereits in de-ren Nahe liegen (siehe dazu [65], S.3). Ist die Menge an Approximationspunkten in A0

sehr groß, so ist die Bestimmung der nichtdominierten Punkte sehr aufwandig. Eineklare Strukturierung eines solchen Pareto-Filters findet man z.B. in [86], S.1193 oder[87], S.730. Dieser Aufwand kann durch das Verfahren von Graef und Younes ([61],S.14, [67], S.337, [65], S.4f, [131]) stark reduziert werden.Die Menge M(F (A0), R2

+) ist nun eine erste Approximation der Losungsmenge desBilevel-Optimierungsproblems. Um diese Approximation noch zu verbessern, wollenwir nun in der Umgebung der Punkte aus M(F (A0), R2

+) die Diskretisierung derRestriktionsmenge Ω des Bilevel-Problems verfeinern. Hierbei besteht die Moglich-keit dies fur alle gefundenen Punkte aus M(F (A0), R2

+) durchzufuhren oder nur inder Umgebung bestimmter, ausgewahlter Punkte, die interessanten Losungen ent-sprechen, oder zwischen denen der Abstand der aufeinanderfolgenden Punkte einenbestimmten vorgegebenen Abstand uberschreitet.Wir wollen zur Verfeinerung der Diskretisierung wieder Sensitivitatsinformationennutzen. Nach Satz 7.2.1 kann jeder Punkt (x, y) der Menge M(F (A0), R2

+), fur denja x eine Minimallosung von (7.6) fur a3 = y ist, auch als Losung von (7.5) angesehen

Page 155: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.3 Bestimmung und Verfeinerung der Approximation der Losungsmenge 143

werden. Die Probleme (7.5) sind die skalaren Ersatzprobleme zu dem trikriteriellenOptimierungsproblem (7.4). Daher sind wir an der Abhangigkeit der Minimallosungender Probleme (7.5) von dem Parameter a interessiert. Da hier der OrdnungskegelK = R

2+ × 0 ungleich der naturlichen Halbordnung ist, konnen wir Satz 3.2.5

bzw. Satz 3.2.6 nicht direkt anwenden. Wir konnen jedoch Problem (7.5) auch in derfolgenden Form schreiben:

min tNb. a1 − f1(x, y) ≥ 0,

a2 + t − f2(x, y) ≥ 0,a3 − y = 0,(x, y) ∈ G,y ∈ [c, d],t ∈ R.

(7.8)

Wir setzen dafur fest r = (0, 1, 0)⊤ und wahlen als Parameter a = (a1, a2, a3) ∈ R3,

der dann nur noch in Gleichungs- und Ungleichungsrestriktionen bez. der naturlichenHalbordnung auftritt. Analog zu Satz 3.2.5 erhalten wir damit unter Anwendung desCor. 3.2.4 aus [38] die folgenden Sensitivitatsergebnisse:

Satz 7.3.1 Die Menge G sei wie in Satz 7.2.1 gegeben mit f und g zweimal stetigdifferenzierbar. Wir betrachten das skalare Optimierungsproblem (7.8) ausgehend voneinem Referenzproblem mit Parameter a = a0. Es sei (t0, x0, y0) lokale Minimallosungdes Referenzproblems mit Lagrange-Multiplikatoren µ0

1, µ02 ∈ R+, µ0

3 ∈ R, ν0 ∈ Rp+.

Die Restriktionen seien nicht degeneriert und die Gradienten bzgl. (t, x, y) der in(t0, x0, y0) aktiven Restriktionen seien linear unabhangig.Es gebe eine Konstante α > 0, so dass fur die Hesse-Matrix der Lagrange-FunktionL im Punkt (t0, x0, y0)

(t, x⊤, y)∇2(t,x,y)L(t0, x0, y0, µ0, ν0)

txy

≥ α‖

txy

‖2

fur alle

(t, x, y) ∈ (t, x, y) ∈ Rn+2 | rit = ∇xfi(x

0, y0)⊤x falls µ0i > 0 fur i ∈ 1, 2,

∇xgj(x0, y0)⊤x = 0 falls ν0

j > 0 fur j ∈ 1, . . . , p, y = 0

gilt.Dann ist (t0, x0, y0) lokal eindeutige Minimallosung von (7.8) zum Parameter a = a0

und es existiert ein δ > 0 so dass fur die Funktion φ : N(a0) → Bδ(t0, x0, y0) ×

Bδ(µ0, ν0) mit

φ(a) = (t(a), x(a), y(a), µ(a), ν(a))

die folgende Approximation erster Ordnung fur a aus einer Umgebung von a0 gilt:

φ(a) = φ(a0) + M−1N(a − a0

)+ o

(‖a − a0‖

)

Page 156: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.3 Bestimmung und Verfeinerung der Approximation der Losungsmenge 144

mit M =

∇2(t,x,y)L

0∇(x,y)f1

−1∇(x,y)f2

0e(n+1)

0−∇(x,y)g1

. . .0

−∇(x,y)gp

µ01(0,−∇(x,y)f1) k1 0 0 0 . . . 0

µ02(1,−∇(x,y)f2) 0 k2 0 0 . . . 0µ0

3(0,−e⊤(n+1)) 0 0 0 0 . . . 0

ν01(0,∇(x,y)g1) 0 0 0 g1 . . . 0

......

......

.... . .

...ν0

p(0,∇(x,y)gp) 0 0 0 0 . . . gp

im Punkt (t0, x0, y0) mit k1 = a1 − f1(x0, y0), k2 = a2 + t0 − f2(x

0, y0) und gi =gi(x

0, y0), i = 1, . . . , p sowie

N =

0m×(n+2),−µ01

100

,−µ02

010

,−µ03

001

, 0m×p

.

Eine entsprechende Anpassung des Satzes 3.2.6 im degenerierten Fall ist analog mog-lich.Es gelte weiterhin a ∈ H und r = (0, 1, 0)⊤ fest. Wir wollen nun in der Umgebungeines Punktes (x0, y0) ∈ M(F (A0), R2

+) verfeinern. Wegen (x0, y0) ∈ A0 existiert eint0 ∈ R und ein a0 ∈ H ⊂ R

3 mit (t0, x0, y0) Minimallosung von (SP(a0, r)), d. h. von(7.5) mit a = a0. Es seien (unter Ausnutzung des Satzes 7.2.1) (µ0, ν0) ∈ R

3+p dieLagrange-MultiplikatorenZur Bestimmung weiterer Diskretisierungspunkte der Restriktionsmenge losen wir dieProbleme (SP(a, r)) fur Parameter a ∈ H mit

a = a0 + s1 · v1 + s2 · v2, s1, s2 ∈ R, v1 = (1, 0, 0)⊤, v2 = (0, 0, 1)⊤.

Dabei bestimmen wir s1, s2 so, dass fur einen beliebigen Abstand γ > 0 (γ < α) undfur (t(a), x(a), y(a)) der Minimallosung von SP(a, r)

‖(x(a0 + sivi), y(a0 + sivi)) − (x0, y0)‖ = γ, i = 1, 2

gilt. Mit M, N entsprechend Satz 7.3.1 gilt dies naherungsweise fur

|si| =γ

‖(

M−1N · vi) ∣∣∣(x,y)

‖, i = 1, 2

(mit (M−1N · vi)∣∣∣(x,y)

dem zweiten bis (n + 2)-ten Eintrag des Vektors M−1N · vi). Je

nach gewunschter Anzahl weiterer Diskretisierungspunkte bestimmen wir nun fur dieParameter

a = a0 + l1 · s1v1 + l2 · s2v2, l1, l2 ∈ −nD, . . . , nD, (l1, l2) 6= (0, 0)

Page 157: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.4 Zusammenfassung des Verfahrens 145

fur ein nD ∈ N, z. B. nD = 3, die Losungen (t, x, y) von (SP(a, r)). Die Menge neuerDiskretisierungpunkte

A1(x,y) = (x, y) ∈ R

n+1 | ∃t ∈ R mit (t, x, y) Minimall. von (SP(a, r)) fur

a = a0 + l1 · s1v1 + l2 · s2v2, l1, l2 ∈ −nD, . . . , nD,(l1, l2) 6= (0, 0)

fugen wir nun der bisherigen Menge an Diskretisierungspunkten hinzu. Fuhren wirdiese Verfeinerung in der Umgebung aller Punkte (x, y) ∈ M(F (A0), R2

+) durch, soerhalten wir als neue Approximation der Restriktionsmenge die Menge

A1 := A0 ∪⋃

(x,y)∈M(F (A0),R2+

)

A1(x,y).

Aus dieser Menge bestimmen wir nun erneut die bzgl. F und der Halbordnung R2+

nichtdominierten Punkte M(F (A1), R2+). Dabei reicht es die Menge

A1 := M(F (A0), R2+) ∪

(x,y)∈M(F (A0),R2+

)

A1(x,y)

zu betrachten, denn es gilt nach Lemma 1.1.7

M(F (A1), R2+) = M(F (A1), R2

+).

Die Menge M(F (A1), R2+) stellt erneut eine nun bessere Approximation der Losungs-

menge des Bilevel-Problems dar, die in weiteren Schritten noch beliebig oft verfeinertwerden kann.

7.4 Zusammenfassung des Verfahrens

Im Folgenden fassen wir die einzelnen Schritte zur Losung des bikriteriellen Bilevel-Problems (7.3) zusammen:

Schritt 1: Diskretisierung des Intervalls [c, d] durch y1 := c, y2 := y1+β, y3 =y1 + 2β, . . . , yny

mit yny ≤ d fur ein β > 0, ny ∈ N.

Schritt 2: Fur jedes yk, k ∈ 1, . . . , ny Bestimmung einer Approximation A0,k

der Losungsmenge des bikriteriellen Optimierungsproblems (7.7)(und damit einer Approximation der Losungsmenge des trikriteri-ellen Optimierungsproblems (7.4) entsprechend Satz 7.1.1).Dafur Verwendung der skalaren Ersatzprobleme (7.6) mit a3 = yk

und Steuerung der Parameter a ∈ R2 entsprechend der Sensiti-

vitatsinformationen so, dass zwischen den Approximationspunktender Losungsmenge von (7.7) moglichst aquidistante Abstande α > 0erreicht werden.

Page 158: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 146

Schritt 3: Auswahl der bezuglich der Funktion F : Rn+1 → R

2 und dem Ord-nungskegel R

2+ nicht dominierten Punkte M(F (A0), R2

+) aus derMenge A0 := (x, yk) | x ∈ A0,k, k ∈ 1, . . . , ny mit Hilfe einesPareto-Filters.Setze i = 0.

Schritt 4: Fur jeden Punkt (x, y) ∈ M(F (Ai), R2+) Verfeinerung der Restrik-

tionsmenge durch erneute Bestimmung von Losungspunkten von(7.4) mit Hilfe der Skalarisierung (7.5). Dabei Steuerung der Pa-rameter a ∈ R

3 entsprechend der Sensitivitatsanalyse wie in Ab-schnitt 7.3 beschrieben zur Erreichung eines Abstands γi > 0.Die erweiterte Menge an Approximationspunkten von Ω sei Ai+1.

Schritt 5: Auswahl der bezuglich der Funktion F : Rn+1 → R

2 und dem Ord-nungskegel R

2+ nicht dominierter Punkte M(F (Ai+1), R2

+) aus derMenge Ai+1 mit Hilfe eines Pareto-Filters.Ist die erhaltene Approximation der Losungsmenge des Bilevel-Problems zufriedenstellend, so stoppe. Sonst ersetze i durch i + 1und gehe zu Schritt 4.

7.5 Numerische Ergebnisse

Im Folgenden wollen wir zwei nichtlineare Bilevel-Probleme betrachten: ein Testpro-blem um die einzelnen Schritte unseres Verfahrens zu erlautern sowie ein Anwen-dungsproblem aus der Medizintechnik.

Testproblem

Wir betrachten das folgende bikriterielle nichtlineare Bilevel-Problem

miny

(F1(x, y)F2(x, y)

)

=

(

x1 + x22 + y + sin2(x1 + y)

cos(x2) · (0.1 + y) · (exp(− x10.1 + x2

))

)

Nb. x ∈ argminx

(f1(x, y)f2(x, y)

)

| (x, y) ∈ G

,

y ∈ [0, 10]

mit f1, f2 : R3 → R,

f1(x, y) =(x1 − 2)2 + (x2 − 1)2

4 +x2y + (5 − y)2

16 + sin(x210),

f2(x, y) =x2

1 + (x2 − 6)4 − 2x1y − (5 − y)2

80

und

G = (x1, x2, y) ∈ R3 | x2

1 − x2 ≤ 0, 5x21 + x2 ≤ 10, x2 − (5 − y/6) ≤ 0, x1 ≥ 0.

Page 159: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 147

In diesem Testproblem haben wir n = 2, also x ∈ R2, gewahlt, um die Approximation

der Restriktionsmenge Ω ⊂ R3 grafisch einfach darstellen zu konnen. Wir verwenden

wieder den optimistischen Ansatz, d. h. wir losen

minx,y

(F1(x, y)F2(x, y)

)

Nb. (x, y) ∈ Ω

mit der Restriktionsmenge Ω ⊂ R3. Diese ist nach Satz 7.1.1 identisch mit der

Losungsmenge des trikriteriellen Optimierungsproblems

minx,y

f1(x, y)f2(x, y)

y

Nb. (x, y) ∈ G,y ∈ [0, 10]

(7.9)

bzgl. dem Kegel K = R2+ × 0.

Wir wenden nun den Algorithmus aus 7.4 an. In Schritt 1 diskretisieren wir das In-tervall [0, 10] fur β = 0.6. Fur z. B. yk = 1.8 erhalten wir als Approximation derLosungsmenge des bikriteriellen Problems der unteren Ebene (entsprechend dem Pro-blem (7.7)) mit α = 0.6 die in Abbildung 7.1a) dargestellte Menge. In Abb. 7.1b) istdie Bildmenge dieser Punkte unter f , also die Approximation der effizienten Mengevon (7.7), dargestellt. Das Ergebnis von Schritt 2, die Approximation der Losungs-menge des trikriteriellen Optimierungsproblems (7.9) und damit die Approximationder Restriktionsmenge des Bilevel-Problems, ist in Abb. 7.2a) dargestellt.In Schritt 3 bilden wir die Punkte der Restriktionsmenge, die wir bisher berechnethaben, unter der Funktion F = (F1, F2) der oberen Ebene ab (Abb. 7.2b)). Dabeisind die nichtdominierten Punkte dieser Menge durch einen roten Kreis gekennzeich-net und noch zusatzlich mit einer roten Linie verbunden. In Schritt 4 verfeinern wirin einer Umgebung der nichtdominierten Punkte die Restriktionsmenge. Dabei gebenwir fur die Verfeinerung einen Abstand von γ0 = 0.3 zwischen den zusatzlichen Dis-kretisierungspunkten vor und wahlen nD = 2. Das Ergebnis dieser Verfeinerung istals grune Punkte in Abb. 7.3a) dargestellt. In Abb. 7.3b) ist das zugehorige Bild derverfeinerten Restriktionsmenge unter F dargestellt (Schritt 5).Die Abbildungen 7.4a), b) und 7.5a), b) zeigen weitere Verfeinerungen der Restrikti-onsmenge und die sich dadurch verbessernde Approximation der Losungsmenge nunmit γ1 = 0.21 bzw. γ2 = 0.12. Wir verfeinern dabei nur noch in der Umgebung vonnichtdominierten Punkten, deren Bildpunkte bzgl. F zu den benachbarten Punkteneinen Abstand von großer 0.3 besitzen. Nach diesen weiteren Verfeinerungen wurdehier abgebrochen, da die Approximation der Losungsmenge des Bilevel-Problems bzgl.dem Abstand der einzelnen Diskretisierungspunkte als ausreichend angesehen wurdeund da die letzte Verfeinerung nur noch minimale Verbesserungen der Approximationbewirkt hat.

Page 160: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 148

−1 −0.5 0 0.5 1 1.5 2 2.5 3 3.5

1.5

2

2.5

3

3.5

4

4.5

x1

x 2

a) Losungsmenge

1 1.5 2 2.5 3 3.5 4 4.5 5 5.5−1

0

1

2

3

4

5

6

7

8

f1

f 2

b) effiziente Menge

Abbildung 7.1: Approximation der Losungsmenge und der effizienten Menge des un-tergeordneten bikriteriellen Optimierungsproblems fur y = 1.8.

0 0.5112

34

50

1

2

3

4

5

6

7

8

9

x1

x2

y

a) Approximation derRestriktionsmenge

5 10 15 20 25

−10

−8

−6

−4

−2

0

2

4

6

F1

F2

b) Bild der Restriktionsmengeunter F

Abbildung 7.2: Approximation der Restriktionsmenge Ω des ubergeordneten Problemsund Abbildung unter F .

Page 161: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 149

0 0.5112

34

50

1

2

3

4

5

6

7

8

9

x1

x2

y

a) Restriktionsmenge

5 10 15 20 25

−10

−8

−6

−4

−2

0

2

4

6

F1

F2

b) Bild unter F

Abbildung 7.3: Verfeinerung der Approximation der Restriktionsmenge Ω und Abbil-dung unter F .

0 0.5112

34

50

1

2

3

4

5

6

7

8

9

x1

x2

y

a) Restriktionsmenge

5 10 15 20 25

−10

−8

−6

−4

−2

0

2

4

6

F1

F2

b) Bild unter F

Abbildung 7.4: Zweite Verfeinerung der Approximation der Restriktionsmenge Ω undAbbildung unter F .

0 0.5112

34

50

1

2

3

4

5

6

7

8

9

x1

x2

y

a) Restriktionsmenge

5 10 15 20 25

−10

−8

−6

−4

−2

0

2

4

6

F1

F2

b) Bild unter F

Abbildung 7.5: Dritte Verfeinerung der Approximation der Restriktionsmenge Ω undAbbildung unter F .

Page 162: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 150

Anwendungsproblem

Wir wollen unser Verfahren nun auf ein aktuelles Problem anwenden, das der Medi-zintechnik entstammt (siehe [99], S.62f). Die ursprungliche Formulierung dieses Pro-blems ist ein normales reellwertiges Standardminimierungsproblem, das auf Grundseiner Struktur und der Anforderung der Losung in Realzeit als das folgende Bilevel-Optimierungsproblem formuliert wurde:

miny

‖x(y)‖22

Nb. x(y) ∈ argminx‖x‖22 | A(y) · V x = b(y), x ∈ R

14,y ∈ [0, π].

(7.10)

Dabei ist der Vektor b(y) ∈ R6 gegeben durch

b(y) = (mx(y), my(y), mz(y), mF )⊤

mit mF ∈ R3 beliebig und mx, my, mz : R → R definiert durch

mx(y)my(y)mz(y)

= m0(τ1 cos y + τ2 sin y)

fur ein m0 ∈ R, τ1, τ2 ∈ R3 mit

τ⊤1 mF = 0, τ⊤

2 mF = 0, ‖τ1‖2 = ‖τ2‖2 = 1.

Wir wahlen im Folgenden

mF =

100

, τ1 =

010

, τ2 =

001

, m0 = 1

und erhaltenb(y) = (0, cos y, sin y, 1, 0, 0)⊤.

Die Matrix A(y) ∈ R6×8 ist gegeben durch

A(y) =

1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 mx(y) my(y) mz(y) 0 00 0 0 0 mx(y) 0 mz(y) my(y)0 0 0 −mz(y) 0 mx(y) my(y) −mz(y)

=

1 0 0 0 0 0 0 00 1 0 0 0 0 0 00 0 1 0 0 0 0 00 0 0 0 cos y sin y 0 00 0 0 0 0 0 sin y cos y0 0 0 − sin y 0 0 cos y − sin y

.

Page 163: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 151

Die Matrix V ∈ R8×14 ist eine voll besetzte Matrix mit Rang(V ) = 8, die von dem

konkret betrachteten medizintechnischen System abhangt. Fur unsere Berechnungenhier ist es ausreichend eine zufallig erzeugte Matrix V zu verwenden.Bei dem medizintechnischen System sind noch weitere Zielsetzungen interessant, diebislang numerisch noch nicht untersucht wurden. So ist es wichtig, dass das Ergebnisx(y) fur eine veranderte Systemeinstellung (abgebildet durch eine geanderte MatrixV ) von der vorherig gefundenen Minimallosung xalt ∈ R

14 nicht zu stark abweicht.Als weitere Zielfunktionen der oberen Ebene ist also die Zielfunktion

‖x(y) − xalt‖22 → min!

interessant. Wir verwenden fur xalt den Wert

xalt = (0.1247, 0.1335,−0.0762,−0.1690, 0.2118,−0.0534,−0.1473,0.3170,−0.0185,−0.1800, 0.1700,−0.0718, 0.0058, 0.0985)⊤.

Weiterhin ist die Restriktion ‖A(y) · V x − b(y)‖22 nicht notwendig strikt einzuhalten,

und es ist eine nicht exakte Erfullung zu Gunsten eines geringeren Zielfunktionswertesder bisherigen Zielfunktion ‖x‖2

2 annehmbar. Eine Erweiterung des untergeordnetenOptimierungsproblems um die Zielfunktion

‖A(y) · V x − b(y)‖22 → min!

ware also ebenfalls interessant. Da diese Abweichung eine bestimmte obere Grenze∆max, wir wahlen ∆max = 0.3, nicht uberschreiten soll, ersetzen wir die bisherigeRestriktion A(y) · V x = b(y) durch ‖A(y) · V x − b(y)‖2

2 ≤ ∆max und erhalten dasfolgende bikriterielle Bilevel-Problem

miny

(F1(x, y)F2(x, y)

)

=

(‖x(y)‖2

2

‖x(y) − xalt‖22

)

(7.11)

Nb. x = x(y) ∈ argminx

( f1(x, y)f2(x, y)

)

=

(‖A(y) · V x − b(y)‖2

2

‖x‖22

) ∣∣∣

‖A(y) · V x − b(y)‖22 ≤ ∆max, x ∈ R

14

,

y ∈ [0, π].

Wir verwenden zur Losung wieder den optimistischen Ansatz. Das trikriterielle Opti-mierungsproblem dessen Losungsmenge gleich der Restriktionsmenge des ubergeord-neten Problems ist lautet in diesem Fall

minx,y

‖A(y) · V x − b(y)‖22

‖x‖22

y

Nb. ‖A(y) · V x − b(y)‖22 ≤ ∆max,

x ∈ R14,

y ∈ [0, π]

(7.12)

Page 164: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 152

wieder mit dem Ordnungskegel R2+ × 0. Um dieses Problem zu losen diskretisieren

wir zunachst das Intervall [0, π] durch die Punkte

0.0001, 0.0001 +π

8, 0.0001 + 2 · π

8, 0.0001 + 3 · π

8, . . . , π,

d. h. es ist β = π/8 (Schritt 1). Fur yk ∈ 0.0001, 0.0001 + π8, 0.0001 + 2 · π

8, . . . , π

bestimmen wir eine Approximation der Losungsmenge des bikriteriellen Problems

minx

(‖A(yk) · V x − b(yk)‖2

2

‖x‖22

)

Nb. ‖A(yk) · V x − b(yk)‖22 ≤ ∆max,

x ∈ R14.

Verwenden wir zur Losung dieses Optimierungsproblems die Skalarisierung entspre-chend (7.6) mit a = (a1, 0)⊤, r = (0, 1)⊤ und wahlen a1 ∈ [0, ∆max] so lautet diese

mint,x

t

Nb. a1 − ‖A(yk) · V x − b(yk)‖22 ≥ 0,

t − ‖x‖22 ≥ 0,

‖A(y) · V x − b(y)‖22 ≤ ∆max,

x ∈ R14

(7.13)

und ist aquivalent zur Losung von

minx

‖x‖22

Nb. ‖A(yk) · V x − b(yk)‖22 ≤ a1,

x ∈ R14.

(7.14)

Fur a1 < 0 ist die Restriktionsmenge in (7.13) leer und fur a1 > ∆max ist das Ergebnisvon (7.13) wegen der Restriktion ‖A(y) · V x− b(y)‖2

2 ≤ ∆max identisch zu a1 = ∆max.Es reicht also a ∈ H = y ∈ R

2 | y2 = 0 mit a1 ∈ [0, ∆max] und das Problem(7.14) zu betrachten. Wir variieren dabei den Parameter a1 so, dass zwischen denApproximationspunkten ein Abstand von α = 0.2 angestrebt wird (Schritt 2). DasErgebnis zusammengefasst fur alle Diskretisierungspunkte y ∈ [0, π] bildet die ersteDiskretisierung der Restriktionsmenge Ω des ubergeordneten Optimierungsproblems.Da die Restriktionsmenge eine Teilmenge des R

15 ist, ist diese nicht mehr grafischdarstellbar. Die Restriktionsmenge des ubergeordneten Problems ist jedoch zugleichdie Losungsmenge des trikriteriellen Problems (7.12). Daher haben wir das Bild unse-rer Diskretisierung unter den Zielfunktionen des trikriteriellen Problems in Abbildung7.6a) dargestellt. Der vergroßerte Ausschnitt in 7.6b) enthalt den fur uns besondersinteressanten Bereich.Entsprechend Schritt 3 bilden wir die eben bestimmte Approximation der Restrikti-onsmenge nun unter der Zielfunktion F des ubergeordneten Problems ab und erhaltendamit die in Abb. 7.7a) dargestellte Menge. Mit rot sind die nichtdominierten Punkte

Page 165: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 153

01

23

4

0

0.1

0.2

0.3

0.40

0.5

1

1.5

2

2.5

3

f1

f2

y

a) gesamte Darstellung

00.5

11.5

2

0.2

0.25

0.3

0.35

0.40

0.2

0.4

0.6

0.8

1

f1

f2

y

b) vergroßerter Ausschnitt

Abbildung 7.6: Approximation der effizienten Menge des trikriteriellen Optimierungs-problems (7.12).

dieser Menge markiert und als Ausschnitt in Abb 7.7b) vergroßert dargestellt. Entspre-chend Schritt 4 fuhren wir nun eine Verfeinerung der Restriktionsmenge im Bereichder drei nichtdominierten Punkte durch. In Abb. 7.8a) und b) ist die Auswirkungder verfeinerten Diskretisierung auf die Approximation der effizienten Menge des tri-kriteriellen Optimierungsproblems (7.12) dargestellt. Die Bilder der nichtdominiertenPunkte sind wieder mit roten Kreisen markiert und die in diesem Schritt neu hinzuge-kommenen Punkte sind grun eingezeichnet. Zur Bestimmung der neuen Parameter desskalaren Ersatzproblems in diesem Schritt sind wir wie in Abschnitt 7.3 beschriebenvorgegangen und haben die Sensitivitatsinformationen bezuglich dem trikriteriellenOptimierungsproblem (7.12) ausgenutzt. Dabei haben wir γ0 = α/7 = 1/35 undnD = 3 vorgegeben. Das erneute Bild unter F dieser verfeinerten Restriktionsmengeist in Abb. 7.9 dargestellt.Das Bild einer weiteren Verfeinerung unter den Funktionen des trikriteriellen Pro-blems, nun mit der Abstandvorgabe γ1 = 1/50 zwischen den Diskretisierungspunktender Restriktionsmenge Ω, sieht man in Abb. 7.10, und das Bild unter F in Abb. 7.11.Wir schließen mit einer dritten Verfeinerung mit γ2 = 1/70 um die eben erhaltenennichtdominierten Punkte ab. Die Ergebnisse sind in den Abbildungen 7.12 und 7.13dargestellt. Wie man im Vergleich der Abbildungen 7.11b) und 7.13b) sieht hat sichdie als rote Linie eingezeichnete Verbindung zwischen den nichtdominierten Punkten,also die effiziente Menge unseres Bilevel-Problems, nicht mehr weiter verschoben, undes hat sich nur noch die Feinheit der Approximation der Effizienzmenge verbessert.Betrachten wir nun die nichtdominierten Punkte M(F (A2), R2

+) ⊂ R15 nach der

dritten Verfeinerung, so sind diese eine Approximation der Losungsmenge unseresBilevel-Problems. Bemerkenswert ist, dass sich die Bildpunkte von M(F (A2), R2

+)unter F nur in einem relativ kleinen Teil der Bildmenge unter F der gesamtendiskretisierten Restriktionsmenge befinden. Es ist festzustellen, dass fur die Punk-te (x, y) ∈ M(F (A2), R2

+)

y ∈ [0.6838, 0.7958] ⊂ [0, π]

Page 166: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 154

0 0.5 1 1.5 2 2.5 3 3.50

0.5

1

1.5

2

2.5

3

3.5

4

F1

F2

a) gesamte Darstellung

0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.70

0.05

0.1

0.15

0.2

0.25

F1

F2

b) vergroßerter Ausschnitt

Abbildung 7.7: Bild unter F der Restriktionsmenge Ω des ubergeordneten Optimie-rungsproblems.

01

23

4

0

0.1

0.2

0.3

0.40

0.5

1

1.5

2

2.5

3

f1

f2

y

a) gesamte Darstellung

00.5

11.5

2

0.2

0.25

0.3

0.35

0.40

0.2

0.4

0.6

0.8

1

f1

f2

y

b) vergroßerter Ausschnitt

Abbildung 7.8: Erste Verfeinerung der Approximation der effizienten Menge des tri-kriteriellen Optimierungsproblems (7.12).

0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.70

0.05

0.1

0.15

0.2

0.25

F1

F2

a) vergroßerter Ausschnitt

0.34 0.345 0.35 0.355

4

5

6

7

8

9

10

11

x 10−3

F1

F2

b) stark vergroßerter Ausschnitt

Abbildung 7.9: Bild unter F der verfeinerten Restriktionsmenge Ω des ubergeordnetenOptimierungsproblems.

Page 167: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 155

01

23

4

0

0.1

0.2

0.3

0.40

0.5

1

1.5

2

2.5

3

f1

f2

y

a) gesamte Darstellung

00.5

11.5

2

0.2

0.25

0.3

0.35

0.40

0.2

0.4

0.6

0.8

1

f1

f2

y

b) vergroßerter Ausschnitt

Abbildung 7.10: Zweite Verfeinerung der Approximation der effizienten Menge destrikriteriellen Optimierungsproblems (7.12).

0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.70

0.05

0.1

0.15

0.2

0.25

F1

F2

a) vergroßerter Ausschnitt

0.34 0.345 0.35 0.355

4

5

6

7

8

9

10

11

x 10−3

F1

F2

b) stark vergroßerter Ausschnitt

Abbildung 7.11: Bild unter F der zweifach verfeinerten Restriktionsmenge Ω des uber-geordneten Optimierungsproblems.

00.5

11.5

2

0.2

0.25

0.3

0.35

0.40

0.2

0.4

0.6

0.8

1

f1

f2

y

a) vergroßerter Ausschnitt

0.30.4

0.50.6

0.26

0.27

0.28

0.29

0.3

0.6

0.65

0.7

0.75

0.8

f1

f2

y

b) stark vergroßerter Ausschnitt

Abbildung 7.12: Dritte Verfeinerung der Approximation der effizienten Menge destrikriteriellen Optimierungsproblems (7.12).

Page 168: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

7.5 Numerische Ergebnisse 156

0.3 0.35 0.4 0.45 0.5 0.55 0.6 0.65 0.70

0.05

0.1

0.15

0.2

0.25

F1

F2

a) vergroßerter Ausschnitt

0.34 0.345 0.35 0.355

4

5

6

7

8

9

10

11

x 10−3

F1

F2

b) stark vergroßerter Ausschnitt

Abbildung 7.13: Bild unter F der dreifach verfeinerten Restriktionsmenge Ω des uber-geordneten Optimierungsproblems.

sowie x1, x2, x5, x8, x11, x13, x14 > 0 und x3, x4, x6, x7, x9, x10, x12 < 0 gilt. DieWerte von (x, y) ∈ M(F (A2), R2

+) unter den Funktionen F1, F2 und f1, f2 schwankendabei fur (x, y) ∈ M(F (A2), R2

+) in den folgenden Bereichen:

F1(x, y) = ‖x‖22 ∈ [0.3452, 0.3512],

F2(x, y) = ‖x − xalt‖22 ∈ [0.0048, 0.0105],

f1(x, y) = ‖x‖22 ∈ [0.3452, 0.3512],

f2(x, y) = ‖A(y) · V x − b(y)‖22 = 0.2897.

Es ist also f2(x, y) fur alle (x, y) ∈ M(F (A2), R2+) konstant, und es sind nur Punkte

unserer diskretisierten Restriktionsmenge nichtdominiert, die wir durch das Losen von(7.14) mit dem Parameter a1 = 0.2897 erhalten haben. Der Entscheidungstrager deroberen Ebene kann nun aus der Menge y ∈ R | (x, y) ∈ M(F (A2), R2

+) die fur ihngunstigste Losung auswahlen.

Page 169: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

157

Literaturverzeichnis

[1] M. Alber und R. Reemtsen. Intensity modulated radiotherapy treatment plan-ning by use of a barrier-penalty multiplier method. Zur Veroffentlichung einge-reicht.

[2] C. Aliprantis, M. Florenzano, V. Martins-da-Rocha und R. Tourky. Equilibriumanalysis in financial markets with countably many securities. J. Math. Econ.,40(6):683–699, 2004.

[3] C. D. Aliprantis, P. K. Monteiro und R. Tourky. Non-marketed options, non-existence of equilibria, and nonlinear prices. J. Econ. Theory, 114(2):345–357,2004.

[4] W. Alt. Parametric optimization with applications to optimal control and se-quential quadratic programming. Bayreuther Mathematische Schriften, 35:1–37,1991.

[5] A. Auslender und R. Cominetti. First and second order sensitivity analysis ofnonlinear programs under directional constraint qualification conditions. Opti-mization, 21(3):351–363, 1990.

[6] H. Benson. An improved definition of proper efficiency for vector maximizationwith respect to cones. J. Math. Anal. Appl., 71:232–241, 1979.

[7] H. P. Benson und S. Sayin. Towards finding global representations of the effi-cient set in multiple objective mathematical programming. Nav. Res. Logist.,44(1):47–67, 1997.

[8] H. Bernau. Interactive methods for vector optimization. In Optimization inmathematical physics, 34 in Methoden Verfahren Math. Phys., S. 21–36. 1987.

[9] C. Bliek, P. Spellucci, L. Vicente, A. Neumaier et al. Coconut deliverable D1algorithms for solving nonlinear constrained and optimization problems: Thestate of the art. http://www.mat.univie.ac.at/~neum/ms/StArt.pdf, 2001.

[10] J. Bonnans, R. Cominetti und A. Shapiro. Sensitivity analysis of optimizationproblems under second order regular constraints. Math. Oper. Res., 23(4):806–831, 1998.

Page 170: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 158

[11] J. Bonnans und A. Shapiro. Perturbation analysis of optimization problems.Springer Series in Operations Research. Springer, New York, 2000.

[12] J. Borwein. Proper efficient points for maximizations with respect to cones.SIAM J. Control Optim., 15:57–63, 1977.

[13] A. Brahme. Dosimetric precision requirements in radiation therapy. Acta ra-diologica - Oncology, 23:379–391, 1984.

[14] B. Brosowski. A criterion for efficiency and some applications. In Optimizationin mathematical physics, 34 in Methoden Verfahren Math. Phys., S. 37–59. 1987.

[15] V. Chankong und Y. Y. Haimes. Multiobjective decision making, Vol. 8 of NorthHolland Series in System Science and Engineering. Elsevier, Amsterdam, 1983.

[16] C. A. Coello, D. A. Van Veldhuizen und G. B. Lamont. Evolutionary algorithmsfor solving multi-objective problems. Genetic Algorithms and Evolutionary Com-putation. Kluwer, New York, 2002.

[17] Y. Collette und P. Siarry. Three new metrics to measure the convergence ofmetaheuristics towards the pareto frontier and the aesthetic of a set of solutionsin biobjective optimization. Comput. Oper. Res., 32(4):773–792, 2005.

[18] C. Cotrutz, C. Lahanas und C. Kappas. A multiobjective gradient-based doseoptimization algorithm for external beam conformal radiotherapy. Phys. Med.Biol., 46:2161–2175, 2001.

[19] I. Das. An improved technique for choosing parameters for pareto surface gene-ration using normal-boundary intersection. In Proceedings of the Third WorldCongress of Structural and Multidisciplinary Optimization (WCSMO-3), Vol. 2,S. 411–413, Buffalo NY, 1999.

[20] I. Das und J. Dennis. A closer look at drawbacks of minimizing weighted sumsof objectives for pareto set generation in multicriteria optimization problems.Structural Optimization, 14:63–69, 1997.

[21] I. Das und J. Dennis. Normal-boundary intersection: A new method for genera-ting the pareto surface in nonlinear multicriteria optimization problems. SIAMJ. Optim., 8(3):631–657, 1998.

[22] K. Deb. Multi-objective genetic algorithms: Problem difficulties and construc-tion of test problems. Evolutionary Computation Journal, 7(3):205–230, 1999.

[23] K. Deb und S. Jain. Running performance metrics for evolutionary multi-objective optimization. In Proceedings of the Fourth Asia-Pacific Conferenceon Simulated Evolution and Learning (SEAL’02), S. 13–20, Singapore, 2002.

[24] K. Deb, A. Pratap und T. Meyarivan. Constrained test problems for multi-objective evolutionary optimization. Report 200005, KanGAL, 2000.

Page 171: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 159

[25] K. Deb, L. Thiel, M. Laumann und E. Zitzler. Scalable test problems for evo-lutionary multi-objective optimization. Report 2001001, KanGAL, 2001.

[26] S. Dempe. Foundations of bilevel programming, Vol. 61 of Nonconvex Optimi-zation and Its Applications. Kluwer, Dordrecht, 2002.

[27] S. Dempe. Annotated bibliography on bilevel programming and mathematicalprograms with equilibrium constraints. Optimization, 52(3):333–359, 2003.

[28] S. Dempe. Bilevel programming - a survey. Preprint 2003-11, Fakultat furMathematik und Informatik, TU Bergakademie Freiberg, 2003.

[29] W. Dinkelbach und W. Durr. Effizienzaussagen bei Ersatzprogrammen zumVektormaximumproblem, IV. Oberwolfach-Tag. Operations Res. 1971. Opera-tions Res.-Verf., (12):69–77, 1972.

[30] K. Doerner, W. J. Gutjahr, R. F. Hartl, C. Strauss und C. Stummer. Paretoant colony optimization: A metaheuristic approach to multiobjective portfolioselection. Ann. Oper. Res., 131:79–99, 2004.

[31] F. Edgeworth. Mathematical psychics. University Microfilms International (Out-of-Print Books on Demand), 1987 (the original edition in 1881).

[32] M. Ehrgott. Multicriteria optimisation, Vol. 491 of Lect. Notes Econ. math.Syst. Springer, Berlin, 2000.

[33] M. Ehrgott. An optimisation model for intensity modulated radiation thera-py. In Proceedings of the 37th Annual Conference of the Operational ResearchSociety of New Zealand, S. 23–31, Auckland, 2002.

[34] M. Ehrgott und M. Burjony. Radiation therapy planning by multicriteria op-timization. In Proceedings of the 36th Annual Conference of the OperationalResearch Society of New Zealand, S. 244–253, Auckland, 2001.

[35] M. Ehrgott und R. Johnston. Optimisation of beam directions in intensitymodulated radiation therapy planning. OR Spectrum, 25(2):251–264, 2003.

[36] M. Ehrgott, K. Klamroth und C. Schwehm. An MCDM approach to portfoliooptimization. Eur. J. Oper. Res., 155(3):752–770, 2004.

[37] A. V. Fiacco. Sensitivity analysis for nonlinear programming using penaltymethods. Math. Program., 10:287–311, 1976.

[38] A. V. Fiacco. Introduction to sensitivity and stability analysis in nonlinearprogramming, Vol. 165 of Mathematics in Science and Engineering. AcademicPress, London, 1983.

[39] R. Fletcher. Practical methods of optimization, 2nd ed. Wiley, 1987.

Page 172: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 160

[40] J. Fliege. An efficient interior-point method for convex multicriteria optimi-zation problems. Ergebnisberichte Angewandte Mathematik 248, FachbereichMathematik, Universitat Dortmund, 2004.

[41] J. Fliege. Gap-free computation of pareto-points by quadratic scalarizations.Math. Methods Oper. Res., 59(1):69–89, 2004.

[42] J. Fliege und A. Heseler Constructing approximations to the efficient set ofconvex quadratic multiobjective problems. Ergebnisberichte Angewandte Ma-thematik 211, Fachbereich Mathematik, Universitat Dortmund, 2002.

[43] J. Fliege und L. N. Vicente. A multicriteria approach to bilevel optimizati-on. Ergebnisberichte Angewandte Mathematik 227, Fachbereich Mathematik,Universitat Dortmund, 2003.

[44] C. M. Fonseca und P. J. Fleming. An overview of evolutionary algorithms inmultiobjective optimization. Evolutionary Computation, 3(1):1–16, 1995.

[45] J. Fortuny-Amat und B. McCarl. A representation and economic interpretationof a two-level programming problem. J. Oper. Res. Soc., 32:783–792, 1981.

[46] F. W. Gembicki und Y. Y. Haimes. Approach to performance and sensitivitymultiobjective optimization: The goal attainment method. IEEE Trans. Auto-matic Control, 6:769–771, 1975.

[47] A. Geoffrion. Proper efficiency and the theory of vector maximization. J. Math.Anal. Appl., 22:618–630, 1968.

[48] A. Gopfert und R. Nehse. Vektoroptimierung: Theorie, Verfahren und Anwen-dungen. Teubner, Leipzig, 1990.

[49] D. Gourion und D. T. Luc. Generating the weakly efficient set of nonconvexmultiobjective problems. Zur Veroffentlichung eingereicht.

[50] L. Grana Drummond und B. Svaiter. A steepest descent method for vectoroptimization. J. Comput. Appl. Math., 175(2):395–414, 2005.

[51] Y. Haimes, L. Lasdon und D. Wismer. On a bicriterion formulation of theproblems of integrated system identification and system optimization. IEEETrans. Syst. Man Cybern., 1:296–297, 1971.

[52] W. A. Hall und Y. Y. Haimes. The surrogate worth trade-off method with mul-tiple decision-makers. In Multiple Crit. Decis. Making, 22nd int. Meet. TIMS,Kyoto 1975, Vol. 123 of Lect. Notes Econ. math. Syst., S. 207–233. Springer,Berlin, 1976.

[53] H. Hamacher und K.-H. Kufer. Inverse radiation therapy planning - a multipleobjective optimization approach. Discrete Appl. Math., 118:145–161, 2002.

Page 173: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 161

[54] M. P. Hansen und A. Jaszkiewicz. Evaluating the quality of approximationsto the non-dominated set. Technical Report IMM-REP-1998-7, IMM TechnicalUniversity of Denmark, 1998.

[55] G. B. Hazen. Differential characterizations of nonconical dominance in multipleobjective decision making. Math. Oper. Res., 13(1):174–189, 1988.

[56] C. Heermann, B. Weyers und J. Fliege. A new adaptive algorithm for convexquadratic multicriteria optimization. Ergebnisberichte Angewandte Mathematik252, Fachbereich Mathematik, Universitat Dortmund, 2004.

[57] S. Helbig. An interactive algorithm for nonlinear vector optimization. Appl.Math. Optimization, 22(2):147–151, 1990.

[58] S. Helbig. On the connectedness of the set of weakly efficient points of a vectoroptimization problem in locally convex spaces. J. Optimization Theory Appl.,65(2):257–270, 1990.

[59] S. Helbig. Approximation of the efficient point set by perturbation of the orde-ring cone. Z. Oper. Res., 35(3):197–220, 1991.

[60] A. Heseler. Warmstart-Strategien in der parametrisierten Optimierung mit An-wendung in der multikriteriellen Optimierung. Dissertation, Universitat Dort-mund, 2005.

[61] C. Hillermeier und J. Jahn. Multiobjective optimization: Survey of methodsand industrial applications. Surv. Math. Ind., 11:1–42, 2005.

[62] M. Hirschberger. Struktur effizienter Punkte in Quadratischen Vektoroptimie-rungsproblemen. Berichte aus der Mathematik. Shaker, Aachen, 2003.

[63] R. Horst und H. Tuy. Global optimization: Deterministic approaches. Springer,Berlin, 1990.

[64] C.-L. Hwang und A. S. M. Masud. Multiple objective decision making - methodsand applications. A state-of-the-art survey, Vol. 164 of Lect. Notes Econ. math.Syst. Springer-Verlag, Berlin, 1979.

[65] J. Jahn. Multiobjective search algorithm with subdivision technique. Technicalreport, Institut fur Angewandte Mathematik, Universitat Erlangen-Nurnberg,2005.

[66] J. Jahn. Introduction to the theory of nonlinear optimization. Springer, Berlin,1994.

[67] J. Jahn. Vector optimization: Theory, applications and extensions. Springer,Berlin, 2004.

Page 174: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 162

[68] J. Jahn, A. Kirsch und C. Wagner. Optimization of rod antennas of mobilephones. Math. Methods Oper. Res., 59(1):37–51, 2004.

[69] J. Jahn und A. Merkel. Reference point approximation method for the solutionof bicriterial nonlinear optimization problems. J. Optimization Theory Appl.,74(1):87–103, 1992.

[70] K. Jittorntrum. Solution point differentiability without strict complementarityin nonlinear programming. Math. Program. Study, 21:127–138, 1984.

[71] D. Jones, C. Perttunen und B. Stuckman. Lipschitzian optimization withoutthe lipschitz constant. J. Optimization Theory Appl., 79(1):157–181, 1993.

[72] I. Kaliszewski. Quantitative pareto analysis by cone separation technique. KluwerAcademic Publishers, Boston, 1994.

[73] I. Kaliszewski. Trade-offs – a lost dimension in multiple criteria decision making.In Multiple objective and goal programming. Recent developments. Proceedingsof the 4th international conference (MOPGP’00), S. 115–126, Heidelberg, 2002.Physica-Verlag.

[74] I. Kim und O. de Weck. Adaptive weighted sum method for multiobjective op-timization. Structural and Multidisciplinary Optimization, Zur Veroffentlichungeingereicht.

[75] I. Kim und O. de Weck. Adaptive weighted sum method for bi-objective opti-mization. Structural and Multidisciplinary Optimization, 29:149 – 158, 2005.

[76] J. Knowles und D. Corne. On metrics for comparing non-dominated sets. InProceedings of the World Congress on Computational Intelligence, S. 711–716,2002.

[77] K.-H. Kufer und M. Monz. Private Mitteilungen, 2004.

[78] K.-H. Kufer, A. Scherrer, M. Monz, F. Alonso, H. Trinkaus, T. Bortfeld undC. Thieke. Intensity-modulated radiotherapy - a large scale multi-criteria pro-gramming problem. OR Spectrum, 25:223–249, 2003.

[79] H. Kuhn und A. Tucker. Nonlinear programming. In Proceedings of the secondBerkeley Symposium on mathematical Statistics and Probability, S. 481–492,Berkeley, 1951. Univ. of California Press.

[80] M. Lahanas. History of multi-criteria (or multiobjective) optimization in radia-tion therapy. http://www.mlahanas.de/MedPhys/MORadiotherapy.htm, 2005.

[81] J. G. Lin. On min-norm and min-max methods of multi-objective optimization.Math. Program., 103(1):1–33, 2005.

Page 175: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 163

[82] P. Loridan. ε-solutions in vector minimization problems. J. Optimization TheoryAppl., 43:265–276, 1984.

[83] D. T. Luc. Connectedness of the efficient point sets in quasiconcave vectormaximization. J. Math. Anal. Appl., 122:346–354, 1987.

[84] D. G. Luenberger. Introduction to linear and nonlinear programming. Addison-Wesley, Reading, Mass., 1973.

[85] S. Marglin. Public investment criteria. MIT Press, Cambridge, 1967.

[86] C. A. Mattson und A. Messac. Concept selection using s-pareto frontiers. AIAAJournal, 41(6):1190–1198, 2003.

[87] C. A. Mattson, A. A. Mullur und A. Messac. Smart pareto filter: Obtaining aminimal representation of multiobjective design space. Engineering Optimizati-on, 36(6):721–740, 2004.

[88] H. Maurer und J. Zowe. First and second-order necessary and sufficient optima-lity conditions for infinite-dimensional programming problems. Math. Program.,16:98–110, 1979.

[89] A. Messac, A. Ismail-Yahaya und C. Mattson. The normalized normal constraintmethod for generating the pareto frontier. Struct. Multidisc.Optim., 25(2):86–98, 2003.

[90] A. Messac und C. Mattson. Normal constraint method with guarantee of evenrepresentation of complete pareto frontier. AIAA Journal, 42(10):2101–2111,2004.

[91] K. M. Miettinen. Nonlinear multiobjective optimization. Kluwer Academic Pu-blishers, Boston, 1999.

[92] P. Naccache. Connectedness of the set of nondominated outcomes im multicri-teria optimization. J. Optimization Theory Appl., 25:459–467, 1978.

[93] A. Niemierko. Reposting and analysing dose distributions: a concept of equiva-lent uniform dose. Medical Physics, 24:103–110, 1997.

[94] I. Nishizaki und M. Sakawa. Stackelberg solutions to multiobjective two-levellinear programming problems. J. Optimization Theory Appl., 103(1):161–182,1999.

[95] V. Pareto. Cours d’economie politique. Libraire Droz, Geneve, 1964 (the firstedition in 1896).

[96] A. Pascoletti und P. Serafini. Scalarizing vector optimization problems. J.Optimization Theory Appl., 42(4):499–524, 1984.

Page 176: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 164

[97] E. Polak. On the approximation of solutions to multiple criteria decision makingproblems. In Multiple Crit. Decis. Making, 22nd int. Meet. TIMS, Kyoto 1975,Vol. 123 of Lect. Notes Econ. math. Syst., S. 271–282. Springer, Berlin, 1976.

[98] M. Powell. The convergence of variable metric methods for nonlinearly cons-trained optimization calculations, Vol. 3 of Nonlinear Programming. AcademicPress, 1978.

[99] J. Prohaska. Optimierung von Spulenkonfigurationen zur Bewegung magneti-scher Sonden. Diplomarbeit, Universitat Erlangen-Nurnberg, 2005.

[100] S. Robinson. Strongly regular generalized equations. Math. Oper. Res., 5(1):43–62, 1980.

[101] S. Ruzika. Approximation algorithms in multiple objective programming. Ma-ster’s thesis, Universitat Kaiserslautern, 2003.

[102] S. Ruzika und M. Wiecek. Approximation methods in multiobjective program-ming. J. Optimization Theory Appl., 126(3):473–501, 2005.

[103] Y. Sawaragi, H. Nakayama und T. Tanino. Theory of multiobjective optimizati-on. Number 176 in Mathematics in Science and Engineering. Academic Press,London, 1985.

[104] S. Sayin. Measuring the quality of discrete representations of efficient sets inmultiple objective mathematical programming. Math. Program., 87,A:543–560,2000.

[105] S. Schaffler. Global optimization using stochastic integration. S.Roderer Verlag,Regensburg, 1995.

[106] S. Schaffler und K. Ritter. A stochastic method for constrained global optimi-zation. SIAM J. Optim., 4(4):894–904, 1994.

[107] S. Schaffler, R. Schultz und K. Weinzierl. Stochastic method for the solutionof unconstrained vector optimization problems. J. Optimization Theory Appl.,114(1):209–222, 2002.

[108] B. Schandl, K. Klamroth und M. M. Wiecek. Norm-based approximation inbicriteria programming. Comput. Optim. Appl., 20(1):23–42, 2001.

[109] A. Scherrer, K.-H. Kufer, M. Monz, F. Alonso und T. Bortfeld. IMRT plan-ning on adaptive volume structures - a significant advance of computationalcomplexity. Technical Report 60, Frauenhofer ITWM, 2004.

[110] K. Schittkowski. NLQPL: A fortran-subroutine solving constrained nonlinearprogramming problems. Annals of Operations Research, 5:485–500, 1985.

Page 177: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 165

[111] E. Schreibmann, M. Lahanas und L. Xing. Multiobjective evolutionary opti-mization of the number of beams, their orientations and weights for intensity-modulated radiation therapy. Phys. Med. Biol., 49:747–770, 2004.

[112] A. Seeger. Second order directional derivatives in parametric optimization pro-blems. Math. Oper. Res., 13(1):124–139, 1988.

[113] A. Shapiro. Second-order derivatives of extremal-value functions and optimalityconditions for semi-infinite programs. Math. Oper. Res., 10:207–219, 1985.

[114] A. Shapiro. Second order sensitivity analysis and asymptotic theory of parame-trized nonlinear programs. Math. Program., 33:280–299, 1985.

[115] X. Shi und H. Xia. Interactive bilevel multi-objective decision making. J. Oper.Res. Soc., 48(9):943–949, 1997.

[116] X. Shi und H. Xia. Model and interactive algorithm of bi-level multi-objectivedecision-making with multiple interconnected decision makers. J. Multi-CriteriaDecis. Anal., 10:27–34, 2001.

[117] W. Stadler. Multicriteria optimization in engineering and in the sciences, Vol. 37of Mathematical Concepts and Methods in Science and Engineering. PlenumPress, New York, 1988.

[118] T. Staib. On two generalizations of pareto minimality. J. Optimization TheoryAppl., 59(2):289–306, 1988.

[119] A. Sterna-Karwat. Continuous dependence of solutions on a parameter in ascalarization method. J. Optimization Theory Appl., 55(3):417, 434 1987.

[120] A. Sterna-Karwat. Lipschitz and differentiable dependence of solutions on aparameter in a scalarization method. J. Aust. Math. Soc., Ser. A, 42:353–364,1987.

[121] R. E. Steuer und P. Na. Multiple criteria decision making combined with finance:a categorized bibliographic study. Eur. J. Oper. Res., 150(3):496–515, 2003.

[122] D. Sun und J. Sun. Semismooth matrix-valued functions. Math. Oper. Res.,27(1):150–169, 2002.

[123] C. Tammer und K. Winkler. A new scalarization approach and applications inmulticriteria d. c. optimization. J. Nonlinear Convex Anal., 4(3):365–380, 2003.

[124] M. Tanaka. GA-based decision support system for multi-criteria optimization.In Proceedings of the international Conference on Systems, Man and Cybernetics2, S. 1556–1561, 1995.

[125] C. Thieke. Multicriteria optimization in inverse radiotherapy planning. Disser-tation, Universitat Heidelberg, 2003.

Page 178: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

LITERATURVERZEICHNIS 166

[126] D. F. Thompson, S. Gupta und A. Shukla. Tradeoff analysis in minimum volumedesign of multi-stage spur gear reduction units. Mech. Mach. Theory, 35(5):609–627, 2000.

[127] A. Torn und A. Zilinskas. Global optimization, Vol. 350 of Lect. Notes in Com-puter Science. Springer, Berlin, 1989.

[128] D. A. Van Veldhuizen. Multiobjective evolutionary algorithms: Classifications,analyses, and new innovation. PhD thesis, Graduate School of Engineering, AirForce Institute of Technology, Dayton, Ohio, 1999.

[129] P. Weidner. Dominanzmengen und Optimalitatsbegriffe in der Vektoroptimie-rung. Wiss. Z. Tech. Hochsch. Ilmenau, 31(2):133–146, 1985.

[130] Y. Yin. Multiobjective bilevel optimization for transportation planning andmanagement problems. J. Advanced Transportation, 36(1):93–105, 2000.

[131] Y. Younes. Studies on discrete vector optimization. Dissertation, University ofDemiatta, Egypt, 1993.

[132] P. Yu. Cone convexity, cone extreme points, and nondominated solutions in de-cision problems with multiple objectives. J. Optimization Theory Appl., 14:319–377, 1974.

[133] L. Zadeh. Optimality and non-scalared-valued performance criteria. IEEETrans. Automatic Control, 8:59–60, 1963.

[134] E. Zitzler. Evolutionary algorithms for multiobjective optimization: Methods andapplication. PhD thesis, Swiss Federal Institute of Technology (ETH), Zurich,Switzerland, 1999.

Page 179: Parametergesteuerte L¨osung nichtlinearer ... · Es wird dazu ein param eterabh¨angi-ges skalares Ersatzproblem nach Pascoletti und Serafini betrachtet. Aufbauend auf neuen Sensitivit¨atsergebnissen

Lebenslauf

Personliche Angaben

Name: Gabriele Eichfelder

Adresse: Grazer Str.191052 Erlangen

E-Mail: [email protected]

Geburtsdatum: 30.05.1977

Geburtsort: Bamberg, Deutschland

Schulausbildung

09/1983 - 10/1984 Grundschule in Melkendorf

10/1984 - 07/1987 Hugo-von-Trimmberg-Schule in Bamberg

09/1987 - 06/1996 Gymnasium der Englischen Fraulein in BambergAbschluß: Abitur

Studium

10/1996 - 07/2001 Studium der Diplom-Mathematik an derUniversitat Erlangen-NurnbergAbschluß: DiplomTitel der Diplomarbeit:

”Tangentielle Epiableitung

mengenwertiger Abbildungen“

seit 11/2001 Wissenschaftliche Mitarbeiterin amLehrstuhl fur Angewandte Mathematik II,Universitat Erlangen-Nurnberg