10
Kapitel 2 Statische Optimierung unter Gleichungsrestriktionen (Lagrange) 2.1 Einleitung/Ziel/Bedeutung/ ¨ Ubersicht Viele ¨ okonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimie- rungsproblem, allerdings ist die Optimierung unter Restriktionen durchzuf¨ uhren. Beispiele daf¨ ur sind: Unternehmen: Maximierung der Produktionsmenge f (x 1 ,...,x n uber die Faktorein- satzmengen x 1 ,...,x n bei konstant gehaltenen Produktionskosten g(x 1 ,...,x n ). Unternehmen: Minimierung der Produktionskosten bei vorgegebener Produktions- menge, wobei wieder ¨ uber die Produktionsfaktor(meng)en x 1 ,...,x n optimiert wird. Haushalte: Maximierung des Nutzens U (x 1 ,...,x n ) als Funktion der Konsumg¨ uter- mengen x 1 ,...,x n bei vorgegebenem Einkommen (Budget-Restriktion). Haushalte: Minimierung der Ausgaben bei unver¨ andertem Nutzen. Bei jedem dieser Probleme ist die unrestringierte Optimierung der Zielfunktion i.d.R. tri- vial und daher von geringem Interesse. Zum Beispiel wird die unrestringierte Maximierung der Produktion eines Unternehmens i.d.R. zum trivialen Ergebnis f¨ uhren, dass man dazu unendlich große Mengen x i der Produktionsfaktoren einsetzen sollte. Erst wenn eine Ko- stenrestriktion vorliegt, d.h. die Kosten des Einsatzes der Produktionsfaktoren limitiert werden, entsteht ein interessantes Problem (das der effizienten Verwendung der Faktoren.) Wir betrachten daher in diesem Kapitel das Problem der Optimierung einer Zielfunktion f (x 1 ,...,x n ) unter Gleichungsrestriktionen der Form g j (x 1 ,...,x n )= c j ur j =1,...,m. Auf den ersten Blick ist folgendes Vorgehen naheliegend: Man eliminiert mittels der Re- striktionen m der n Variablen und gelangt so zu einem unrestringierten Problem in n m Variablen, auf das man die Theorie des vorherigen Kapitels anwenden kann. Obwohl die- ses Vorgehen durchaus existenzberechtigt ist, wird in ¨ okonom. Anwendungen eine andere Methode vorgezogen: Die Lagrange-Methode, die mit den Lagr.-Multiplikatoren die Zahl der Variablen sogar noch erh¨ oht. Ein Grund daf¨ ur ist, dass die Lagrange-Multiplikatoren relevante Informationen enthalten. Ein anderer Grund liegt darin, dass sich die Lagrange- Methode auf den Fall der (schwierigeren) Ungleichungsrestriktionen verallgemeinert. Wir behandeln in diesem Abschnitt notwendige und hinreichende Bedingungen f¨ ur Optima- lit¨ at der station¨ aren Pkte der Lagrange-Fkt sowie einige dar¨ uber hinausgehende Themen. 11

Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

  • Upload
    hathien

  • View
    215

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

Kapitel 2

Statische Optimierung unterGleichungsrestriktionen (Lagrange)

2.1 Einleitung/Ziel/Bedeutung/Ubersicht

• Viele okonomischen Fragestellungen bestehen im Kern zwar aus einem statischen Optimie-rungsproblem, allerdings ist die Optimierung unter Restriktionen durchzufuhren.

• Beispiele dafur sind:– Unternehmen: Maximierung der Produktionsmenge f(x1, . . . , xn) uber die Faktorein-

satzmengen x1, . . . , xn bei konstant gehaltenen Produktionskosten g(x1, . . . , xn).– Unternehmen: Minimierung der Produktionskosten bei vorgegebener Produktions-

menge, wobei wieder uber die Produktionsfaktor(meng)en x1, . . . , xn optimiert wird.– Haushalte: Maximierung des Nutzens U(x1, . . . , xn) als Funktion der Konsumguter-

mengen x1, . . . , xn bei vorgegebenem Einkommen (Budget-Restriktion).– Haushalte: Minimierung der Ausgaben bei unverandertem Nutzen.

Bei jedem dieser Probleme ist die unrestringierte Optimierung der Zielfunktion i.d.R. tri-vial und daher von geringem Interesse. Zum Beispiel wird die unrestringierte Maximierungder Produktion eines Unternehmens i.d.R. zum trivialen Ergebnis fuhren, dass man dazuunendlich große Mengen xi der Produktionsfaktoren einsetzen sollte. Erst wenn eine Ko-stenrestriktion vorliegt, d.h. die Kosten des Einsatzes der Produktionsfaktoren limitiertwerden, entsteht ein interessantes Problem (das der effizienten Verwendung der Faktoren.)

• Wir betrachten daher in diesem Kapitel das Problem der Optimierung einer Zielfunktionf(x1, . . . , xn) unter Gleichungsrestriktionen der Form gj(x1, . . . , xn) = cj fur j = 1, . . . ,m.

• Auf den ersten Blick ist folgendes Vorgehen naheliegend: Man eliminiert mittels der Re-striktionen m der n Variablen und gelangt so zu einem unrestringierten Problem in n−mVariablen, auf das man die Theorie des vorherigen Kapitels anwenden kann. Obwohl die-ses Vorgehen durchaus existenzberechtigt ist, wird in okonom. Anwendungen eine andereMethode vorgezogen: Die Lagrange-Methode, die mit den Lagr.-Multiplikatoren die Zahlder Variablen sogar noch erhoht. Ein Grund dafur ist, dass die Lagrange-Multiplikatorenrelevante Informationen enthalten. Ein anderer Grund liegt darin, dass sich die Lagrange-Methode auf den Fall der (schwierigeren) Ungleichungsrestriktionen verallgemeinert.

• Wir behandeln in diesem Abschnitt notwendige und hinreichende Bedingungen fur Optima-litat der stationaren Pkte der Lagrange-Fkt sowie einige daruber hinausgehende Themen.

11

Page 2: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

12 Statische Optimierung – Lagrange

2.2 Lagrange-Methode bei einer Restriktion

Es soll zunachst der Fall einer einzigen Nebenbedingung behandelt werden. Eine solche Neben-bedingung lasst sich durch eine Gleichung

g(x1, . . . , xn) = c

beschreiben, wobei g : D ⊂ Rn → R eine Funktion der gleichen Variablen x1, . . . , xn wie die der

Zielfunktion ist. Geometrisch gesehen, bewegt man sich also auf einer Isoquante der Funktion g:Es sind die (lokalen) Extrema der Zielfunktion f gesucht, wenn diese auf die durch das Niveauc festgelegte Isoquante von g restringiert wird. In zwei Dimensionen ergibt sich folgendes Bild:

fLösung desunrestringierten Problems

Lösung desrestringierten Problems

Im Punkt (x,y) ist der Gradient von fnicht parallel zum Gradienten von g.

Daher kann man sich auf der Restriktion „g(x,y) = c“ in eine Richtung bewegen, auf der sich die Zielfkt. f vergrößert.

Also kann (x,y) nicht Lösung des Pro-blems max f(x,y) u.d.NB g(x,y) = c sein.

Restriktiong(x,y) = c

x

y

Isoquanten von f

Graph von f (x,y)

g x , y

f x , y

Die Abbildung legt nahe: Solange der Gradient von f nicht senkrecht zur Restriktionskurve,der Isoquante {g(x) = c}, steht, gibt dieser Gradient eine Richtung vor, langs der man eineVergroßerung der Zielfunktion erreicht, indem man sich auf der Restriktionskurve in eben dieseRichtung bewegt. Erst wenn ∇f senkrecht zur Restriktionskurve, und damit parallel zu derenNormalenvektor ∇g, verlauft, besteht – zumindest lokal – diese Moglichkeit nicht mehr. DieParallelitat von ∇f und ∇g ist also eine notwendige Bedingung fur ein lokales Maximum vonf auf einer Isoquante von g, wie wohl J.L.Lagrange als erster erkannte:

Satz 2.1 (Lagrange-Methode: Notwendige Bedingung)Es seien f, g : D ⊂ R

n → R stetig differenzierbare Funktionen auf einem Gebiet D im Rn.

Es sei x ein lokales Extremum von f unter der Restriktion g(x) = c und ∇g(x) �= 0. Dannexistiert ein λ ∈ R, das man als Lagrange-Multiplikator bezeichnet, mit

∇f(x) = −λ ∇g(x).

Die Aussage dieses Satzes lasst sich auf eine interessante Weise umdeuten, indem man dieLagrange-Funktion des Problems bildet:1

L(λ, x) := f(x) + λ (g(x) − c)

Das ursprungliche, restringierte Optimierungsproblem ist aquivalent zu einem unrestringiertenOptimierungsproblem mit der Lagrange-Funktion L als Zielfunktion in den (insgesamt n + 1)Variablen λ sowie x1, . . . , xn im folgenden Sinne:

1Im Hinblick auf die hinreichende Bedingung bilden wir in diesem Kapitel die Lagrange-Funktion mit +λ statt,wie meistens in okonomischen Anwendungen, mit −λ. Aus dem gleichen Grund behandeln wir λ als erste (nichtals letzte) Variable der Lagrange-Funktion.

Page 3: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

c© K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 13

Die notwendige Bedingung ∇f(x) = −λ ∇g(x) des Satzes zusammen mit der Ne-benbedingung g(x) = c ist aquivalent zu der notwendigen Bedingung fur ein unre-stringiertes Optimierungsproblem bzgl. L, d.h. zu

∇L(λ, x) = 0.

Das folgt unmittelbar aus den Identitaten:

∂L

∂λ(λ, x) = g(x) − c.

∂L

∂x1(λ, x) =

∂f

∂x1(x) + λ

∂g

∂x1(x),

......

∂L

∂xn(λ, x) =

∂f

∂xn(x) + λ

∂g

∂xn(x).

Mit anderen Worten: In Bezug auf die Bedingungen erster Ordnung unterscheidet sich dasrestringierte Problem nicht von einem unrestringierten, aber (n+1)-dimensionalen Problem mitder Lagrange-Funktion als Zielfunktion.In diesem Sinne haben beide Probleme die gleichen stationaren Punkte.

Beispiel: Gegeben ist die Funktion f : R2 → R,

f(x, y) = 12 x2 + y2 + 2 y + 1000,

die unter der Restriktiong(x, y) := x + y = 80.

zu maximieren oder minimieren ist. Die Lagrange-Funktion lautet

L(λ, x) = L(λ, x, y) = 12 x2 + y2 + 2 y + 1000 + λ (x + y − 80).

Partielle Differentiation nach λ sowie x, y und anschließendes Nullsetzen der Ableitungen liefertdas folgende Gleichungssystem (notwendige Bedingung fur das unrestringierte Problem bzgl. L):

∂L

∂λ= +(x + y − 80) != 0,

∂L

∂x= x + λ

!= 0,∂L

∂y= 2 y + 2 + λ

!= 0.

Dies ist (hier) ein lineares Gleichungssystem in den drei Variablen (λ, x, y). Die Losung ergibtsich als: x = 54, y = 26 und λ = −54.Okonomische Anwendungen der Lagrange-Methode enden oft an dieser Stelle mit der Aussage,dass die Losung gefunden ist. Allerdings ist ungeklart, ob der stationare Punkt uberhaupt eineExtremstelle ist und, falls ja, ob es ein Maximum oder Minimum ist. Offen ist auch die Frage,ob es sich dabei um ein globales Maximum bzw. Minimum handelt. �Man konnte nun vermuten, dass sich eine hinreichende Bedingung (fur das Vorliegen eineslokalen Extremums in einem stat. Pkt des restr. Problems) mit Hilfe der Definitheit der (gesam-ten) Hesse-Matrix der Lagrange-Fkt. formulieren lasst. Das gilt allerdings nur eingeschrankt:Das lokal konvexe bzw. konkave Verhalten ist beim restringierten Problem mit einer Teilmengeder Hurwitz-Determinanten der Hesse-Matrix von L im stat. Pkt (λ∗,x∗) zu erfassen.

Page 4: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

14 Statische Optimierung – Lagrange

Die Hesse-Matrix der Lagrange-Fkt. L(λ, x) = f(x) + λ(g(x) − c

)hat folgende Struktur:

HL(λ, x) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

∂2L

∂λ∂λ

∂2L

∂x1∂λ. . .

∂2L

∂xn∂λ∂2L

∂λ∂x1

∂2L

∂x1∂x1. . .

∂2L

∂xn∂x1...

......

∂2L

∂λ∂xn

∂2L

∂x1∂xn. . .

∂2L

∂xn∂xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0∂g

∂x1. . .

∂g

∂xn

∂g

∂x1

∂2L

∂x1∂x1. . .

∂2L

∂xn∂x1...

......

∂g

∂xn

∂2L

∂x1∂xn. . .

∂2L

∂xn∂xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

Diese Matrix wird auch als geranderte Hesse-Matrix (‘bordered Hessian matrix’) des Pro-blems bezeichnet.2 Mit

dk = dk(λ, x) :=

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

0∂g

∂x1. . .

∂g

∂xk

∂g

∂x1

∂2L

∂x1∂x1. . .

∂2L

∂xk∂x1...

......

∂g

∂xk

∂2L

∂x1∂xk. . .

∂2L

∂xk∂xk

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣bezeichnen wir die Hauptunterdeterminanten der geranderten Hesse-Matrix (wobei wir die Zahlungbei 0 beginnen, so dass die re. untere Ecke von dk auf ∂2L

∂xk∂xkliegt.); es gilt immer d0 = 0.

Satz 2.2 (Lagrange-Methode: Hinreichende Bedingung)Die Funktion f sei zweimal, die Funktion g einmal stetig differenzierbar. Es sei (λ∗,x∗) einstationarer Punkt der Lagrange-Funktion L(λ∗,x∗) und ∇g(x∗) �= 0. Dann gilt:

• Sind die letzen n − 1 Hauptunterdeterminanten von HL(λ∗,x∗) alle negativ, d.h.d2 < 0, . . ., dn < 0, so ist x∗ eine lokale Minimalstelle des restringierten Problems.

• Haben die letzten n − 1 Hauptunterdeterminanten von HL(λ∗,x∗) alternierende Vorzei-chen beginnend mit ’+’ (d.h. d2 > 0, d3 < 0, . . . ), so ist x∗ eine lokale Maximalstelledes restringierten Problems.

Die Zahl der zu uberprufenden Determinanten entspricht der Zahl der Freiheitsgrade des Pro-blems. Die Nebenbedingung reduziert diese von n auf n − 1.Im Fall eines Problems mit n = 2 Variablen (wo n − 1 = 1) ist nur eine Determinante, namlich

d2 =

∣∣∣∣∣∣∣∣∣∣∣∣

0∂g

∂x1

∂g

∂x2

∂g

∂x1

∂2L

∂x1∂x1

∂2L

∂x2∂x1

∂g

∂x2

∂2L

∂x1∂x2

∂2L

∂x2∂x2

∣∣∣∣∣∣∣∣∣∣∣∣2Die Eintrage in der rechten unteren Teilmatrix von HL(λ, x) ergeben sich als ∂2L

∂xi∂xj= ∂2f

∂xi∂xj+ λ ∂2g

∂xi∂xj..

Die geranderte Hesse-Matrix hat also folgende Blockstruktur

HL(λ, x) =

(0 ∇g(x)

∇g(x) Hf (x) + λHg(x)

)

Man beachte, dass sich die re. untere n×n-Teilmatrix (nur) im Fall einer linearen Restriktionsfunktion g (⇒ Hg =O) auf die Hesse-Matrix der Zielfunktion Hf (x) reduziert.

Page 5: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

c© K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15

zu uberprufen: d2 < 0 ⇒ Minimalstelle, d2 > 0 ⇒ Maximalstelle, d2 = 0 ⇒ keine Aussage.

Beispiel Fortsetzung von f(x, y) := 12 x2 + y2 + 2 y + 1000 u. d. NBd. g(x, y) := x + y = 80.

Die Lagrange-Funktion war

L(λ, x) = L(λ, x, y) = 12 x2 + y2 + 2 y + 1000 + λ (x + y − 80),

deren partielle Ableitungen erster Ordnung ergaben sich zu:

∂L

∂λ= x + y − 80,

∂L

∂x= x + λ,

∂L

∂y= 2 y + 2 + λ.

Damit ergibt sich fur die 3 × 3-Hesse-Matrix von L:

HL(λ, x) =

⎛⎜⎝

0 ∂g∂x

∂g∂y

∂g∂x

∂2L∂x∂x

∂2L∂y∂x

∂g∂y

∂2L∂x∂y

∂2L∂y∂y

⎞⎟⎠ =

⎛⎝0 1 1

1 1 01 0 2

⎞⎠ .

Die Determinante d2 dieser Matrix errechnet sich mit Sarrus-Regel zu: d2 = 0+0+0−1−0−2 =−3 < 0. Damit liegt im oben berechneten stationaren Punkt eine lokale Minimalstelle vor. �Beispiel 2: Wir betrachten im R

3 das Problem, denjenigen Punkt (x∗, y∗, z∗) aus einer gege-benen Ebene (wir nehmen die zum Vektor (1, 1, 1) senkrechte Ebene durch den Ursprung) zufinden, der den minimalen Abstand zu einem gegeb. Punkt y realisiert (wir wahlen y = (2,0,1)).3

Wir konnen dies als restringiertes Optimierungsproblem formulieren (wobei wir aus rechentech-nischen Grunden als Zielfkt. nicht den Abstand, sondern das halbe Abstandsquadrat nehmen):

min f(x, y, z) := 12(x − 2)2 + 1

2(y − 0)2 + 12(z − 1)2 u.d.NB g(x, y, z) := x + y + z = 0

Mit der Lagrange-Funktion L(λ, x, y, z) = 12(x− 2)2 + 1

2(y − 0)2 + 12(z − 1)2 + λ

(x + y + z − 0)

wird die Stationaritatsbedingung zu:

L′λ = x + y + z = 0

L′x = x − 2 + λ = 0

L′y = y + λ = 0

L′z = z − 1 + λ = 0

⎫⎪⎪⎬⎪⎪⎭ ⇐⇒

⎛⎜⎜⎝

0 1 1 11 1 0 01 0 1 01 0 0 1

⎞⎟⎟⎠

⎛⎜⎜⎝

λxyz

⎞⎟⎟⎠ =

⎛⎜⎜⎝

0201

⎞⎟⎟⎠

Als Losung dieses 4×4 linearen Gl.Systems und damit einzigem stationaren Punkt der Lagrange-Funktion erhalt man (λ∗ = 1, x∗ = 1, y∗ = −1, z∗ = 0).Die Hesse-Matrix der Lagrange-Funktion ist genau die Koeffizientenmatrix des lin. Gl.Systems.Die hinreichende Bedingung involviert die beiden letzten Hurwitz-Determinanten dieser Matrix:

d2 =

∣∣∣∣∣∣0 1 11 1 01 0 1

∣∣∣∣∣∣ = 0− 1− 1 = −2, d3 =

∣∣∣∣∣∣∣∣

0 1 1 11 1 0 01 0 1 01 0 0 1

∣∣∣∣∣∣∣∣(Lapl. 4.Zl)

= −∣∣∣∣∣∣1 1 11 0 00 1 0

∣∣∣∣∣∣ + 1 · d2 = −1− 2 = −3

Da beide negativ sind, ist (x∗ = 1, y∗ = −1, z∗ = 0) lok. Minimum des restringierten Problems.

3Im R3 konnten wir dieses Problem auch geometrisch losen indem wir das Lot von y auf die Ebene fallen, d.h.

y orthogonal auf die Ebene projizieren. Das skizzierte Problem laßt sich auch als Version der Ausgleichsrechnungwie im letzten Kapitel interpretieren: Man ‘regressiert’ y auf die Ebene.

Page 6: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

16 Statische Optimierung – Lagrange

2.2.1 Interpretation des Lagrange-Multiplikators

Die Lagrange-Methode liefert neben der lokalen Extremalstelle x∗ auch eine zunachst gar nichtgefragte Information, den Lagrange-Multiplikator λ∗. Es stellt sich jedoch heraus, dass derLagrange-Multiplikator eine (insbesondere fur okonomische Anwendungen) interessante Großedarstellt. Um dies zu sehen, beachten wir, dass (das Folgende ist nicht als mathematisch rigoroseHerleitung zu sehen):

∂L

∂xi(λ, x) =

∂f

∂xi(x) + λ

∂g

∂xi(x) = 0 ⇐⇒ λ = λ∗ = −

∂f∂xi

(x∗)∂g∂xi

(x∗).

Dies gilt fur jedes i. Ersetzt man im Quotienten rechts die partiellen Ableitungen durch entspre-chende, auf xi = x ∗

i (und λ = λ∗) bezogene Differenzenquotienten, so kurzt sich Δxi heraus:

λ∗ ≈ −ΔfΔxi

(x∗)ΔgΔxi

(x∗)= − Δf

Δxi(x∗) · Δxi

Δg(x∗) = −Δf(x∗)

Δg(x∗).

Da g(x∗) = c, ist Δg(x∗) eine Anderung im Niveau c der Restriktion. Das Ergebnis lasst sichfolgendermaßen interpretieren: Wir betrachten Anderungen im Niveau c der Restriktion; zujedem c gehort im Allgemeinen eine andere Extremstelle x∗(c) mit zugehorigem ExtremwertF (c) := f(x∗(c)). Die Aussage ist, dass dann λ = F ′(c):

Der Lagrange-Multiplikator λ misst die Sensitivitat des Extremwertes f(x∗) aufAnderungen im Niveau c der Restriktion. Er gibt die (momentane) Rate an, mitder sich Anderungen (im Niveau) der Restriktion auf Anderungen (im optimalenWert) der Zielfunktion f(x∗) auswirken.

In okonomischen Anwendungen liefert diese Aussage regelmaßig eine okonomische Interpretationdes Lagrange-Multiplikators λ:

Zielfunktion Restriktion Bedeutung Lagrange-MultiplikatorUnternehmen min Kosten Produkt = const λ = Grenzkosten des ProduktsUnternehmen max Produkt Kosten = const λ = Grenzprodukt der KostenHaushalt max Nutzen Einkommen = c λ = Grenznutzen des EinkommensHaushalt min Ausgaben Nutzen = const λ = Grenzkosten des Nutzens

Beispielsweise besagt die erste Zeile der Tabelle (Unternehmen minimiert seine Kosten bei kon-stant gehaltenem Produkt, d.h. Output): Wenn das Unternehmen seinen Output um eine Einheiterhoht, dann erhohen sich die Kosten naherungsweise um das (−λ)-fache (das Vorzeichen ent-steht aufgrund unserer Konvention zur Lagrange-Fkt). λ gibt hier also an, was die na. produzierteEinheit ‘kostet’, d.h. wie teuer sie gemessen in Kosteneinheiten ist.Der Lagrange-Multiplikator λ misst also, wie sehr die Restriktion auf die Zielfunktion ‘druckt’.Er gibt den Preis an, den eine Einheit der Restriktion kostet. Wenn die Restriktion g eineRessource auf das Niveau c limitiert, wird λ daher auch als Schattenpreis (einer Einheit derRessource, gemessen in Einheiten der Zielfunktion) bezeichnet.Verdeutlichung anhand des obigen geometrischen Beispiels 2: Dort hatten wir λ∗ = 1ermittelt. Mit einer Erhohung des Niveaus c der Restriktion x + y + z = c aus c = 0 herausverringern wir also die Zielfunktion, den minimalen Abstand der Ebene zum Punkt y = (2, 0, 1)(bzw. das halbe Abstandsquadrat), und zwar naherungsweise um 1 ·c. Zumindest das Vorzeichenleuchtet ein, denn mit wachsendem c > 0 bewegen wir die Ebene langs des Normalenvektors(1, 1, 1) aus dem Ursprung heraus; dabei bewegen wir uns auf den Punkt (2, 0, 1) zu (nicht weg).

Page 7: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

c© K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 17

2.3 Lagrange-Methode mit mehreren Restriktionen

Die Lagrange-Theorie lasst sich problemlos auf den Fall, dass mehr als eine Restriktion fur dasgesuchte Extremum vorliegt, verallgemeinern. Es werden also jetzt die lokalen Extrema einerFunktion f(x1, . . . , xn) unter den m Nebenbedingungen

g1(x1, . . . , xn) = c1

......

gm(x1, . . . , xn) = cm

gesucht. Dabei wird m < n vorausgesetzt (bei m = n legen die Restriktionen i.a. bereits diezulassige Menge auf einzelne Punkte fest, bei m > n ist die zulassige Menge i.a. leer).Die fur den Fall einer Restriktion geltenden Satze ubertragen sich auf diesen Fall, wenn man mLagrange-Multiplikatoren λ1, . . . , λm vorsieht und als Lagrange-Funktion

L(λ1, . . . , λm,x) = f(x) +m∑

j=1

λj (gj(x) − cj) (∗)

verwendet. Eine notwendige Bedingung fur eine (‘regulare’) lokale Extremstelle ist nun dasVerschwinden aller n + m partiellen Ableitungen von L:

∂L

∂λj= 0, j = 1, . . . , m ,

∂L

∂xi= 0, i = 1, . . . , n .

Dies stellt hier ein Gleichungssystem mit m + n Gleichungen in den m + n Unbekannten(λ1, . . . , λm, x1, . . . , xn) dar.

Satz 2.3 (Lagrange: Notwendige Bedingung bei mehreren Restriktionen)Es seien f, g : D ⊂ R

n → R stetig diff.bare Funktionen auf einem Gebiet D ⊂ Rn. Es sei x

ein lokales Extremum von f unter den Restriktionen gj(x) = cj, j = 1, . . . ,m. Die Vektoren∇ gj(x) seien linear unabhangig. Dann existieren λj ∈ R mit

∇f(x) = −m∑

j=1

λj ∇gj(x).

Die Regularitatsbedingung, dass die Gradienten der Restriktionsfktnen, ∇gj , im lokalen Extre-mum linear unabhangig sind, wird auch als Qualifikationsbedingung (constraint qualification)bezeichnet. Sieht man von solchen ‘irregularen’ oder ‘entarteten’ Extrema ab, besagt der Satz,dass in einer lokalen Extremstelle der Gradient der Zielfunktion f eine Linearkombination derGradienten der Restriktionsfunktionen gj sein muss. Solche Stellen werden als stationare Stellendes restringierten Problems bezeichnet.Wie im Fall einer Restriktion lasst sich dies plakativ folgendermaßen zusammenfassen:Die stationaren Stellen des restringierten Problems sind die stationaren Stellen des unrestrin-gierten Problems bzgl. der Lagrange-Funktion.Auch die hinreichende Bedingung besitzt eine entsprechende Verallgemeinerung. Dazu sind diezweiten partiellen Ableitungen der Lagrange-Funktion

L(λ1, . . . , λm, x1, . . . , xn) = f(x1, . . . , xn) +m∑

j=1

λj

(gj(x1, . . . , xn) − cj

),

Page 8: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

18 Statische Optimierung – Lagrange

in der Hesse-Matrix HL(λ,x) zusammenzufassen; diese Matrix, die wieder als die gerandertenHesse-Matrix des Problems bezeichnet wird, hat folgende Struktur:

HL(λ,x) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 . . . 0 | ∂g1

∂x1. . .

∂g1

∂xn...

... | ......

0 . . . 0 | ∂gm

∂x1. . .

∂gm

∂xn−−−− −−− −−−− + −−−− −−− −−−−

∂g1

∂x1. . .

∂gm

∂x1| ∂2L

∂x1∂x1. . .

∂2L

∂xn∂x1...

... | ......

∂g1

∂xn. . .

∂gm

∂xn| ∂2L

∂x1∂xn. . .

∂2L

∂xn∂xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

(Nur) fur lineare Restriktionen entsteht im re. unteren Block die Hesse-Matrix der Zielfunktion.Mit dj = dj(λ,x) bezeichnen wir die (m + j)-te Hauptminore von HL(λ,x) (ihre re. untereEcke ist der Diagonaleintrag ∂2L

∂xj∂xj).

Satz 2.4 (Lagrange: Hinreichende Bedingung bei mehreren Restriktionen)Die Funktion f sei zweimal, die Funktionen gi einmal stetig differenzierbar. Es sei (λ∗,x∗) einstationarer Punkt der Lagrange-Funktion L(λ∗,x∗), der die Qualifikationsbedingung erfullt.Dann gilt fur gerades m:

• Sind die letzen n−m Hauptunterdeterminanten von HL(λ∗,x∗), alle positiv, d.h. dm+1 >0, . . ., dn > 0, so ist x∗ eine lokale Minimalstelle des restringierten Problems.

• Haben die letzten n − m Hauptunterdeterminanten von HL(λ∗,x∗) alternierende Vor-zeichen beginnend mit ‘−’ (d.h. dm+1 < 0, dn−m+1 > 0, . . . ), so ist x∗ eine lokaleMaximalstelle des restringierten Problems.

Fur ungerades m gelten die Bedingungen mit umgekehrten Vorzeichen der dj (−dj statt dj).

Wiederum entstpricht die Zahl der zu uberprufenden Determinanten der Zahl der ‘Freiheitsgrade’des Problems. Die m Restriktionen reduzieren diese von n auf n − m.

Der letzte Satz ist nicht nur recht unangenehm in der Anwendung, sondern trifft auch nur Aus-sagen zu lokalen Extrema. Wie im unrestringierten Fall ist im geeigneten Konvexitatsszenariodie Stationaritatsbedingung (ohne Qualif.Bed.) bereits hinreichend fur ein globales Extremum:

Satz 2.5 (Hinreichende Bed. f. globale Extrema unter Konvexitat/Konkavitat)Die Funktion f sei zweimal, die Funktionen gj einmal stetig differenzierbar. Es sei (λ∗,x∗) einstationarer Punkt der Lagrange-Funktion L(λ∗,x∗). Wenn die Lagrange-Fkt. L als Funktionvon x bei festgehaltenem λ = λ∗ konkav (bzw. konvex ) ist, dann stellt x∗ ein globales Maximum(bzw. Minimum) des restringierten Problems dar.

Die Voraussetzungen dieses Satzes (bzgl. eines Minimums) sind z.B. dann erfullt, wenn dieZielfunktion konvex ist und fur j = 1, . . . ,m gilt: Entweder ”λ

∗j ≤ 0 und gj konkav“ oder

”λ∗j ≥ 0 und gj konvex“. In den beiden numerischen Beispielen des vorhergehenden Abschnitts

hat man eine konvexe Zielfunktion und (sogar) lineare Restriktionsfunktionen (die sowohl konvexals auch konkav sind); der stationare Punkt ist also eine globale Minimalstelle.

Page 9: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

c© K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 19

2.4 Anwendung: Budget-restringierte Nutzenmaximierung

Ein Haushalt kann n Guter in den Mengen x1, . . . , xn zu den Preisen p1, . . . , pn zum Konsumerwerben. Aus dem Konsum erwachst ihm ein Nutzen U(x1, . . . , xn). Wir unterstellen, dass Umonoton wachsend in jedem Konsumgut (math: ∂U

∂xi≥ 0, ok: ”Mehr ist besser“) und konkav ist

(math: Hf (x) negativ semi-definit, ok: Gesetz des abnehmenden Grenznutzens). Der Haushalthat ein (exogen vorgegebenes) Budget I und steht vor der Aufgabe, seinen Nutzen zu maximierenunter der Vorgabe, dass sein gesamtes Budget dafur verbraucht wird, d.h. p1x1 + . . .+pnxn = I.Die Lagrange-Funktion zu diesem Problem lautet

L(λ, x1, . . . , xn) = U(x1, . . . , xn) − λ(p1x1 + . . . + pnxn − I)

Die notwendige Bedingung erster Ordnung, ∂L∂xi

= ∂U∂xi

− λ pi!= 0 fuhrt auf

1pi

∂U

∂xi(x1, . . . xn) = λ (= const unabhangig von i)

Zusammen mit der Budget-Restriktion stellt dies ein Gleichungssystem von n + 1 Gln. in denn+1 Unbekannten λ, x1, . . . xn dar. Da die Zielfunktion U konkav und die Restriktion linear ist,ist die Bed. 1. Ordn. bereits hinreichend fur ein globales Maximum.

pj

p

xj

Isoquanten von U(Indifferenzkurven)

Budget-Restriktion

pi

pj

pi

xi

Interpretation der Lagr.-Bed. ∇U ||p:Der Restriktionsgradient ist hier p;solange dieser Gradient nicht parallel zumGradienten der Zielfkt. U verlauft, bestehtein Anreiz zur Veranderung von x:Die Projektion des Nutzengradienten auf dieBudget-Restriktion gibt dann die Richtung vor,in der man sich auf der Budget-Restriktionbewegen muss, um den Nutzen zu erhohen(auf eine bessere Nutzenisoquante zu gelangen).

Die Lagrange-Bedingung fur Optimalitat kann in der in der Abbildung angedeuteten Weise inter-pretiert werden. Hier soll noch eine alternative Interpretation mittels Substitutionsratengegeben werden: Durch Bildung des Quotienten in den Gln. fur das i-te und j-te Gut (wird λeliminiert und) man erhalt:

∂U

∂xi

/ ∂U

∂xj=

pi

pj

Dabei ist ∂U∂xi

/∂U∂xj

die Marginalrate der Substitution von xi zu xj , die (in 1. Ordnung) angibt,wieviel Einheiten zusatzlichen Konsums von xj der Haushalt fur den Verzicht auf eine Ein-heit des Konsums von xi verlangt, damit er indifferent ist (auf der gleichen Nutzenisoquantebleibt). Man kann diese Kompensationsforderung als die Opportunitatskosten einer Einheit vonxi gemessen in Einheiten von xj interpretieren. Die Optimalitatsbed. zeigt, dass diese Kostengleich dem Preisverhaltnis pi/pj sein mussen, was sich folgendermaßen erklaren lasst: Solangeder Preis pi einer Einheit von xi relativ zu dem einer Einheit xj niedriger ist als die Oppor-tunitatskosten eines Verzichts auf eine Einheit xi gemessen in Einheiten von xj , gibt es einenAnreiz zu Mehrkonsum von xi auf Kosten eines Minderkonsums von xj (man gelangt so auf einebessere Nutzenisoquante). Entsprechend hat man einen Anreiz zur Verminderung des Konsumsvon xi, wenn dessen Preis pi gemessen in den ‘Nutzenkoordinaten’ zu hoch ist.

Page 10: Statische Optimierung unter Gleichungsrestriktionen · PDF filec K.H. Schild, Abt. Statistik, Fb. Wiwi, Uni Marburg 15 zu ¨uberpr ¨ufen: d˜2 < 0 ⇒ Minimalstelle, d˜2 > 0 ⇒

20 Statische Optimierung – Lagrange

Das Modell kann auch in einer ‘dynamischen’ Situation angewandt werden, wo xt fur den Kon-sum zur Zeit t steht und U(x0, . . . , xT ) eine intertemporale Nutzenfkt. darstellt, die die Zeit-praferenzen des Haushalts erfasst. Dies soll fur den Fall einer Periode und der Nutzenfunktion

U(x0, x1) = α · ln(x0) + (1 − α) · ln(x1)

durchgerechnet werden, wobei x0 fur heutigen Konsum, x1 fur morgigen Konsum steht und derParameter α ∈ (0, 1) die Praferenz heutigen gegenuber morgigen Konsums misst (realistisch istα > 1

2). Die Budget-Restriktion besteht darin, dass der Haushalt mit Grundausstattungen w0

und w1 heute und morgen versehen ist und – uber einen ‘Kapitalmarkt’ – heutigen Unter- oderUberkonsum w0 − x0 mit einem Zins von r nach morgen transferrieren kann bzw. zuruckzahlenmuss:

x1 = w1 + (1 + r) (w0 − x0) ⇐⇒ 1︸︷︷︸=p1

·x1 + (1 + r)︸ ︷︷ ︸=p0

·x0 = w1 + (1 + r) w0︸ ︷︷ ︸=I

Die Substitutionsrate ∂U∂x0

/∂U∂x1

gibt an, wieviel fur den Verzicht auf eine Einheit heutigen Kon-sums an morgigem Mehrkonsum gefordert wird. Im Nutzenmax. muss sie gleich p0/p1 = 1 + rsein, d.h. gerade so groß wie die Kapitalmarkt-Kompensation fur Verzicht auf heutigen Konsum.Bei der konkreten Nutzenfkt. errechnet sie sich zu ∂U

∂x0

/∂U∂x1

= αx0

/1−αx1

= α1−α

x1x0

. Zusammenmit der Budgetrestriktion erhalt man nach einfacher Rechnung folgende Losung des Problems:

x0 = α(w0 + w1/(1 + r)

), x1 = (1 − α)

(w1 + w0 · (1 + r)

), λ = 1/

(w1 + w0 (1 + r)

)Diese Ergebnisse sollen nun verwendet werden fur ein Modell zur Entstehung des Zinsesr auf einem neoklassischen Kapitalmarkt. Dazu nehmen wir an, dass sich viele Haushalte i =1, . . . , N mit individuellen Praferenzen α(i) und Ausstattungen w

(i)0 , w

(i)1 zur Zeit 0 auf einem

Markt treffen und der Auktionator einen Kapitalmarktzins r ausruft. Die Formel fur x0, gelesenals x

(i)0 (r) = α(i)

(w

(i)0 +w

(i)1 /(1+ r)

), beschreibt dann die Konsum-Reaktion, mit der Haushalt

i auf dieses r reagieren wurde. Er wird eine Nachfrage nach einer Kapitalmarktanleihe mit Zinsr haben, wenn x

(i)0 (r) < w

(i)0 ist, und ein Angebot machen, wenn x

(i)0 (r) > w

(i)0 . Die gesamte

Nachfrage nach und das gesamte Angebot von Anleihen mit einem Zins r ist durch

D(r) =∑

i:x(i)0 (r)>w

(i)0

(x

(i)0 (r) − w

(i)0

), S(r) =

∑i:x

(i)0 (r)<w

(i)0

(w

(i)0 − x

(i)0 (r)

)gegeben. Wenn der Zins r durch Ausgleich von Angebot und Nachfrage entsteht, muss r die Gl.D(r) = S(r) losen (was aquivalent ist zu

∑i x

(i)0 (r) =

∑i w

(i)0 ). Mit den Reaktionsfunktionen

x(i)0 (r) aus obiger Nutzenmaximierung ergibt sich nach einfacher Rechnung folgendes Ergebnis

1 + r =∑N

i=1 α(i) w(i)1∑N

i=1(1 − α(i)) w(i)0

Zur einfacheren Interpretation dieser Formel sei W0 :=∑N

i=1 w(i)0 ,W1 :=

∑Ni=1 w

(i)1 die Ge-

samtaustattung aller Haushalte zum Zeitpkt 0 bzw. 1 und αt :=∑N

i=1 α(i) (w(i)t /Wt) das mit

den Anteilen der Haushalte an der Ges.Ausstattung gewichtete Mittel der α’s. Dann ergibt sich

1 + r =α1

1 − α0

W1

W0,

Neben banalen Implikationen, wie ”der Zins steigt, wenn die Gegenwartspraferenz α steigt“,zeigt diese Formel vor allem, dass der Zins klein wird, wenn der morgige Wohlstand W1 kleinim Verhaltnis zum heutigen W0 ist. Selbst bei strikter Gegenwartspraferenz aller Haushalte(α(i) > 1/2 fur alle i) kann r sogar negativ werden, wenn W1/W0 genugend klein ist. DerGrund ist, dass die morgige Armut antizipiert wird, was eine hohe Nachfrage nach Transfer, d.h.‘Rettung’ des heute noch bestehenden Wohlstands bewirkt.