Multivariate Optimierung < gewöhnliche < Differentialgl. < Analysis < Hochschule < Mathe < Vorhilfe
|
Ich habe diese Frage auch in folgenden Foren auf anderen Internetseiten gestellt:
http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation
Hallo,
ich habe eine Frage zu einem Optimierungsproblem mit 2 Variablen. Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable. Das Envelope Theorem bezieht sich ja eigentlich eher darauf, dass ich zunächst nach einer Variable optimiere, diese einsetze und dann nach einem exogenen Parameter ableite.
Aber gibt es da wirklich einen Unterschied? Gibt es dazu ein Theorem oder eine Regel, wann dies erlaubt ist?
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:42 Do 28.08.2008 | Autor: | Blech |
Also, Du suchst das Minimum von f auf [mm] $A\times [/mm] B$ und willst das machen, indem Du zuerst [mm] $f(\cdot,b):\ A\to \IR$ [/mm] für festgehaltenes [mm] $b\in [/mm] B$ optimierst, und dann die dadurch entstehende Minimumsfunktion über alle [mm] $b\in [/mm] B$?
In dem Fall kannst Du natürlich einzeln optimieren, weil ein globales Minimum [mm] $(a_{min}, b_{min})$ [/mm] selbstverständlich auch ein Minimum der Funktion [mm] $f(\cdot, b_{min})$ [/mm] ist.
Oder überseh ich hier ein Problem?
ciao
Stefan
|
|
|
|
|
Hallo Stefan,
danke für deine Hilfe.
Ich habe einfach das Gefühl, dass das nicht immer funktionieren kann. Warum sollte ich dann überhaupt mir die Mühe machen, multivariat zu optimieren, also die Determinante der Hesse-Matrix bestimmen usw. Irgendeinen Grund muss es geben :)
Hier habe ich das Problem noch einmal ausführlich dargestellt:
http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:51 Do 28.08.2008 | Autor: | rainerS |
Hallo!
> Ich habe einfach das Gefühl, dass das nicht immer
> funktionieren kann. Warum sollte ich dann überhaupt mir die
> Mühe machen, multivariat zu optimieren, also die
> Determinante der Hesse-Matrix bestimmen usw. Irgendeinen
> Grund muss es geben :)
Ich bin mir nicht ganz sicher, aber ich würde sagen, dass es durch Berechnung der Ableitungen in zwei Schritten nur dann funktionieren kann, wenn dein Maximum im ersten Schritt eine stetig differenzierbare Funktion des Parameters ist. Um bei deiner Notation zu bleiben: sei $f(n,s)$ die zu maximierende Funktion und [mm] $s^\ast(n)$ [/mm] die Lösung von
[mm] \max_s f(n,s) [/mm] zu festem n.
Im zweiten Schritt hast du
[mm] \bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
Rechne diese Ableitung aus:
[mm] \left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
Damit das definiert ist, müssen alle diese Ableitungen definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
Für eine beliebige Funktion f ist das nicht der Fall. Es könnte zum Beispiel sein, dass es für gewisse Werte von n keine eindeutig bestimmtes Maximum der Funktion f gibt. Dann kannst du [mm] $s^\ast$ [/mm] für diese Werte nicht angeben.
Viele Grüße
Rainer
|
|
|
|
|
>
> Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> es durch Berechnung der Ableitungen in zwei Schritten nur
> dann funktionieren kann, wenn dein Maximum im ersten
> Schritt eine stetig differenzierbare Funktion des
> Parameters ist. Um bei deiner Notation zu bleiben: sei
> [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> Lösung von
>
> [mm]\max_s f(n,s)[/mm] zu festem n.
>
> Im zweiten Schritt hast du
>
> [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
>
> Rechne diese Ableitung aus:
>
> [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>
> Damit das definiert ist, müssen alle diese Ableitungen
> definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
>
> Für eine beliebige Funktion f ist das nicht der Fall. Es
> könnte zum Beispiel sein, dass es für gewisse Werte von n
> keine eindeutig bestimmtes Maximum der Funktion f gibt.
> Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
>
> Viele Grüße
> Rainer
Hallo Rainer,
Vielen Dank für die umfangreiche Antwort. Diese Ableitung sehe ich jetzt auch als meinen Ausgangspunkt.
Ist es richtig, dass in dieser Ableitung nun das Envelope-Theorem zur Anwendung kommt - also der zweite Term der Ableitung weg fählt, da ja die notwendige Bedingung für s* erfüllt sein muss:
[mm] \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]
Irgendwie traue ich der Sache nicht :)
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:31 So 31.08.2008 | Autor: | rainerS |
Hallo!
> >
> > Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> > es durch Berechnung der Ableitungen in zwei Schritten nur
> > dann funktionieren kann, wenn dein Maximum im ersten
> > Schritt eine stetig differenzierbare Funktion des
> > Parameters ist. Um bei deiner Notation zu bleiben: sei
> > [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> > Lösung von
> >
> > [mm]\max_s f(n,s)[/mm] zu festem n.
> >
> > Im zweiten Schritt hast du
> >
> > [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
> >
> > Rechne diese Ableitung aus:
> >
> > [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>
> >
> > Damit das definiert ist, müssen alle diese Ableitungen
> > definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
> >
> > Für eine beliebige Funktion f ist das nicht der Fall. Es
> > könnte zum Beispiel sein, dass es für gewisse Werte von n
> > keine eindeutig bestimmtes Maximum der Funktion f gibt.
> > Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
> >
> > Viele Grüße
> > Rainer
>
>
> Hallo Rainer,
>
> Vielen Dank für die umfangreiche Antwort. Diese Ableitung
> sehe ich jetzt auch als meinen Ausgangspunkt.
>
> Ist es richtig, dass in dieser Ableitung nun das
> Envelope-Theorem zur Anwendung kommt - also der zweite Term
> der Ableitung weg fählt, da ja die notwendige Bedingung für
> s* erfüllt sein muss:
>
> [mm]\left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]
Ja. Aber die Voraussetzung ist, dass [mm] $s^\ast(n)$ [/mm] für alle möglichen Werte von n eine wohldefinierte und differenzierbare Funktion ist.
> Irgendwie traue ich der Sache nicht :)
Ja, mir ist auch nicht wohl dabei
Viele Grüße
Rainer
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 17:31 Do 28.08.2008 | Autor: | rainerS |
Hallo Stefan!
> Also, Du suchst das Minimum von f auf [mm]A\times B[/mm] und willst
> das machen, indem Du zuerst [mm]f(\cdot,b):\ A\to \IR[/mm] für
> festgehaltenes [mm]b\in B[/mm] optimierst, und dann die dadurch
> entstehende Minimumsfunktion über alle [mm]b\in B[/mm]?
>
> In dem Fall kannst Du natürlich einzeln optimieren, weil
> ein globales Minimum [mm](a_{min}, b_{min})[/mm] selbstverständlich
> auch ein Minimum der Funktion [mm]f(\cdot, b_{min})[/mm] ist.
Das ist zwar richtig, aber dieses Minimum lässt sich nicht in jedem Fall durch Nullsetzen der entsprechenden Ableitung bestimmen.
Viele Grüße
Rainer
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:35 Do 28.08.2008 | Autor: | Blech |
Davon hatte ich auch nix gesagt. Mir war nur nicht klar, was das Envelope-Theorem genau aussagt und das "d.h." in der Aufgabenstellung war irreführend =)
"Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable."
Anmerkung am Rande:
Der Grund, daß man so im allgemeinen nicht vorgeht, ist daß man für jedes b dafür ein Optimierungsproblem lösen darf. Außer bei hübschen Funktionen sitzt man daran wesentlich länger als an genug Newton-Iterationen bis zur gewünschten Genauigkeit. =P
ciao
Stefan
|
|
|
|