www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Gewöhnliche Differentialgleichungen" - Multivariate Optimierung
Multivariate Optimierung < gewöhnliche < Differentialgl. < Analysis < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Gewöhnliche Differentialgleichungen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 11:40 Mi 27.08.2008
Autor: franzi123

Ich habe diese Frage auch in folgenden Foren auf anderen Internetseiten gestellt:
http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation


Hallo,

ich habe eine Frage zu einem Optimierungsproblem mit 2 Variablen. Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable. Das Envelope Theorem bezieht sich ja eigentlich eher darauf, dass ich zunächst nach einer Variable optimiere, diese einsetze und dann nach einem exogenen Parameter ableite.

Aber gibt es da wirklich einen Unterschied? Gibt es dazu ein Theorem oder eine Regel, wann dies erlaubt ist?

        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 12:42 Do 28.08.2008
Autor: Blech

Also, Du suchst das Minimum von f auf [mm] $A\times [/mm] B$ und willst das machen, indem Du zuerst [mm] $f(\cdot,b):\ A\to \IR$ [/mm] für festgehaltenes [mm] $b\in [/mm] B$ optimierst, und dann die dadurch entstehende Minimumsfunktion über alle [mm] $b\in [/mm] B$?

In dem Fall kannst Du natürlich einzeln optimieren, weil ein globales Minimum [mm] $(a_{min}, b_{min})$ [/mm] selbstverständlich auch ein Minimum der Funktion [mm] $f(\cdot, b_{min})$ [/mm] ist.

Oder überseh ich hier ein Problem?

ciao
Stefan

Bezug
                
Bezug
Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:39 Do 28.08.2008
Autor: franzi123

Hallo Stefan,

danke für deine Hilfe.

Ich habe einfach das Gefühl, dass das nicht immer funktionieren kann. Warum sollte ich dann überhaupt mir die Mühe machen, multivariat zu optimieren, also die Determinante der Hesse-Matrix bestimmen usw. Irgendeinen Grund muss es geben :)

Hier habe ich das Problem noch einmal ausführlich dargestellt:
[]http://www.onlinemathe.de/forum/Multivariate-Optimierung-Differentiation



Bezug
                        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 17:51 Do 28.08.2008
Autor: rainerS

Hallo!

> Ich habe einfach das Gefühl, dass das nicht immer
> funktionieren kann. Warum sollte ich dann überhaupt mir die
> Mühe machen, multivariat zu optimieren, also die
> Determinante der Hesse-Matrix bestimmen usw. Irgendeinen
> Grund muss es geben :)

Ich bin mir nicht ganz sicher, aber ich würde sagen, dass es durch Berechnung der Ableitungen in zwei Schritten nur dann funktionieren kann, wenn dein Maximum im ersten Schritt eine stetig differenzierbare Funktion des Parameters ist. Um bei deiner Notation zu bleiben: sei $f(n,s)$ die zu maximierende Funktion und [mm] $s^\ast(n)$ [/mm] die Lösung von

  [mm] \max_s f(n,s) [/mm] zu festem n.

Im zweiten Schritt hast du

  [mm] \bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]

Rechne diese Ableitung aus:

  [mm] \left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]

Damit das definiert ist, müssen alle diese Ableitungen definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].

Für eine beliebige Funktion f ist das nicht der Fall. Es könnte zum Beispiel sein, dass es für gewisse Werte von n keine eindeutig bestimmtes Maximum der Funktion f gibt. Dann kannst du [mm] $s^\ast$ [/mm] für diese Werte nicht angeben.

  Viele Grüße
    Rainer

Bezug
                                
Bezug
Multivariate Optimierung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:14 Do 28.08.2008
Autor: franzi123


>  
> Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> es durch Berechnung der Ableitungen in zwei Schritten nur
> dann funktionieren kann, wenn dein Maximum im ersten
> Schritt eine stetig differenzierbare Funktion des
> Parameters ist. Um bei deiner Notation zu bleiben: sei
> [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> Lösung von
>  
> [mm]\max_s f(n,s)[/mm] zu festem n.
>  
> Im zweiten Schritt hast du
>  
> [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
>
> Rechne diese Ableitung aus:
>  
> [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>  
> Damit das definiert ist, müssen alle diese Ableitungen
> definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
>  
> Für eine beliebige Funktion f ist das nicht der Fall. Es
> könnte zum Beispiel sein, dass es für gewisse Werte von n
> keine eindeutig bestimmtes Maximum der Funktion f gibt.
> Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
>
> Viele Grüße
>      Rainer


Hallo Rainer,

Vielen Dank für die umfangreiche Antwort. Diese Ableitung sehe ich jetzt auch als meinen Ausgangspunkt.

Ist es richtig, dass in dieser Ableitung nun das Envelope-Theorem zur Anwendung kommt - also der zweite Term der Ableitung weg fählt, da ja die notwendige Bedingung für s* erfüllt sein muss:

[mm] \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]


Irgendwie traue ich der Sache nicht :)

Bezug
                                        
Bezug
Multivariate Optimierung: Antwort
Status: (Antwort) fertig Status 
Datum: 12:31 So 31.08.2008
Autor: rainerS

Hallo!

> >  

> > Ich bin mir nicht ganz sicher, aber ich würde sagen, dass
> > es durch Berechnung der Ableitungen in zwei Schritten nur
> > dann funktionieren kann, wenn dein Maximum im ersten
> > Schritt eine stetig differenzierbare Funktion des
> > Parameters ist. Um bei deiner Notation zu bleiben: sei
> > [mm]f(n,s)[/mm] die zu maximierende Funktion und [mm]s^\ast(n)[/mm] die
> > Lösung von
>  >  
> > [mm]\max_s f(n,s)[/mm] zu festem n.
>  >  
> > Im zweiten Schritt hast du
>  >  
> > [mm]\bruch{d}{d n} f(n,s^\ast(n)) = 0[/mm]
> >
> > Rechne diese Ableitung aus:
>  >  
> > [mm]\left.\bruch{\partial}{\partial n}f(n,s)\right|_{s=s^\ast(n)} + \left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)} \cdot \bruch{d s^\ast(n)}{d n} =0[/mm]
>  
> >  

> > Damit das definiert ist, müssen alle diese Ableitungen
> > definiert sein, also auch [mm]\bruch{d s^\ast(n)}{d n}[/mm].
>  >  
> > Für eine beliebige Funktion f ist das nicht der Fall. Es
> > könnte zum Beispiel sein, dass es für gewisse Werte von n
> > keine eindeutig bestimmtes Maximum der Funktion f gibt.
> > Dann kannst du [mm]s^\ast[/mm] für diese Werte nicht angeben.
> >
> > Viele Grüße
>  >      Rainer
>
>
> Hallo Rainer,
>  
> Vielen Dank für die umfangreiche Antwort. Diese Ableitung
> sehe ich jetzt auch als meinen Ausgangspunkt.
>
> Ist es richtig, dass in dieser Ableitung nun das
> Envelope-Theorem zur Anwendung kommt - also der zweite Term
> der Ableitung weg fählt, da ja die notwendige Bedingung für
> s* erfüllt sein muss:
>  
> [mm]\left.\bruch{\partial}{\partial s}{f(n,s)\right|_{s=s^\ast(n)}=0[/mm]

Ja. Aber die Voraussetzung ist, dass [mm] $s^\ast(n)$ [/mm] für alle möglichen Werte von n eine wohldefinierte und differenzierbare Funktion ist.


> Irgendwie traue ich der Sache nicht :)

Ja, mir ist auch nicht wohl dabei ;-)

Viele Grüße
   Rainer


Bezug
                
Bezug
Multivariate Optimierung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:31 Do 28.08.2008
Autor: rainerS

Hallo Stefan!

> Also, Du suchst das Minimum von f auf [mm]A\times B[/mm] und willst
> das machen, indem Du zuerst [mm]f(\cdot,b):\ A\to \IR[/mm] für
> festgehaltenes [mm]b\in B[/mm] optimierst, und dann die dadurch
> entstehende Minimumsfunktion über alle [mm]b\in B[/mm]?
>  
> In dem Fall kannst Du natürlich einzeln optimieren, weil
> ein globales Minimum [mm](a_{min}, b_{min})[/mm] selbstverständlich
> auch ein Minimum der Funktion [mm]f(\cdot, b_{min})[/mm] ist.

Das ist zwar richtig, aber dieses Minimum lässt sich nicht in jedem Fall durch Nullsetzen der entsprechenden Ableitung bestimmen.

Viele Grüße
   Rainer

Bezug
                        
Bezug
Multivariate Optimierung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:35 Do 28.08.2008
Autor: Blech

Davon hatte ich auch nix gesagt. Mir war nur nicht klar, was das Envelope-Theorem genau aussagt und das "d.h." in der Aufgabenstellung war irreführend =)

"Kann ich dieses bivariate Problem in zwei univariate Probleme unter Ausnutzung des Envelope-Theorems überführen? D.h. ich optimiere zuerst nach einer Variable, setze diese dann wieder in die Zielfunktion ein und optimiere nach der anderen Variable."


Anmerkung am Rande:
Der Grund, daß man so im allgemeinen nicht vorgeht, ist daß man für jedes b dafür ein Optimierungsproblem lösen darf. Außer bei hübschen Funktionen sitzt man daran wesentlich länger als an genug Newton-Iterationen bis zur gewünschten Genauigkeit. =P

ciao
Stefan

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Gewöhnliche Differentialgleichungen"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de