Zerlegung, Erwartungswert < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 02:15 Fr 19.04.2013 | Autor: | sissile |
Aufgabe | Satz: Sei X eine Zufallsvariable mit [mm] E[X^2] [/mm] < [mm] \infty [/mm] , B eine Zerlegung .
Dann ist E((X - [mm] \sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2) [/mm] minimal wenn [mm] c_i [/mm] = [mm] \frac{E[X 1_{B_i}]}{P(B_i)} [/mm] = [mm] E(X\setminus B_i)
[/mm]
Wobei [mm] 1_{..} [/mm] die Indikatorfunktion
[mm] E(X\setminus B_i) [/mm] .. der bedingte Erwartungswert ist
(Def1: WIr defeinieren Erwartungswert bez [mm] P(.\setimus [/mm] B) miT X Zufallsvariable E[X [mm] \setminus [/mm] B] = [mm] \frac{E[X 1_{B_i}]}{P(B_i)})
[/mm]
Def2: [mm] B=(B_i)_{i\in I} [/mm] Zerlegung. Dann E[X [mm] \setminus [/mm] B] eine Zufallsvariable defeniert durch:
E[X [mm] \setminus [/mm] B] [mm] (\omega) [/mm] = [mm] \sum_{i\in I , P(B_i) > 0} [/mm] E[X [mm] \setminus B_i] 1_{B_i (\omega)} [/mm] |
Hallo, die einzelnen Schritte unseres Beweises in der Vorlesung waren klar.
ABer nicht die "Beweisführung" also wieso der Beweis unseren Satz beweist!
Wir haben bündig aufgeschrieben gezeigt:(ist auch hier in meiner frage nicht wichtig wie man das zeigt)
-)
E( X [mm] \sum_{i} x_i 1_{B_i}) [/mm] = E(E(X [mm] \setminus [/mm] B) [mm] \sum_i c_i 1_{B_i})
[/mm]
-)
Daraus wurde geschlossen
E((X- E(X [mm] \setminus [/mm] B)) [mm] \sum_{i} c_i 1_{B_i} [/mm] =0 für alle [mm] (c_i)_{i \in I}
[/mm]
-)
Insbesondere:
E((X- E(X [mm] \setminus [/mm] B)) (E(X [mm] \setminus [/mm] B) [mm] -\sum_{i} c_i 1_{B_i} [/mm] ))=0 für [mm] c_i= \frac{E(X 1_{B_i}) }{P(B_i)}
[/mm]
-)
E((X - [mm] \sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2) [/mm] = E([X - E(X [mm] \setminus B)]^2) [/mm] + E((E (X [mm] \setminus [/mm] B) - [mm] \sum_{i} c_i 1_{B_i})^2)
[/mm]
(Erklärung [mm] (a+b)^2=a^2+2ab+b^2 [/mm] wobei der mittlere term wegen vorigen verschwindet.)
WARUM IST nun der Satz bewiesen?
(Ich hab ein skriptum, aber das ist nicht öffentlich zugänglich wenn ihr interesse habt anschreiben)
LG
|
|
|
|
Hallo,
> Satz: Sei X eine Zufallsvariable mit [mm]E[X^2][/mm] < [mm]\infty[/mm] , B
> eine Zerlegung .
> Dann ist E((X - [mm]\sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2)[/mm]
> minimal wenn [mm]c_i[/mm] = [mm]\frac{E[X 1_{B_i}]}{P(B_i)}[/mm] =
> [mm]E(X\setminus B_i)[/mm]
Bei eurem Satz sind die [mm] B_i [/mm] vorgegeben.
Man muss also geeignete [mm] c_i [/mm] finden, um den Ausdruck zu minimieren.
> E((X - [mm]\sum_{i\in I, P(B_i)>0} c_i 1_{B_i})^2)[/mm] = E([X -
> E(X [mm]\setminus B)]^2)[/mm] + E((E (X [mm]\setminus[/mm] B) - [mm]\sum_{i} c_i 1_{B_i})^2)[/mm] (*)
> WARUM IST nun der Satz bewiesen?
Der Term auf der linken Seite in (*) wird genau dann minimal, wenn die rechte Seite von (*) minimal wird.
Bei der rechten Seite ist der erste Summand aber unabhängig von [mm] c_i. [/mm] Er bleibt für jede Wahl von [mm] c_i [/mm] gleich. Daher wird die rechte Seite von (*) minimal, wenn
E((E (X | B) [mm] -\sum_{i} c_i 1_{B_i})^2) [/mm] (**)
minimal wird. Wenn wir es durch geeignete Wahl von [mm] c_i [/mm] schaffen, dass (**) Null wird, so ist er sicher minimal.
Laut eurer Def. ist
$(E (X | B) = [mm] \sum_{i}\IE[X|B_i] 1_{B_i}$
[/mm]
Damit kannst du sehen, dass für [mm] $c_i [/mm] = [mm] \IE[X|B_i]$ [/mm] der Term (**) zu Null wird.
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:32 Sa 20.04.2013 | Autor: | sissile |
Stimmt, vielen dank für die Erklärung.
Liebe grüße
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:36 Sa 20.04.2013 | Autor: | sissile |
Jetzt hätte ich noch eine Frage zu einer Bemerkung.
Die lautete:
E(X [mm] \setminus [/mm] B) ist eine orthogonale Projektion von X auf den Unterrarum von Zufallsvariablen der Form [mm] \sum c_i 1_{B_i} [/mm] bezüglich Skalarprodukt
<X,Y> = [mm] \sum_{\omega \in \Omega} P(\{\omega\}) X(\omega) Y(\omega) [/mm] = E[XY].
Wie ist das nun zu verstehen? Warum folgt dies aus unserem Beweis/Satz?
LG
|
|
|
|
|
Hallo,
> Jetzt hätte ich noch eine Frage zu einer Bemerkung.
>
> Die lautete:
> E(X [mm]\setminus[/mm] B) ist eine orthogonale Projektion von X auf
> den Unterrarum von Zufallsvariablen der Form [mm]\sum c_i 1_{B_i}[/mm]
> bezüglich Skalarprodukt
> <X,Y> = [mm]\sum_{\omega \in \Omega} P(\{\omega\}) X(\omega) Y(\omega)[/mm]
> = E[XY].
>
> Wie ist das nun zu verstehen? Warum folgt dies aus unserem
> Beweis/Satz?
Die Orthogonalprojektion minimiert den Abstand bzgl. der Norm:
Hier ganz unten im Abschnitt Eigenschaften.
Bei dir ist der quadr. Abstand bzgl. der Norm:
$||X - [mm] \sum c_i 1_{B_i}||^2 [/mm] = [mm] E\Big[X -\sum c_i 1_{B_i}\Big]^2$,
[/mm]
und das haben wir ja in der vorigen Aufgabe minimiert.
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:33 Sa 20.04.2013 | Autor: | sissile |
Hallo
Hast du hier nicht den Erwartungswert vergessen?
In der linearen Algebra hatten wir folgende Definiton bez Orthogonalprojektion:
In einem euklidisch unitären Vektorraum, W endlich dimensionalerTeilraum von V. Es gillt V= W + [mm] W^{\perp\}. [/mm] dann ist p: V -> W orthongonalprojtkion auf W. Es gilt p(v)= [mm] \sum_{i=1}^k
d(v, p(v)) [mm] \le [/mm] d(v,w) [mm] \forall [/mm] w [mm] \in [/mm] W mit Gleichheit nur dalls w=p(v)
Und das versuche ich nun mit der Aussage zu vergleichen. Versteh sie aber noch nicht ganz..
|
|
|
|
|
Hallo,
> Hallo
> Hast du hier nicht den Erwartungswert vergessen?
Ja ... War eigentlich da, wurde aber nicht übersetzt.
> In der linearen Algebra hatten wir folgende Definiton bez
> Orthogonalprojektion:
> In einem euklidisch unitären Vektorraum, W endlich
> dimensionalerTeilraum von V. Es gillt V= W + [mm]W^{\perp\}.[/mm]
> dann ist p: V -> W orthongonalprojtkion auf W. Es gilt
> p(v)= [mm]\sum_{i=1}^k
> ORthonormalbasis von W. p(v) ist jener eindeutig bestimme
> Punkt in W, der kürzesten Abstand zu v hat, d.h:
> d(v, p(v)) [mm]\le[/mm] d(v,w) [mm]\forall[/mm] w [mm]\in[/mm] W mit Gleichheit nur
> dalls w=p(v)
> Und das versuche ich nun mit der Aussage zu vergleichen.
> Versteh sie aber noch nicht ganz..
Das ist ziemlich wenig Input für eine Frage.
Was verstehst du denn nicht?
Da steht doch, dass die Orthogonalprojektion den Abstand minimiert.
Und bei dir ist der Abstand zwischen zwei Zufallsvariablen X und Y: [mm] $E[(X-Y)^2]$.
[/mm]
Du projizierst auf den linearen Unterraum $W := [mm] \{\sum c_i 1_{B_i}: c_i \in \IR \}$ [/mm] des Raums aller [mm] L^2 [/mm] - Zufallsvariablen V.
Die Basiselemente sind also [mm] $b_i [/mm] := [mm] 1_{B_i}$.
[/mm]
Viele Grüße,
Stefan
|
|
|
|