www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Beweis Varianz von Summe
Beweis Varianz von Summe < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:27 Sa 21.07.2018
Autor: Hela123

Aufgabe
Sei [mm] (\Omega,A, [/mm] P) ein Wahrscheinlichkeitsraum und seien [mm] X, Y, X_1,..., X_n \in L^2(P) [/mm] reelle Zufallsvariablen, für die das zweite Moment existiert.

Zeige, dass gilt:

[mm]Var(\summe_{i=1}^{n} X_{i}) = \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]



Hallo Forum,

ich habe folgenden Beweis hierzu gefunden und kann ihn aber nicht ganz nachvollziehen:

[mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})^2))[/mm]
         [mm]= E(\summe_{i=1}^{n} X_{i} - E(X_{i})\summe_{j=1}^{n} X_{j} - E(X_{j}))[/mm]
         [mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]
         [mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i          [mm]= \summe_{i=1}^{n} Var(X_{i}) + \summe_{i,j=1, i\not= j}^{n} Cov(X_{i},X_{j}) [/mm]

1. Ist der Beweis korrekt?

2. Ich verstehe nicht den Übergang von 1. in die 2. Zeile. Warum können wir die Summe weglassen?
Der Übergang 2 zu 3 ist mir auch nicht klar: Woher kommt auf einmal j usw?
Weitere Umformungen sind mir demensprechend auch etwas schleierhaft...

Schönen Dank im Voraus!
Hela123


        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 15:49 So 22.07.2018
Autor: Gonozal_IX

Hiho,

> ich habe folgenden Beweis hierzu gefunden und kann ihn aber
> nicht ganz nachvollziehen:
>  
> [mm]Var(\summe_{i=1}^{n} X_{i}) = E(\summe_{i=1}^{n} X_{i} - E(\summe_{i=1}^{n} (X_{i})^2))[/mm]

Hier müsste das Quadrat und  die Klammer vertauscht werden, damit es stimmt.

Machen wir es mal langsam: Setzen wir [mm] $Z=\summe_{i=1}^n X_i$, [/mm] dann erhalten wir:

$Z - E(Z)$
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] E\left(\summe_{i=1}^n X_i\right)$ [/mm]
$= [mm] \summe_{i=1}^n X_i [/mm] - [mm] \summe_{i=1}^n E(X_i)$ [/mm]
$= [mm] \summe_{i=1}^n \left(X_i - E(X_i)\right)$ [/mm]

Nun erhalten wir damit:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right) [/mm] = [mm] \text{Var}(Z) [/mm] = [mm] E\left[(Z - E(Z))^2\right]$ [/mm]
$= [mm] E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)$ [/mm]

Setzen wir jetzt [mm] $Z_i [/mm] = [mm] X_i [/mm] - [mm] E(X_i)$ [/mm] können wir das schreiben als

$= [mm] E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)$ [/mm]

Es wird also eine Summe quadriert. Und du kannst dir überlegen, dass wenn du die Summe quadrierst, bekommst du quadratische Terme und Mischterme, d.h. mathematisch kürzer aufgeschrieben, gilt:

[mm] $\left[\summe_{i=1}^n Z_i \right]^2 [/mm] = [mm] \summe_{j=1}^n Z_i^2 [/mm] + [mm] \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j$ [/mm]

Setzt du jetzt die Definition von [mm] $Z_i$ [/mm] wieder ein, kannst du normal mit deinem Beweis weitermachen.

Wenn du den Beweis verstanden hast, zeige ich dir einen deutlich kürzeren.....

Gruß,
Gono

Bezug
                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:35 So 22.07.2018
Autor: Hela123

Hallo Gono,

vielen vielen Dank für deine (wie immer) sehr hilfreiche Antwort!

> Hier müsste das Quadrat und  die Klammer vertauscht
> werden, damit es stimmt.

Stimmt!

> Machen wir es mal langsam: Setzen wir [mm]Z=\summe_{i=1}^n X_i[/mm],
> dann erhalten wir:
>  
> [mm]Z - E(Z)[/mm]
> [mm]= \summe_{i=1}^n X_i - E\left(\summe_{i=1}^n X_i\right)[/mm]
>  [mm]= \summe_{i=1}^n X_i - \summe_{i=1}^n E(X_i)[/mm]
>  
> [mm]= \summe_{i=1}^n \left(X_i - E(X_i)\right)[/mm]

Das verstehe ich, wir können beide Summanden quasi unter eine Summe ziehen.

> Nun erhalten wir damit:
>  
> [mm]\text{Var}\left(\summe_{i=1}^n X_i\right) = \text{Var}(Z) = E\left[(Z - E(Z))^2\right][/mm]
>  
> [mm]= E\left(\left[\summe_{i=1}^n \left(X_i - E(X_i)\right)\right]^2\right)[/mm]

Das ist auch klar: Einsetzen in die Ursprungsgleichung.

> Setzen wir jetzt [mm]Z_i = X_i - E(X_i)[/mm] können wir das
> schreiben als
>  
> [mm]= E\left(\left[\summe_{i=1}^n Z_i \right]^2\right)[/mm]

Ich merke, das ist wirklich viel übersichtlicher, wenn man das Ganze in kleinere Päckchen verpackt.

> Es wird also eine Summe quadriert. Und du kannst dir
> überlegen, dass wenn du die Summe quadrierst, bekommst du
> quadratische Terme und Mischterme, d.h. mathematisch
> kürzer aufgeschrieben, gilt:
>  
> [mm]\left[\summe_{i=1}^n Z_i \right]^2 = \summe_{j=1}^n Z_i^2 + \summe_{\substack{i=j=1 \\ i\not=j}}^n Z_iZ_j[/mm]

Ja, verstehe.

> Setzt du jetzt die Definition von [mm]Z_i[/mm] wieder ein, kannst du
> normal mit deinem Beweis weitermachen.

Also wenn wir [mm]Z_i[/mm] (und entsprechend dann auch [mm]Z_j[/mm]) einsetzen, bekommen wir:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2 + \summe_{i,j=1, i\not= j}^{n}X_{i} - E(X_{i}) * X_{j} - E(X_{j})[/mm]

Dann können wie Linearität des Erwartungswertes nutzen:

[mm]= E(\summe_{i=1}^{n} (X_{i} - E(X_{i}))^2) + E(\summe_{i=j=1, i\not= j}^{n}(X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]
[mm]= \summe_{i=1}^{n}(E(X_{i} - E(X_{i}))^2) + \summe_{i=j=1, i\not= j}^{n} E((X_{i} - E(X_{i})) * (X_{j} - E(X_{j})))[/mm]

Dann nutzen wir die Definition von Varianz und Kovarianz:
[mm]= \summe_{i=1}^{n} Var(X_{i}) + 2 \summe_{i
Hier habe ich Frage: Woher kommt die 2 vor der Summe?
Die Rechenregel, die wir hier brauchen ist (wenn ich mich nicht vertue):
[mm]Cov(X,Y)= E(XY) - E(X)E(Y) = E((X - E(X))(Y-E(Y)))[/mm]

> Wenn du den Beweis verstanden hast, zeige ich dir einen
> deutlich kürzeren.....

Ich glaube, ich bin nah dran :-)

Noch mal danke!
Hela123


Bezug
                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 18:43 So 22.07.2018
Autor: Gonozal_IX

Hiho,

also der Schritt ist in der Umformung zwar nicht falsch aber irgendwie sinnlos. Es gilt
[mm] $\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) [/mm] = [mm] 2\summe_{i=j=1,i Das liegt einfach daran, dass die Kovarianz symmetrisch ist. Im ersten Fall summiert man eben einfach alle Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und sagt dann einfach: anstatt jetzt die für i>j auch noch zu summieren multiplizieren wir das Ergebnis einfach mit 2.

Sind jetzt alle Unklarheiten beseitigt?

Gruß,
Gono

Bezug
                                
Bezug
Beweis Varianz von Summe: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:19 So 22.07.2018
Autor: Hela123

Hallo Gono,

shönen Dank für deine Antwort!

> also der Schritt ist in der Umformung zwar nicht falsch
> aber irgendwie sinnlos. Es gilt
>  [mm]\summe_{i=j=1,i\not=j}^n Cov(X_i,X_j) = 2\summe_{i=j=1,i
>  
> Das liegt einfach daran, dass die Kovarianz symmetrisch
> ist. Im ersten Fall summiert man eben einfach alle
> Kovarianzen auf, im zweiten nur diejenigen wo i<j ist und
> sagt dann einfach: anstatt jetzt die für i>j auch noch zu
> summieren multiplizieren wir das Ergebnis einfach mit 2.
>  
> Sind jetzt alle Unklarheiten beseitigt?

Alles klar! Ja, jetzt verstehe ich den Beweis, danke dir!

Wie könnte man es denn kürzer beweisen?:-)

Viele Grüße
Hela123

Bezug
                                        
Bezug
Beweis Varianz von Summe: Antwort
Status: (Antwort) fertig Status 
Datum: 22:08 So 22.07.2018
Autor: Gonozal_IX

Hiho,

die Kovarianz ist linear und trivialerweise gilt [mm] $\summe_{i=1}^n X_i [/mm] = [mm] \summe_{j=1}^n X_j [/mm] $ und damit gilt:

[mm] $\text{Var}\left(\summe_{i=1}^n X_i\right)$ [/mm]

[mm] $=\text{Cov}\left(\summe_{i=1}^n X_i, \summe_{j=1}^n X_j\right)$ [/mm]

[mm] $=\summe_{i=1}^n \summe_{j=1}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1,i=j}^n \text{Cov}(X_i,X_j) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

[mm] $=\summe_{i=j=1}^n \text{Var}(X_i) [/mm] + [mm] \summe_{i=j=1,i\not=j}^n \text{Cov}(X_i,X_j)$ [/mm]

Gruß,
Gono


Bezug
                                                
Bezug
Beweis Varianz von Summe: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 07:59 Mo 23.07.2018
Autor: Hela123

Hallo Gono,

den Beweis kann ich auch nachvollziehen und der ist in der Tat deutlich übersichtlicher!
Noch mal vielen vielen Dank für deine Hilfe!

Gruß,
Hela123

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de