Zufallsvariablen, EW und Var < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | a) Sei X eine diskrete Zufallsvariable mit Var(X) = 0. Zeigen Sie: Es gibt es ein
c [mm] \in \IR [/mm] mit P(X = c) = 1.
b) Sei X eine diskrete Zufallsvariable mit [mm] E(X^2) [/mm] = 0. Zeigen Sie: Es gilt
P(X = 0) = 1. |
Hi,
kann mir vielleicht jemand bei diesen Aufgaben helfen? Weiß da irgendwie nicht, wie ich anfangen soll.
bei a) habe ich irgendwo mal gelesen, dass c=E(x) sei soll, weiß aber nicht mehr wo, und deshalb auch nicht, ob das überhaupt richtig ist und wie man es beweisen könnte.
bei b) fällt mir gerade noch gar nichts ein.
danke für hilfe.
grüße
|
|
|
|
Hallo Steve,
> a) Sei X eine diskrete Zufallsvariable mit Var(X) = 0.
> Zeigen Sie: Es gibt es ein
> c [mm]\in \IR[/mm] mit P(X = c) = 1.
> b) Sei X eine diskrete Zufallsvariable mit [mm]E(X^2)[/mm] = 0.
> Zeigen Sie: Es gilt
> P(X = 0) = 1.
> Hi,
>
> kann mir vielleicht jemand bei diesen Aufgaben helfen?
> Weiß da irgendwie nicht, wie ich anfangen soll.
>
> bei a) habe ich irgendwo mal gelesen, dass c=E(x) sei soll,
> weiß aber nicht mehr wo, und deshalb auch nicht, ob das
> überhaupt richtig ist und wie man es beweisen könnte.
Das klingt schonmal gut, das c=E(X). Das darfst du auch einfach annehmen, würde ich behaupten. Nun benutze die Ungleichung von Tschebyscheff:
Hier.
b) dürfte dann so ähnlich gehen - schließlich folgt aus [mm] E(X^{2}) [/mm] = 0 dass [mm] 0\le [/mm] Var(X) = [mm] E(X^{2})-(E(X))^{2} [/mm] = [mm] -(E(X))^{2} [/mm] eigentlich schon wieder E(X) = 0 und Var(X) = 0...
Grüße,
Stefan
|
|
|
|
|
Hi Steppenhahn,
d.h. ich müsste aber eher die zweite Variante nehmen, stimmts?
Also [mm] P(|X-E(x)|
So unsere Varianz ist ja 0. Muss ich jetzt k=0 wählen? weil sonst kann ich ja P(|X-E(x)|<k) nicht umwandeln. Aber wenn k=0 ist, folgt:
P(|X-E(x)|<0) [mm] \ge [/mm] 1 und dann P(|X=E(x)|) [mm] \ge [/mm] 1 und daraus die Beh.???
|
|
|
|
|
Hallo Steve,
> Hi Steppenhahn,
>
> d.h. ich müsste aber eher die zweite Variante nehmen,
> stimmts?
>
> Also [mm]P(|X-E(x)|
>
> So unsere Varianz ist ja 0. Muss ich jetzt k=0 wählen?
Sieh dir die obige Formel an und sag mir, ob es sinnvoll ist, k= 0 zu wählen .
Du kannst es ja mal so probieren:
Betrachte [mm] \omega\in\Omega [/mm] mit [mm] X(\omega) \not= [/mm] E(X). Dann existiert ein [mm] k\in\IN [/mm] sodass [mm] |X(\omega)-E(X)| \ge \frac{1}{k}.
[/mm]
Das heißt:
[mm] $\{\omega\in\Omega|X(\omega)\not= E(X)\} =\{\omega\in\Omega:|X(\omega)-E(X)| \ge \frac{1}{k}\} \subset \bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X(\omega)-E(X)| \ge \frac{1}{n}\}.$
[/mm]
Daraus folgt nun wegen [mm] A\subset B\Rightarrow P(A)\le [/mm] P(B):
[mm] P(X\not= [/mm] E(X)) [mm] \le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\}) [/mm] = [mm] \sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n}).
[/mm]
Nun Tschebyscheff! Die Summe wird 0, was bedeutet das für die linksstehende Wahrscheinlichkeit?
Grüße,
Stefan
|
|
|
|
|
HI
Ach stimmt, hier
> Also $ [mm] P(|X-E(x)|
kann ich ja gar nicht durch 0 teilen rechts. Das geht wohl doch nicht, wäre ja auch zu einfach so .
> $ [mm] P(X\not= [/mm] $ E(X)) $ [mm] \le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\}) [/mm] $ = $ [mm] \sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n}). [/mm] $
> Nun Tschebyscheff! Die Summe wird 0, was bedeutet das für die linksstehende Wahrscheinlichkeit?
Meinst du mit linksstehende W. [mm] P(X\not=E(X))??
[/mm]
Also ich würde auf deine letzte Zeile jetzt einfach die Ungl. anwenden, und schauen, was bei herauskommt. Also:
[mm] P(X\not= [/mm] $ E(X)) $ [mm] \le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\}) [/mm] $ = $ [mm] \sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n})=\sum_{n=1}^{\infty}P(|X-E(X)| [/mm] < [mm] \frac{1}{n}) \ge [/mm] 1 [mm] -\bruch{Var(x)}{\bruch{1}{n^2}} [/mm]
Lässt man jetzt n gegen unendlich laufen, so sehen wir dass aus [mm] \sum_{n=1}^{\infty}P(|X-E(X)| [/mm] < [mm] \frac{1}{n}), [/mm] P(|X-E(X)| < 0) folgt, und auf der rechten Seite bleibt nur noch die 1. Und damit aber dieses mal die Behauptung, oder nicht??
|
|
|
|
|
Hallo jaruleking,
> HI
>
> Ach stimmt, hier
>
> > Also [mm]P(|X-E(x)|
>
> kann ich ja gar nicht durch 0 teilen rechts. Das geht wohl
> doch nicht, wäre ja auch zu einfach so .
Genau
Im Übrigen wäre die Aussage dann relativ sinnlos, die rauskommt: |...| < 0 tritt für kein [mm] \omega\in\Omega [/mm] ein, das bedeutet du machst schlicht und einfach eine Abschätzung der Wahrscheinlichkeit der leeren Menge, die dann [mm] \le [/mm] 1 (bravo !)
>
> > [mm]P(X\not=[/mm] E(X)) [mm]\le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\})[/mm]
> = [mm]\sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n}).[/mm]
>
> > Nun Tschebyscheff! Die Summe wird 0, was bedeutet das für
> die linksstehende Wahrscheinlichkeit?
>
> Meinst du mit linksstehende W. [mm]P(X\not=E(X))??[/mm]
>
> Also ich würde auf deine letzte Zeile jetzt einfach die
> Ungl. anwenden, und schauen, was bei herauskommt. Also:
>
> [mm]P(X\not=[/mm] [mm]E(X))[/mm] [mm]\le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\})[/mm]
> [mm]=[/mm] [mm]\sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n})=\sum_{n=1}^{\infty}P(|X-E(X)|[/mm]
> < [mm]\frac{1}{n}) \ge[/mm] 1 [mm]-\bruch{Var(x)}{\bruch{1}{n^2}}[/mm]
>
> Lässt man jetzt n gegen unendlich laufen, so sehen wir
> dass aus [mm]\sum_{n=1}^{\infty}P(|X-E(X)|[/mm] < [mm]\frac{1}{n}),[/mm]
> P(|X-E(X)| < 0) folgt, und auf der rechten Seite bleibt nur
> noch die 1. Und damit aber dieses mal die Behauptung, oder
> nicht??
Du hast schon an der richtigen Stelle angewendet, aber so meinte ich das (leider) nicht.
Mit Hilfe der Ungleichung von Tschebyscheff kannst du für jeden einzelnen Summanden der Summe
[mm] \sum_{n=1}^{\infty}P(|X-E(X)|< \frac{1}{n})
[/mm]
aussagen, dass er kleiner gleich 0 sein muss, wenn du [mm] \varepsilon [/mm] bzw. k in der Tschebyscheff-Formel = [mm] \frac{1}{n} [/mm] wählst.
Das heißt, jeder Summand der Summe IST null, das heißt auch die gesamte Summe ist 0. Was steht nun da?
Grüße,
Stefan
|
|
|
|
|
Hi nochmal.
hmmmm, aber heißt das, dass meine kleine fortsetzung der rechnung ganz falsch ist??
> $ [mm] P(X\not= [/mm] $ $ E(X)) $ $ [mm] \le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\}) [/mm] $
$ = $ $ [mm] \sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n})=\sum_{n=1}^{\infty}P(|X-E(X)| [/mm] $ $ [mm] \frac{1}{n}) \ge [/mm] $ 1 $ [mm] -\bruch{Var(x)}{\bruch{1}{n^2}} [/mm] $
Und dann:
> Mit Hilfe der Ungleichung von Tschebyscheff kannst du für jeden einzelnen Summanden der Summe
> $ [mm] \sum_{n=1}^{\infty}P(|X-E(X)|< \frac{1}{n}) [/mm] $
> aussagen, dass er kleiner gleich 0 sein muss, wenn du $ [mm] \varepsilon [/mm] $ bzw. k in der Tschebyscheff-Formel = $ [mm] \frac{1}{n} [/mm] $ wählst.
> Das heißt, jeder Summand der Summe IST null, das heißt auch die gesamte Summe ist 0. Was steht nun da?
Ja wenn alles 0 sein soll, dann kann da ja nichts mehr als [mm] \sum_{n=1}^{\infty}P(|X-E(X)|< \frac{1}{n})=P(0) [/mm] stehen. Aber folgt dann daraus sofort:
[mm] \sum_{n=1}^{\infty}P(|X-E(X)|< \frac{1}{n})=P(0) \ge [/mm] 1???
Aber so bekomme ich ja auch noch nicht die Behauptung, bisschen komisch. Ich muss ja P(X=E(x))=1 bekommen.....
Gruß
|
|
|
|
|
Hallo Steve,
> Hi nochmal.
>
> hmmmm, aber heißt das, dass meine kleine fortsetzung der
> rechnung ganz falsch ist??
>
> > [mm]P(X\not=[/mm] [mm]E(X))[/mm] [mm]\le P(\bigcup_{n=1}^{\infty}\{\omega\in\Omega:|X-E(X)| \ge \frac{1}{n}\})[/mm]
>
> [mm]=[/mm] [mm]\sum_{n=1}^{\infty}P(|X-E(X)| \ge \frac{1}{n})=\sum_{n=1}^{\infty}P(|X-E(X)|[/mm]
> [mm]\frac{1}{n}) \ge[/mm] 1 [mm]-\bruch{Var(x)}{\bruch{1}{n^2}}[/mm]
Nein, ich fürchte, das bringt nichts, dass hier so zu machen. Wieso schätzt du eigentlich die Summe so ab? Die Summe geht bis unendlich, das heißt das n rechts in deiner Ungleichung hat gar keine Bedeutung..., weil auf der linken Seite kein n vorkommt.
---------
> > Mit Hilfe der Ungleichung von Tschebyscheff kannst du für
> jeden einzelnen Summanden der Summe
>
> > [mm]\sum_{n=1}^{\infty}P(|X-E(X)|< \frac{1}{n})[/mm]
>
> > aussagen, dass er kleiner gleich 0 sein muss, wenn du
> [mm]\varepsilon[/mm] bzw. k in der Tschebyscheff-Formel =
> [mm]\frac{1}{n}[/mm] wählst.
> > Das heißt, jeder Summand der Summe IST null, das heißt
> auch die gesamte Summe ist 0. Was steht nun da?
Tut mir leid, hier hatte ich mich ein wenig vertan. Ich hatte in deine Zeile geschaut, natürlich muss es dann lauten:
[mm] $P(X\not= [/mm] E(X)) [mm] \le \sum_{n=1}^{\infty}P(|X-E(X)|\ge \frac{1}{n})$
[/mm]
Und nun können wir Tschebyscheff anwenden und aussagen, dass jeder Summand [mm] \le [/mm] 0 ist, also = 0. Daraus folgt nun:
[mm] $P(X\not= [/mm] E(X)) [mm] \le \sum_{n=1}^{\infty}P(|X-E(X)|\ge \frac{1}{n}) [/mm] = 0$,
also
[mm] $P(X\not= [/mm] E(X)) = 0$.
Daraus folgt wiederrum: P(X=E(X)) = 1.
Grüße,
Stefan
|
|
|
|
|
HI,
dann muss ich dich nochmal kurz was fragen.
> $ [mm] P(X\not= [/mm] E(X)) [mm] \le \sum_{n=1}^{\infty}P(|X-E(X)|\ge \frac{1}{n}) [/mm] = 0 $,
> also
> $ [mm] P(X\not= [/mm] E(X)) = 0 $.
> Daraus folgt wiederrum: P(X=E(X)) = 1.
So, Die erste Gl. oben folgt ja aus der Ungl., aber wieso kann man daraus P(X=E(X)) = 1 folgen? das habe ich jetzt nicht so verstanden....
|
|
|
|
|
Hallo Steve,
> dann muss ich dich nochmal kurz was fragen.
>
> > [mm]P(X\not= E(X)) \le \sum_{n=1}^{\infty}P(|X-E(X)|\ge \frac{1}{n}) = 0 [/mm],
>
> > also
>
> > [mm]P(X\not= E(X)) = 0 [/mm].
>
> > Daraus folgt wiederrum: P(X=E(X)) = 1.
>
> So, Die erste Gl. oben folgt ja aus der Ungl., aber wieso
> kann man daraus P(X=E(X)) = 1 folgen? das habe ich jetzt
> nicht so verstanden....
Es ist doch
$P(X = irgendwas) = 1$,
oder?
Und $P(X=irgendwas)$ kann man auch ausdrücken als:
$1 = P(X=irgendwas) = [mm] P([X=E(X)]\mbox{ oder }[X\not=E(X)])$.
[/mm]
Weil die beiden Ereignisse offenbar disjunkt sind (ein [mm] \omega, [/mm] für das [mm] X(\omega) [/mm] = E(X) gilt, kann nicht gleichzeitig [mm] X(\omega)\not= [/mm] E(X) gelten), ist das gleich:
$= P(X=E(X)) + [mm] P(X\not= [/mm] E(X))$
(Das, was hier mühsam als Gleichung aufgeschrieben ist, sollte intuitiv klar sein!).
Wenn du nun weißt, dass [mm] P(X\not= [/mm] E(X)) = 0 ist, dann folgt P(X=E(X)) = 1.
Grüße,
Stefan
|
|
|
|
|
hmmmm,
wieso gilt denn P(X = irgendwas)=1?????? Ich hahe gerade in meinem Skript nochmal geschaut, ich weiß nur, dass bei einer W-Funktion, die Summe immer 1 ergeben muss. Hier ist aber X eine Zufallsvariable. Betrachten wir mal beim zweifachen Würfeln, für die W. X=Augensumme ist 2
Also P(X=2)=P({1,1})=1/36, hier haben wir ja auch nicht P(X=2)=1.....
|
|
|
|
|
Hallo Steve,
schon als ich P(X=irgendwas) = 1 geschrieben hatte, hatte ich befürchtet, dass du das missverstehen könntest :-(.
Ich meine damit P(X beliebig) = 1 bzw. P(Alle Werte, die X annehmen kann) = 1. bzw. [mm] P(X\in\IR) [/mm] = 1.
Jetzt klarer ?
Grüße,
Stefan
|
|
|
|
|
Leider nicht ganz so :-(
> Ich meine damit P(X beliebig) = 1 bzw. P(Alle Werte, die X annehmen kann) = 1. bzw. $ [mm] P(X\in\IR) [/mm] $ = 1.
Du meinst ja aber nicht, dass du Summe der einzelnen W. 1 ergeben muss, oder??? Ich verstehe das so, dass du meinst, dass die Wahrscheinlicht irgendeines Ergenisses gleich 1 ist, deswegen habe ich ja mein Gegenbeispiel gebracht.
Irgendwie steh ich gerade bisschen aufm Schlauch.....
|
|
|
|
|
Hallo,
> Leider nicht ganz so :-(
>
> > Ich meine damit P(X beliebig) = 1 bzw. P(Alle Werte, die X
> annehmen kann) = 1. bzw. [mm]P(X\in\IR)[/mm] = 1.
>
> Du meinst ja aber nicht, dass du Summe der einzelnen W. 1
> ergeben muss, oder??? Ich verstehe das so, dass du meinst,
> dass die Wahrscheinlicht irgendeines Ergenisses gleich 1
> ist, deswegen habe ich ja mein Gegenbeispiel gebracht.
Nein, der letzte Ausdruck macht es glaub ich am deutlichsten: [mm] P(X\in\IR) [/mm] = 1.
Ich meine also nicht, dass es irgendein Ergebnis c gibt, für das P(X=c) = 1 gilt, sondern ich meine, dass die Wahrscheinlichkeit, dass X irgendein Ergebnis aus ALLEN Ergebnissen (aus [mm] \IR [/mm] eben meistens) ist, = 1 ist.
Damit meine ich letztendlich
[mm] P(\Omega) [/mm] = 1, was dir bekannt sein dürfte, denn
P(X beliebig) "=" [mm] P(X\in\IR) [/mm] = [mm] P(\{\omega\in\Omega|X(\omega)\in\IR\}) [/mm] = [mm] P(\Omega) [/mm] = 1.
Grüße,
Stefan
|
|
|
|
|
Oh ja, jetzt hats endlich mal klick gemacht . Danke dir.
So, das war ja die ganze zeit nur die a) :-//. Versuchen wir uns an die b) nochmal:
b) Sei X eine diskrete Zufallsvariable mit $ [mm] E(X^2) [/mm] $ = 0. Zeigen Sie: Es gilt
P(X = 0) = 1.
So, da hast du ja dann gesagt:
> b) dürfte dann so ähnlich gehen - schließlich folgt aus $ [mm] E(X^{2}) [/mm] $ = 0 dass $ [mm] 0\le [/mm] $ Var(X) = $ [mm] E(X^{2})-(E(X))^{2} [/mm] $ = $ [mm] -(E(X))^{2} [/mm] $ eigentlich schon wieder E(X) = 0 und Var(X) = 0...
Also die Varianz berechne ich nach 0 [mm] \le [/mm] Var(X) = [mm] E(X^{2})-(E(X))^{2} [/mm] mit der Voraussetzung folgt dann 0 [mm] \le [/mm] Var(X) = [mm] -(E(X))^{2}, [/mm] So und da die Varianz nicht negativ sein kann, muss E(X)=0 sein.
So, das ist klar, aber wie komme ich dann zu P(X = 0) = 1???
|
|
|
|
|
Hallo Steve,
> Oh ja, jetzt hats endlich mal klick gemacht . Danke
> dir.
Gut
> So, das war ja die ganze zeit nur die a) :-//. Versuchen
> wir uns an die b) nochmal:
>
> b) Sei X eine diskrete Zufallsvariable mit [mm]E(X^2)[/mm] = 0.
> Zeigen Sie: Es gilt
> P(X = 0) = 1.
>
> So, da hast du ja dann gesagt:
>
> > b) dürfte dann so ähnlich gehen - schließlich folgt aus
> [mm]E(X^{2})[/mm] = 0 dass [mm]0\le[/mm] Var(X) = [mm]E(X^{2})-(E(X))^{2}[/mm] =
> [mm]-(E(X))^{2}[/mm] eigentlich schon wieder E(X) = 0 und Var(X) =
> 0...
>
> Also die Varianz berechne ich nach 0 [mm]\le[/mm] Var(X) =
> [mm]E(X^{2})-(E(X))^{2}[/mm] mit der Voraussetzung folgt dann 0 [mm]\le[/mm]
> Var(X) = [mm]-(E(X))^{2},[/mm] So und da die Varianz nicht negativ
> sein kann, muss E(X)=0 sein.
Ja, so dachte ich mir das.
> So, das ist klar, aber wie komme ich dann zu P(X = 0) =
> 1???
Na - wenn du weißt dass E(X) = 0 ist, ist doch P(X=0) = P(X=E(X)), und zusätzlich gilt Var(X) = 0. Nun schau dir a) an - wir hatten gezeigt, dass solch ein c existierte, und gerade c = E(X) galt.
Grüße,
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:44 So 03.01.2010 | Autor: | jaruleking |
super vielen dank für deine Erklärungen.
Gruß
|
|
|
|