www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Erzeugende Funktion
Erzeugende Funktion < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:20 Mi 10.12.2014
Autor: YuSul

Aufgabe
Wir untersuchen die erzeugende Funktion von [mm] $\mathbb{N}_0$-wertigen [/mm] Zufallsvariablen.

Beweisen Sie folgende Aussage: Seien [mm] $X_1, X_2$ [/mm] stochastisch unabhängige [mm] $\mathbb{N}_0$-wertige [/mm] Zufallsvariablen, dann gilt für alle [mm] $s\in(-1,1)$ [/mm]

[mm] $G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)$ [/mm]

Hallo,

ich möchte gerade diese Aufgabe lösen, aber ich komme nicht wirklich zurecht.

[mm] $G_X(s)$ [/mm] hatten wir so definiert:

[mm] $G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x]$ [/mm]

Also

[mm] $G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k$ [/mm]

Aber nun komme ich leider nicht weiter, da ich nicht weiß wie ich diese Summe bzw. [mm] $P(X_1+X_2=k)$ [/mm] "zerlegen" kann.
Klar ist, dass diese Reihe konvergiert und ich sie daher auch "auseinanderziehen" kann.
Doch ich weiß nicht wie...

Könnte ich etwa [mm] $k=k_1+k_2$ [/mm] definieren.
[mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$ [/mm]

Mit [mm] $P(X_1=k_1)$ [/mm] und [mm] $P(X_2=k_2)$ [/mm] und eben [mm] $P(X_1+X_2=k_1+k_2)$ [/mm]

Lässt sich [mm] $P(X_1+X_2=k_1+k_2)$ [/mm] auch so schreiben:

[mm] $P(X_1=k_1, X_2=k_2)=P(X_1=k_1)P(X_2=k_2)$ [/mm] Wegen der stochastischen Unabhängigkeit? Aber dann sehe ich auch nicht wie ich die Reihe dementsprechend umschreiben kann so, dass ich auf

[mm] $\sum_{k=0}^\infty P(X_1=k)s^k\sum_{k=0}^\infty P(X_2=k)s^k$ [/mm]

Über etwas Hilfestellung würde ich mich sehr freuen.
Vielen Dank im voraus.

        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 22:02 Mi 10.12.2014
Autor: hippias

Es gibt ja viele Moeglichkeiten fuer [mm] $k_{1}+k_{2}= [/mm] k$. Genauer: Sei [mm] $k\in \IN_{0}$. [/mm] Dann ist [mm] $\{(k_{1},k_{2})\in \IN_{0}^{2}|k_{1}+k_{2}=k\}= \{(k_{1},k-k_{1})|k_{1}=0,\ldots k\}$. [/mm] Damit kann ich sagen, dass [mm] $G_{X_{1}+X_{2}}(s)= \sum_{k=0}^{\infty} P(X_{1}+X_{2}=k)s^{k}= \sum_{k=0}^{\infty} \sum_{k_{1}=0}^{k}P(X_{1}=k_{1},X_{2}=k-k_{1})s^{k}$. [/mm] Siehst Du nun, wie die Unabhaengigkeit eingeht? Vielleicht faengst Du auch mit der rechten Seite der Gleichung an, um die Gleichung herauszubekommen.

Bezug
                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:15 Mi 10.12.2014
Autor: YuSul

Also mit der Unabhängigkeit kann ich dies ja nun in ein Produkt zerlegen.

[mm] $P(X_1=k_1)P(X_2=k-k_1)=P(X_1=k_1, X_2=k-k_1)$ [/mm]

Aber wo bekommst du eigentlich die zweite Summe her?

Bezug
                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:31 Mi 10.12.2014
Autor: YuSul

Ich habe nochmal nachgesehen wie man (absolut) konvergente Reihen multipliziert. Damit wird eigentlich ein Schuh draus:

[mm] $\left(\sum_{k=0}^\infty P(X_1=k)s^k\right)\left(\sum_{n=0}^k P(X_2=n)s^n\right)=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k)s^kP(X_2=n-k)s^{n-k}=\sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n$ [/mm]

Jetzt besteht nur noch das Problem wie ich in dem P(...) die Addition bekomme, die Summe fällt ja hinterher weg, weil die Abhängigkeit von k fehlt und daher erhalte ich einfach den Faktor (n+1), aber der taucht in der Formel ja auch nirgends auf, oder übersehe ich etwas?

Bezug
                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 23:58 Mi 10.12.2014
Autor: Teufel

Hi!

Ok, also du weißt ja, wo du hin musst. Am Ende willst du haben: [mm] \sum_{n=0}^\infty\sum_{k=0}^n P(X_1=k, X_2=n-k)s^n=\sum_{n=0}^\infty P(X_1+X_2=n)s^n. [/mm]

Zeige also: [mm] \sum_{k=0}^n P(X_1=k, X_2=n-k)= P(X_1+X_2=n). [/mm] Fange damit am besten auf der rechten Seite an und nutze den Satz über die totale Wahrscheinlichkeit,



Bezug
                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:13 Do 11.12.2014
Autor: YuSul

Du meinst ich soll diese Formel anwenden:

[mm] $P(A)=\sum_{j=0}^\infty P(A|B_j)\cdot P(B_j)$ [/mm]

Gibt es diesen Satz auch explizit für Zufallsvariablen?

Bezug
                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 19:14 Do 11.12.2014
Autor: Teufel

Ja, gibt es.  ;)

Setze $A := [mm] \{X_1+X_2=n\}$ [/mm] und [mm] $B_j [/mm] := [mm] \{X_2 = j\}$ [/mm] zum Beispiel.

Beachte, dass Ausdrücke wie [mm] \{X_1+X_2=n\} [/mm] eigentlich [mm] \{\omega\in\Omega | X_1(\omega)+X_2(\omega)=n\} [/mm] bedeuten, also auch nur Teilmengen von einem Ws-Raum [mm] \Omega [/mm] (also Ereignisse!) sind.

Bezug
                                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:23 Do 11.12.2014
Autor: YuSul

Ok, dann erhalte ich fürs erste

[mm] $\sum_{j=1}^\infty P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$ [/mm]

Für j>n ist sind die Summanden dieser Reihe doch bestimmt einfach Null, weshalb es sich auf

[mm] $\sum_{j=1}^n P(\{X_1+X_2=n\}|\{X_2=j\})\cdot P(\{X_2=j\})$ [/mm]

reduzieren lässt.
Naja, aber ich wüsste nicht wieso das gelten sollte, wenn es gilt.

Bezug
                                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 19:36 Do 11.12.2014
Autor: Teufel

Also die Summe muss auch von $j=0$ starten, denn [mm] X_2 [/mm] kann ja auch 0 annehmen. Und eine wichtige Beobachtung ist jetzt noch die Folgende:

[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j)=P(X_1=n-j). [/mm] Der rechte Ausdruck ist ja 0 für j>n. Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit, obwohl es intuitiv klar sein sollte. Wenn die Summe n ist unter der Bedingung dass der eine Summand j ist, dann muss der andere Summand eben n-j sein.

Um das zu zeigen, mach mal die bedingten Wahrscheinlichkeiten da weg.

[mm] P(X_1+X_2=n|X_2=j)=P(X_1=n-j|X_2=j) \gdw P(X_1+X_2=n \cap X_2=j)=P(X_1=n-j \cap X_2=j). [/mm] Zeige jetzt, dass die beiden Ereignisse [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] und [mm] \{X_1=n-j \cap X_2=j\} [/mm] gleich sind.

Bezug
                                                                        
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 19:51 Do 11.12.2014
Autor: YuSul

"Das zweite Gleichheitszeichen solltest du sofort nachvollziehen können. Das erste erfordert noch ein bisschen Denkarbeit"

Hmm, eigentlich ist es eher umgekehrt der Fall. Das erste Gleichheitszeichen kann ich nachvollziehen und das zweite ist mir nicht ganz klar. Jedenfalls wenn ich es richtig sehe. Es wurde doch lediglich die Bedingung [mm] $X_2=j$ [/mm] eingesetzt, beim ersten Gleichheitszeichen. Wahrscheinlich betrachte ich es aber zu naiv?

Was meinst du damit, dass ich zeigen soll, dass die zwei Ereignisse

$ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ und $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ gleich sein sollen?

Wie lässt sich denn $ [mm] \{X_1+X_2=n \cap X_2=j\} [/mm] $ als Wahrscheinlichkeit interpretieren. Ich stoße mich ein wenig an dieser Schreibweise bei Zufallsvariablen. Ansonsten würde ich nun eben versuchen dies als Wahrscheinlichkeit darzustellen und dann so umzuformen, dass ich auf $ [mm] \{X_1=n-j \cap X_2=j\} [/mm] $ komme.



Bezug
                                                                                
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 20:35 Do 11.12.2014
Autor: Teufel

Ja, die Bedingung [mm] X_2=j [/mm] wurde eingesetzt, aber warum darf man das einfach machen?

Bevor wir die Aufgabe aber weiter machen, noch ein paar Basics, die immer hilfreich bei so was sind:

Sagen wir mal $X$ ist gleichverteilt auf [mm] \{1,2,3,4,5,6\}, [/mm] d.h. $X$ kannst du als fairen, 6-seitigen Würfel ansehen. Aber das ist nur die naive Sichtweise. Reelle Zufallsvariablen sind Abbildungen von Wahrscheinlichkeitsräumen in die reellen Zahlen, d.h. [mm] $X:\Omega \rightarrow \IR$, [/mm] aber für gewöhnlich sagt man (bei diskreten Zufallsvariablen) nur, was $X$ für Werte in [mm] \IR [/mm] ausspuckt und mit welcher Wahrscheinlichkeit. z.B. [mm] P(X=1)=\ldots=P(X=6)=\frac{1}{6}. [/mm]

Wo die Zufallsvariable $X$ aber herkommt [mm] (\Omega) [/mm] wird oft weggelassen, weil es oft einfach egal ist. z.B. kann bei dem Würfelwurf auch einfach [mm] $\Omega=\{1,2,3,4,5,6\}$ [/mm] mit uniformer Verteilung sein. Dann wäre $X$ einfach die Identität, also [mm] X:\Omega\rightarrow \{1,2,3,4,5,6\}\subseteq\IR, X(\omega)=\omega. [/mm] Man kann aber auch [mm] \Omega'=\{2,4,6,8,10,12\} [/mm] mit Gleichverteilung wählen und dann [mm] X':\Omega'\rightarrow \{1,2,3,4,5,6\}, X'(\omega)=\frac{1}{2}\omega [/mm] definieren. $X$ und $X'$ hätten dann die gleiche Verteilung, aber kommen von unterschiedlichen Wahrscheinlichkeitsräumen her.

Ok, jetzt hat man oft Ausdrücke der Form z.B. [mm] \{X=3\}. [/mm] Das ist einfach kurz für [mm] \{\omega\in\Omega | X(\omega)=3\}=\{3\}=X^{-1}(3)\subseteq\Omega [/mm] in unserem Beispiel. Ein anderes Beispiel wäre [mm] \{2\le X' \le 4\}=\{\omega\in\Omega' | 2\le X'(\omega) \le 4\}=\{4,6,8\}=X'^{-1}(\{2,3,4\})\subseteq\Omega'. [/mm] Das sind also einfach alles Teilmengen von Wahrscheinlichkeitsräumen, auch Ereignisse genannt (das ist nicht genau genau, aber hier ausreichen).

Behalte also immer folgendes im Hinterkopf: Eine Zufallsvariable $X$ kommt immer von irgendeinem Wahrscheinlichkeitsraum [mm] \Omega [/mm] her. Es gilt stets [mm] \{X\in M\}=X^{-1}(M)=\{\omega \in \Omega | X(\omega)\in M\}. [/mm] Wie das [mm] \Omega [/mm] genau aussieht, interessiert dich meistens nicht, aber es existiert.

Ist das so weit ok?



Bezug
                                                                                        
Bezug
Erzeugende Funktion: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 20:39 Do 11.12.2014
Autor: YuSul

Ja, das sollte soweit ok sein.
Danke für die Auffrischung.

Bezug
                                                                                                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:26 Do 11.12.2014
Autor: YuSul

Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Leider komme ich bei der Anwendung von dem was du schreibst dennoch nicht weiter.

Brauch ich für $X_1$ und $X_2$ verschiedene Wahrscheinlichkeitsräume? Wie bringe ich das ganze in Mengenschreibweise?

$\{X_1+X_2=n\cap X_2=j\}$

Das ist ja nicht einfach die Menge

$\{\omega\in\Omega|\{X(\omega)=n\}\cap\{X(\omega)=j\}$

Ich weiß, das es keinen Sinn macht. Ich denke ich muss eben für X_1 und X_2 zwei verschiedene Wahrscheinlichkeitsräume nehmen oder dies eben genauer trennen, aber ich weiß nicht so recht wie.

Bezug
                                                                                                        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 00:36 Sa 13.12.2014
Autor: Teufel

Das ordentlich zu machen ist ein klein wenig aufwendiger. Ok, also du arbeitest mit 2 Zufallsvariablen [mm] X_1 [/mm] und [mm] X_2 [/mm] mit gegebenen Verteilungen.
Sagen wir [mm] $X_1:\Omega_1\rightarrow \IN_0$ [/mm] und [mm] $X_2:\Omega_2\rightarrow \IN_0$ [/mm] (hierbei sei [mm] p_i [/mm] ein W-Maß auf [mm] \Omega_i). [/mm] Nun machen wir etwas komisches, wir mischen die Zufallsvariablen irgendwie. Das kann man so modellieren:

Wähle [mm] \Omega:=\Omega_1\times\Omega_2 [/mm] mit der Produktwahrscheinlichkeit drauf, d.h. [mm] p(\omega_1,\omega_2)=p_1(\omega_1)p_2(\omega_2). [/mm]

Dann kannst du [mm] X'_1:\Omega\rightarrow\IN_0, X'_1(\omega_1,\omega_2)=X_1(\omega_1) [/mm] und [mm] X'_2:\Omega\rightarrow\IN_0, X'_2(\omega_1,\omega_2)=X_2(\omega_2) [/mm] definieren. Dann haben X'_1 bzw. X'_2 die gleiche Verteilung wie [mm] X_1 [/mm] bzw. [mm] X_2 [/mm] (wieso?). D.h. du kannst [mm] \Omega [/mm] als gemeinsamen Wahrscheinlichkeitsraum nehmen und damit arbeiten. Das Gute daran: Dir kann es jetzt egal sein, wie [mm] \Omega [/mm] genau aussieht und einfach Sachen wie [mm] \{X_1+X_2=n\} [/mm] als [mm] \{\omega\in\Omega| X_1(\omega)+X_2(\omega)=n\} [/mm] hinschreiben.

Bezug
                                                                                                
Bezug
Erzeugende Funktion: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 21:20 Sa 13.12.2014
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
        
Bezug
Erzeugende Funktion: Editiert
Status: (Antwort) fertig Status 
Datum: 23:27 Do 11.12.2014
Autor: DieAcht

Hallo YuSul,


Ich habe gerade leider nicht genug Zeit um mir den ganzen Thread
durchzulesen, aber ich meine festgestellt zu haben, dass bislang
nur von einer analytischen Lösung ausgegangen wird. Das muss man
hier allerdings nicht unbedingt.

Wir benötigen dazu nur zwei Vorüberlegungen:

1) Die erzeugende Funktion [mm] G_X [/mm] einer [mm] $\IN_0$-wertigen [/mm] Zufallsvariablen [mm] $X\$ [/mm]
ist definiert als die erzeugende Funktion der Verteilung von [mm] $X\$: [/mm]

      [mm] G_X(s)=\sum_{k\in\IN_0}\mathbb{P}(X=k)s^k=\mathbb{E}(s^X),\quad $|s|<1\$. [/mm]

2) Sind die Zufallsvariablen [mm] $X_i\$ [/mm] mit [mm] i\in\IN [/mm] unabhängig, dann sind auch
die Zufallsvariablen [mm] f_i(X_i) [/mm] mit [mm] i\in\IN, [/mm] wobei [mm] f_i [/mm] beliebige Funktionen sind,
unabhängig.

(Die erste Vorüberlegung ist die Definition und diese hattet ihr.
Kannst du die zweite Vorüberlegung auch nachvollziehen?)

Es seien also [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.
Dann sind auch die Zufallvariablen [mm] s^{X_1} [/mm] und [mm] s^{X_2} [/mm] unabhängig und wir erhalten

      
      [mm] G_{X_1+X_2}(s)=\mathbb{E}(s^{X_1+X_2})=\mathbb{E}(S^{X_1}*S^{X_2})=\mathbb{E}(s^{X_1})*\mathbb{E}(s^{X_2})=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]


Übrigens folgt auch, dass für zwei Verteilungen [mm] $\mathbb{P}_1\$ [/mm] und [mm] $\mathbb{P}_2\$ [/mm] auf [mm] \IN_0 [/mm] gilt:

      [mm] G_{\mathbb{P}_1\star \mathbb{P}_2}=G_{\mathbb{P}_1}(s)*G_{\mathbb{P}_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

(Die Aussage ist ein Spezialfall der ersten Aussage. Wieso? Für
endlich viele unabhängige Zufallsvariablen kannst du auch einmal
probieren die Aussagen ausformulieren.)


Gruß
DieAcht

Bezug
        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 03:48 Fr 12.12.2014
Autor: DieAcht

Hallo YuSul!


> Beweisen Sie folgende Aussage: Seien [mm]X_1, X_2[/mm] stochastisch
> unabhängige [mm]\mathbb{N}_0[/mm]-wertige Zufallsvariablen, dann
> gilt für alle [mm]s\in(-1,1)[/mm]
>  
> [mm]G_{X_1+X_2}(s)=G_{X_1}(s)G_{X_2}(s)[/mm]
>  Hallo,
>  
> ich möchte gerade diese Aufgabe lösen, aber ich komme
> nicht wirklich zurecht.
>
> [mm]G_X(s)[/mm] hatten wir so definiert:
>  
> [mm]G_X(s)=\sum_{k=0}^\infty P(X=k)s^k=E[s^x][/mm]

für alle [mm] $|s|<1\$. [/mm]

Am Ende muss im Exponenten ein großes [mm] $X\$ [/mm] stehen!

(Ist dir eigentlich klar, weshalb wir [mm] $|s|<1\$ [/mm] brauchen?)

> Also
>  
> [mm]G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k[/mm]

für alle [mm] $|s|<1\$. [/mm]

Hier hätte man in der Regel mit der Definition weiter gemacht:

      [mm] G_{X_1+X_2}(s)=\sum_{k=0}^\infty P(X_1+X_2=k)s^k=E[s^{X_1+X_2}] [/mm] für alle [mm] $|s|<1\$ [/mm]

(Siehe dazu meine andere Antwort hier.)

> Aber nun komme ich leider nicht weiter, da ich nicht weiß
> wie ich diese Summe bzw. [mm]P(X_1+X_2=k)[/mm] "zerlegen" kann.
>  Klar ist, dass diese Reihe konvergiert und ich sie daher
> auch "auseinanderziehen" kann.
> Doch ich weiß nicht wie...

Dazu wurde eigentlich alles gesagt, aber ich will trotzdem meinen
Senf dazugeben, denn man kann das hier eleganter machen.

Faltungssatz: Seien [mm] $X\$ [/mm] und [mm] $Y\$ [/mm] zwei unabhängige [mm] $\IZ$-wertige [/mm] Zufalls-
variablen. Dann ist die Verteilung von [mm] $X+Y\$ [/mm] gleich der Faltung
[mm] $p_X\star p_Y$. [/mm] Demnach gilt:

      [mm] P(X+Y=z)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ. [/mm]

[mm] (p_Y [/mm] ist die Verteilungsfunktion von [mm] $X\$ [/mm] und [mm] p_Y [/mm] die Verteilungsfunktion von [mm] $Y\$.) [/mm]

Beweis (Summation über alle möglichen Werte von [mm] $X\$): [/mm]

      [mm] P(X+Y=z)=\sum_{x\in\IZ}P(X=x,Y=z-x)=\sum_{x\in\IZ}P(X=x)*P(Y=z-x)=\sum_{x\in\IZ}p_X(x)*p(y)(z-x)=(p_X\star p_Y)(z) [/mm] für alle [mm] z\in\IZ. [/mm]

Der Beweis dieses Satzes klärt nicht nur deine Fragen bezüglich
der Umstrukturierung der Reihe, sondern lässt den Beweis der zu
zeigende Aussage eleganter erscheinen:

Es seien [mm] $X_1\$ [/mm] und [mm] $X_2\$ [/mm] zwei unabhängige [mm] $\IN_0$-wertige [/mm] Zufallsvariablen.

Zu zeigen:

      [mm] G_{X_1+X_2}(s)=G_{X_1}(s)*G_{X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

Beweis:

      [mm] G_{X_1}(s)*G_{X_2}(s)=\left(\sum_{k=0}^{\infty}p_{X_1}(k)s^k\right)*\left(\sum_{k=0}^{\infty}p_{X_2}(k)s^k\right)\overset{\text{Faltung}}{=}\sum_{k=0}^{\infty}(p_{X_1}\star p_{X_2})(k)s^k\overset{\text{Faltungssatz}}{=}\sum_{k=0}^{\infty}p_{X_1+X_2}(k)s^k=G_{X_1+X_2}(s) [/mm] für alle [mm] $|s|<1\$. [/mm]

Alles klar?


Eine Sache die mir noch aufgefallen ist:

> [mm] $X_1$ [/mm] und [mm] $X_2$ [/mm] sind ja [mm] $\mathbb{N}_0$-wertig. [/mm] Also [mm] $X_1, X_2\in\mathbb{N_0}$ [/mm]

Zufallsvariablen sind Abbildungen, so dass dein Ende falsch ist!
In diesem Fall sind [mm] $X_1\$ [/mm] und [mm] $X_2\$ $\IN_0$-wertige [/mm] Zufallsvariablen. Also

      [mm] X_i\colon\Omega\to\IN_0 [/mm] für [mm] i\in\{1,2\}. [/mm]

Du kannst zum Beispiel

      [mm] X_i\in\Omega^{\IN} [/mm] für [mm] i\in\{1,2\} [/mm] (Ist dir das klar?)

schreiben, aber nicht

      [mm] X_i\in\IN_0 [/mm] für [mm] i\in\{1,2\}. [/mm]


Gruß
DieAcht

Bezug
                
Bezug
Erzeugende Funktion: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 01:34 Sa 13.12.2014
Autor: YuSul

Wir brauchen $|s|<1$ damit die Reihe konvergiert. (Geometrische Reihe)
[mm] $P(X_1+X_2=k)$ [/mm] nimmt ja Werte in [0,1] an.

Stimmt, die Faltung von zwei Zufallsvariablen hatten wir bestimmt.

Seien [mm] $X_1, X_2 [/mm] : [mm] \Omega \to \mathbb{Z}$ [/mm] unabhängige diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
$p1, p2 : [mm] \mathbb{Z} \mapsto [/mm] [0, 1]$.

Dann hat die Zufallsvariable [mm] $X_1+X_2:\Omega\to\mathbb{Z}$ [/mm] die Gewichte:

[mm] $p:\mathbb{Z}\to[0,\infty)$ [/mm]

[mm] $n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)$ [/mm]

Kann ich das hier verwenden?



Bezug
                        
Bezug
Erzeugende Funktion: Antwort
Status: (Antwort) fertig Status 
Datum: 23:45 So 14.12.2014
Autor: DieAcht


> Wir brauchen [mm]|s|<1[/mm] damit die Reihe konvergiert.
> (Geometrische Reihe)
>  [mm]P(X_1+X_2=k)[/mm] nimmt ja Werte in [0,1] an.

Richtig.

> Stimmt, die Faltung von zwei Zufallsvariablen hatten wir
> bestimmt.

Dann sollte alles klar sein.

> Seien [mm]X_1, X_2 : \Omega \to \mathbb{Z}[/mm] unabhängige
> diskrete Zufallsvariablen mit Wahrscheinlichkeitsgewichten
>  [mm]p1, p2 : \mathbb{Z} \mapsto [0, 1][/mm].
>  
> Dann hat die Zufallsvariable [mm]X_1+X_2:\Omega\to\mathbb{Z}[/mm]
> die Gewichte:
>  
> [mm]p:\mathbb{Z}\to[0,\infty)[/mm]
>  
> [mm]n\mapsto \sum_{m\in\mathbb{Z}} p_1(n-m)p_2(m)[/mm]
>  
> Kann ich das hier verwenden?

Was willst du denn damit? Unsere Zufallsvariablen sind nicht
einmal diskret! Wir benötigen für den analytischen Beweis nur
die Faltung bzw. den Faltungssatz und dieser folgt sofort mit
der Definition der Faltung.

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de