www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Vorhilfe
  Status Geisteswiss.
    Status Erdkunde
    Status Geschichte
    Status Jura
    Status Musik/Kunst
    Status Pädagogik
    Status Philosophie
    Status Politik/Wirtschaft
    Status Psychologie
    Status Religion
    Status Sozialwissenschaften
  Status Informatik
    Status Schule
    Status Hochschule
    Status Info-Training
    Status Wettbewerbe
    Status Praxis
    Status Internes IR
  Status Ingenieurwiss.
    Status Bauingenieurwesen
    Status Elektrotechnik
    Status Maschinenbau
    Status Materialwissenschaft
    Status Regelungstechnik
    Status Signaltheorie
    Status Sonstiges
    Status Technik
  Status Mathe
    Status Schulmathe
    Status Hochschulmathe
    Status Mathe-Vorkurse
    Status Mathe-Software
  Status Naturwiss.
    Status Astronomie
    Status Biologie
    Status Chemie
    Status Geowissenschaften
    Status Medizin
    Status Physik
    Status Sport
  Status Sonstiges / Diverses
  Status Sprachen
    Status Deutsch
    Status Englisch
    Status Französisch
    Status Griechisch
    Status Latein
    Status Russisch
    Status Spanisch
    Status Vorkurse
    Status Sonstiges (Sprachen)
  Status Neuerdings
  Status Internes VH
    Status Café VH
    Status Verbesserungen
    Status Benutzerbetreuung
    Status Plenum
    Status Datenbank-Forum
    Status Test-Forum
    Status Fragwürdige Inhalte
    Status VH e.V.

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Dt. Schulen im Ausland: Mathe-Seiten:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Wahrscheinlichkeitstheorie" - Geometrische Verteilung
Geometrische Verteilung < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:16 Do 19.06.2014
Autor: James90

Aufgabe
Für X geo. verteilte ZV und [mm] n\in\IN [/mm] gilt:

[mm] P(X=k)=P(X=n-1+k|X\ge [/mm] n) für alle [mm] k\in\IN. [/mm]

Hi, ich komme nicht weiter und hoffe hier auf Hilfe!

[mm] P(X=n-1+k|X\ge n)=\frac{P(X=n-1+k,X\ge n)}{P(X\ge n)}=\frac{P(X=n-1+k)}{\sum_{l=n}^{\infty}P(X=l)}=\frac{p(1-p)^{n+k-2}}{\sum_{l=n}^{\infty}p(1-p)^{l-1}}=\frac{(1-p)^{n+k-2}}{\sum_{l=n}^{\infty}(1-p)^{l-1}} [/mm]

Rauskommen muss: [mm] P(X=k)=p(1-p)^{k-1}. [/mm]

Jemand ein Tipp für mich? Ich habe Probleme den Index unter der Reihe zu ändern, sodass alles klappt.

Vielen Dank!

        
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 22:54 Do 19.06.2014
Autor: Gonozal_IX

Hiho,

[mm] $\sum_{l=n}^{\infty}(1-p)^{l-1} [/mm] = [mm] \sum_{l=1}^{\infty}(1-p)^{l-1} [/mm] - [mm] \sum_{l=1}^{n-1}(1-p)^{l-1} [/mm] = [mm] sum_{l=0}^{\infty}(1-p)^{l} [/mm] - [mm] \sum_{l=0}^{n-2}(1-p)^{l}$ [/mm]

Und bedenke: 0 < p < 1
Nun du weiter!

Gruß,
Gono.

Bezug
                
Bezug
Geometrische Verteilung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:33 Do 19.06.2014
Autor: James90


> [mm]\sum_{l=n}^{\infty}(1-p)^{l-1} = \sum_{l=1}^{\infty}(1-p)^{l-1} - \sum_{l=1}^{n-1}(1-p)^{l-1} = sum_{l=0}^{\infty}(1-p)^{l} - \sum_{l=0}^{n-2}(1-p)^{l}[/mm]

Ohh man, darauf hätte ich selbst kommen müssen...

> Und bedenke: 0 < p < 1
>  Nun du weiter!

Daraus folgt 1>1-p>0 und wir verwenden auf der linken Reihe die geometrische Reihe und auf der rechten Summe die geometrische Summe. Dann Potenzgesetze und wir kommen zum Ergebnis.

Vielen Dank für deine schnelle Hilfe Gono!

LG, James

Bezug
        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:22 Fr 20.06.2014
Autor: James90

Am Ende dieser Eigenschaft steht, dass diese Eigenschaft sehr wichtig ist. Kannst du mir das bitte erklären? Ich habe kein richtiges Gefühl dafür.

[mm] n\in\IN [/mm] ist ja fest. und die Bedingung auf der rechten Seite ist [mm] $X\ge [/mm] n$. Aus [mm] $X\ge [/mm] n$ folgt [mm] $X=n-1+k\ge [/mm] n$ und daraus [mm] $k\ge [/mm] 1$ was klar ist, denn es soll für alle [mm] k\in\IN [/mm] gelten.

Mit meinen eigenen Worten: X ist geometrisch verteilt, d.h. es geht hier um die Wartezeit auf den ersten Erfolg bei einer Serie von z.B. Glücksspielen.

Auf der linken Seite steht also die Wahrscheinlichkeit, dass wir nach k-1 nicht erfolgreichen Versuchen endlich beim kten Mal einen Erfolg erzielen.

Auf der rechten Seite steht die Wahrscheinlichkeit, dass wir unter der Bedingung, dass wir bereits n Spiele gespielt haben, der Erfolg genau im n-1+k-ten Versuch kommt.

Okay, es hapert noch bei mir. Bitte um Hilfe.

Bezug
                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 16:30 Fr 20.06.2014
Autor: Gonozal_IX

Hiho,

ich schreibe dir das mal ein bisschen anders hin und verwende statt n ein n+1, weil man es dann schöner sieht (du hast es ja für alle n gezeigt, also auch für n+1)

Es gilt also:

$P(X = k) = P(X = n + k | X [mm] \ge [/mm] n+1) = P(n + k | X > n)$

Nun erkennt man, dass man diese Eigenschaft auch []"gedächtnislos" nennen kann, denn es spielt keine Rolle, wie viele Versuche vorher stattgefunden haben. Man kann das k-te Ereignis ab einem beliebigen Startwert immer über die gleiche Verteilung ausrechnen.

Diese Eigenschaft ist wichtig, weil diese Eigenschaft bereits die Verteilung eindeutig bestimmt.
Im diskreten Fall ist es dann die geometrische Verteilung, im stetigen Fall eine Exponentialverteilung.

Gruß,
Gono.

Bezug
                        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 17:14 Fr 20.06.2014
Autor: James90


> ich schreibe dir das mal ein bisschen anders hin und
> verwende statt n ein n+1, weil man es dann schöner sieht
> (du hast es ja für alle n gezeigt, also auch für n+1)

Ich dachte, dass wir es für alle [mm] k\in\IN [/mm] gezeigt haben und [mm] n\in\IN [/mm] beliebig (fest). Daraus würde ich schließen, dass wir k:=k+1 setzen dürften, aber nicht n:=n+1.

Wir haben gezeigt [mm] P(X=k)=P(X=n-1+k|X\ge [/mm] n) und mit k=k+1
folgt [mm] P(X=k+1)=P(X=n+k|X\ge [/mm] n) und weiter P(X> [mm] k)=P(X=n+k|X\ge [/mm] n)

> Es gilt also:
>  
> [mm]P(X = k) = P(X = n + k | X \ge n+1) = P(n + k | X > n)[/mm]

Okay, aber da fehlt am Ende ein X, also X=n+k, richtig?

> Nun erkennt man, dass man diese Eigenschaft auch
> []"gedächtnislos"
> nennen kann, denn es spielt keine Rolle, wie viele Versuche
> vorher stattgefunden haben.

Dort steht wieder was anderes (damit meine ich die [mm] \ge [/mm] Zeichen)
Das verwirrt mich ein wenig.

[mm] P(X\ge s+t|X\ge s)=P(X\ge [/mm] t)

Den Text auf Wiki finde ich aber ganz gut.

> Man kann das k-te Ereignis ab
> einem beliebigen Startwert immer über die gleiche
> Verteilung ausrechnen.

Das verstehe ich noch nicht ganz.

> Diese Eigenschaft ist wichtig, weil diese Eigenschaft
> bereits die Verteilung eindeutig bestimmt.
>  Im diskreten Fall ist es dann die geometrische Verteilung,
> im stetigen Fall eine Exponentialverteilung.

Das ist mir zu hoch, aber das kommt wohl auf den nächsten Seiten im Skript.


Sind denn sonst meine Überlegungen richtig? Ich habe auf Wikipedia gelesen, dass es auch darauf ankommt ob man die geometrische Verteilung auf [mm] \IN [/mm] oder [mm] \IN_0 [/mm] einführt. Wir haben diese am Anfang auf [mm] \IN [/mm] eingeführt, aber später auf [mm] \IN_0 [/mm] ergänzt. Ich gucke mir das nochmal genauer alles an.

Danke nochmal für deine schnelle Antwort Gono. :)

Bezug
                                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 17:27 Fr 20.06.2014
Autor: Gonozal_IX

Hiho,

> Ich dachte, dass wir es für alle [mm]k\in\IN[/mm] gezeigt haben und
> [mm]n\in\IN[/mm] beliebig (fest). Daraus würde ich schließen, dass
> wir k:=k+1 setzen dürften, aber nicht n:=n+1.

Da schließt du falsch.
Da [mm] \IN [/mm] beliebig, aber fest, wähle ich halt [mm] $\overline{n} [/mm] = [mm] \bruch{n+1}$ [/mm] oder du beweist es einfach nochmal in meiner Form ;-)

> Okay, aber da fehlt am Ende ein X, also X=n+k, richtig?

Ja.

> Dort steht wieder was anderes (damit meine ich die [mm]\ge[/mm] Zeichen)
>  Das verwirrt mich ein wenig.
>  
> [mm]P(X\ge s+t|X\ge s)=P(X\ge[/mm] t)
>  
> Den Text auf Wiki finde ich aber ganz gut.

Ja, ob da > oder [mm] \ge [/mm] steht hängt davon ab, ob du die geometrische Verteilung auf [mm] \IN [/mm] oder [mm] \IN_0 [/mm] betrachtest.
Siehe dem Wikipedia-Artikel zur geometrischen Verteilung.

> Das verstehe ich noch nicht ganz.

Na anschaulich: Es spielt keine Rolle, ob du bei deinem Versuch von vorne anfängt oder bereits n Versuche gemacht hast. Die Wahrscheinlichkeit, dass du k Erfolge hast ist immer gleich.


> Das ist mir zu hoch, aber das kommt wohl auf den nächsten Seiten im Skript.

Anders ausgedrückt: Es gibt keine andere Verteilung die diese Eigenschaft hat.

> Sind denn sonst meine Überlegungen richtig?

Sonst sah es gut aus, ja.

Gruß,
Gono

Bezug
                                        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 20:00 Fr 20.06.2014
Autor: James90

Deine Antworten kommen echt super schnell, vielen lieben Dank!

> > Ich dachte, dass wir es für alle [mm]k\in\IN[/mm] gezeigt haben und
> > [mm]n\in\IN[/mm] beliebig (fest). Daraus würde ich schließen, dass
> > wir k:=k+1 setzen dürften, aber nicht n:=n+1.
>  
> Da schließt du falsch.
>  Da [mm]\IN[/mm] beliebig, aber fest, wähle ich halt [mm]\overline{n} = \bruch{n+1}[/mm]

Das verstehe ich nicht. Aus deinem Nenner werde ich leider auch nicht wirklich schlau.
Wir zeigen also eine Aussage für alle [mm] n,k\in\IN [/mm] und die Behauptung gilt dann auch (zum Beispiel) für [mm] $k:=k+2\$ [/mm] und [mm] $n:=n+1\$? [/mm]

> Ja, ob da > oder [mm]\ge[/mm] steht hängt davon ab, ob du die
> geometrische Verteilung auf [mm]\IN[/mm] oder [mm]\IN_0[/mm] betrachtest.
>  Siehe dem Wikipedia-Artikel zur geometrischen Verteilung.

> oder du beweist es einfach nochmal in meiner Form ;-)

Okay. :-)

Sei X geo. verteilte ZV auf [mm] \IN, [/mm] dann gilt für alle [mm] n,k\in\IN: P(X=k)=P(X=n-1+k|X\ge [/mm] n) (bewiesen).

Für n:=n+1 erhalten wir [mm] $P(X=k)=P(X=n+k|X\ge [/mm] n+1)=P(X=n+k|X>n)$ (Deine Form bzw. Wiki @ geo. Verteilung)

Beweis:

[mm] P(X=n+k|X\ge n+1)=\frac{P(X=n+k,X\ge n+1)}{P(X\ge n+1)}=\frac{P(X=n+k)}{P(X\ge n+1)}=\frac{p*(1-p)^{n+k-1}}{\sum_{l=n+1}^{\infty}P(X=l)}=\frac{p*(1-p)^{n+k-1}}{\sum_{l=n+1}^{\infty}p*(1-p)^{l-1}}=\frac{(1-p)^{n+k-1}}{\sum_{l=1}^{\infty}(1-p)^{l-1}-\sum_{l=1}^{n}(1-p)^{l-1}}=\frac{(1-p)^{n+k-1}}{\sum_{l=0}^{\infty}(1-p)^{l}-\sum_{l=0}^{n-1}(1-p)^{l}}=\frac{(1-p)^{n+k-1}}{\frac{1}{p}-\frac{1-(1-p)^{n}}{p}}=p*(1-p)^{k-1}=P(X=k). [/mm]



Sei nun Y geo. verteile ZV auf [mm] \IN_0, [/mm] dann gilt für alle [mm] n,k\in\IN_0: P(Y=k)=P(Y=n+k|Y\ge [/mm] n) (Laut Wiki @ Geometrische Verteilung)

Beweis:

[mm] P(Y=n+k|Y\ge n)=\frac{P(Y=n+k,Y\ge n)}{P(Y\ge n)}=\frac{P(Y=n+k)}{P(Y\ge n)}=\frac{p*(1-p)^{n+k}}{\sum_{l=n}^{\infty}p*(1-p)^{l}}=\frac{(1-p)^{n+k}}{\sum_{l=n}^{\infty}(1-p)^{l}}=\frac{(1-p)^{n+k}}{\sum_{l=0}^{\infty}(1-p)^l-\sum_{l=0}^{n-1}(1-p)^l}=\frac{(1-p)^{n+k}}{\frac{1}{p}-\frac{1-(1-p)^{n}}{p}}=p*(1-p)^{k}=P(Y=k). [/mm]

Das war eine gute Übung, danke dir für den Tipp.



Ich habe noch Fragen:

1) Bei Wiki (@Gedächtnislosigkeit) steht noch halt noch immer etwas anderes da:

[mm] $P(X\ge k)=P(X\ge k+n|X\ge [/mm] k)$

Das kann man sicher auch beweisen, aber kann man hier nicht auch aus obiger Formel direkt diese produzieren?




2) Im Internet wird in der Regel fast immer P verwendet als Notation. Im Skript aber immer [mm] \IP. [/mm] Ich finde [mm] \IP [/mm] besser, denn es erinnert, dass es sich eigentlich um eine Abbildung (Wahrscheinlichkeitsmaß) handelt. Ist es üblich, dass man beides benutzt oder sollte man P vermeiden?




3) Ich will die Definitions der Verteilung in Bezug auf die Anwendung oben verstehen.

Zunächst: Jede Abbildung [mm] X:\Omega\to\IR [/mm] heißt reellwertige Zufallsvariable.

Sei nun X eine ZV, dann können wir mit [mm] (X(\Omega),p_X) [/mm] einen diskreten Wahrscheinlichkeitsraum angeben, wobei [mm] X(\Omega)=\{X(\omega):\omega\in\Omega\} [/mm] und [mm] p_X(x)=P(X=x)=P(\{\omega\in\Omega:X(\omega)=x\}). [/mm]

Das induzierte Wahrscheinlichkeitsmaß [mm] $P\circ X^{-1}$, [/mm] definiert durch [mm] $P\circ X^{-1}(A)=\sum_{x\in A}p_X(x)$ [/mm] erfüllt [mm] $P\circ X^{-1}(A)=P(X\in [/mm] A) für alle [mm] $A\subseteq X(\Omega)$ [/mm] und wird die Verteilung auf X genannt.

Gehen wir nun zu obigem Ausdruck [mm] P(X\ge [/mm] n), wobei natürlich X eine geometrisch verteilte ZV auf [mm] \IN [/mm] sei und [mm] n\in\IN. [/mm]

Das heißt doch: Bei uns ist [mm] X(\Omega)=X(\IN)=\{X(n):n\in\IN\} [/mm] und [mm] p_X(x)=P(X=x)=P(n\in\IN:X(n)=x). [/mm]

Wenn wir also [mm] P(X\ge [/mm] x) berechnen wollen, dann machen wir das so: [mm] P(X\ge n)=X^{-1}(A) [/mm] mit [mm] A:=[n,\infty), [/mm] aber leider gilt doch auch [mm] A\not\subset\IN.... [/mm]

Wie genau erhält man wie zum Beispiel oben:

[mm] P(X\ge n)=\sum_{l=n}^{\infty}P(X=l) [/mm] ? Also ich kann es mir vorstellen, aber so eine richtige Herleitung hätte ich nicht parat.

Wir erhalten dann: [mm] P(X\ge n)=X^{-1}([n,\infty))=\sum_{x\in[n,\infty)}p_X(x)=\sum_{x\in[n,\infty)}P(X=x) [/mm]

Ist das so richtig? Wieso steht in der Definition noch die Verknüpfung zu P? Was macht man, denn A auch negative Werte beinhaltet?

> Na anschaulich: Es spielt keine Rolle, ob du bei deinem
> Versuch von vorne anfängt oder bereits n Versuche gemacht
> hast. Die Wahrscheinlichkeit, dass du k Erfolge hast ist
> immer gleich.

Sollte ich hier am Besten $P(X=k)=P(X=n+k|X>n)$ oder [mm] $P(X=k)=P(X=n+k|X\ge [/mm] n+1)$ betrachten?

Ich betrachte letzteres.

Wie kommst du auf Erfolge? Es geht doch um die Wartezeit bis ein Erfolg eintrifft.

In meinen Worten:

Wenn wir ein Glücksspiel beobachten und die vorige n Ergebnisse kennen, dann spielen diese keine Rolle, wenn uns die Wahrscheinlichkeit für den nächsten Erfolg interessiert, d.h. wir fangen bei 0 an (Unabhängigkeit).

Bsp: Münze: Einer wirft 10 Mal (das ist unser n) hintereinander Zahl. Jetzt interessieren wir uns für die Wahrscheinlichkeit, dass wir erst beim 10ten Versuch Kopf erzielen. Dann gilt trotzdem [mm] P(X=10)=1/2*(1-1/2)^{9}. [/mm]

Ist das gemeint? Das wäre irgendwie zu einfach, denn wir betrachten ja auch keinen Erwartungswert oder so....

> Anders ausgedrückt: Es gibt keine andere Verteilung die
> diese Eigenschaft hat.

Das ist interessant.


Danke Dir nochmal und tut mir leid für den langen Text..


LG, James.

Bezug
                                                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 21:56 Fr 20.06.2014
Autor: Gonozal_IX

Hiho,

ich rolle deinen Post mal von hinten auf, weil das sicherlich einiges klärt.

> Danke Dir nochmal und tut mir leid für den langen Text..

Gern und lieber einen langen Text, der es genau erklärt als nur eine ungenaue Frage. Man erlebt es hier selten, dass jemand seine Probleme so genau auf den Punkt bringen kann. Im Übrigen funktioniert das nur, wenn man die Thematik eigentlich verstanden hat und das selbst nur noch nicht so genau weiß ;-)

> Bsp: Münze: Einer wirft 10 Mal (das ist unser n)
> hintereinander Zahl. Jetzt interessieren wir uns für die
> Wahrscheinlichkeit, dass wir erst beim 10ten Versuch Kopf
> erzielen. Dann gilt trotzdem [mm]P(X=10)=1/2*(1-1/2)^{9}.[/mm]
>  
> Ist das gemeint? Das wäre irgendwie zu einfach, denn wir
> betrachten ja auch keinen Erwartungswert oder so....

Jetzt hat Frankreich gerade zwei Tore geschossen und du musst dich ein wenig gedulden, muss da erstmal hingucken....... so, weiter gehts:

So einfach wie du es jetzt simuliert hast, geht es leider nicht: Es ist vielmehr ein "Jemand wirft eine Münze (und aufpassen, es gibt bei der geometrischen Verteilung kein Ende) wir kommen erst beim 90. Mal hinzu und man sagt uns: 'Hey, bisher gab es keinen Kopf.' Nun fragen wir uns, wie oft muss man noch werfen, bis endlich Kopf kommt (also der erste Erfolg).
Dann sagt uns die Gedächtnislosigkeit der geometrischen Verteilung, dass die WKeit für jeden Wurf über 90, also der 91.,92.,93. usw. dass endlich der erste Erfolg eintritt, die gleiche ist, als hätte derjenige gerade erst angefangen. Also als ob der 1., 2., 3. Wurf in unserem Beisein wirklich erst der 1.,2.,3. Wurf des Münzwerfers wäre."


Nun habe ich deins nochmal gelesen und muss feststellen: Du hast vielleicht doch das richtige gemeint. Wenn du in deinem zweiten Satz mit

>  Jetzt interessieren wir uns für die Wahrscheinlichkeit, dass wir erst beim 10ten Versuch Kopf erzielen.

den faktisch 20. Wurf meinst, dann hast du recht mit dem was du geschrieben hast.
Hoffe das ist nun klarer und weiter im Text.

> > Wie kommst du auf Erfolge? Es geht doch um die Wartezeit bis ein Erfolg eintrifft.

Kommt drauf an, was man als Erfolg bezeichnet :-P
Aber für dich ist es die Wartezeit bis zum ersten Erfolg, ja.

Nun dein anstrengendster dritter Punkt:

> 3) Ich will die Definitions der Verteilung in Bezug auf die Anwendung oben verstehen.

Gute Idee.

> Zunächst: Jede Abbildung [mm]X:\Omega\to\IR[/mm] heißt reellwertige Zufallsvariable.

Und bei Euch ist das Bild von X nur abzählbar, d.h. wir haben eine diskrete Zufallsvariable.

> Gehen wir nun zu obigem Ausdruck [mm]P(X\ge[/mm] n), wobei natürlich X eine geometrisch verteilte ZV auf [mm]\IN[/mm] sei und [mm]n\in\IN.[/mm]

Ok.

> Das heißt doch: Bei uns ist [mm][mm] X(\Omega)=X(\IN) [/mm]

Nein! Und nun verwechselst du Definitionsbereich mit Bildraum. So, Elfmeter für Frankreich, du musst wieder warten.....

Wenn X geometrisch verteilt auf [mm] \IN [/mm] ist, bedeutet dass, das [mm] $X:\Omega \to \IN$ [/mm]
Das kannst du dir doch auch ganz einfach überlegen, wenn wir wirklich mal Münzwürfe betrachten, und X uns den ersten Erfolg für Kopf gibt, dann ist doch bspw:

[mm] $X\left((Z,Z,Z,K,Z,K,K,K,Z,\ldots)\right) [/mm] = 4$

d.h. X ist eine Abbildung von [mm] \Omega [/mm] nach [mm] \IN [/mm] wobei [mm] $\Omega [/mm] = [mm] \left\{(K,Z)^\IN\right\}$ [/mm]

Und somit ist das Bildmaß [mm] \IP_X [/mm] eine geometrische Verteilung, nicht aber das Maß [mm] \IP [/mm]

> Wenn wir also [mm]P(X\ge[/mm] x) berechnen wollen, dann machen wir
> das so: [mm]P(X\ge n)=X^{-1}(A)[/mm] mit [mm]A:=[n,\infty),[/mm] aber leider gilt doch auch [mm]A\not\subset\IN....[/mm]

Erstmal hast du was vergessen, es gilt: [mm]P(X\ge n)=P\left(X^{-1}(A)\right)[/mm], wobei A aus der Sigma-Algebra des Bildraums kommen muss.
Bei dir ist der Bildraum [mm] \IN, [/mm] also wählen wir als Sigma-Algebra die Potenzmenge von [mm] $\IN,\; \mathcal{P}(\IN)$. [/mm]
Wenn du mit dem Begriff Sigma-Algebra nichts anfangen kannst, ignoriere den Satz (oder merk ihn dir für stetige ZV nachher) und akzeptier einfach, dass dein A Teilmenge des Bildraums sein muss.
In dem Fall hier also [mm] $A\subset \IN$. [/mm]

D.h. [mm] $\{X \ge n\} [/mm] = [mm] \{X \in A\}$ [/mm] mit $A = [mm] \{n,n+1,n+2,\ldots\}$ [/mm]

> Wie genau erhält man wie zum Beispiel oben:
>  
> [mm]P(X\ge n)=\sum_{l=n}^{\infty}P(X=l)[/mm] ? Also ich kann es mir vorstellen, aber so eine richtige Herleitung hätte ich nicht parat.

Hier kommt jetzt die Sigma-Additivität des Maßes zustande, es gilt nämlich:

[mm] $P\left(X \ge n\right) [/mm] = [mm] P\left(\bigcup_{l=n}^\infty \{X = l\}\right) [/mm] = [mm] \summe_{l=n}^\infty [/mm] P(X=l)$

Oder in Mengenschreibweise:

[mm] $P\left(X \ge n\right) [/mm] = [mm] P\left(X \in \{n,n+1,n+2,\ldots\}\right) [/mm] = [mm] P\left(X \in \{n\} \cup X \in \{n+1\} \cup X \in \{n+1\} \cup \ldots\right)$ [/mm]

> > > Ich dachte, dass wir es für alle [mm]k\in\IN[/mm] gezeigt haben und
> > > [mm]n\in\IN[/mm] beliebig (fest). Daraus würde ich schließen, dass
> > > wir k:=k+1 setzen dürften, aber nicht n:=n+1.

Vorweg: Terme wie "k:= k+1" sind ganz schlecht, da links und rechts dieselbe Variable steht. Dann nenn das k links lieber anders.

Dann: Du wirst mir sicherlich zustimmen, dass [mm] $\overline{n} [/mm] = n+1 [mm] \in \IN$. [/mm]
Da du die Aussage für beliebige aber fest [mm] n\in\IN [/mm] gezeigt hast, doch wohl auch für [mm] \overline{n}. [/mm] Dann schreibst du die Aussage für [mm] \overline{n} [/mm] auf und substituierst dann wieder zurück.
Damit machst du ja erstmal nichts falsch :-)
Und schon kommst du auf meine Aussage (wie du ja selbst auch bewiesen hast, dass die stimmt).

>  Wir zeigen also eine Aussage für alle [mm]n,k\in\IN[/mm] und die
> Behauptung gilt dann auch (zum Beispiel) für [mm]k:=k+2\[/mm] und
> [mm]n:=n+1\[/mm]?

Natürlich, wenn du etwas für alle natürlichen Zahlen zeigst, dann doch auch insbesondere für die natürlichen Zahlen n+2 und k+2

> Ich habe noch Fragen:
>  
> 1) Bei Wiki (@Gedächtnislosigkeit) steht noch halt noch
> immer etwas anderes da:
>  
> [mm]P(X\ge k)=P(X\ge k+n|X\ge k)[/mm]
>  
> Das kann man sicher auch beweisen, aber kann man hier nicht
> auch aus obiger Formel direkt diese produzieren?

Erstmal: Ich hoffe es sollte [mm]P(X\ge k)=P(X\ge k+n|X\ge n)[/mm] heißen.
Dann: Ja, sehr leicht sogar. Schreibe das links, wie wir ja jetzt oben besprochen haben, als Summe und nutze für die Summanden dann die von dir bewiesene Formel.
Dann bedenke, dass $P(*| X [mm] \ge [/mm] n)$ selbst wieder ein Wahrscheinlichkeitsmaß und damit sigma-additiv ist. (Kann man sich merken: Jede bedingte W-Keit ist selbst wieder ein W-Maß.... wäre ja auch schlimm, wenn nicht).


> 2) Im Internet wird in der Regel fast immer P verwendet als Notation. Im Skript aber immer [mm]\IP.[/mm] Ich finde [mm]\IP[/mm] besser, denn es erinnert, dass es sich eigentlich um eine Abbildung (Wahrscheinlichkeitsmaß) handelt. Ist es üblich, dass man beides benutzt oder sollte man P vermeiden?

Im Internet regiert die Faulheit und ein Zeichen ist halt leichter getippt als drei. Insbesondere dort, wo es keinen so schönen [mm] $\latex$ [/mm] - Editor gibt wie hier ;-)

Sauberer ist sicherlich [mm] $\IP$, [/mm] aber wenn man weiß, was gemeint ist, reicht auch P. Kannst du dir ja auch sauber so durchdefinieren.
Ist halt ähnlich mit der Groß- und Kleinschreibung der Stochastik. Große Buchstaben stehen meist für ZV, Kleinbuchstaben für annehmbare Werte, aber nichts spricht dagegen, eine ZV mit "xyz" zu bezeichnen, wenn man seinen gegenüber verwirren möchte.

Gruß,
Gono.

Bezug
                                                        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 02:49 Sa 21.06.2014
Autor: James90

Hiho Gono :-)

Ich werde zwecks Übersichtlichkeit probieren nur das wichtigste zu zitieren.

Gibt es einen besonderen Grund, wieso du dir die Spiele der eher langweiligen Gruppe E anguckst? Kommst du aus Frankreich?

> So einfach wie du es jetzt simuliert hast, geht es leider
> nicht: Es ist vielmehr ein "Jemand wirft eine Münze (und
> aufpassen, es gibt bei der geometrischen Verteilung kein
> Ende)

Ist "kein Ende" eine besondere Eigenschaft?

Die Einzelwahrscheinlichkeiten der geometrische Verteilung auf [mm] \IN [/mm] sind gegeben durch [mm] Geo_{p}(k)=p*(1-p)^{k-1}, [/mm] wobei [mm] p\in(0,1). [/mm] Mit anderen Worten:
Wir erhalten mit [mm] \Omega=\IN [/mm] und obigen Einzelwahrscheinlichkeiten ein diskreten Wahrscheinlichkeitsraum,
denn  es gilt: [mm] \sum_{k\in\IN}p*(1-p)^{k-1}=p*\sum_{k\in\IN_0}(1-p)^{k}=p*\frac{1}{p}=1 [/mm] für alle [mm] p\in(0,1). [/mm]

Vielleicht gibt es auch kein "Ende", weil wir kein endliches [mm] \Omega [/mm] betrachten. Hier ist [mm] \Omega=\IN [/mm] und damit eine abzählbar unendliche Menge.

> wir kommen erst beim 90. Mal hinzu und man sagt uns:
> 'Hey, bisher gab es keinen Kopf.' Nun fragen wir uns, wie
> oft muss man noch werfen, bis endlich Kopf kommt (also der
> erste Erfolg).
> Dann sagt uns die Gedächtnislosigkeit der geometrischen
> Verteilung, dass die WKeit für jeden Wurf über 90, also
> der 91.,92.,93. usw. dass endlich der erste Erfolg
> eintritt, die gleiche ist, als hätte derjenige gerade erst
> angefangen. Also als ob der 1., 2., 3. Wurf in unserem
> Beisein wirklich erst der 1.,2.,3. Wurf des Münzwerfers
> wäre."

Ich probiere das in die Formel [mm] $P(X=k)=P(X=n+k|X\ge [/mm] n+1)$ darzustellen: [mm] $P(X=k)=P(X=90+k|X\ge [/mm] 91)$ mit [mm] k\in\{1,2,3\}. [/mm]

Sei [mm] $k=3\$ [/mm] fest.

[mm] $P(X=3)\$ [/mm] ist die W'keit erst beim 3ten Versuch Erfolg zu erhalten, d.h. Misserfolg -> Misserfolg -> Erfolg.

[mm] $P(X=93|X\ge [/mm] 91)=P(X=93|X>90)$ heißt, dass wir durch die Bedingung die ersten 90 Spiele zwar gespielt haben, aber uns diese nicht interessieren, denn wir warten auf [mm] $X>90\$. [/mm] Dann erhalten wir die W'keit erst beim 93ten Spiel einen Erfolg zu erhalten, d.h. 91tes Spiel Misserfolg -> 92tes Spiel Misserfolg -> 93tes Spiel Erfolg.

Im Grunde geht es also um die Bedingung, denn damit "vergessen" wir was vorher passiert ist.
Die Unabhängigkeit spielt hier also die größte Rolle, denn sonst würde das nicht gelten, richtig?



> Nun dein anstrengendster dritter Punkt:

> Wenn X geometrisch verteilt auf [mm]\IN[/mm] ist, bedeutet dass, das [mm]X:\Omega \to \IN[/mm]

Okay.

> Das kannst du dir doch auch ganz einfach überlegen, wenn wir wirklich mal Münzwürfe betrachten, und X uns den ersten Erfolg für Kopf gibt, dann ist doch bspw:

> [mm]X\left((Z,Z,Z,K,Z,K,K,K,Z,\ldots)\right) = 4[/mm]

> d.h. X ist eine Abbildung von [mm]\Omega[/mm] nach [mm]\IN[/mm] wobei [mm]\Omega = \left\{(K,Z)^\IN\right\}[/mm]

Ahh, dann sind Zufallsvariablen doch ganz cool. :-)

> Und somit ist das Bildmaß [mm]\IP_X[/mm] eine geometrische Verteilung, nicht aber das Maß [mm]\IP[/mm]

Ich stelle mal Frage und Antwort (kurz) und du sagst mir bitte ob ich es richtig verstanden habe:

Was ist die geometrische Verteilung?

[mm] Geo_{p}(k)=p*(1-p)^{k-1} [/mm] mit [mm] \Omega=\IN [/mm] und [mm] p\in(0,1). [/mm]

Was ist geometrisch verteilt?

Sei X eine ZV, dann ist X geometrisch verteilt, falls gilt:

[mm] P(X=k)=p*(1-p)^{k-1} [/mm] für alle [mm] k\in\IN. [/mm]

Sind die Antworten richtig? Ich bin mir schon bewusst, dass auch [mm] P(X=k)=Geo_{p}(k) [/mm] gilt, aber ich bin mir bezüglich der Begriffe noch unsicher. Gibt es einen Unterschied oder kann man beide Antworten für beide Fragen akzeptieren?

> D.h. [mm]\{X \ge n\} = \{X \in A\}[/mm] mit [mm]A = \{n,n+1,n+2,\ldots\}[/mm]

Okay, super. Jetzt wird einiges klar.

> Hier kommt jetzt die Sigma-Additivität des Maßes zustande, es gilt nämlich:

Bei uns ist es bislang nur die abzählbare Additivität (@ Kolmogorov'sches Axiom).

> [mm]P\left(X \ge n\right) = P\left(\bigcup_{l=n}^\infty \{X = l\}\right) = \summe_{l=n}^\infty P(X=l)[/mm]

> Oder in Mengenschreibweise:

> [mm]P\left(X \ge n\right) = P\left(X \in \{n,n+1,n+2,\ldots\}\right) = P\left(X \in \{n\} \cup X \in \{n+1\} \cup X \in \{n+1\} \cup \ldots\right)[/mm]

[mm] P(X\ge n)=P(X\in\{n,n+1,n+2,\ldots\})=P(X\in\{n\}\cup X\in\{n+1\}\cup X\in\{n+2\})=P(\bigcup_{i\in\IN_0}X\in\{n+i\})=P(\bigcup_{i\in\IN_0}X=n+i)=P(\bigcup_{l=n}X=l). [/mm]

So richtig?

Frage: Wenn X eine ZV, wie kann ich P(X=x) als Summe schreiben? Ich probiere es mit der Definition: [mm] P(X=x)=P(\omega\in\Omega:X(\omega)=x). [/mm] Jetzt steht dadrin eigentlich eine Menge, bzw. eigentlich ein Ereignis, sodass ich folgendes schreiben kann: [mm] P(X=x)=\sum_{\omega\in\Omega:X(\omega)=x}p(\omega). [/mm]

Ist das richtig?

Noch eine Frage: Wie kann ich mir dann z.B. sowas hier vorstellen: P(X=Y), P(X>Y) oder P(X=Y=Z) vorstellen? (X,Y,Z sind ZV). Ich meine P(X=k) ist sofort mit der Definition gegeben. Falls X z.B. geometrisch verteilt ist, dann noch besser, aber was passiert es geht doch auch hier eigentlich um das Ereignis X=Y also P(X=k,Y=k) usw... Das aus der Definition zu übertragen finde ich auch nicht so einfach..

> Erstmal: Ich hoffe es sollte [mm]P(X\ge k)=P(X\ge k+n|X\ge n)[/mm] heißen.
> Dann: Ja, sehr leicht sogar. Schreibe das links, wie wir ja jetzt oben besprochen haben, als Summe und nutze für die Summanden dann die von dir bewiesene Formel.
> Dann bedenke, dass [mm]P(*| X \ge n)[/mm] selbst wieder ein Wahrscheinlichkeitsmaß und damit sigma-additiv ist. > (Kann man sich merken: Jede bedingte W-Keit ist selbst wieder ein W-Maß.... wäre ja auch schlimm, wenn nicht).

Meinst du am Anfang: $ [mm] P\left(X \ge n\right) [/mm] = [mm] P\left(\bigcup_{l=n}^\infty \{X = l\}\right) [/mm] = [mm] \summe_{l=n}^\infty P(X=l)=\summe_{l=n}^\infty P(X=n-1+l|X\ge [/mm] n) $ ?

Ich scheine immer wieder bei neuen Kapitel am Anfang an den Definitionen zu versagen... Ich bin immer verunsichert, wenn dann auf einmal gerechnet wird und will es in der Regel genau wissen, aber das scheint auf den ersten Blick immer schwierig zu sein. Hoffentlich legt sich das irgendwann....

Danke nochmal und viel Spaß morgen (heute) beim Deutschlandspiel.

Bezug
                                                                
Bezug
Geometrische Verteilung: Verlängern
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 00:01 Di 24.06.2014
Autor: James90

Hallo, kann bitte jemand die Frage verlängern auf eine Woche? Danke.

Bezug
                                                                        
Bezug
Geometrische Verteilung: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 00:04 Di 24.06.2014
Autor: Herby

Hallo,

> Hallo, kann bitte jemand die Frage verlängern auf eine
> Woche? Danke.

Gerne [hut]

Grüße
Herby


Bezug
                                                                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 14:15 Mi 25.06.2014
Autor: Gonozal_IX

Hiho,

so, nach längeren Problemen hier im Matheforum nun endlich eine Antwort von mir:

> Gibt es einen besonderen Grund, wieso du dir die Spiele der eher langweiligen Gruppe E anguckst? Kommst du aus Frankreich?

So langweilig fand ich die Gruppe gar nicht, waren viele schöne Tore dabei. Ich versuche einfach so weit wie möglich alle Spiele zu gucken.

> Ist "kein Ende" eine besondere Eigenschaft?

Naja, es bestimmt halt deinen Verteilungsraum. Es gibt ja auch endliche Verteilungen :-)
Ein Würfel bspw.

>  Wir erhalten mit [mm]\Omega=\IN[/mm]

Wie du schon festgestellt hast: Bei dir ist [mm] $\Omega \not=\IN$ [/mm] sondern bspw [mm] \${K,Z\}^\IN$ [/mm]
Es gilt [mm] $X(\Omega) [/mm] = [mm] \IN$ [/mm]

> Hier ist [mm]\Omega=\IN[/mm] und damit eine abzählbar unendliche Menge.

Nein, aber mach dir mal klar, dass du nur eine Verteilung auf einer unendlichen Menge haben kannst, wenn dein [mm] \Omega [/mm] auch unendlich ist.

> Im Grunde geht es also um die Bedingung, denn damit "vergessen" wir was vorher passiert ist.

Ja.

>  Die Unabhängigkeit spielt hier also die größte Rolle, denn sonst würde das nicht gelten, richtig?

Welche Unabhängigkeit? ;-)
Rein Formal hast du hier ja keine Unabhängigkeit, denn du hast ja nur eine ZV, was soll da unabhängig sein?
Verwechsle das nun nicht mit den Einzelwürfen, die in deinem Modell ja faktisch gar nicht vorkommen.

> Ahh, dann sind Zufallsvariablen doch ganz cool. :-)

:-)

> > Und somit ist das Bildmaß [mm]\IP_X[/mm] eine geometrische Verteilung, nicht aber das Maß [mm]\IP[/mm]

[ok]

> [mm]Geo_{p}(k)=p*(1-p)^{k-1}[/mm] mit [mm]\Omega=\IN[/mm] und [mm]p\in(0,1).[/mm]

Nochmal: Dein [mm] \Omega [/mm] ist im Allgemeinen nicht [mm] \IN [/mm]
  

> Was ist geometrisch verteilt?
>  
> Sei X eine ZV, dann ist X geometrisch verteilt, falls gilt:
>  
> [mm]P(X=k)=p*(1-p)^{k-1}[/mm] für alle [mm]k\in\IN.[/mm]

[ok]
Mach dir klar, dass das dir eine Verteilung auf [mm] $\IN [/mm] = [mm] X(\Omega)$ [/mm] definiert, aber nicht auf [mm] $\Omega$! [/mm]

> Sind die Antworten richtig?

Nein, was bei der Ersten falsch war, sagte ich dir ja bereits.

> Bei uns ist es bislang nur die abzählbare Additivität
> [mm]P(X\ge n)=P(X\in\{n,n+1,n+2,\ldots\})=P(X\in\{n\}\cup X\in\{n+1\}\cup X\in\{n+2\})=P(\bigcup_{i\in\IN_0}X\in\{n+i\})=P(\bigcup_{i\in\IN_0}X=n+i)=P(\bigcup_{l=n}X=l).[/mm]
>  
> So richtig?

Naja, da fehlt die obere Grenze [mm] \infty [/mm] aber da hast du ja nur umgeschrieben.
Wenn ihr nur endliche Summen beim Maß hattet, musst du für [mm] \ge [/mm] über die Gegenwahrscheinlichkeit gehen, denn da treten nur endliche Summen auf.

> Frage: Wenn X eine ZV, wie kann ich P(X=x) als Summe schreiben?

> Ich probiere es mit der Definition:
> [mm]P(X=x)=P(\omega\in\Omega:X(\omega)=x).[/mm] Jetzt steht dadrin
> eigentlich eine Menge, bzw. eigentlich ein Ereignis, sodass
> ich folgendes schreiben kann:
> [mm]P(X=x)=\sum_{\omega\in\Omega:X(\omega)=x}p(\omega).[/mm]
>  
> Ist das richtig?

Jein, nur wenn du sicherstellst, dass deine Indexmenge höchstens abzählbar ist.
Sollte das überabzählbar sein, bekommst du ein Problem. Das kann ich dir mal an "unserem" Beispiel erörtern:

$X: [mm] \{K,Z\}^\IN \to \IN$ [/mm]

X sei der erste Erfolg von Zahl.

Was [mm] ist:$\{X = 2\} [/mm] = [mm] \left\{ (K,Z,\ldots) \in \{K,Z\}^\IN\right\} \cong \{K,Z\}^\IN$ [/mm]

Da [mm] $\{K,Z\}^\IN$ [/mm] überabzählbar, ist also auch (jedes) [mm] $\{X = k\}$ [/mm] überabzählbar.
Damit macht dein Ausdruck oben keinen Sinn mehr.

> Noch eine Frage: Wie kann ich mir dann z.B. sowas hier
> vorstellen: P(X=Y), P(X>Y) oder P(X=Y=Z) vorstellen? (X,Y,Z
> sind ZV). Ich meine P(X=k) ist sofort mit der Definition
> gegeben. Falls X z.B. geometrisch verteilt ist, dann noch
> besser, aber was passiert es geht doch auch hier eigentlich
> um das Ereignis X=Y also P(X=k,Y=k) usw... Das aus der
> Definition zu übertragen finde ich auch nicht so einfach..

Da du noch im diskreten Fall bist, ist das alles noch recht einfach.
Du hast ja schon erkannt, dass [mm] $\{X=Y\}$ [/mm] einfach sowas ist wie [mm] $\{X=k,Y=k\}$ [/mm] Allerdings musst du dafür natürlich alle möglichen Fälle für k durchlaufen, d.h. es gilt:

[mm] $\{X=Y\} [/mm] = [mm] \bigcup_{k=0}^\infty \{X=k,Y=k\}$ [/mm]

Analog kannst du ja mal versuchen: $P(X > Y)$ darzustellen: Tipp: Dafür brauchst du zwei [mm] \bigcup [/mm]



> Meinst du am Anfang: [mm]P\left(X \ge n\right) = P\left(\bigcup_{l=n}^\infty \{X = l\}\right) = \summe_{l=n}^\infty P(X=l)=\summe_{l=n}^\infty P(X=n-1+l|X\ge n)[/mm]

[ok]
Und als Hilfestellung ignoriere das [mm] $|X\ge [/mm] n$ am Ende mal und füge das wieder zusammen, wie du es ohne die Bedingung tun würdest.
Das meinte ich mit dem Hinweis, dass die bedingte Wahrscheinlichkeit selbst wieder ein W-Maß ist. Für die Umformungen muss man die Bedingung nur mitschleppen und kann den vorderen Ausdruck wie bei einem normalen Maß umformen.

> Ich scheine immer wieder bei neuen Kapitel am Anfang an den Definitionen zu versagen... Ich bin immer verunsichert, wenn dann auf einmal gerechnet wird und will es in der Regel genau wissen, aber das scheint auf den ersten Blick
> immer schwierig zu sein. Hoffentlich legt sich das irgendwann....

Irgendwann kommen immer weniger Definitionen ;-)
Und wenn die alten dann sitzen, dann passt das schon.

Gruß,
Gono.

Bezug
                                                                        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:14 Mi 25.06.2014
Autor: James90

Hallo Gono :-)

> So langweilig fand ich die Gruppe gar nicht, waren viele
> schöne Tore dabei. Ich versuche einfach so weit wie
> möglich alle Spiele zu gucken.

Die europäischen Mannschaften scheinen insgesamt große Probleme mit dem südamerikanischem Klima zu haben. Die Griechen haben mich gestern verwundert. Das hätte ich denen nicht zugetraut. Frankreich scheint auch ohne Ribery klar zu kommen.

> > [mm]Geo_{p}(k)=p*(1-p)^{k-1}[/mm] mit [mm]\Omega=\IN[/mm] und [mm]p\in(0,1).[/mm]
>  Nochmal: Dein [mm]\Omega[/mm] ist im Allgemeinen nicht [mm]\IN[/mm]

In meinem Skript steht:

"Sei [mm] Geo_{p}(k)=p(1-p)^{k-1} [/mm] mit [mm] k\in\IN. [/mm] Die Verteilung auf [mm] \Omega=\IN [/mm] mit den Einzelwahrscheinlichkeiten [mm] Geo_{p} [/mm] heißt geometrische Verteilung mit Parameter [mm] p\in(0,1)." [/mm]

Also ist hier bei uns [mm] (\Omega,p) [/mm] ein diskreter Wahrscheinlichkeitsraum und wir betrachten das Wahrscheinlichkeitsmaß [mm] $Geo_{p}:\mathcal P(\Omega)\to[0,1]$. [/mm]

Gibt es hier eine Stelle in der ich irgendetwas gleich [mm] \IN [/mm] setzen könnte?

>  Mach dir klar, dass das dir eine Verteilung auf [mm]\IN = X(\Omega)[/mm]
> definiert, aber nicht auf [mm]\Omega[/mm]!

Ich bin noch immer nicht sicher. Mit der Definition vielleicht:

Sei X eine geometrisch verteilte Zufallsvariable. Dann ist mit [mm] (\IN=X(\Omega),p_X), [/mm] wobei [mm] p_X(x)=P(X=x), [/mm] ein diskreter Wahrscheinlichkeitsraum gegeben. Das induzierte Wahrscheinlichkeitsmaß [mm] $P\circ X^{-1}$ [/mm] mit [mm] $P\circ X^{-1}=\sum_{x\in A}p_X(x)$ [/mm] erfüllt [mm] $P\circ X^{-1}(A)=P(X\in [/mm] A) für alle [mm] $A\subseteq X(\Omega)$ [/mm] und wird die Verteilung von X genannt.

Wo genau gehört nun das [mm] P(X=k)=p(1-p)^{k-1} [/mm] hin? Hier müsste doch gelten: [mm] P\circ X^{-1}(k)=P(X=k) [/mm] mit [mm] $k\in A\subseteq X(\Omega)=\IN$, [/mm]
aber damit wäre [mm] P\circ X^{-1} [/mm] die geometrische Verteilung von X und nicht [mm] $p_X$ [/mm] und das ist anscheinend falsch.

Wo ist mein Denkfehler?

> Jein, nur wenn du sicherstellst, dass deine Indexmenge
> höchstens abzählbar ist.
>  Sollte das überabzählbar sein, bekommst du ein Problem.
> Das kann ich dir mal an "unserem" Beispiel erörtern:
>  
> [mm]X: \{K,Z\}^\IN \to \IN[/mm]
>  
> X sei der erste Erfolg von Zahl.
>  
> Was ist:[mm]\{X = 2\} = \left\{ (K,Z,\ldots) \in \{K,Z\}^\IN\right\} \cong \{K,Z\}^\IN[/mm]
>  
> Da [mm]\{K,Z\}^\IN[/mm] überabzählbar, ist also auch (jedes) [mm]\{X = k\}[/mm]
> überabzählbar.
>  Damit macht dein Ausdruck oben keinen Sinn mehr.

Ja, es geht bei uns immer "nur" um höchstens abzählbar unendlichen Mengen,
aber das Beispiel merke ich mir für die Zukunft.

> > Noch eine Frage: Wie kann ich mir dann z.B. sowas hier
> > vorstellen: P(X=Y), P(X>Y) oder P(X=Y=Z) vorstellen? (X,Y,Z
> > sind ZV). Ich meine P(X=k) ist sofort mit der Definition
> > gegeben. Falls X z.B. geometrisch verteilt ist, dann noch
> > besser, aber was passiert es geht doch auch hier eigentlich
> > um das Ereignis X=Y also P(X=k,Y=k) usw... Das aus der
> > Definition zu übertragen finde ich auch nicht so
> einfach..
>  
> Da du noch im diskreten Fall bist, ist das alles noch recht
> einfach.
>  Du hast ja schon erkannt, dass [mm]\{X=Y\}[/mm] einfach sowas ist
> wie [mm]\{X=k,Y=k\}[/mm] Allerdings musst du dafür natürlich alle
> möglichen Fälle für k durchlaufen, d.h. es gilt:
>  
> [mm]\{X=Y\} = \bigcup_{k=0}^\infty \{X=k,Y=k\}[/mm]

Achso, das ist echt Klasse!

Seien also X,Y zwei unabhängige, geometrisch auf [mm] \IN_0 [/mm] verteilte Zufallsvariablen, dann gilt:

[mm] P(X=Y)=P(\bigcup_{k\in\IN_0}\{X=k,Y=k\})=\sum_{k\in\IN_0}P(X=k,Y=k)=\sum_{k\in\IN_0}P(X=k)*P(Y=k)=\sum_{k\in\IN_0}p*(1-p)^{k}*p(1-p)^{k}=p^2\sum_{k\in\IN_0}((1-p)^2)^{k}=p^2*\frac{1}{1-(1-p)^2}=\frac{p}{2-p}. [/mm]

Ohne die Unabhängigkeit hat man hier also verloren. :-)

> Analog kannst du ja mal versuchen: [mm]P(X > Y)[/mm] darzustellen:
> Tipp: Dafür brauchst du zwei [mm]\bigcup[/mm]

Hier brauche ich noch einen Tipp, denn ich bin mir unsicher.

Eigentlich geht es ja um: [mm] X(\omega)>X(\omega) [/mm] mit [mm] \omega\in\Omega, [/mm] sodass sowas wie [mm] \{X>Y\}=\{X=k+1,Y=k\} [/mm] falsch wäre. Meinst du mit deinem Tipp wirklich zwei "große" [mm] \bigcup [/mm] oder vielleicht sowas wie [mm] \bigcup\ldots\cup\ldots [/mm] ? ich hoffe du weißt was ich meine.

> > Meinst du am Anfang: [mm]P\left(X \ge n\right) = P\left(\bigcup_{l=n}^\infty \{X = l\}\right) = \summe_{l=n}^\infty P(X=l)=\summe_{l=n}^\infty P(X=n-1+l|X\ge n)[/mm]
>
> [ok]
>  Und als Hilfestellung ignoriere das [mm]|X\ge n[/mm] am Ende mal
> und füge das wieder zusammen, wie du es ohne die Bedingung
> tun würdest.
>  Das meinte ich mit dem Hinweis, dass die bedingte
> Wahrscheinlichkeit selbst wieder ein W-Maß ist. Für die
> Umformungen muss man die Bedingung nur mitschleppen und
> kann den vorderen Ausdruck wie bei einem normalen Maß
> umformen.

Das habe ich nun hinbekommen, danke.

> Irgendwann kommen immer weniger Definitionen ;-)
>  Und wenn die alten dann sitzen, dann passt das schon.

Das gibt Hoffnung.

Vielen Dank nochmal für deine Hilfe Gono und tut mir leid, dass ich ein wenig länger brauche..

Bezug
                                                                                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 16:37 Mi 25.06.2014
Autor: Gonozal_IX

Hiho,

ich ordne deinen Beitrag mal ein bisschen um, damit das Antworten ein bisschen strukturierter wird:

> Wo ist mein Denkfehler?

Du hast den Denkfehler, dass du einen Denkfehler hast :-)
Aber machen wir langsam:

> Sei X eine geometrisch verteilte Zufallsvariable. Dann ist
> mit [mm](\IN=X(\Omega),p_X),[/mm] wobei [mm]p_X(x)=P(X=x),[/mm] ein diskreter
> Wahrscheinlichkeitsraum gegeben. Das induzierte
> Wahrscheinlichkeitsmaß [mm]$P\circ X^{-1}$[/mm] mit [mm]$P\circ X^{-1}=\sum_{x\in A}p_X(x)$[/mm]
> erfüllt [mm]$P\circ X^{-1}(A)=P(X\in[/mm] A) für alle [mm]$A\subseteq X(\Omega)$[/mm]
> und wird die Verteilung von X genannt.

[ok]


> Wo genau gehört nun das [mm]P(X=k)=p(1-p)^{k-1}[/mm] hin? Hier
> müsste doch gelten: [mm]P\circ X^{-1}(k)=P(X=k)[/mm] mit [mm]k\in A\subseteq X(\Omega)=\IN[/mm]

Soweit richtig, bis auf Notationsschlampigkeit: Es muss heißen  [mm]P\circ X^{-1}(\{k\})=P(X=k)[/mm]
  

> aber damit wäre [mm]P\circ X^{-1}[/mm] die geometrische Verteilung
> von X und nicht [mm]p_X[/mm] und das ist anscheinend falsch.

Warum sollte das falsch sein? Das ist doch dasselbe!
Das [mm] p_X [/mm] bestimmt das [mm] P\circ X^{-1} [/mm] eindeutig und umgekehrt. Hast du doch selbst hingeschrieben.

Nun zu dem etwas widersprüchlicherem Teil:

> "Sei [mm]Geo_{p}(k)=p(1-p)^{k-1}[/mm] mit [mm]k\in\IN.[/mm] Die Verteilung auf [mm]\Omega=\IN[/mm] mit den Einzelwahrscheinlichkeiten [mm]Geo_{p}[/mm] heißt geometrische Verteilung mit Parameter [mm]p\in(0,1)."[/mm]

Das widerspricht dem vorherigen ja nur auf den ersten Blick und liegt einfach an dem Aufschrieb: Natürlich ist die geometrische Verteilung eine Verteilung auf [mm] $\IN$. [/mm] Soweit solltest du das nun verstanden haben.

Wenn ich einen W-Raum angeben möchte in der Form [mm] $(\Omega,\IP)$ [/mm] (wie man einen W-Raum meistens nennt) ist natürlich [mm] $(\IN, Geo_{p})$ [/mm] ein solcher W-Raum mit [mm] $\Omega [/mm] = [mm] \IN$ [/mm] und [mm] $\IP [/mm] = [mm] Geo_p$. [/mm]

ABER: Im Zuge einer Zufallsvariable, die geometrisch verteilt ist, verwendet man [mm] \Omega [/mm] als Definitionsmenge, die Verteilung betrachtet man aber auf dem Bildraum.
Du bist hier also einfach dem selben Buchstaben für zwei verschiedene Dinge gescheitert.....


> Ja, es geht bei uns immer "nur" um höchstens abzählbar unendlichen Mengen, aber das Beispiel merke ich mir für die Zukunft.

Halt aufpassen: Was ist abzählbar? Der Bildraum oder das Model?

Nun wollte ich schreiben: Schon bei einem Modell wie dem Münzwurf "Wann kommt das erste Mal Zahl", hast du einen überabzählbaren Raum, weil [mm] $\{K,Z\}^\IN \cong \IR$. [/mm] Das war ja das Modell, was ich gewählt hatte.

Aber: Man kann ausgerechnet diese Aufgabe auch in einem abzählbaren Raum modellieren. Eine Idee, welchen? :-)

> Seien also X,Y zwei unabhängige, geometrisch auf [mm]\IN_0[/mm]
> verteilte Zufallsvariablen, dann gilt:
>  
> [mm]P(X=Y)=P(\bigcup_{k\in\IN_0}\{X=k,Y=k\})=\sum_{k\in\IN_0}P(X=k,Y=k)=\sum_{k\in\IN_0}P(X=k)*P(Y=k)=\sum_{k\in\IN_0}p*(1-p)^{k}*p(1-p)^{k}=p^2\sum_{k\in\IN_0}((1-p)^2)^{k}=p^2*\frac{1}{1-(1-p)^2}=\frac{p}{2-p}.[/mm]
>  
> Ohne die Unabhängigkeit hat man hier also verloren. :-)

[ok]  

> > Analog kannst du ja mal versuchen: [mm]P(X > Y)[/mm] darzustellen:
> > Tipp: Dafür brauchst du zwei [mm]\bigcup[/mm]
>  
> Hier brauche ich noch einen Tipp, denn ich bin mir unsicher.
>  
> Eigentlich geht es ja um: [mm]X(\omega)>X(\omega)[/mm] mit
> [mm]\omega\in\Omega,[/mm] sodass sowas wie [mm]\{X>Y\}=\{X=k+1,Y=k\}[/mm] falsch wäre.

Ja, das ist aber nur falsch, weil du die Hälfte vergessen hast. Was ist denn mit X=k+2? Gilt dann nicht X>Y wenn Y=k ?
Oder X=k+200?

Ich denke du verstehst, wo ich drauf hinaus will....

Gruß,
Gono.

Bezug
                                                                                        
Bezug
Geometrische Verteilung: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:12 Mi 25.06.2014
Autor: James90


> > Sei X eine geometrisch verteilte Zufallsvariable. Dann ist
> > mit [mm](\IN=X(\Omega),p_X),[/mm] wobei [mm]p_X(x)=P(X=x),[/mm] ein diskreter
> > Wahrscheinlichkeitsraum gegeben. Das induzierte
> > Wahrscheinlichkeitsmaß [mm]$P\circ X^{-1}$[/mm] mit [mm]$P\circ X^{-1}=\sum_{x\in A}p_X(x)$[/mm]
> > erfüllt [mm]$P\circ X^{-1}(A)=P(X\in[/mm] A) für alle [mm]$A\subseteq X(\Omega)$[/mm]
> > und wird die Verteilung von X genannt.
>  [ok]
>  
>
> > Wo genau gehört nun das [mm]P(X=k)=p(1-p)^{k-1}[/mm] hin? Hier
> > müsste doch gelten: [mm]P\circ X^{-1}(k)=P(X=k)[/mm] mit [mm]k\in A\subseteq X(\Omega)=\IN[/mm]
>  
> Soweit richtig, bis auf Notationsschlampigkeit: Es muss
> heißen  [mm]P\circ X^{-1}(\{k\})=P(X=k)[/mm]

Stimmt, danke!
  

> > aber damit wäre [mm]P\circ X^{-1}[/mm] die geometrische Verteilung
> > von X und nicht [mm]p_X[/mm] und das ist anscheinend falsch.
>  
> Warum sollte das falsch sein? Das ist doch dasselbe!
>  Das [mm]p_X[/mm] bestimmt das [mm]P\circ X^{-1}[/mm] eindeutig und
> umgekehrt. Hast du doch selbst hingeschrieben.

Achso! Wegen der Eindeutigkeit gilt hier: [mm] p_X(k)=P(X=k)=P\circ X^{-1}(\{k\}) [/mm] für alle [mm] k\in\IN, [/mm] richtig?

> Nun zu dem etwas widersprüchlicherem Teil:
>  > "Sei [mm]Geo_{p}(k)=p(1-p)^{k-1}[/mm] mit [mm]k\in\IN.[/mm] Die Verteilung

> auf [mm]\Omega=\IN[/mm] mit den Einzelwahrscheinlichkeiten [mm]Geo_{p}[/mm]
> heißt geometrische Verteilung mit Parameter [mm]p\in(0,1)."[/mm]
>  
> Das widerspricht dem vorherigen ja nur auf den ersten Blick
> und liegt einfach an dem Aufschrieb: Natürlich ist die
> geometrische Verteilung eine Verteilung auf [mm]\IN[/mm]. Soweit
> solltest du das nun verstanden haben.
>  
> Wenn ich einen W-Raum angeben möchte in der Form
> [mm](\Omega,\IP)[/mm] (wie man einen W-Raum meistens nennt) ist
> natürlich [mm](\IN, Geo_{p})[/mm] ein solcher W-Raum mit [mm]\Omega = \IN[/mm]
> und [mm]\IP = Geo_p[/mm].
>  
> ABER: Im Zuge einer Zufallsvariable, die geometrisch
> verteilt ist, verwendet man [mm]\Omega[/mm] als Definitionsmenge,
> die Verteilung betrachtet man aber auf dem Bildraum.
>  Du bist hier also einfach dem selben Buchstaben für zwei
> verschiedene Dinge gescheitert.....

Ich glaube ich habe es verstanden.

Wir haben definiert:
"Jede Abbildung [mm] X\colon\Omega\to\IR" [/mm] heißt reellwertige Zufallsvariable"

Jetzt definieren wir, etwas allgemeiner:
"Jede Abbildung [mm] X\colon\Omega\to [/mm] M", wobei M endlich oder höchstens abzählbar unendlich ist heißt Zufallsvariable".

Wenn nun X geometrisch auf [mm] \IN_0 [/mm] geometrisch verteilt ist, dann heißt es (und das hast du mir schon weiter oben aufgeschrieben) [mm] X\colon\Omega\to\IN_0, [/mm] denn hier gilt: [mm] M:=\IN_0. [/mm]

Wenn wir nun die Verteilung dieser Zufallsvariable betrachten wollen, dann ist [mm] \Omega [/mm] natürlich unser Definitionsbereich und [mm] \IN_0 [/mm] unser Wertebereich (oder wie du sagst: Bildraum).
Das heißt: Beim dazugehörigen diskreten Wahrscheinlichkeitsraum [mm] (X(\Omega),p_X) [/mm] hat [mm] \Omega [/mm] gar nichts mehr mit irgendeinem diskreten Wahrscheinlichkeitsraum [mm] (\Omega,p) [/mm] zutun, sondern es gilt hier: [mm] X(\Omega)=M=\IN_0. [/mm]

Mit anderen Worten: Eine Aussage der Form "Sei X eine Zufallsvariable" macht keinen Sinn, denn wir benötigen immer einen Wertebereich, sodass die Verteilung einer Zufallsvariable auch eindeutig bestimmt ist.

Jetzt macht auch endlich [mm] X(\Omega)=\{X(\omega)\in\IR:\omega\in\Omega\} [/mm] bzw. [mm] X(\Omega)=\{X(\omega)\in M:\omega\in\Omega\} [/mm] hier Sinn.

Ist das nun richtig? :-)

> > Ja, es geht bei uns immer "nur" um höchstens abzählbar
> unendlichen Mengen, aber das Beispiel merke ich mir für
> die Zukunft.
>  
> Halt aufpassen: Was ist abzählbar? Der Bildraum oder das
> Model?

Hmm, was meinst du mit Model genau? Ich habe das von dir wie folgt aufgeschnappt:
Sei X eine Zufallsvariable auf M, d.h. [mm] $X\colon\Omega\to [/mm] M$.

Das heißt, dass wir M wählen.

Wenn wir nun M endlich wählen, dann darf [mm] \Omega [/mm] höchstens abzählbar unendlich sein.

Wenn wir nun M höchstens abzählbar unendlich wählen, dann muss [mm] \Omega [/mm] auch höchstens abzählbar unendlich sein.

Das heißt: Wir dürfen M nur wählen, wenn wir [mm] \Omega [/mm] kennen. Die Frage ist: Woher kommt das Omega?
  

> Nun wollte ich schreiben: Schon bei einem Modell wie dem
> Münzwurf "Wann kommt das erste Mal Zahl", hast du einen
> überabzählbaren Raum, weil [mm]\{K,Z\}^\IN \cong \IR[/mm]. Das war
> ja das Modell, was ich gewählt hatte.
> Aber: Man kann ausgerechnet diese Aufgabe auch in einem
> abzählbaren Raum modellieren. Eine Idee, welchen? :-)

Ich vermute: [mm] \Omega=\{K,Z\}^k, [/mm] denn das erinnert an ein Bernoulli-Experiment der Länge n, wobei dort [mm] \Omega=\{0,1\}^n [/mm] ist.

> > Seien also X,Y zwei unabhängige, geometrisch auf [mm]\IN_0[/mm]
> > verteilte Zufallsvariablen, dann gilt:
>  >  
> >
> [mm]P(X=Y)=P(\bigcup_{k\in\IN_0}\{X=k,Y=k\})=\sum_{k\in\IN_0}P(X=k,Y=k)=\sum_{k\in\IN_0}P(X=k)*P(Y=k)=\sum_{k\in\IN_0}p*(1-p)^{k}*p(1-p)^{k}=p^2\sum_{k\in\IN_0}((1-p)^2)^{k}=p^2*\frac{1}{1-(1-p)^2}=\frac{p}{2-p}.[/mm]
>  >  
> > Ohne die Unabhängigkeit hat man hier also verloren. :-)
>  
> [ok]  
>
> > > Analog kannst du ja mal versuchen: [mm]P(X > Y)[/mm] darzustellen:
> > > Tipp: Dafür brauchst du zwei [mm]\bigcup[/mm]
>  >  
> > Hier brauche ich noch einen Tipp, denn ich bin mir
> unsicher.
>  >  
> > Eigentlich geht es ja um: [mm]X(\omega)>X(\omega)[/mm] mit
> > [mm]\omega\in\Omega,[/mm] sodass sowas wie [mm]\{X>Y\}=\{X=k+1,Y=k\}[/mm]
> falsch wäre.
>
> Ja, das ist aber nur falsch, weil du die Hälfte vergessen
> hast. Was ist denn mit X=k+2? Gilt dann nicht X>Y wenn Y=k
> ?
>  Oder X=k+200?
>  
> Ich denke du verstehst, wo ich drauf hinaus will....

Neuer Versuch:

Seien X,Y unabhängige, geometrisch auf [mm] \IN_0 [/mm] verteilte Zuvallsvariablen, dann gilt:

[mm] \{X>Y\}=\bigcup_{k\in\IN_0}\left(\bigcup_{l\in\IN}\{X=k+l,Y=k\}\right). [/mm]

Damit erhalten wir:

[mm] P(\{X>Y\})=\sum_{k\in\IN_0}\left(P(\bigcup_{l\in\IN}\{X=k+l,Y=k\})\right)=\sum_{k\in\IN_0}\sum_{l\in\IN}P(\{X=k+l,Y=k\})=\sum_{k\in\IN_0}\sum_{l\in\IN}P(X=k+l)*P(Y=k)=\sum_{k\in\IN_0}P(Y=k)\sum_{l\in\IN}P(X=k+l)= [/mm]

[mm] =\sum_{k\in\IN_0}p(1-p)^{k}\sum_{l\in\IN}p(1-p)^{k+l}=p^2\sum_{k\in\IN_0}(1-p)^{k}(1-p)^k\sum_{l\in\IN}(1-p)^{l}=p^2\sum_{k\in\IN_0}((1-p)^2)^k*\frac{1-p}{p}=(1-p)*p\sum_{k\in\IN_0}((1-p)^2)^k=(1-p)*p*\frac{1}{p(2-p)}=\frac{1-p}{2-p}. [/mm]

Stimmt das etwa? :-)


Danke Dir nochmal für deine Mühe lieber Gono! Ich habe wirklich sehr viel von dir gelernt.

Bezug
                                                                                                
Bezug
Geometrische Verteilung: Antwort
Status: (Antwort) fertig Status 
Datum: 11:53 Do 26.06.2014
Autor: Gonozal_IX

Hiho,

> Achso! Wegen der Eindeutigkeit gilt hier:
> [mm]p_X(k)=P(X=k)=P\circ X^{-1}(\{k\})[/mm] für alle [mm]k\in\IN,[/mm]

Naja, es gilt halt. Aber warum wegen der Eindeutigkeit?
Es folgt ja sofort aus der Definition:
[mm] $P\circ X^{-1}(\{k\}) [/mm] = [mm] \summe_{x \in \{k\}} p_X(x) [/mm] = [mm] p_X(k)$ [/mm]

> Wir haben definiert:
>  "Jede Abbildung [mm]X\colon\Omega\to\IR"[/mm] heißt reellwertige Zufallsvariable"

Stimmt so nicht, X muss noch meßbar sein, aber wenn du das noch nicht hattest, werdet ihr wohl nur solche X behandeln :-)

> Jetzt definieren wir, etwas allgemeiner:
>  "Jede Abbildung [mm]X\colon\Omega\to[/mm] M", wobei M endlich oder
> höchstens abzählbar unendlich ist heißt Zufallsvariable".

Ihr definiert hier nicht allgemeiner, sondern spezieller. Und ich hoffe, du hast nur das Wort "diskrete" vergessen :-)

> Wenn nun X geometrisch auf [mm]\IN_0[/mm] geometrisch verteilt ist,
> dann heißt es (und das hast du mir schon weiter oben aufgeschrieben) [mm]X\colon\Omega\to\IN_0,[/mm] denn hier gilt:
> [mm]M:=\IN_0.[/mm]

[ok]

> Wenn wir nun die Verteilung dieser Zufallsvariable
> betrachten wollen, dann ist [mm]\Omega[/mm] natürlich unser
> Definitionsbereich und [mm]\IN_0[/mm] unser Wertebereich (oder wie
> du sagst: Bildraum).

Ja, aber aufpassen: Wertebereich != Bildraum
Der Wertebereich ist [mm] X(\Omega) [/mm] für den Bildraum gilt nur, dass [mm] X(\Omega) [/mm] eine Teilmenge ist. Es kann nicht erreichte Werte geben, deren W-Keit ist dann halt nur einfach Null.
Also kann Gleichheit durchaus angenommen werden, formal ist das aber was anderes.

>  Das heißt: Beim dazugehörigen diskreten Wahrscheinlichkeitsraum [mm](X(\Omega),p_X)[/mm] hat [mm]\Omega[/mm] gar nichts mehr mit irgendeinem diskreten Wahrscheinlichkeitsraum [mm](\Omega,p)[/mm] zutun, sondern es gilt hier: [mm]X(\Omega)=M=\IN_0.[/mm]

Generell ja. Aber mach dir mal klar: Ist das [mm] \Omega [/mm] selbst schon höchstens abzählbar, so auch [mm] $X(\Omega)$. [/mm] D.h. man kann durchaus fordern, dass [mm] \Omega [/mm] abzählbar ist, allerdings ist das eine stärkerer Forderung und nur ein Spezialfall von dem obigen.
Allerdings scheint ihr ja (wie durch die EW-Aufgabe klar wurde) euch erstmal auf abzählbare [mm] \Omega [/mm] zu beschränken, so dass dein M daraus folgend ebenfalls immer abzählbar ist. Aber aufpassen: Die Umkehrung muss nicht gelten!

> Mit anderen Worten: Eine Aussage der Form "Sei X eine
> Zufallsvariable" macht keinen Sinn, denn wir benötigen
> immer einen Wertebereich, sodass die Verteilung einer
> Zufallsvariable auch eindeutig bestimmt ist.

Auch hier: Nicht so schnell. Die Aussage "Sei X eine Zufallsvariable" macht sehr wohl Sinn, denn sie beinhaltet schon eine Menge an Informationen. Sie sagt nämlich, dass X eine meßbare Abbildung zwischen zwei Räumen ist und das ist schon einiges.
Allerdings gibt uns diese Aussage keinerlei Informationen über die Verteilung der Zufallsvariable. Dafür benötigt man mehr Informationen.


> Jetzt macht auch endlich
> [mm]X(\Omega)=\{X(\omega)\in\IR:\omega\in\Omega\}[/mm] bzw.
> [mm]X(\Omega)=\{X(\omega)\in M:\omega\in\Omega\}[/mm] hier Sinn.
>  
> Ist das nun richtig? :-)

Ja.

> Hmm, was meinst du mit Model genau? Ich habe das von dir
> wie folgt aufgeschnappt:
>  Sei X eine Zufallsvariable auf M, d.h. [mm]X\colon\Omega\to M[/mm].
>  
> Das heißt, dass wir M wählen.
>  
> Wenn wir nun M endlich wählen, dann darf [mm]\Omega[/mm] höchstens
> abzählbar unendlich sein.

Wie kommst du darauf?

> Wenn wir nun M höchstens abzählbar unendlich wählen,
> dann muss [mm]\Omega[/mm] auch höchstens abzählbar unendlich
> sein.

Wieso?

> Das heißt: Wir dürfen M nur wählen, wenn wir [mm]\Omega[/mm]
> kennen. Die Frage ist: Woher kommt das Omega?

Ok, also mal ein bisschen Wahrscheinlichkeitstheorie:

1.) Du betrachtest ein Zufallsexperiment und möchtest davon ein bestimmtes Ergebnis ablesen.
2.) Alle möglichen Ausgänge, die möglich sind, werden durch dein [mm] \Omega [/mm] beschrieben.
3.) Alle möglichen Ergebnisse werden durch dein M beschrieben
4.) Deine Zufallsvariable ist nun gerade die Abbildung "Ausgang [mm] \mapsto [/mm] Ergebnis"

An unserem Beispiel: Wir betrachten einen Münzwurf und wollen beobachten, wann zum ersten Mal Zahl kommt.
Erst einmal ist klar, dass unser Ergebnisraum [mm] \IN [/mm] ist und es irgendwie keine obere Grenze für die Anzahl an möglichen Würfen gibt, d.h. wir müssen berücksichtigen, dass es auch Experimente geben kann mit "unendlich Mal Kopf".

Mögliche Modelle wären dafür z.B. (Ich wähle Kopf=0, Zahl=1)

1.) Wir betrachten einfach alle unendlichen Münzwurfreihen: [mm] $\Omega_1 [/mm] = [mm] \{0,1\}^\IN$. [/mm] Ein [mm] \omega [/mm] hätten dann bspw die Form [mm] $\omega [/mm] = [mm] (0,0,1,1,1,0,0,1,\ldots)$. [/mm] Sie sind also unendlich Lange Tupel.

Und unser Modell wäre komplett mit der Abbildung: [mm] $X(\omega) [/mm] = [mm] \inf\{j: \omega_j = 1\}$ [/mm]
Unser X liefert uns also das kleinste j für das [mm] $\omega_j [/mm] = 1$ ist, also den ersten Zahlwurf.


2.) Obiges Modell hat aber einen gehörigen "Overhead", d.h. wir betrachten ja immer die Münzwürfe auch weiter, selbst wenn uns gar nicht mehr interessiert, was danach passiert. Folgendes Modell hat das nicht:

Sei [mm] $\omega_n [/mm] =  [mm] \underbrace{(0,0,0,\ldots, 1)}_{\text{n Würfe}}$ [/mm]
Also eine Wurffolge der Länge n, wo erst beim n-ten Wurf Zahl kommt, sonst vorher nur Kopf.

Dann liefert auch [mm] $\Omega_2 [/mm] = [mm] \bigcup_{n\in\IN}\{\omega_n\}$ [/mm] ein Modell für unseren Versuch (wir hören nämlich auf, wenn mal Zahl gefallen ist.)

Unser [mm] \Omega [/mm] besteht jetzt also aus allen Wurfabfolgen, wo am Anfang nur Kopf fällt und irgendwann einmal Zahl.

Hier wäre natürlich auch unser X von vorher möglich als Zufallsvariable, aber auch [mm] $X(\omega_n) [/mm] = n$ würde gehen (natürlich sind beide Zufallsvariablen identisch und nur anders aufgeschrieben ;-))

Nun zwei kleine Verständnisfragen: Ist die klar, dass sich [mm] \Omega_1 [/mm] und [mm] \Omega_2 [/mm] unterscheiden? Und was ist der gewaltigste Unterschied zwischen beiden?
Und wenn [mm] \Omega_1 [/mm] und [mm] \Omega_2 [/mm] unterschiedlich sind, aber beide durch dieselbe Zufallsvariable X auf [mm] \IN [/mm] abgebildet werden, das Bildmaß [mm] p_X [/mm] aber bei beiden Modellen das selbe ist, was ist bei den beiden Maßräumen dann auch definitiv unterschiedlich?

> Ich vermute: [mm]\Omega=\{K,Z\}^k,[/mm] denn das erinnert an ein
> Bernoulli-Experiment der Länge n, wobei dort [mm]\Omega=\{0,1\}^n[/mm] ist.

Ja, aber wie du an [mm] \Omega_2 [/mm] siehst, können wir das sogar noch mehr eisnchränken, in dem wir die "überflüssigen" Tupel weg lassen ;-)
Aber die Idee war schon nicht schlecht.

> Neuer Versuch:
>  
> Seien X,Y unabhängige, geometrisch auf [mm]\IN_0[/mm] verteilte
> Zuvallsvariablen, dann gilt:
>  
> [mm]\{X>Y\}=\bigcup_{k\in\IN_0}\left(\bigcup_{l\in\IN}\{X=k+l,Y=k\}\right).[/mm]
>  
> Damit erhalten wir:
>  
> [mm]P(\{X>Y\})=\sum_{k\in\IN_0}\left(P(\bigcup_{l\in\IN}\{X=k+l,Y=k\})\right)=\sum_{k\in\IN_0}\sum_{l\in\IN}P(\{X=k+l,Y=k\})=\sum_{k\in\IN_0}\sum_{l\in\IN}P(X=k+l)*P(Y=k)=\sum_{k\in\IN_0}P(Y=k)\sum_{l\in\IN}P(X=k+l)=[/mm]
>  
> [mm]=\sum_{k\in\IN_0}p(1-p)^{k}\sum_{l\in\IN}p(1-p)^{k+l}=p^2\sum_{k\in\IN_0}(1-p)^{k}(1-p)^k\sum_{l\in\IN}(1-p)^{l}=p^2\sum_{k\in\IN_0}((1-p)^2)^k*\frac{1-p}{p}=(1-p)*p\sum_{k\in\IN_0}((1-p)^2)^k=(1-p)*p*\frac{1}{p(2-p)}=\frac{1-p}{2-p}.[/mm]
>  
> Stimmt das etwa? :-)

Ich hab das nach dem Einsetzen der W-Keiten nicht mehr nachgerechnet, aber ich gehe mal davon aus, dass du mit der geometrischen Reihe jetzt umgehen kannst ;-)
Bis dahin war es zumindest richtig.

Gruß,
Gono.

Bezug
                                                                                                        
Bezug
Geometrische Verteilung: Frage (überfällig)
Status: (Frage) überfällig Status 
Datum: 16:47 Do 26.06.2014
Autor: James90

Danke für deine Ausführung Gono!

> > Achso! Wegen der Eindeutigkeit gilt hier:
> > [mm]p_X(k)=P(X=k)=P\circ X^{-1}(\{k\})[/mm] für alle [mm]k\in\IN,[/mm]
>  
> Naja, es gilt halt. Aber warum wegen der Eindeutigkeit?
> Es folgt ja sofort aus der Definition:
>  [mm]P\circ X^{-1}(\{k\}) = \summe_{x \in \{k\}} p_X(x) = p_X(k)[/mm]

Das letzte [mm] p_X(k) [/mm] habe ich so noch nicht gesehen.

Mit Eindeutigkeit meine ich folgendes: Die Verteilung von X bzw. das induzierte Wahrscheinlichkeitsmaß [mm] P\circ X^{-1} [/mm]
mit [mm] P\circ X^{-1}(A)=\sum_{x\in A}p_X(x) [/mm] erfüllt [mm] P\circ X^{-1}(A)=P(X\in [/mm] A) für alle [mm] $A\subseteq X(\Omega)$. [/mm]
Hier gilt nun [mm] A=\{k\} [/mm] und [mm] |A|=|\{k\}|=1, [/mm] sodass wir erhalten: $ [mm] P\circ X^{-1}(\{k\}) [/mm] = [mm] \summe_{x \in \{k\}} p_X(x) [/mm] = P(X=k)) $ und damit ist es eindeutig bestimmt.

> > Wir haben definiert:
>  >  "Jede Abbildung [mm]X\colon\Omega\to\IR"[/mm] heißt
> reellwertige Zufallsvariable"
>  
> Stimmt so nicht, X muss noch meßbar sein, aber wenn du das
> noch nicht hattest, werdet ihr wohl nur solche X behandeln
> :-)

Nächstes Semester Gono. :-)

> > Jetzt definieren wir, etwas allgemeiner:
>  >  "Jede Abbildung [mm]X\colon\Omega\to[/mm] M", wobei M endlich
> oder
> > höchstens abzählbar unendlich ist heißt
> Zufallsvariable".
>  
> Ihr definiert hier nicht allgemeiner, sondern spezieller.
> Und ich hoffe, du hast nur das Wort "diskrete" vergessen
> :-)

Das habe ich mir selbst definiert, damit ich deine Argumentation verstehe.
Das Wort "diskret" ist bislang nur in Kombination mit Wahrscheinlichkeitsraum gefallen.

> > Wenn nun X geometrisch auf [mm]\IN_0[/mm] geometrisch verteilt ist,
> > dann heißt es (und das hast du mir schon weiter oben
> aufgeschrieben) [mm]X\colon\Omega\to\IN_0,[/mm] denn hier gilt:
> > [mm]M:=\IN_0.[/mm]
>  
> [ok]
>  
> > Wenn wir nun die Verteilung dieser Zufallsvariable
> > betrachten wollen, dann ist [mm]\Omega[/mm] natürlich unser
> > Definitionsbereich und [mm]\IN_0[/mm] unser Wertebereich (oder wie
> > du sagst: Bildraum).
>  
> Ja, aber aufpassen: Wertebereich != Bildraum
>  Der Wertebereich ist [mm]X(\Omega)[/mm] für den Bildraum gilt nur,
> dass [mm]X(\Omega)[/mm] eine Teilmenge ist. Es kann nicht erreichte
> Werte geben, deren W-Keit ist dann halt nur einfach Null.
>  Also kann Gleichheit durchaus angenommen werden, formal
> ist das aber was anderes.

Okay, danke.

> >  Das heißt: Beim dazugehörigen diskreten

> Wahrscheinlichkeitsraum [mm](X(\Omega),p_X)[/mm] hat [mm]\Omega[/mm] gar
> nichts mehr mit irgendeinem diskreten
> Wahrscheinlichkeitsraum [mm](\Omega,p)[/mm] zutun, sondern es gilt
> hier: [mm]X(\Omega)=M=\IN_0.[/mm]
>  
> Generell ja. Aber mach dir mal klar: Ist das [mm]\Omega[/mm] selbst
> schon höchstens abzählbar, so auch [mm]X(\Omega)[/mm]. D.h. man
> kann durchaus fordern, dass [mm]\Omega[/mm] abzählbar ist,
> allerdings ist das eine stärkerer Forderung und nur ein
> Spezialfall von dem obigen.
>  Allerdings scheint ihr ja (wie durch die EW-Aufgabe klar
> wurde) euch erstmal auf abzählbare [mm]\Omega[/mm] zu beschränken,
> so dass dein M daraus folgend ebenfalls immer abzählbar
> ist. Aber aufpassen: Die Umkehrung muss nicht gelten!
>  
> > Mit anderen Worten: Eine Aussage der Form "Sei X eine
> > Zufallsvariable" macht keinen Sinn, denn wir benötigen
> > immer einen Wertebereich, sodass die Verteilung einer
> > Zufallsvariable auch eindeutig bestimmt ist.
>  
> Auch hier: Nicht so schnell. Die Aussage "Sei X eine
> Zufallsvariable" macht sehr wohl Sinn, denn sie beinhaltet
> schon eine Menge an Informationen. Sie sagt nämlich, dass
> X eine meßbare Abbildung zwischen zwei Räumen ist und das
> ist schon einiges.
>  Allerdings gibt uns diese Aussage keinerlei Informationen
> über die Verteilung der Zufallsvariable. Dafür benötigt
> man mehr Informationen.

Okay, ich verstehe.

> > Jetzt macht auch endlich
> > [mm]X(\Omega)=\{X(\omega)\in\IR:\omega\in\Omega\}[/mm] bzw.
> > [mm]X(\Omega)=\{X(\omega)\in M:\omega\in\Omega\}[/mm] hier Sinn.
>  >  
> > Ist das nun richtig? :-)
>  
> Ja.
>  
> > Hmm, was meinst du mit Model genau? Ich habe das von dir
> > wie folgt aufgeschnappt:
>  >  Sei X eine Zufallsvariable auf M, d.h. [mm]X\colon\Omega\to M[/mm].
>  
> >  

> > Das heißt, dass wir M wählen.
>  >  
> > Wenn wir nun M endlich wählen, dann darf [mm]\Omega[/mm] höchstens
> > abzählbar unendlich sein.
>  
> Wie kommst du darauf?
>  
> > Wenn wir nun M höchstens abzählbar unendlich wählen,
> > dann muss [mm]\Omega[/mm] auch höchstens abzählbar unendlich
> > sein.
>  
> Wieso?

Du hattest geschrieben: "Nein, aber mach dir mal klar, dass du nur eine Verteilung auf einer unendlichen Menge haben kannst, wenn dein $ [mm] \Omega [/mm] $ auch unendlich ist."

Ich gehe davon aus, dass wir beim Wählen einer Zufallsvariable wegen [mm] \Omega [/mm] beschränkt sind. Wir können zum Beispiel keine Verteilung auf einer unendlichen Menge wählen, wenn [mm] \Omega [/mm] selbst endlich ist.

> > Das heißt: Wir dürfen M nur wählen, wenn wir [mm]\Omega[/mm]
> > kennen. Die Frage ist: Woher kommt das Omega?
>  
> Ok, also mal ein bisschen Wahrscheinlichkeitstheorie:
>
> 1.) Du betrachtest ein Zufallsexperiment und möchtest
> davon ein bestimmtes Ergebnis ablesen.
>  2.) Alle möglichen Ausgänge, die möglich sind, werden
> durch dein [mm]\Omega[/mm] beschrieben.
> 3.) Alle möglichen Ergebnisse werden durch dein M
> beschrieben
>  4.) Deine Zufallsvariable ist nun gerade die Abbildung
> "Ausgang [mm]\mapsto[/mm] Ergebnis"
>  
> An unserem Beispiel: Wir betrachten einen Münzwurf und
> wollen beobachten, wann zum ersten Mal Zahl kommt.
>  Erst einmal ist klar, dass unser Ergebnisraum [mm]\IN[/mm] ist und
> es irgendwie keine obere Grenze für die Anzahl an
> möglichen Würfen gibt, d.h. wir müssen berücksichtigen,
> dass es auch Experimente geben kann mit "unendlich Mal
> Kopf".
>  
> Mögliche Modelle wären dafür z.B. (Ich wähle Kopf=0,
> Zahl=1)
>  
> 1.) Wir betrachten einfach alle unendlichen
> Münzwurfreihen: [mm]\Omega_1 = \{0,1\}^\IN[/mm]. Ein [mm]\omega[/mm] hätten
> dann bspw die Form [mm]\omega = (0,0,1,1,1,0,0,1,\ldots)[/mm]. Sie
> sind also unendlich Lange Tupel.
>  
> Und unser Modell wäre komplett mit der Abbildung:
> [mm]X(\omega) = \inf\{j: \omega_j = 1\}[/mm]
>  Unser X liefert uns
> also das kleinste j für das [mm]\omega_j = 1[/mm] ist, also den
> ersten Zahlwurf.
>  
>
> 2.) Obiges Modell hat aber einen gehörigen "Overhead",
> d.h. wir betrachten ja immer die Münzwürfe auch weiter,
> selbst wenn uns gar nicht mehr interessiert, was danach
> passiert. Folgendes Modell hat das nicht:
>
> Sei [mm]\omega_n = \underbrace{(0,0,0,\ldots, 1)}_{\text{n Würfe}}[/mm]
>  
> Also eine Wurffolge der Länge n, wo erst beim n-ten Wurf
> Zahl kommt, sonst vorher nur Kopf.
>  
> Dann liefert auch [mm]\Omega_2 = \bigcup_{n\in\IN}\{\omega_n\}[/mm]
> ein Modell für unseren Versuch (wir hören nämlich auf,
> wenn mal Zahl gefallen ist.)
>  
> Unser [mm]\Omega[/mm] besteht jetzt also aus allen Wurfabfolgen, wo
> am Anfang nur Kopf fällt und irgendwann einmal Zahl.
>  
> Hier wäre natürlich auch unser X von vorher möglich als
> Zufallsvariable, aber auch [mm]X(\omega_n) = n[/mm] würde gehen
> (natürlich sind beide Zufallsvariablen identisch und nur
> anders aufgeschrieben ;-))

Alles verstanden. Vielen Dank für das Beispiel. Das hilft mir auch bei der Schreibweise sehr.

> Nun zwei kleine Verständnisfragen: Ist die klar, dass sich
> [mm]\Omega_1[/mm] und [mm]\Omega_2[/mm] unterscheiden? Und was ist der
> gewaltigste Unterschied zwischen beiden?

Bei [mm] \Omega_2 [/mm] betrachten wir genau was wir brauchen und bei [mm] \Omega_1 [/mm] ist das eben nicht der Fall. Zum Beispiel sei das Elementarereignis [mm] \omega_1:=(1,0,1)\in\Omega_1 [/mm] gegeben, dann hilft uns aber [mm] \omega_1 [/mm] bei unserem "Problem" nicht und viel wichtiger: Es existiert auch nicht in [mm] \Omega_2, [/mm] also [mm] \omega_1\not\in\Omega_2, [/mm] denn der "Vektor" beginnt mit 1 und das ist bei [mm] \Omega_2 [/mm] nicht erfüllt. Insgesamt gilt [mm] \Omega_2\subset\Omega_1. [/mm]
Beim Programmieren würde man sagen, dass das zweite Model effizienter ist, denn es würde weniger Speicherplatz verbrauchen und schneller zum Ergebnis führen, wobei man hier natürlich aufpassen muss beim ersten Model, aber das kann man ja mit [mm] \tilde{\Omega_1}:=\{0,1\}^n [/mm] retten.

>  Und wenn [mm]\Omega_1[/mm] und [mm]\Omega_2[/mm] unterschiedlich sind, aber
> beide durch dieselbe Zufallsvariable X auf [mm]\IN[/mm] abgebildet
> werden, das Bildmaß [mm]p_X[/mm] aber bei beiden Modellen das selbe
> ist, was ist bei den beiden Maßräumen dann auch definitiv
> unterschiedlich?

Das mit Maßräumen verstehe ich nicht, aber ich schreibe auf was ich verstanden habe:

[mm] \Omega_1\not=\Omega_2: [/mm]

[mm] X\colon\Omega_1\to\IN [/mm]
[mm] X\colon\Omega_2\to\IN [/mm]

[mm] X(\omega)=n [/mm] für alle [mm] \omega\in\Omega_1, [/mm] d.h. wegen [mm] \Omega_2\subset\Omega_1 [/mm] natürlich auch für alle [mm] \omega\in\Omega_2. [/mm]

Frage: Bei beiden Modellen befinden wir uns in [mm] (X(\Omega),p_X)=(\IN,p_X), [/mm] richtig?

> > Ich vermute: [mm]\Omega=\{K,Z\}^k,[/mm] denn das erinnert an ein
> > Bernoulli-Experiment der Länge n, wobei dort
> [mm]\Omega=\{0,1\}^n[/mm] ist.
>  
> Ja, aber wie du an [mm]\Omega_2[/mm] siehst, können wir das sogar
> noch mehr eisnchränken, in dem wir die "überflüssigen"
> Tupel weg lassen ;-)

Japp. :-)

>  Aber die Idee war schon nicht schlecht.

Dein Model ist trotzdem viel besser. ;-)

> > Neuer Versuch:
>  >  
> > Seien X,Y unabhängige, geometrisch auf [mm]\IN_0[/mm] verteilte
> > Zuvallsvariablen, dann gilt:
>  >  
> >
> [mm]\{X>Y\}=\bigcup_{k\in\IN_0}\left(\bigcup_{l\in\IN}\{X=k+l,Y=k\}\right).[/mm]
>  >  
> > Damit erhalten wir:
>  >  
> >
> [mm]P(\{X>Y\})=\sum_{k\in\IN_0}\left(P(\bigcup_{l\in\IN}\{X=k+l,Y=k\})\right)=\sum_{k\in\IN_0}\sum_{l\in\IN}P(\{X=k+l,Y=k\})=\sum_{k\in\IN_0}\sum_{l\in\IN}P(X=k+l)*P(Y=k)=\sum_{k\in\IN_0}P(Y=k)\sum_{l\in\IN}P(X=k+l)=[/mm]
>  >  
> >
> [mm]=\sum_{k\in\IN_0}p(1-p)^{k}\sum_{l\in\IN}p(1-p)^{k+l}=p^2\sum_{k\in\IN_0}(1-p)^{k}(1-p)^k\sum_{l\in\IN}(1-p)^{l}=p^2\sum_{k\in\IN_0}((1-p)^2)^k*\frac{1-p}{p}=(1-p)*p\sum_{k\in\IN_0}((1-p)^2)^k=(1-p)*p*\frac{1}{p(2-p)}=\frac{1-p}{2-p}.[/mm]
>  >  
> > Stimmt das etwa? :-)
>  
> Ich hab das nach dem Einsetzen der W-Keiten nicht mehr
> nachgerechnet, aber ich gehe mal davon aus, dass du mit der
> geometrischen Reihe jetzt umgehen kannst ;-)
>  Bis dahin war es zumindest richtig.

Super, vielen lieben Dank! :-)

Bezug
                                                                                                                
Bezug
Geometrische Verteilung: Verlängern
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 14:22 Sa 28.06.2014
Autor: James90

Hallo, auch hier bitte ich um eine Woche zu verlängern. Vielen Dank!

Bezug
                                                                                                                        
Bezug
Geometrische Verteilung: +8d
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 14:27 Sa 28.06.2014
Autor: Diophant

Hallo,

> Hallo, auch hier bitte ich um eine Woche zu verlängern.
> Vielen Dank!

Ich habe soeben um 8 Tage verlängert.

Gruß, Diophant

Bezug
                                                                                                                
Bezug
Geometrische Verteilung: Fälligkeit abgelaufen
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 17:20 So 06.07.2014
Autor: matux

$MATUXTEXT(ueberfaellige_frage)
Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.vorhilfe.de