Likelihood vs. Bed. Wahrsch. < math. Statistik < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Ich versuche gerade, mich aus Interesse etwas in das Thema induktive Statistik einzuarbeiten.
Folgendes Szenario:
a) Ich weiß, dass ein Gerät mit p = 0,7 kaputt ist. Ich teste 5 Geräte. Wie hoch ist die P, dass 3 davon ausfallen. Mit der Formel für die Binomialverteilung würde ich das ja so berechnen:
$P(X = 3) = [mm] \binom{5}{3}0.7^3*0.3^2$
[/mm]
Nach meinem Verständnis, ist diese Formel eine Formel für die Dichte von x und gibt eine Antwort auf die Frage: Wie wahrscheinlich ist es, dass x den Wert 3 annimmt.
Jetzt zum Induktiven:
b) Ich teste 5 Geräte, 3 davon sind kaputt. Wie hoch ist die p, dass ein Gerät kaputt ist. Hier kann ich ja z. B. mit dem Maximum-Likelihood Ansatz arbeiten. Mein Verständnis ist jetzt Folgendes:
Die Likelihood-Funktion ist von der Formel her identisch mit der Dichtefunktion von oben, abgesehen von der Konstante. Das wäre hier also [mm] $L(x_1, [/mm] ..., [mm] x_n;\theta) [/mm] = [mm] \theta^3(1-\theta)^2$
[/mm]
c) Wenn ich das Ganze nach der Bayes'schen Sichtweise machen würde, müsste ich für [mm] $\theta$ [/mm] eine A-priori-Verteilung wählen, aber die Formel für die Likelihood wäre dieselbe. |
Mich verwirrt Folgendes: Wenn ich richtig verstehe, hat die Likelihood-Funktion dieselbe Form wie die Dichte-Funktion und zwar sowohl, wenn man [mm] $\theta$ [/mm] als unbekannten, aber fixen Paramater ansieht (Frequentisten) als auch, wenn man es als Zufallsvariable ansieht (Bayesianer).
Und das verstehe ich nicht ganz.
Im Fall der Frequentisten macht es für mich noch Sinn: Da der unbekannte Parameter hier keine Zufallsvariable ist, haben wir es ja nicht mit einer bedingte Wahrscheinlichkeit zu tun und deswegen ist die Formel dieselbe. Und die Likelihood wird mit [mm] $L(x;\theta)$ [/mm] bezeichnet.
Aber bei den Bayesianern ist der Parameter ja eine Zufallsvariable und die Likelihood demnach auch ein bedingte Wahrscheinlichkeit, oder? Die Likelihood ist hier [mm] $L(x|\theta)$. [/mm] Wieso ist dann die Formel hier immer noch dieselbe?
Bei bedingter Wahrscheinlichkeit denke ich an [mm] $\frac{P(x,\theta)}{P(\theta)}$.
[/mm]
Das würde doch heißen, dass im Bayesschen Fall, die Formel für die Likelihood das Resultat aus der Berechnung von [mm] $\frac{P(x,\theta)}{P(\theta)}$ [/mm] sein müsste.
Wieso sieht die Formel aber dann so aus, wie die Formel für die "unbedingte" Dichtefunktion?
Oder anders: Warum bleibt die Formel für die Likelihood gleich, egal, ob ich den Parameter als unbekannt aber fix oder als Zufallsvariable ansehe?
Ich hoffe, ich konnte mein Anliegen einigermaßen rüberbringen.
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:09 Mo 15.11.2021 | Autor: | Infinit |
Hallo DervomAmt,
willkommen hier im Forum, und eine interessante Frage hast Du auch gleich mitgebracht. Ich muss gestehen, dass ich mich zuletzt vor fast 40 Jahren während meines Studiums damit etwas beschäftigt hatte, aber das ist schon etwas her, wie ich gerne zugebe.
Ein paar Kommentare will ich aber doch gerne hier mal beisteuern. Die Likelihood-Funktion dient dazu, einen unbekannten statistischen Parameter möglichst gut zu unterschätzen, wobei sich dieses "gut" darauf bezieht, dass dieser Parameter ein zugrunde gelegtes Wahrscheinlichkeitsmodell optimal gestaltet.
Wie man das machen kann, nun, dazu gibt es unterschiedliche Methoden,zwei davon hast Du erwähnt, nämlich die Methode der Frequentisten und diejenige der Bayesianer. Im ersten Fall wird ein unbekannter Parameter möglichst optimal an ein Modell angepasst, im zweiten Fall wird eine Wahrscheinlichkeitsverteilung für solch einen Parameter bestimmt. Beide Verfahren basieren auf unterschiedlichen Schätzern, benutzen dabei aber eine Größe, die Likelihood, die für beide Verfahren gleich ist.
Ich nehme mal an, dass daher die (sprachliche) Verwirrung kommt und hinzu kommt noch, dass es eine Menge unterschiedlicher Schreibweisen für die an der statistischen Schätzung beteiligten Größen gibt. Die Verfahren führen jedoch zu unterschiedlichen Ergebnissen, das sollte man immer im Hinterkopf haben.
Eine wie ich finde recht gute Zusammenfassung habe ich im Web gefunden und hier mal angegeben.
Eventuell können weitere Mitarbeiter hier aus dem Forum noch mehr dazu sagen, und so lasse ich diese Frage mal auf "teilbeantwortet".
Viele Grüße,
Infinit
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:20 Di 30.11.2021 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|