Likelihood Funktion Stochastik?

1 Antwort

Vom Beitragsersteller als hilfreich ausgezeichnet

Irgendwie kann da was nicht stimmen. Die Likelihood-Funktion ist definiert auf einem oder mehreren unbekannten Parameter(n) einer Verteilungsfamilie wie MW und StD bei Normalverteilung oder p bei der Binomialverteilung. Hier gibt es keinen unbekannten Parameter, die Zähldichte ist ja



Uniform heißt ja, dass jedes Ergebnis die gleiche Ws hat, und da es 3N+1 mögliche Ergebnisse gibt, ist die Einzel-Ws eben 1/(3N+1). Wenn ich eine Stichprobe (by the way, was ist eine mathematische Stichprobe im Ggs zu einer allgemeinen Stichprobe?) der Größe n habe, werden alle n Einzel-Ws für die Stichprobe multipliziert, mit n Ziehungen, alle ja gleiche Ws, ergibt sich hier also

und das wird niemals 0 und hat auch keine Ableitung, mit der ich einen ML-Schätzer für - ja für welchen Parameter? - bestimmen könnte.

P.S. nach 5 Minuten:

Man könnte allerdings N als unbekannten Parameter betrachten, und dann bekäme man eine maximale Likelihood, wenn N möglichst klein ist. Dazu nimmt man aus der Stichprobe Minimum xmin und Maximum xmax und nimmt dann das kleinste ^N, für das gilt ^N ≤ xmin und xmax ≤ 2(^N). Eine sehr eigenwillige Aufgabenstellung.


eterneladam  17.01.2022, 17:39

Ich hatte mir ähnliche Überlegungen gemacht und teile deine Einschätzung. Allerdings kreisten meine Gedanken noch um die Frage, wann die Log-Likelihood-Funktion verschwindet. Mir fällt da nur der Fall ein, wo man nur die Null zieht, X1 ... Xn = 0.

Jangler13  21.01.2022, 14:43
@eterneladam

Es soll ja nicht die Log-Likelihood Funktion veschwinden sondern einfach nur die Likelyhood Funktion. Log-L ist ja nur 0 wenn L gleich 1 ist, und das ist meist nie der Fall (außer die Zufallsvariable die geschätzt wird ist konstant)

L wird aber 0, und zwar wenn Xmin < -N oder Xmax>2N gilt