Wieso ist die Standardabweichung der Grundgesamtheit immer höher?

3 Antworten

Du machst ein bisschen einen Vergleich von Äpfel mit Birnen. Eine Grundgesamtheit und eine Stichprobe sind 2 Paar Stiefel.

Allerdings, folgendes Beispiel: Beim Würfeln ist die Grundgesamtheit 1, 2, 3, 4, 5, 6. Daraus kann man die Standardabweichung nach der ersten Formel berechnen. Angenommen, wir würfeln jetzt 6 Mal und erhalten zufälligerweise die Stichprobe 1, 2, 3, 4, 5, 6. Dann würde man mit der zweiten Formel eine Standardabweichung schätzen, die grösser ist, als die der Grundgesamtheit. Wenn wir aber sehr viel mehr Würfeln, dann verschwindet dieser Unterschied und wir schätzen die richtige Standardabweichung.

Sei Die Grundgesamtheit gleich {1,2,3,4,5} (mü = 3)

Dann ist Sigma gleich Wurzel ((4+1+0+1+4)/5)=Wurzel 2

Und sei die Stichprobe gleich {1,5} (xbar = 3)

Dann ist s_x = wurzel ((4+4)/1) = Wurzel 8

Da Wurzel 2 < Wurzel 8, also ist die Aussage falsch.

Nach der Maximum Likely Methode ist die die Formel für die Stichprobe mit 1/(n-1) die beste Vorhersage für die Standardabweichung der Grundgesamtheit mit beliebig vielen Versuchen.
Es ist also NICHT die Standardabweichung von n Versuchen, sondern die aus n Versuchen berechnete Prognose für einen Grundgesamtheit von unendlich vielen Versuchen