Wie berücksichtigt man systematische Unsicherheiten bei der Berechnung des Standardfehlers?

1 Antwort

Vom Beitragsersteller als hilfreich ausgezeichnet

solange es keinen Offset der Werte gibt schwanken deine Messwerte je nach Experiment mit einer bestimmten Verteilung (z.B. Poisson oder normalverteilt oder t-verteilt) um einen Erwartungswert. Wenn du einem Programm (Matlab oder Python) die Werte und die Verteilungsart angibst dann gibt dir eine entsprechende Funktion einen guten Wert für die Standardabweichung und den Mittelwert aus.

Und natürlich wird der Mittelwert nie genau dem Erwartungswert entsprechen, deswegen geben dir gute Programme auch einen Fehler zum Mittelwert oder Standardabweichung aus. Je mehr Werte du hast, desto geringer wird der Mittelwert und desto genauer die Standardabweichung werden.


andi3366 
Beitragsersteller
 10.04.2023, 15:56

Wo sollte man eigentlich den Standardfehler und wo die propagierten Messunsicherheiten verwenden? Ich hab gesehen, dass jemand in einem Diagramm die propagierten Messunsicherheiten für die Fehlerbalken verwendet hat, obwohl jeder Datenpunkt im Diagramm ein Mittelwert war.

0
Benni142  11.04.2023, 17:26
@andi3366

Ich glaube dass die Standardabweichung angegeben wird, wenn die Messwerte statistisch erhoben wurden, also man mehrere Messwerte erhoben hat und wenn diese Werte einer bestimmten Wahrscheinlichkeitsverteilung unterliegen (was sie eigentlich immer tun)

Wenn die Mittelwerte unterschiedliche Fehler hatten, weil z.B. bei einem Wert öfter gemessen wurde als vei anderen, oder weil der Messbereich bei Multimetern angepasst wurde,

dann benutzt man beim Diagramm Errorbars um den Fehler der gebildeten Mittelwerte darzustellen.

0