Standardabweichung Toleranz?
Im Bereich der Statistik komme ich jedes Mal mit den Begriffen der Toleranz und der Standardabweichung durcheinander, kann das eine von dem anderen nichz unterscheiden. Ich bin gerade dabei, Gelerntes durch Übungsaufgaben zu widerholen und wurde wieder mit diesen zwei Begriffen konfrontiert. Könnte mir einer den Unterschied erklären, und vielleicht dabei helfen, diesen zwei Begriffen die richtigen Stichworte zuzuordnen.
...kennzeichnet die Genauigkeit von Messungen
... lässt auch einmal grobe Fehler zu.
... wird aus dem Quadrat der Differenz zwischen Größtmaß und Kleinstmaß berechnet.
...kennteichnet die Differenz zwischen dem Höchstmaß und dem Mindestmaß von Bauteilen.
.. sollte im Idealfall einen Maximalwert anstreben (Summe der größten Quadrate)
Vielen Dank im Voraus!
2 Antworten
Standardabweichung s errechnet sich aus ([vv]/n(n-1))^1/2, wobei n=Anz. der Beobachtungen. Sie hängt also von der Güte der Beobachtungen ab. Sie hat eine Wahrscheinlichkeit von 67%. Bei einer Ausgleichung ergibt sich dann zusammen mit der Q-Matrix die Standardabweichung für eine der ausgeglichenen - also gesuchten - Größen. Die Toleranz ist ein fest vorgegebener (z.B. durch DIN), nicht zu überschreitender Wert. Um die Toleranz einhalten zu können müsste s etwa 1/3 der Toleranz sein, da 3s in etwa 99% Wahrscheinlichkeit entsprechen.
Eine Toleranz gibt einen Fixen Bereich vor, in dem Die Werte liegen müssen.
Eine Strandardabweichung "s" wird aus der Standardabweichung der Stichprobe geschätzt.
Merke:
- Toleranzen sind Fixe Werte (Bereiche)
- Bei der Standardabweichung gilt: Die Daten sind weit verstreut; die Standardabweichung ist hoch.
Die Daten sind eng beieinander; die Standardabweichung ist niedrig.
Deine Hausaufgaben mach ich dir nun aber nicht ;)
Denke das hilft dir schon