Hallo,

ich habe ein Verfahren entwickelt, indem es darum geht ein Gerät automatisch auslesen zu können. Da es sich um eine automatische Erfassung handelt, habe ich eine Abweichungstoleranz eingeführt. Nun kommen wir zu meinem Problem, für mich ist es logisch diese festzulegen, aber ich kann nicht wissenschaftlich erklären, wie ich auf diese Toleranz gekommen bin.

Ein Beispiel:

Gerät / Optimaler Wert / Erkannter Wert

1 / 5.2 / 6.1
2 / 0 / 1.5
3 / 4 / 3.5
Anhand dessen würde ich nun sagen eine gute Abweichungstoleranz wäre 1.5, da der "richtige Wert gemeint" erkannt wurde, aber verschoben ist aufgrund der automatischen Erkennung. Hat jemand einen Ansatz wie ich meine Entscheidung wissenschaftlich darlegen kann? Danke im Voraus!