Wie begründe ich die Abweichungstoleranz korrekt?
Hallo,
ich habe ein Verfahren entwickelt, indem es darum geht ein Gerät automatisch auslesen zu können. Da es sich um eine automatische Erfassung handelt, habe ich eine Abweichungstoleranz eingeführt. Nun kommen wir zu meinem Problem, für mich ist es logisch diese festzulegen, aber ich kann nicht wissenschaftlich erklären, wie ich auf diese Toleranz gekommen bin.
Ein Beispiel:
Gerät / Optimaler Wert / Erkannter Wert
1 / 5.2 / 6.1
2 / 0 / 1.5
3 / 4 / 3.5
Anhand dessen würde ich nun sagen eine gute Abweichungstoleranz wäre 1.5, da der "richtige Wert gemeint" erkannt wurde, aber verschoben ist aufgrund der automatischen Erkennung. Hat jemand einen Ansatz wie ich meine Entscheidung wissenschaftlich darlegen kann? Danke im Voraus!
Was ist denn der optimale Wert? Was wird "gemessen"? Was ist der maximale Messwert?
Sorry, hätte ich erwähnen müssen. Es geht um den Zeigerausschlag auf einer Uhr mit nur einem Zeiger. Gemessen wird in Prozent, also 0 - 100%
1 Antwort
Hi,
klar kann man das erklären. die Vorgehensweise ist empirisch. Aus Erfahrung/Beobachtung. Man kann die ABweichung ja weder als Nacheilung noch als Voreilung festmachen, weil Abweichungen in beide Richtungen möglich sind. Wie ist das überhaupt möglich? hast du auch bei den ermittelten Werten, wenn es sich um dieselben handelt, immer wieder andere Ergebnisse?
Man könnte die ermittelten Werte vielleicht in Zonen einteilen, in denen die Werte von ähnlicher Abweichung sind und danach korrigieren.
LG
Harry
Vielen dank, empirisch wäre also schon mal ein Ansatz.