Kann mir jemand diese Formel erklären, welche Spannung eines Sensores in Grad C umwandelt?
Hi
Bei meinemTemperatursensor in einer elektrischen Schaltung entsprechen 10mV(milliVolt) immer jeweils eine Veränderung von 1 Grad Celcius. Da er auch Temperaturen unterhalb von 0 Grad lesen kann muss man Anpassungen vornehmen, um Werte unterhalb von 0Grad lesen zu können.
Dazu lautet die Formel:
(gemessene Spannung V - 0,5) *100
Man subtrahiert 0,5 vom gemessenen Spannungswert und multipliziert die Differenz mit 100.
Kann mir bitte jemand die Formeln erklären, weshalb man 0,5 subtrahiert und mit 100 multipliziert??? Ich habe diese Formel leider nicht verstanden und würde sie gerne verstehen.
Ich hoffe auf Hilfe.
Vielen lieben Dank im Voraus.
2 Antworten
Wenn die Veränderung um 0.01 Volt in ein Resultat von 1 Grad Unterschied resultieren soll - womit wirst du die 0.01 dann multiplizieren wollen, dass du 1 erhältst?
Bei 0 beginnend, über 0.01, 0.02 etc - was wären dann deine damit errechneten Ergebnistemperaturen? Sind da negative Werte dabei?
So nicht - wie kommen wir damit auf negative Werte?
Um zu wissen, warum du ausgerechnet diese Zahl abziehen würdest, hilft es, zu wissen, welche Spannung du bei 0 Grad erhältst - das sollte ja dann deutlich über 0 oder 0.01 Volt liegen. Etwa: 0 Volt entspricht -50 Grad , 0.5 Volt dann 0 Grad und 1 Volt ergäben dann 50 Grad, zum Beispiel.
Naja, 0.01V entsprechen 1K, da liegt halt der Faktor 100 zwischen.
Nehmen wir an, der Sensor gibt 0V für die niedrigste Temperatur aus udn 1V für die höchste, wobei 0.5V genau 0°C entsprechen, dann muß ich eben 0.5V abziehen, um diese Verschiebung zu kompensieren.
Ob die getroffenen Annahmen zutreffen bliebe natürlich noch zu prüfen.