Spannungsfehlerschaltung verstehen?
Hey Leute,
hier kamen bisher immer Top Antworten. Und ich bin froh, dass man mir immer gut antwortet. Nun habe ich wieder eine Frage, die mir vor kurzem eingefallen ist. Bei der Spannungsfehlerschaltung wird der Originalwiderstand wie folgt berechnet:
R = (U/I) - Ra (Ra = Innenwiderstand des Strommessers)
Das Spannungsmessgerät und der Strommesser habe jeweils einen nicht idealen Wert. Wieso wird dann der Innenwiderstand des Spannungsmessers nicht in der Gleichung verwendet bzw. wieso spielt der keine Rolle?
Jetzt sei die Spannungsquelle nicht ideal, habe also einen Widerstand. Den berücksichtigt man ja dann auch nicht. Warum nicht? Hoffentlich hat da jemand Rat für mich.
2 Antworten
Du misst die falsche Spannung, nämlich Ugemessen = UWiderstand + UMessgerät. Damit hast du
Rgemessen = Ugemessen / I (gemessen) = UWiderstand / I + U Messgerät, und da I exakt und überall gleich ist:
Rgemessen = RWiderstand + RMessgerät, also umgestellt
RWiderstand = Rgemessen - RMessgerät.
Weil die Spannungsmessung parallel zum Originalwiderstand erfolgt und deshalb die Spannung, die über diesem abfällt, identisch ist zu der Spannung, die über dem Originalwiderstand abfällt (welche wiederum die Spannung U der Spannungsquelle ist).
Also spielt es jetzt keine Rolle, ob ich einen nicht idealen Widerstand an der Spannungsquelle habe? Weil diesen Aspekt verstehe ich noch nicht ganz, wieso der nicht berücksichtigt werden muss.