Wieso wird Strom und Spannung unterschiedliche gemessen?

5 Antworten

Der elektrische Strom beschreibt die Menge von Ladungsträgern, die einen Leiter in einer bestimmten Zeit passieren. Damit in etwa vergleichbar mit der Durchflussmenge in einem Wasserschlauch oder der Verkehrsdichte auf einer Straße. Rein von einem logischen Standpunkt her erfordert das ein direktes Messen am Leiter, damit in Reihe des Stromkreises.

Eine Spannung hingegen beschreibt einen Potentialunterschied (d.h. der Unterschied in den Ladungsträgern zwischen zwei Punkten), dafür kann die Messung nicht an einem Punkt im Stromkreis erfolgen, sondern das Messgerät muss an den Punkten, deren Potentialunterschied gemessen werden soll, angeschlossen werden.

Ob dafür nun eine galvanische Zelle, ein Netzteil oder ein beliebiger Verbraucher gemessen werden soll, macht erstmal keinen Unterschied an dieser Betrachtungsweise.

Bei einem Wasserfall würdest Du auch die Fallhöhe anders messen als die Durchflussmenge.

Bei der Fallhöhe würdest Du den Wasserstand vor und nach dem Wasserfall vergleichen. Das entspricht der Spannung.

Bei der Durchflussmenge würdest Du in den Fluss gehen und versuchen, den Strom durch Deine Messvorrichtung zu leiten.

Das Problem bei jeder Messung ist, dass der Messvorgang selber das Messergebnis nicht verfälschen soll! Das ist aber nur in Grenzen möglich!

  • Spannungsmessung: Wenn die Spannung ZWISCHEN den Enden eines Widerstandes R gemessen werden soll, dann verursacht der eigene Innenwiderstand Ri des Messgerätes - der ja dann PARALLEL - zum Messwiderstand liegt, eine Verfälschung der Messung, denn nun wird die Spannung der Parallelschaltung R||Ri gemessen. Deshalb soll der Innenwiderstand Ri mindestens 100 mal größer sein als der Messwiderstand (etwa 1% Fehler). Darum haben Spannungs-Messgeräte einen sehr hohen widerstand (Mega-Ohm-Bereich).
  • Genau umgekehrt bei der Strom-Messung. Wenn der Strom DURCH einen Widerstand R gemessen werden soll, dann verfälscht der in Reihe zum Messwiderstand R liegende Innenwiderstand Ri des Messgeräts den Strom, da ja nun der Strom durch (R+Ri) erfasst wird. Darum muss jetzt Ri mindestens 100 mal kleiner sein als R (etwa 1% Messfehler) .

Du hast wahrscheinlich das gleiche Verständnisproblem, was ich damals auch hatte, weil der Begriff "Stromstärke" irreführend ist. Da kommt halt das Wort "Stärke" drin vor und man denkt erstmal, dass es darum geht, wie stark der Strom durch die Leitung gedrückt wird, aber stattdessen misst man damit, wie viel Strom pro Sekunde durch die Leitung geht.

Also einfach ausgedrückt: Wenn du dir ein Stromkabel als Wasserrohr vorstellst, dann ist die Spannung der Druck, mit dem das Wasser durch das Rohr gedrückt wird und die Stromstärke ist die Menge an Wasser, die pro Sekunde durchläuft.

Um den Druck (Spannung) messen zu können, musst du halt messen, wie viel bar (Volt) am Anfang des Rohrs und am Ende des Rohrs anliegen, daher muss die Messung parallel erfolgen. Um die Wassermenge (Stromstärke) zu messen, musst du den Strom durch das Messgerät durchleiten, daher muss man es in Reihe messen.

Eine Spannung liegt an zwischen 2 Punkten deshalb parallel und der Strom fliest deshalb in reihe.