Die Stromstärke an einem seriell angeschlossenem Verbraucher bleibt immer gleich. Wieso braucht das Amperemeter hierfür einen kleinstmöglichen Widerstand?

7 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Annahme: Dein Verbraucher zieht (ohne Messeingriff) 10 Ampere an 10 V, hat also einen inneren Widerstand von 1 Ohm.

Jetzt schließt du dein Messgerät dazu. Das hat zwar einen kleinen Widerstand, aber sagen wir mal dennoch 0.5 Ohm. Dein gesamter Widerstand an der Spannungsquelle ist nun 1.5 Ohm, folglich misst du im Stromkreis nun 6.67 Ampere.

In diesem vereinfachten Beispiel würde dein Messgerät den gemessenen Stromverbrauch deines Gerätes um 1/3 verfälschen. Je größer der Innenwiderstand des Gerätes im Vergleich zum Innenwiderstand des Messgerätes ausfällt, desto geringer die Verfälschung.

Stimmt es, dass der Strom nicht direkt gemessen wird? Aber welche Werte werden dann gemessen, um dann auf die Stromstärke schliessen zu können?

Den Strom misst du über seine Wirkung. Also entweder durch einen Shunt-Widerstand und den daraus resultierenden Spannungsabfall, oder über das sich ergebende Magnetfeld mit Hilfe einer Stromzange.

Woher ich das weiß:Studium / Ausbildung – Masterstudium Elektrotechnik - Schwerpunkt Embedded Systems

"Wenn etwas seriell angeschlossen wird, soll doch der Strom immer gleich sein und das unabhängig vom Widerstand."

Da liegt Dein Fehler: Die Stromstärke ist in der Reihenschaltung an jeder Stelle im Stromkreis gleich. Sie verringert sich aber, wenn Du einen Widerstand hinzufügst (R_gesamt steigt und U_gesamt bleibt konstant --> I_gesamt sinkt). Dann ist sie wieder an jeder Stelle gleich, aber geringer, als ohne den zusätzlichen Widerstand.

Wenn nun Dein Amperemeter einen großen Innenwiderstand hat, verfälscht es die Messung stark, weil der Gesamtstrom zu stark sinkt.

Nur nebenbei: Tatsächlich steht das auch in einigen Lehrunterlagen falsch, weil sich die Autoren zu wenig Gedanken über die Formulierung gemacht haben.

Woher ich das weiß:Berufserfahrung

an jedem widerstand fällt spannung ab, d.h. die stromstärke sinkt.

Wenn du eine Stromquelle hast ist der Innenwiderstand des Amperemeters für die Strommessung egal.

Bei einer Spannungsquelle ist das aber nicht der Fall. Ein Beispiel:

10V und 10Ohm Widerstand ergibt 1A Stromfluss. Jetzt will man messen und klemmt ein Amperemeter dazwischen mit 10Ohn Widerstand.

Der Widerstand der Serienschaltung aus Lastwiderstand und Amperemter sind jetzt 20Ohm und der gemessene Strom nur noch 0.5A. Die Messung mit dem Amperemeter verfälscht also das Ergebnis um 50% => kleiner Innenwiderstand ist gefordert.

Die Aussage dass Strom nicht direkt gemessen wird stimmt. Im Falle von Drehspulmessgeräten wird eigentlich eine Kraft gegen eine Feder gemessen welche Proportional zum Strom ist. In Elektronischen Geräten wird eine Spannung gemessen die entweder über einen Widerstand abfällt sogenannte Shuntmessung oder es wird die Spannung an einem Hall Sensor gemessen, dessen Ausgangsspannung proportional zur Magnetischen Feldstärke bzw zum Magnetischen Fluss ist und die Stärke des Magnetfelds ist wieder Proportional zum Strom.

Du musst dir das so vorstellen, der Strom ist bei allen Widerständen gleich stark jedoch nimmt der Gesamtstrom ab resp. zu wenn man einen Widerstand neu dazu schaltet oder aber einen wegnimmt.

Somit muss das Amperemeter einen kleinen Widerstand haben, sonst würde man immer das Ergebnis verfälschen.