Ein Amperemeter wird Seriell angeschlossen um die Stromstärke zu messen, dabei soll der Widerstand des Amperemeters so gering sein wie möglich, um die Messung nicht zu verfälschen.

Jetzt zu meiner Verständnislücke: Wenn etwas seriell angeschlossen wird, soll doch der Strom immer gleich sein und das unabhängig vom Widerstand. Anders gesagt: In Serie soll es, bei angeschlossenen Verbrauchern, nur Spannungsdifferenzen geben, jedoch keine Differenzen in der Stromstärke. Warum muss dann der Widerstand des Amperemeters gering gehalten werden, wenn seriell die Stromstärke vom Widerstand sowieso nicht beeinflusst wird? Wo ist der Denkfehler?

Weitere Frage: Stimmt es, dass der Strom nicht direkt gemessen wird? Aber welche Werte werden dann gemessen, um dann auf die Stromstärke schliessen zu können?