Unterschied zwischen realer und idealer Spannungsquelle?

2 Antworten

Eine ideale Spannungsquelle liefert immer eine konstante Spannung, egal wieviel Strom fließt.

Eine reale Spannungsquelle hat einen gewissen Innenwiderstand. Man kann sich das so vorstellen, dass sie aus einer Reihenschaltung aus einer idealen Spannungsquelle und diesem Innenwiderstand besteht. Je mehr Strom man entnimmt, desto mehr Spannung fällt am Innenwiderstand ab. Folglich kommt weniger Spannung ("Klemmenspannung") draußen an.

Jede reale Spannungsquelle hat einen Innenwiderstand Ri.
Folge: Bei entsprechend großem Strom, der der Quelle entnommen wird, wird die für die Last zur Vefügung gestellt Spannung kleiner um den Spannungsverlust Uv an diesem Innenwiderstand: Uv=I*Ri.

Eine ideale Quelle besitzt den Innenwiderstand Ri=0 (gibt es aber in der Praxis nicht).