Warum ist bei Hochspannung die Verlustleistung gering?
Die Standardargumentation ist:
Ich möchte eine konstante Leistung P=UI übertragen. Wenn die Spannung U hoch ist, kann ich dafür I niedrig wählen und damit Verlustleistung RI^2 minimieren.
Aber: Durch das ohmsche Gesetz U=R*I stehen doch Spannung und Strom in einem linearen Zusammenhang, d. h. wenn ich die Spannung U erhöhe, erhöht sich automatisch der Strom I.
Wo liegt mein Denkfehler?
Beruf,
Hochspannung