Lineare Unabhängigkeit von Vektoren zeigen mit Determinante?

4 Antworten

Hallo,

kannst Du machen.

Die Determinante, die aus drei dreidimensionalen Vektoren besteht, ist der Rauminhalt des Spates, der von ihnen aufgespannt wird.

Sind die drei Vektoren linear abhängig, liegen alle drei in derselben Ebene und können somit keinen Körper aufspannen, der ein Volumen ungleich Null hat.

Eine Dimension fehlt dann ja.

Herzliche Grüße,

Willy


mathesehrschwer 
Beitragsersteller
 23.02.2020, 18:51

Stimmt, sehr anschauliche Erklärung :)

Das ganze ginge aber auch in höheren Dimensionen, oder?

1
Willy1729  23.02.2020, 19:06
@mathesehrschwer

Müßte eigentlich, weil bei linearer Abhängigkeit ja immer mindestens eine Dimension fehlt und der entsprechende hyperdimensionale Körper nicht vollständig aufgespannt werden kann.

Leider kannst Du die Determinante in einer Matrix ab 4x4 nicht mehr so einfach wie mit der Sarrusregel bestimmen.

2
mathesehrschwer 
Beitragsersteller
 23.02.2020, 19:10
@Willy1729

Bei 4 x 4 mach ich meistens einmal Gauss.

Danach kann ich nach einer Zeile oder Spalte entwickeln, wo nur eine Zahl != 0 auftaucht. Und dann wieder Sarrus

1

klar geht das.
sei deine Abhängigkeitsprüfgleichung (die die du halt beim Prüfen der Unabhängigkeit aufstellst):
ax+by+cz=0

x,y,z sind die Vektoren von oben, a,b,c hingegen einfache Zahlen.

sind x,y,z linear unabhängig, dann müssen bekanntermassen a=b=c=0 sein.

dürfte ja bekannt sein.

Nun kannst du tatsächlich eine 3x3 Matrix A basteln, wobei jede der 3 Spalten einem der Vektoren entspricht:
A=(x y z)
oder ganz ausführlich:
A=
(2 -1 11)
(1 7 2)
(0 0 30)

Dann gilt weiter:
A*(a,b,c)=(0,0,0)

(a,b,c) ist einfach der 3er Vektor mit den Einträgen a,b,c und hinten der Nullvektor

Die wichtige Aussage ist halt dass sich dein Problem als
bekannte Matrix*Vektor mit den Unbekannten=bekannter Vektor
schrieben lässt.
Dies lässt sich auf tausend und eine Art lösen.

Mathematisch nach (a,b,c) zu lösen bedeutet gleichzeitig dass du auf beiden Seiten die zu A inverse Matrix A# vonlinks dranechnest:

aus
A*v=b wird dann
A# *A*v=A# *b
was das selbse ist wie

v=A# * b
(weil A# * A=identitätsmatrix und I*v=v per Definition)

jedenfalls kriegst du die Lösung wenn du an den Vektoren rechts die inverse Matrix dranmuiltiplizierst.

Dazu muss natürlich eine zu A inverse Matrix erst existieren.

Ich befasse mich zwar ungern mit Determinanten aber eine Regel besagt dass
eine Matrix dann invertierbar ist wenn die Determinante ungleich 0 ist und umgekehrt.

Fall 1)

gehen wir also davon aus, es ist Det(matrix) ungleich 0.
Dann existiert A# und es ist (a,b,c)=A#*(0,0,0)

da der Nullvektor eben nur aus Nullen besteht, kannst du den mit ziemlich allen Matrizen multiplizieren. Er bleibt immer der Nullvektor.
Also ist

(a,b,c)=A#*0=0
die Lösung der Nullvektor .
Also ist a=b=c=0 und die Vektoren linear unabhängig.

in Fall 2 ist Determinate=0,
Dann existiert zum einen keine inverse Matrix und das obige Vorgehen geht nicht.
Nach einem Satz, dne ich gerade gegoogelt habe, heißt Det=0 aber auch dass mind. 2 der Spaltenvektoren gleich oder zumindest Vielfache voneinander sind.

Also 2 der 3 Vektoen, aus denen die Matrix besteht linear abhängig sind.
Damit können die 3 Vektoren dann gar nicht mehr linear unabhängig sein!
So in etwa die Theorie :-)

TL;DR: Jap, Wenn Determinante der Matrix, die aus den 3 Vektoren besteht, gleich 0 ist, dann linear abhängig. Ansonsten linear unabhängig :-)


Klar. Die Determinante ist genau dann null, wenn die Matrix nicht vollen Rang hat, und das ist genau dann der Fall, wenn hier die Spaltenvektoren linear abhängig sind.

Ja, so ists.

Woher ich das weiß:Studium / Ausbildung – Mathematik Studium