Beweis zur Formel von Inversen einer Matrix?
Hallo,
ich sitze gerade an einer Matheaufgabe. Sie lautet: Zeigen Sie, dass eine 2x2 Matrix für welche die Determinante ungleich 0 ist, invertierbar sein muss. Nun ist mir ja klar das das Inverse zu einer Matrix A mit 1/Det(A)A auszurechnen ist. So ist der Beweis recht offensichtlich, aber ich frage mich ob es irgendwo einen Beweis für die Aussage A^(-1) = 1/Det(A)A gibt? In Worten: Das Inverse einer Matrix A ist das gleiche wie das Produkt von A und dem Inversen der Determinante von A.
Ich hoffe ihr könnt mir weiterhelfen!
3 Antworten
Dieser HTML editor macht mich echt krank; noch keine Aufgabe, bei der der nicht abgestürzt wäre. Dem entsprechend mache ich so wenig Einrückungen wie möglich - sonst sitze ich morgen früh noch hier.
Ein alter Matematikerwitz lautet:
" Der kürzeste Umweg zur reellenA nalysis führt immer noch über die komplexe Ebene. "
( Das WortA nalysis musst du so schreiben; der Editor erkennt es als vulgär. Auf meine Anfrage, ob dies mit der Assonanz ana nal zusammen hänge, bekam ich von den Moderatoren den Bescheid: Nein. Wir sollen daran gehiondert werdenA nalysis zu schreiben, weil dieses Wort juristisch umstritten sei bzw. den Tatbestand des Landesverrats erfülle. )
Zunächst mal folgt aus dem ===> Fundamentalsatz der Algebra, dass jede ( auch rein reelle ) Matrix A zwei ( i.A. komplexe ) Eigenwerte E1;2 hat. Wenn du das erst mal als richtig unterstellst, wird der Beweis leicht. Die Eigenwerte sind die Nullstellen der ===> Säkulardeterminante ( SD ) ; schreiben wir diese einfach mal als quadratisches Polynom an:
p ( x ; A ) = x ² - p x + q ( 1 )
Alle, die mich kennen, wissen: Ich bin ein Freund des Satzes von Vieta.
p = E1 + E2 = Sp ( A ) ( 2a )
q = E1 E2 = det ( A ) ( 2b )
p ( x ; A ) = x ² - x Sp ( A ) + det ( A ) ( 2c )
Spur und Determinante sind Invariante, d.h. ihr Wert ändert sich nicht bei Basiswechsel. Was ich dir wärmstens ans Herz lege: Beschäftige dich mal mit ===> Elementarteilerteorie ( ET ) ( z.B. Kowalsky oder Greub; jeweils Band 2 ) ( Ist nicht ganz leicht; deshalb enthält man es den meisten Studenten vor. ) Eines der wichtigsten Ergebnisse der ET: Jede Matrix löst ihre eigene SD . In ( 2c ) hieße das
p ( A ; A ) = A ² - A Sp ( A ) + det ( A ) * 1| = 0 | * A ^ -1 ( 3a )
Anmerkung zu ( 3a ) Wüssten wir, dass Matrix A diagonalisierbar ist, würde ( 3a ) ja trivial folgen. Es gilt aber ganz allgemein.
Anmerkung zu ( 3a ) Gemeinhin werden Polynome als Funktionen definiert. Das kann aber nicht ganz stimmen; jede Funktion besitzt nämlich einen Definitionsbereich. Wenn Polynom ( 2c ) auf |R definiert ist, kann ich aber, wie wir gesehen haben, eben so gut als Argument auch eine Matrix vom Format 4 711 X 4 711 einsetzen für x . Ja dieses Polynom ist von Vorn herein definiert für " alles, was heute noch nicht entdeckt ist " - so ferne es sich nur addieren und multiplizieren lässt. Ich sage immer
" Ein Polynom ist recht eigentlich eine Schablone zum Drucken von Falschgeld. "
Die ET ist übrigens ein schönes Beispiel, wie die Begriffe " konkret " und " abstrakt " in einem Vexierspiel changieren. Sagen wir, eine reelle Zahl sei etwas Konkretes. Im Vergleich dazu sind reelle Funktionen bzw. Polynome eher abstrakt. Im Vergleich zu dem Begriff des Matrizenpolynoms ( 3a ) wirkt ( 2c ) schon wieder konkret. Wie üblich habe ich die Umformung vermerkt, die ich in ( 3a ) vorzunehmen gedenke:
A - Sp ( A ) * 1| + A ^ -1 det ( A ) = 0 ( 3b )
Jetzt ( 3b ) umstellen nach A ^ -1
A ^ -1 = [ 1 / det ( A ) ] [ Sp ( A ) * 1| - A ] ( 4 )
Soweit ich das sehe, bist Du auf dem Holzweg.
Es gilt Det(A^-1) = 1/Det(A), das ist etwas Anderes.
Bei einer 2X2-Matrix lässt sich die Intertierte Matrix allgemeingültig berechnen, aus dem Ergebnis folgt dann, dass die Invertierbarkeit und die Nullverschiedenheit der Determinante auseinander folgen.
Hinweis: zeige, det(.) ist ein nicht trivialer Homomorphismus bzgl. Multiplikation.