Beweis zur Formel von Inversen einer Matrix?

3 Antworten

   Dieser HTML editor macht mich echt krank; noch keine Aufgabe, bei der der nicht abgestürzt wäre. Dem entsprechend mache ich so wenig Einrückungen wie möglich - sonst sitze ich morgen früh noch hier.

Ein alter Matematikerwitz lautet:

" Der kürzeste Umweg zur reellenA nalysis führt immer noch über die komplexe Ebene. "

   ( Das WortA nalysis musst du so schreiben; der Editor erkennt es als vulgär. Auf meine Anfrage, ob dies mit der Assonanz ana nal zusammen hänge, bekam ich von den Moderatoren den Bescheid: Nein. Wir sollen daran gehiondert werdenA nalysis zu schreiben, weil dieses Wort juristisch umstritten sei bzw. den Tatbestand des Landesverrats erfülle. )

   Zunächst mal folgt aus dem ===> Fundamentalsatz der Algebra, dass jede ( auch rein reelle ) Matrix A zwei ( i.A. komplexe ) Eigenwerte E1;2 hat. Wenn du das erst mal als richtig unterstellst, wird der Beweis leicht. Die Eigenwerte sind die Nullstellen der ===> Säkulardeterminante ( SD ) ; schreiben wir diese einfach mal als quadratisches Polynom an:

    p ( x ; A ) = x ² - p x + q       ( 1 )

      Alle, die mich kennen, wissen: Ich bin ein Freund des Satzes von Vieta.

        p = E1 + E2 = Sp ( A )       ( 2a )

       q = E1 E2 = det ( A )        ( 2b )

       p ( x ; A ) = x ² - x Sp ( A ) + det ( A )         ( 2c )

      Spur und Determinante sind Invariante, d.h. ihr Wert ändert sich nicht bei Basiswechsel. Was ich dir wärmstens ans Herz lege: Beschäftige dich mal mit ===> Elementarteilerteorie ( ET ) ( z.B. Kowalsky oder Greub; jeweils Band 2 ) ( Ist nicht ganz leicht; deshalb enthält man es den meisten Studenten vor. ) Eines der wichtigsten Ergebnisse der ET: Jede Matrix löst ihre eigene SD . In ( 2c ) hieße das

      p ( A ; A ) = A ² - A Sp ( A ) + det ( A ) * 1| = 0 | * A ^ -1      ( 3a )

     Anmerkung zu ( 3a ) Wüssten wir, dass Matrix A diagonalisierbar ist, würde ( 3a ) ja trivial folgen. Es gilt aber ganz allgemein.

   Anmerkung zu ( 3a ) Gemeinhin werden Polynome als Funktionen definiert. Das kann aber nicht ganz stimmen; jede Funktion besitzt nämlich einen Definitionsbereich. Wenn Polynom ( 2c ) auf |R definiert ist, kann ich aber, wie wir gesehen haben, eben so gut als Argument auch eine Matrix vom Format 4 711 X 4 711 einsetzen für x . Ja dieses Polynom ist von Vorn herein definiert für " alles, was heute noch nicht entdeckt ist " - so ferne es sich nur addieren und multiplizieren lässt. Ich sage immer

" Ein Polynom ist recht eigentlich eine Schablone zum Drucken von Falschgeld. "

Die ET ist übrigens ein schönes Beispiel, wie die Begriffe " konkret " und " abstrakt " in einem Vexierspiel changieren. Sagen wir, eine reelle Zahl sei etwas Konkretes. Im Vergleich dazu sind reelle Funktionen bzw. Polynome eher abstrakt. Im Vergleich zu dem Begriff des Matrizenpolynoms ( 3a ) wirkt ( 2c ) schon wieder konkret. Wie üblich habe ich die Umformung vermerkt, die ich in ( 3a ) vorzunehmen gedenke:

     A - Sp ( A ) * 1| + A ^ -1 det ( A ) = 0     ( 3b )

    Jetzt ( 3b ) umstellen nach A ^ -1

       A ^ -1 = [ 1 / det ( A ) ] [ Sp ( A ) * 1| - A ]       ( 4 )

Soweit ich das sehe, bist Du auf dem Holzweg.

Es gilt Det(A^-1) = 1/Det(A), das ist etwas Anderes.

Bei einer 2X2-Matrix lässt sich die Intertierte Matrix allgemeingültig berechnen, aus dem Ergebnis folgt dann, dass die Invertierbarkeit und die Nullverschiedenheit der Determinante auseinander folgen.

Hinweis: zeige, det(.) ist ein nicht trivialer Homomorphismus bzgl. Multiplikation.