Movatterモバイル変換


[0]ホーム

URL:


Zum Inhalt springen
WikipediaDie freie Enzyklopädie
Suche

Inverse Matrix

aus Wikipedia, der freien Enzyklopädie

Dieinverse Matrix,reziproke Matrix,Kehrmatrix oder kurzInverse einerquadratischen Matrix ist in derMathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert dieEinheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werdenreguläre Matrizen genannt. Eine reguläre Matrix ist dieDarstellungsmatrix einerbijektivenlinearen Abbildung und die inverse Matrix stellt dann dieUmkehrabbildung dieser Abbildung dar. Die Menge der regulären Matrizen fester Größe bildet mit derMatrizenmultiplikation alsVerknüpfung dieallgemeine lineare Gruppe. Die inverse Matrix ist dann das jeweiligeinverse Element in dieser Gruppe.

Die Berechnung der Inverse einer Matrix wird auch alsInversion oderInvertierung der Matrix bezeichnet. Die Invertierung einer Matrix kann mit demGauß-Jordan-Algorithmus oder über dieAdjunkte der Matrix erfolgen. Die inverse Matrix wird in derlinearen Algebra unter anderem bei der Lösunglinearer Gleichungssysteme, beiÄquivalenzrelationen von Matrizen und bei Matrixzerlegungen verwendet.

Definition

[Bearbeiten |Quelltext bearbeiten]

IstARn×n{\displaystyle A\in R^{n\times n}} einereguläre Matrix mit Einträgen aus einemunitären RingR{\displaystyle R} (in der Praxis meist demKörper derreellen Zahlen), dann ist die zugehörige inverse MatrixA1Rn×n{\displaystyle A^{-1}\in R^{n\times n}} diejenige Matrix, für die

AA1=A1A=I{\displaystyle A\cdot A^{-1}=A^{-1}\cdot A=I}

gilt, wobei der Malpunkt {\displaystyle \cdot }  dieMatrizenmultiplikation darstellt undI{\displaystyle I} dieEinheitsmatrix der Größen×n{\displaystyle n\times n} ist. IstR{\displaystyle R} einkommutativer Ring, Körper oderSchiefkörper, so sind die beiden Bedingungen äquivalent, das heißt eine rechtsinverse Matrix ist auch linksinvers und umgekehrt.

Beispiele

[Bearbeiten |Quelltext bearbeiten]

Die Inverse der reellen(2×2){\displaystyle (2\times 2)}-Matrix

A=(2164){\displaystyle A={\begin{pmatrix}2&1\\6&4\end{pmatrix}}}

ist

A1=(21231){\displaystyle A^{-1}={\begin{pmatrix}2&-{\tfrac {1}{2}}\\-3&1\end{pmatrix}}},

denn es gilt

AA1=(2164)(21231)=(431+112123+4)=(1001)=I{\displaystyle A\cdot A^{-1}={\begin{pmatrix}2&1\\6&4\end{pmatrix}}\cdot {\begin{pmatrix}2&-{\tfrac {1}{2}}\\-3&1\end{pmatrix}}={\begin{pmatrix}4-3&-1+1\\12-12&-3+4\end{pmatrix}}={\begin{pmatrix}1&0\\0&1\end{pmatrix}}=I}

Eigenschaften

[Bearbeiten |Quelltext bearbeiten]

Gruppeneigenschaften

[Bearbeiten |Quelltext bearbeiten]

Die Menge der regulären Matrizen fester Größe über einem unitären RingR{\displaystyle R} bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinennichtkommutative)Gruppe, dieallgemeine lineare GruppeGL(n,R){\displaystyle \operatorname {GL} (n,R)}. In dieser Gruppe ist die Einheitsmatrix dasneutrale Element und die inverse Matrix dasinverse Element. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links- als auch rechtsinvers. Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also

I1=I{\displaystyle I^{-1}=I},

und die Inverse der inversen Matrix wieder die Ausgangsmatrix, das heißt

(A1)1=A{\displaystyle \left(A^{-1}\right)^{-1}=A}.

Die MatrizenA{\displaystyle A} undA1{\displaystyle A^{-1}} werden daher auch zueinander invers genannt. Das Produkt zweier regulärer Matrizen ist wieder regulär und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:

(AB)1=B1A1{\displaystyle \left(A\cdot B\right)^{-1}=B^{-1}\cdot A^{-1}}.

Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann auf diese Weise die Inverse der Matrix schnell ermittelt werden. Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel

(A1A2Ak)1=Ak1A21A11{\displaystyle \left(A_{1}\cdot A_{2}\dotsm A_{k}\right)^{-1}=A_{k}^{-1}\dotsm A_{2}^{-1}\cdot A_{1}^{-1}}

mitkN{\displaystyle k\in \mathbb {N} }. Damit gilt speziell für die Inverse einerMatrixpotenz

(Ak)1=(A1)k{\displaystyle \left(A^{k}\right)^{-1}=\left(A^{-1}\right)^{k}}.

Diese Matrix wird auch durchAk{\displaystyle A^{-k}} notiert.

Weitere Eigenschaften

[Bearbeiten |Quelltext bearbeiten]

Für die Inverse einer Matrix mit Einträgen aus einem KörperK{\displaystyle K} gelten folgende weitere Eigenschaften. Für die Inverse desProdukts einer Matrix mit einem SkalarcK{\displaystyle c\in K} mitc0{\displaystyle c\neq 0} gilt

(cA)1=c1A1{\displaystyle (cA)^{-1}=c^{-1}A^{-1}}.

Die Inverse dertransponierten Matrix ist gleich der Transponierten der Inversen, also

(AT)1=(A1)T{\displaystyle \left(A^{T}\right)^{-1}=\left(A^{-1}\right)^{T}}.

Gleiches gilt auch für die Inverse eineradjungierten komplexen Matrix

(AH)1=(A1)H{\displaystyle \left(A^{H}\right)^{-1}=\left(A^{-1}\right)^{H}}.

Diese beiden Matrizen werden gelegentlich auch durchAT{\displaystyle A^{-T}} undAH{\displaystyle A^{-H}} notiert.[1] Für denRang der Inversen gilt

rang(A1)=rang(A)=n{\displaystyle \operatorname {rang} \left(A^{-1}\right)=\operatorname {rang} (A)=n}

und für ihreDeterminante

det(A1)=(detA)1{\displaystyle \operatorname {det} \left(A^{-1}\right)=(\det A)^{-1}}.

Istλ{\displaystyle \lambda } einEigenwert vonA{\displaystyle A} zumEigenvektorx{\displaystyle x}, so istλ1{\displaystyle \lambda ^{-1}} ein Eigenwert vonA1{\displaystyle A^{-1}} ebenfalls zum Eigenvektorx{\displaystyle x}.

Die Inverse einer reellenDiagonalmatrix mitDiagonalelementend1,,dn0{\displaystyle d_{1},\ldots ,d_{n}\neq 0} ergibt sich durch Bildung derKehrwerte aller Diagonalelemente, denn

diag(d1,,dn)diag(d11,,dn1)=diag(1,,1)=I{\displaystyle \operatorname {diag} \left(d_{1},\ldots ,d_{n}\right)\cdot \operatorname {diag} \left(d_{1}^{-1},\ldots ,d_{n}^{-1}\right)=\operatorname {diag} \left(1,\ldots ,1\right)=I}.

Invarianten

[Bearbeiten |Quelltext bearbeiten]

Manche reguläre Matrizen behalten ihre Zusatzeigenschaften unter Inversion. Beispiele hierfür sind:

Berechnung

[Bearbeiten |Quelltext bearbeiten]

Zur Berechnung der Inversen einer MatrixA{\displaystyle A} (auch als Inversion oder Invertierung der Matrix bezeichnet) nutzt man, dass derenj{\displaystyle j}-ten Spaltena^j{\displaystyle {\hat {a}}_{j}} jeweils die Lösungen der linearen GleichungssystemeAa^j=ej{\displaystyle A\cdot {\hat {a}}_{j}=e_{j}} mit demj{\displaystyle j}-ten Einheitsvektor als rechter Seite sind. Numerische Verfahren wie derGauß-Jordan-Algorithmus führen dann zu effizienten Algorithmen zur Berechnung der Inversen. Daneben lassen sich unter Verwendung der Adjunkten einer Matrix auch explizite Formeln für die Inverse herleiten.

Im Folgenden wird angenommen, dass die Einträge der Matrix aus einemKörper stammen, damit die entsprechenden Rechenoperationen stets durchführbar sind.

Gauß-Jordan-Algorithmus

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Gauß-Jordan-Algorithmus

Gleichungsdarstellung

[Bearbeiten |Quelltext bearbeiten]

Ausgeschrieben lautet die MatrixgleichungAA1=I{\displaystyle A\cdot A^{-1}=I} mitA=(aij){\displaystyle A=(a_{ij})} undA1=(a^ij){\displaystyle A^{-1}=({\hat {a}}_{ij})}

(a11a1n an1ann)(a^11a^1n a^n1a^nn)=(1 0  0 1){\displaystyle {\begin{pmatrix}a_{11}&\ldots &a_{1n}\\\vdots &~&\vdots \\a_{n1}&\ldots &a_{nn}\end{pmatrix}}\cdot {\begin{pmatrix}{\hat {a}}_{11}&\ldots &{\hat {a}}_{1n}\\\vdots &~&\vdots \\{\hat {a}}_{n1}&\ldots &{\hat {a}}_{nn}\end{pmatrix}}={\begin{pmatrix}1&~&0\\~&\ddots &~\\0&~&1\end{pmatrix}}}.

Diej{\displaystyle j}-te Spalte der Inversena^j=(a^1j,a^2j,,a^nj)T{\displaystyle {\hat {a}}_{j}=\left({\hat {a}}_{1j},{\hat {a}}_{2j},\ldots ,{\hat {a}}_{nj}\right)^{T}} ergibt sich damit als Lösung deslinearen Gleichungssystems

Aa^j=ej{\displaystyle A\cdot {\hat {a}}_{j}=e_{j}},

wobeiej{\displaystyle e_{j}} derj{\displaystyle j}-teEinheitsvektor ist. Die Inverse einer MatrixA{\displaystyle A} ist demnach spaltenweise in der Form

A1=(a^1 | a^2 |  | a^n){\displaystyle A^{-1}=\left({\hat {a}}_{1}~|~{\hat {a}}_{2}~|~\ldots ~|~{\hat {a}}_{n}\right)}

aus den Lösungenn{\displaystyle n} linearer Gleichungssysteme mit jeweilsA{\displaystyle A} als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.

Verfahren

[Bearbeiten |Quelltext bearbeiten]

Die Inverse einer Matrix kann nun effizient mit demGauß-Jordan-Algorithmus berechnet werden. Die Idee bei diesem Verfahren ist es, dien{\displaystyle n} linearen GleichungssystemeAa^j=ej{\displaystyle A\cdot {\hat {a}}_{j}=e_{j}} simultan zu lösen. Hierzu wird zunächst die KoeffizientenmatrixA{\displaystyle A} um die EinheitsmatrixI{\displaystyle I} erweitert und man schreibt dann

(A|I)=(a11a1n1 0   an1ann0 1){\displaystyle (\,A\,|\,I\,)=\left({\begin{array}{ccc|ccc}a_{11}&\ldots &a_{1n}\,&\,1&~&0\\\vdots &~&\vdots \,&\,~&\ddots &~\\a_{n1}&\ldots &a_{nn}\,&\,0&~&1\end{array}}\right)}.

Nun wird die MatrixA{\displaystyle A} mit Hilfeelementarer Zeilenumformungen auf obereDreiecksgestalt gebracht, wobei die EinheitsmatrixI{\displaystyle I} mit umgeformt wird:

(D|B)=(  0 ){\displaystyle (\,D\,|\,B\,)=\left({\begin{array}{ccc|ccc}\,*\,&\ldots &\,*\,\,&\,\,*\,&\ldots &\,*\,\\~&\ddots &\vdots \,&\,\vdots &~&\vdots \\0&~&\,*\,\,&\,\,*\,&\ldots &\,*\,\end{array}}\right)}.

An dieser Stelle kann entschieden werden, ob die MatrixA{\displaystyle A} überhaupt eine Inverse besitzt. Die MatrixA{\displaystyle A} ist nämlich genau dann invertierbar, wenn die MatrixD{\displaystyle D} keine Null auf der Hauptdiagonalen enthält. Ist dies der Fall, so kann die MatrixD{\displaystyle D} mit weiteren elementaren Zeilenumformungen zunächst aufDiagonalgestalt gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form

(I|A1)=(1 0a^11a^1n   0 1a^n1a^nn){\displaystyle (\,I\,|\,A^{-1}\,)=\left({\begin{array}{ccc|ccc}1&~&0\,&\,{\hat {a}}_{11}&\ldots &{\hat {a}}_{1n}\\~&\ddots &~\,&\,\vdots &~&\vdots \\0&~&1\,&\,{\hat {a}}_{n1}&\ldots &{\hat {a}}_{nn}\end{array}}\right)},

wobei auf der rechten Seite dann die gesuchte InverseA1{\displaystyle A^{-1}} steht.

Beispiele

[Bearbeiten |Quelltext bearbeiten]

Als Beispiel werde die Inverse der reellen(2×2){\displaystyle (2\times 2)}-Matrix

A=(1223){\displaystyle A={\begin{pmatrix}1&2\\2&3\end{pmatrix}}}

gesucht. Mit dem Gauß-Jordan-Algorithmus ergeben sich die Rechenschritte

(12102301)(12100121)(10320121)(10320121){\displaystyle \left({\begin{array}{cc|cc}1&2\,&\,1&0\\{\color {BrickRed}2}&3\,&\,0&1\end{array}}\right)\rightarrow \left({\begin{array}{cc|cc}1&{\color {OliveGreen}2}\,&\,1&0\\0&-1\,&\,-2&1\end{array}}\right)\rightarrow \left({\begin{array}{cc|cc}1&0\,&\,-3&2\\0&{\color {Blue}-1}\,&\,-2&1\end{array}}\right)\rightarrow \left({\begin{array}{cc|cc}1&0\,&\,-3&2\\0&1\,&\,2&-1\end{array}}\right)}.

Hierbei wird zunächst die2{\displaystyle \color {BrickRed}2} unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die2{\displaystyle \color {OliveGreen}2} oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit1{\displaystyle \color {Blue}-1} erfordert. Die Inverse vonA{\displaystyle A} ist demnach

A1=(3221){\displaystyle A^{-1}={\begin{pmatrix}-3&2\\2&-1\end{pmatrix}}}.

Als weiteres Beispiel werde die Inverse der reellen(3×3){\displaystyle (3\times 3)}-Matrix

A=(120241210){\displaystyle A={\begin{pmatrix}1&2&0\\2&4&1\\2&1&0\end{pmatrix}}}

gesucht. Zunächst werden hier die beiden2{\displaystyle \color {BrickRed}2}-en in der ersten Spalte eliminiert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem in der zweiten Spalte nun dasPivotelement gleich0{\displaystyle 0} ist, wird zur Elimination der3{\displaystyle \color {BrickRed}-3} die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:

(120100241010210001)(120100001210030201)(120100030201001210){\displaystyle \left({\begin{array}{ccc|ccc}1&2&0\,&\,1&0&0\\{\color {BrickRed}2}&4&1\,&\,0&1&0\\{\color {BrickRed}2}&1&0\,&\,0&0&1\end{array}}\right)\rightarrow \left({\begin{array}{ccc|ccc}1&2&0\,&\,1&0&0\\0&0&1\,&\,-2&1&0\\0&{\color {BrickRed}-3}&0\,&\,-2&0&1\end{array}}\right)\rightarrow \left({\begin{array}{ccc|ccc}1&2&0\,&\,1&0&0\\0&-3&0\,&\,-2&0&1\\0&0&1\,&\,-2&1&0\end{array}}\right)}.

Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende2{\displaystyle \color {OliveGreen}2} oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Zweidrittelfachen der zweiten Zeile zur ersten Zeile geschieht. Schließlich muss noch die zweite Zeile durch3{\displaystyle \color {Blue}-3} dividiert werden und man erhält als Ergebnis:

(120100030201001210)(10013023030201001210)(1001302301023013001210){\displaystyle \left({\begin{array}{ccc|ccc}1&{\color {OliveGreen}2}&0\,&\,1&0&0\\0&-3&0\,&\,-2&0&1\\0&0&1\,&\,-2&1&0\end{array}}\right)\rightarrow \left({\begin{array}{ccc|ccc}{\color {Blue}1}&0&0\,&\,-{\tfrac {1}{3}}&0&{\tfrac {2}{3}}\\0&{\color {Blue}-3}&0\,&\,-2&0&1\\0&0&1\,&\,-2&1&0\end{array}}\right)\rightarrow \left({\begin{array}{ccc|ccc}1&0&0\,&\,-{\tfrac {1}{3}}&0&{\tfrac {2}{3}}\\0&1&0\,&\,{\tfrac {2}{3}}&0&-{\tfrac {1}{3}}\\0&0&1\,&\,-2&1&0\end{array}}\right)}.

Die Inverse vonA{\displaystyle A} ist demnach

A1=(1302323013210)=13(102201630){\displaystyle A^{-1}={\begin{pmatrix}-{\tfrac {1}{3}}&0&{\tfrac {2}{3}}\\{\tfrac {2}{3}}&0&-{\tfrac {1}{3}}\\-2&1&0\end{pmatrix}}={\frac {1}{3}}{\begin{pmatrix}-1&0&2\\2&0&-1\\-6&3&0\end{pmatrix}}}.

Korrektheit

[Bearbeiten |Quelltext bearbeiten]

Dass durch den Gauß-Jordan-Algorithmus tatsächlich die inverse Matrix berechnet wird, kann wie folgt nachgewiesen werden. SindN1,,Nm{\displaystyle N_{1},\ldots ,N_{m}}Elementarmatrizen, mit denen die MatrixA{\displaystyle A} in die Einheitsmatrix umgeformt wird, dann gilt

I=NmN2N1A{\displaystyle I=N_{m}\dotsm N_{2}\cdot N_{1}\cdot A}.

Werden nun beide Seiten dieserGleichung von rechts mit der MatrixA1{\displaystyle A^{-1}} multipliziert, folgt daraus

A1=NmN2N1I{\displaystyle A^{-1}=N_{m}\dotsm N_{2}\cdot N_{1}\cdot I}.

Wird demnach eine MatrixA{\displaystyle A} durch Multiplikation von links mit einer Reihe von Elementarmatrizen in die Einheitsmatrix umgewandelt, so ergibt die Multiplikation der Einheitsmatrix mit diesen Elementarmatrizen in der gleichen Reihenfolge gerade die InverseA1{\displaystyle A^{-1}}.

Laufzeit

[Bearbeiten |Quelltext bearbeiten]

DieLaufzeit desGauß-Jordan-Algorithmus für die Inversion einer(n×n){\displaystyle (n\times n)}-Matrix beträgtO(n3){\displaystyle O(n^{3})}.[2]

Darstellung über die Adjunkte

[Bearbeiten |Quelltext bearbeiten]

Herleitung

[Bearbeiten |Quelltext bearbeiten]

Mit Hilfe derCramerschen Regel lässt sich die Lösung des linearen GleichungssystemsAa^j=ej{\displaystyle A\cdot {\hat {a}}_{j}=e_{j}} auch explizit durch

a^ij=detAidetA{\displaystyle {\hat {a}}_{ij}={\frac {\det A_{i}}{\det A}}}

angeben, wobei die MatrixAi{\displaystyle A_{i}} durch Ersetzen deri{\displaystyle i}-ten Spalte mit dem Einheitsvektorej{\displaystyle e_{j}} entsteht. Wird nun die Determinante im Zähler mit Hilfe desLaplaceschen Entwicklungssatzes nach deri{\displaystyle i}-ten Spalte entwickelt, ergibt sich

a^ij=(1)i+jdetAjidetA{\displaystyle {\hat {a}}_{ij}={\frac {(-1)^{i+j}\cdot \det A_{ji}}{\det A}}},

wobeiAij{\displaystyle A_{ij}} dieUntermatrix vonA{\displaystyle A} ist, die durch Streichung deri{\displaystyle i}-ten Zeile undj{\displaystyle j}-ten Spalte entsteht (man beachte in obiger Formel die Vertauschung der Reihenfolge voni{\displaystyle i} undj{\displaystyle j}). Die UnterdeterminantendetAij{\displaystyle \det A_{ij}} werden auch alsMinoren vonA{\displaystyle A} bezeichnet. Die Zahlen

a~ij=(1)i+jdetAij{\displaystyle {\tilde {a}}_{ij}=(-1)^{i+j}\cdot \det A_{ij}}

heißen auch Kofaktoren vonA{\displaystyle A} und bilden als Matrix zusammengefasst die KofaktormatrixcofA=(a~ij){\displaystyle \operatorname {cof} A=({\tilde {a}}_{ij})}. Die Transponierte der Kofaktormatrix wird auchAdjunkteadjA{\displaystyle \operatorname {adj} A} vonA{\displaystyle A} genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung

A1=1detAadjA{\displaystyle A^{-1}={\frac {1}{\det A}}\cdot \operatorname {adj} A}.

Diese Darstellung gilt auch für Matrizen mit Einträgen aus einemkommutativen Ring mit Eins, soferndetA{\displaystyle \det A} eineEinheit in dem Ring darstellt.

Explizite Formeln

[Bearbeiten |Quelltext bearbeiten]

Für(2×2){\displaystyle (2\times 2)}-Matrizen ergibt sich damit die explizite Formel

(abcd)1=1detA(dbca)=1adbc(dbca){\displaystyle {\begin{pmatrix}a&b\\c&d\end{pmatrix}}^{-1}={\frac {1}{\det A}}\cdot {\begin{pmatrix}d&-b\\-c&a\end{pmatrix}}={\frac {1}{ad-bc}}\cdot {\begin{pmatrix}d&-b\\-c&a\end{pmatrix}}}.

Für(3×3){\displaystyle (3\times 3)}-Matrizen ergibt sich entsprechend die Formel

(abcdefghi)1=1detA(eifhchbibfcefgdiaicgcdafdhegbgahaebd){\displaystyle {\begin{pmatrix}a&b&c\\d&e&f\\g&h&i\end{pmatrix}}^{-1}={\frac {1}{\det A}}\cdot {\begin{pmatrix}ei-fh&ch-bi&bf-ce\\fg-di&ai-cg&cd-af\\dh-eg&bg-ah&ae-bd\end{pmatrix}}},

wobeidetA{\displaystyle \det A} mit derRegel von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.

Beispiele

[Bearbeiten |Quelltext bearbeiten]

Die Inverse der folgenden reellen(2×2){\displaystyle (2\times 2)}-Matrix ergibt sich zu

(1234)1=146(4231)=12(4231){\displaystyle {\begin{pmatrix}1&2\\3&4\end{pmatrix}}^{-1}={\frac {1}{4-6}}\,{\begin{pmatrix}4&-2\\-3&1\end{pmatrix}}={\frac {1}{2}}{\begin{pmatrix}-4&2\\3&-1\end{pmatrix}}}

und die Inverse der folgenden reellen(3×3){\displaystyle (3\times 3)}-Matrix zu

(210121012)1=1822(412010204020102041)=14(321242123){\displaystyle {\begin{pmatrix}2&-1&0\\-1&2&-1\\0&-1&2\end{pmatrix}}^{-1}={\frac {1}{8-2-2}}\,{\begin{pmatrix}4-1&2-0&1-0\\2-0&4-0&2-0\\1-0&2-0&4-1\end{pmatrix}}={\frac {1}{4}}{\begin{pmatrix}3&2&1\\2&4&2\\1&2&3\end{pmatrix}}}.

Blockweise Inversion

[Bearbeiten |Quelltext bearbeiten]

Ist einequadratischeBlockmatrixM=(ABCD){\displaystyle M=\left({\begin{matrix}A&B\\C&D\end{matrix}}\right)} gegeben, wobeiA{\displaystyle A} und dasSchur-KomplementM/A:=DCA1B{\displaystyle M/A:=D-CA^{-1}B} vonA{\displaystyle A} inM{\displaystyle M} eine reguläre Matrix ist, dann ist auchM{\displaystyle M} eine reguläre Matrix und es gilt

M=(I0CA1I)(A00M/A)(IA1B0I){\displaystyle M=\left({\begin{matrix}I&0\\CA^{-1}&I\end{matrix}}\right)\left({\begin{matrix}A&0\\0&M/A\end{matrix}}\right)\left({\begin{matrix}I&A^{-1}B\\0&I\end{matrix}}\right)}

Daraus folgt für die inverse Matrix

M1=(IA1B0I)1(A00M/A)1(I0CA1I)1=(IA1B0I)(A100(M/A)1)(I0CA1I)=(A1+A1B(M/A)1CA1A1B(M/A)1(M/A)1CA1(M/A)1){\displaystyle {\begin{aligned}M^{-1}&=\left({\begin{matrix}I&A^{-1}B\\0&I\end{matrix}}\right)^{-1}\left({\begin{matrix}A&0\\0&M/A\end{matrix}}\right)^{-1}\left({\begin{matrix}I&0\\CA^{-1}&I\end{matrix}}\right)^{-1}\\&=\left({\begin{matrix}I&-A^{-1}B\\0&I\end{matrix}}\right)\left({\begin{matrix}A^{-1}&0\\0&(M/A)^{-1}\end{matrix}}\right)\left({\begin{matrix}I&0\\-CA^{-1}&I\end{matrix}}\right)\\&=\left({\begin{matrix}A^{-1}+A^{-1}B(M/A)^{-1}CA^{-1}&-A^{-1}B(M/A)^{-1}\\-(M/A)^{-1}CA^{-1}&(M/A)^{-1}\end{matrix}}\right)\end{aligned}}}

WennD{\displaystyle D} und dasSchur-KomplementM/D:=ABD1C{\displaystyle M/D:=A-BD^{-1}C} vonD{\displaystyle D} inM{\displaystyle M} eine reguläre Matrix ist, gilt entsprechend

M=(IBD10I)(M/D00D)(I0D1CI){\displaystyle M=\left({\begin{matrix}I&BD^{-1}\\0&I\end{matrix}}\right)\left({\begin{matrix}M/D&0\\0&D\end{matrix}}\right)\left({\begin{matrix}I&0\\D^{-1}C&I\end{matrix}}\right)}

und für die inverse Matrix[3]

M1=(I0D1CI)1(M/D00D)1(IBD10I)1=(I0D1CI)((M/D)100D1)(IBD10I)=((M/D)1(M/D)1BD1D1C(M/D)1D1+D1C(M/D)1BD1){\displaystyle {\begin{aligned}M^{-1}&=\left({\begin{matrix}I&0\\D^{-1}C&I\end{matrix}}\right)^{-1}\left({\begin{matrix}M/D&0\\0&D\end{matrix}}\right)^{-1}\left({\begin{matrix}I&BD^{-1}\\0&I\end{matrix}}\right)^{-1}\\&=\left({\begin{matrix}I&0\\-D^{-1}C&I\end{matrix}}\right)\left({\begin{matrix}(M/D)^{-1}&0\\0&D^{-1}\end{matrix}}\right)\left({\begin{matrix}I&-BD^{-1}\\0&I\end{matrix}}\right)\\&=\left({\begin{matrix}(M/D)^{-1}&-(M/D)^{-1}BD^{-1}\\-D^{-1}C(M/D)^{-1}&D^{-1}+D^{-1}C(M/D)^{-1}BD^{-1}\end{matrix}}\right)\end{aligned}}}

Mithilfe dieser Formel kann die inverse Matrix einerquadratischen (k×k{\displaystyle k\times k})-BlockmatrixARn×n{\displaystyle A\in R^{n\times n}} mit Blöcken der Dimensionb×b{\displaystyle b\times b} effizient berechnet werden. Es ist alson=kb{\displaystyle n=k\cdot b}. DieLaufzeit für die Inversion beträgtO(k2b34k){\displaystyle O(k^{2}\cdot b^{3}\cdot 4^{k})}. Im Vergleich dazu beträgt dieLaufzeit für denGauß-Jordan-AlgorithmusO(n3)=O(k3b3){\displaystyle O(n^{3})=O(k^{3}\cdot b^{3})}.[4]

Darstellung mithilfe des charakteristischen Polynoms

[Bearbeiten |Quelltext bearbeiten]

Speziell für einequadratische,reguläre Matrix lässt sich das Inverse mithilfe ihrescharakteristischen Polynomes berechnen:

SeiAKn×n{\displaystyle A\in K^{n\times n}} eine quadratische Matrix, undχA(t)=α0+α1t1++αntn{\displaystyle \chi _{A}(t)=\alpha _{0}+\alpha _{1}\cdot t^{1}+\ldots +\alpha _{n}\cdot t^{n}} dascharakteristische Polynom vonA{\displaystyle A}. Dann istA{\displaystyle A} genau dann regulär, wennα00{\displaystyle \alpha _{0}\neq 0} ist, daα0{\displaystyle \alpha _{0}} gleich derDeterminante vonA{\displaystyle A} ist, und es gilt

A1=1det(A)(α1In+α2A++αnAn1){\displaystyle A^{-1}={\frac {-1}{\det(A)}}\left(\alpha _{1}I_{n}+\alpha _{2}A+\ldots +\alpha _{n}A^{n-1}\right)}

Das Einsetzen der Matrix in das Polynom verläuft analog zum Einsetzen einer reellen Zahl, nur dass hier dieRechenregeln für Matrizen gelten.In{\displaystyle I_{n}} bezeichnet dieEinheitsmatrix mitn{\displaystyle n} Zeilen und Spalten.

Herleitung

[Bearbeiten |Quelltext bearbeiten]

Ausgenutzt wurde hierbei derSatz von Cayley-Hamilton, welcher besagt, dass sich immer0{\displaystyle 0} ergibt, wenn man eine Matrix in ihrcharakteristisches Polynom einsetzt. FürAKn,n{\displaystyle A\in K^{n,n}} mit ihrem charakteristischen PolynomχA(t)=α0+α1t1++αntn{\displaystyle \chi _{A}(t)=\alpha _{0}+\alpha _{1}\cdot t^{1}+\ldots +\alpha _{n}\cdot t^{n}} gilt also immer:

χA(A)=0α0In+i=1nαiAi=0α0In=Ai=1nαiAi1A1=i=1nαiAi1α0{\displaystyle \chi _{A}(A)=0\,\,\Longleftrightarrow \,\,\alpha _{0}\cdot I_{n}+\sum _{i=1}^{n}\alpha _{i}\cdot A^{i}=0\,\,\Longleftrightarrow \,\,-\alpha _{0}\cdot I_{n}=A\cdot \sum _{i=1}^{n}\alpha _{i}\cdot A^{i-1}\,\,\Longleftrightarrow \,\,A^{-1}=\displaystyle -{\frac {\sum _{i=1}^{n}\alpha _{i}\cdot A^{i-1}}{\alpha _{0}}}}

Beispiel

[Bearbeiten |Quelltext bearbeiten]

SeiA=(325113246){\displaystyle A={\begin{pmatrix}3&2&5\\1&1&3\\2&4&6\end{pmatrix}}}. Dann ist ihr charakteristisches PolynomχA(t)=t310t2+3t+8{\displaystyle \chi _{A}(t)=t^{3}-10\cdot t^{2}+3\cdot t+8}.

Einsetzen in die Formel ergibt:

A1=1α0i=1nαiAi1=1α0(α1I3+α2A+α3A2)=18(3(100010001)10(325113246)+1(212851101526223258))=18(681084281){\displaystyle {\begin{aligned}A^{-1}&={\frac {-1}{\alpha _{0}}}\sum _{i=1}^{n}\alpha _{i}\cdot A^{i-1}\\\\&={\frac {-1}{\alpha _{0}}}\left(\alpha _{1}\cdot I_{3}+\alpha _{2}\cdot A+\alpha _{3}\cdot A^{2}\right)\\\\&={\frac {-1}{8}}\left(3\cdot {\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\end{pmatrix}}-10\cdot {\begin{pmatrix}3&2&5\\1&1&3\\2&4&6\end{pmatrix}}+1\cdot {\begin{pmatrix}21&28&51\\10&15&26\\22&32&58\end{pmatrix}}\right)\\\\&=-{\frac {1}{8}}{\begin{pmatrix}-6&8&1\\0&8&-4\\2&-8&1\end{pmatrix}}\end{aligned}}}

Wobei hier die Zusammenhängeα0=det(A){\displaystyle \alpha _{0}=\det(A)} (siehecharakteristisches Polynom) sowieA0=In{\displaystyle A^{0}=I_{n}}(sieheEinheitsmatrix) ausgenutzt wurden.

Numerische Berechnung

[Bearbeiten |Quelltext bearbeiten]

Generell werden in derNumerik lineare Gleichungssysteme der FormAx=b{\displaystyle Ax=b} nicht über die Inverse durch

x=A1b{\displaystyle x=A^{-1}b},

sondern mit speziellen Verfahren für lineare Gleichungssysteme gelöst (sieheNumerische lineare Algebra). Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen wenigerstabil. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann aufNäherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist dieNeumann-Reihe, mit der die Inverse einer Matrix durch die unendlicheReihe

A1=k=0(IA)k{\displaystyle A^{-1}=\sum _{k=0}^{\infty }(I-A)^{k}}

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für spezielle Matrizen, wieBandmatrizen oderToeplitz-Matrizen, gibt es eigene effiziente Berechnungsverfahren zur Ermittlung der Inversen.

Verwendung

[Bearbeiten |Quelltext bearbeiten]

Spezielle Matrizen

[Bearbeiten |Quelltext bearbeiten]

Mit Hilfe der inversen Matrix können folgende Klassen von Matrizen charakterisiert werden:

Weitere Matrizen, deren Inverse explizit angegeben werden kann, sind neben Diagonalmatrizen unter anderemFrobeniusmatrizen,Hilbertmatrizen undTridiagonal-Toeplitz-Matrizen.

Inverse Abbildungen

[Bearbeiten |Quelltext bearbeiten]

SindV{\displaystyle V} undW{\displaystyle W} zwein{\displaystyle n}-dimensionaleVektorräume über dem KörperK{\displaystyle K}, dann wird die zu einer gegebenenbijektivenlinearen Abbildungf:VW{\displaystyle f\colon V\to W} zugehörigeinverse Abbildungf1:WV{\displaystyle f^{-1}\colon W\to V} durch

f1f=ff1=id{\displaystyle f^{-1}\circ f=f\circ f^{-1}=\operatorname {id} }

charakterisiert, wobeiid{\displaystyle \operatorname {id} } dieidentische Abbildung darstellt. Ist nun{v1,,vn}{\displaystyle \{v_{1},\ldots ,v_{n}\}} eineBasis fürV{\displaystyle V} und{w1,,wn}{\displaystyle \{w_{1},\ldots ,w_{n}\}} eine Basis fürW{\displaystyle W}, dann gilt für die zugehörigenAbbildungsmatrizenAfKn×n{\displaystyle A_{f}\in K^{n\times n}} undAf1Kn×n{\displaystyle A_{f^{-1}}\in K^{n\times n}} die Beziehung

Af1=Af1{\displaystyle A_{f^{-1}}=A_{f}^{-1}}.

Die Abbildungsmatrix der inversen Abbildung ist demnach gerade die Inverse der Abbildungsmatrix der Ausgangsabbildung.

Duale Basen

[Bearbeiten |Quelltext bearbeiten]

IstV{\displaystyle V} ein endlichdimensionaler Vektorraum über dem KörperK{\displaystyle K}, dann ist der zugehörigeDualraumV{\displaystyle V^{\ast }} der Vektorraum derlinearen FunktionaleVK{\displaystyle V\to K}. Ist{v1,,vn}{\displaystyle \{v_{1},\ldots ,v_{n}\}} eine Basis fürV{\displaystyle V}, dann wird die zugehörigeduale Basis{v1,,vn}{\displaystyle \{v_{1}^{\ast },\ldots ,v_{n}^{\ast }\}} vonV{\displaystyle V^{\ast }} mit Hilfe desKronecker-Deltas durch

vi(vj)=δij{\displaystyle v_{i}^{\ast }(v_{j})=\delta _{ij}}

füri,j=1,,n{\displaystyle i,j=1,\ldots ,n} charakterisiert. Ist nunAv=(x1xn){\displaystyle A_{v}=(x_{1}\mid \ldots \mid x_{n})} die Matrix bestehend aus denKoordinatenvektoren der Basisvektoren, dann ergibt sich die zugehörige duale MatrixAv=(x1xn)T{\displaystyle A_{v^{\ast }}=(x_{1}^{\ast }\mid \ldots \mid x_{n}^{\ast })^{T}} als

Av=Av1{\displaystyle A_{v^{\ast }}=A_{v}^{-1}}.

Die Basismatrix der dualen Basis ist demnach gerade die Inverse der Basismatrix der primalen Basis.

Weitere Anwendungen

[Bearbeiten |Quelltext bearbeiten]

Inverse Matrizen werden in der linearen Algebra unter anderem auch verwendet:

Siehe auch

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]

Weblinks

[Bearbeiten |Quelltext bearbeiten]

Einzelnachweise

[Bearbeiten |Quelltext bearbeiten]
  1. G. W. Stewart:Matrix Algorithms. Volume 1:Basic Decompositions. SIAM, 1998,S. 38. 
  2. Universität Leipzig:Lineare Gleichungssysteme und lineare Unterräume
  3. Stephen M. Watt, University of Western Ontario:Pivot-Free Block Matrix Inversion
  4. Iria C. S. Cosme, Isaac F. Fernandes, Joao L. de Carvalho, Samuel Xavier-de-Souza:Memory-Usage Advantageous Block Recursive Matrix Inverse
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Inverse_Matrix&oldid=261705837
Kategorie:

[8]ページ先頭

©2009-2026 Movatter.jp