Dieinverse Matrix,reziproke Matrix,Kehrmatrix oder kurzInverse einerquadratischen Matrix ist in derMathematik eine ebenfalls quadratische Matrix, die mit der Ausgangsmatrix multipliziert dieEinheitsmatrix ergibt. Nicht jede quadratische Matrix besitzt eine Inverse; die invertierbaren Matrizen werdenreguläre Matrizen genannt. Eine reguläre Matrix ist dieDarstellungsmatrix einerbijektivenlinearen Abbildung und die inverse Matrix stellt dann dieUmkehrabbildung dieser Abbildung dar. Die Menge der regulären Matrizen fester Größe bildet mit derMatrizenmultiplikation alsVerknüpfung dieallgemeine lineare Gruppe. Die inverse Matrix ist dann das jeweiligeinverse Element in dieser Gruppe.
Die Berechnung der Inverse einer Matrix wird auch alsInversion oderInvertierung der Matrix bezeichnet. Die Invertierung einer Matrix kann mit demGauß-Jordan-Algorithmus oder über dieAdjunkte der Matrix erfolgen. Die inverse Matrix wird in derlinearen Algebra unter anderem bei der Lösunglinearer Gleichungssysteme, beiÄquivalenzrelationen von Matrizen und bei Matrixzerlegungen verwendet.
Ist
einereguläre Matrix mit Einträgen aus einemunitären Ring
(in der Praxis meist demKörper derreellen Zahlen), dann ist die zugehörige inverse Matrix
diejenige Matrix, für die

gilt, wobei der Malpunkt
dieMatrizenmultiplikation darstellt und
dieEinheitsmatrix der Größe
ist. Ist
einkommutativer Ring, Körper oderSchiefkörper, so sind die beiden Bedingungen äquivalent, das heißt eine rechtsinverse Matrix ist auch linksinvers und umgekehrt.
Die Inverse der reellen
-Matrix

ist
,
denn es gilt

Die Menge der regulären Matrizen fester Größe über einem unitären Ring
bildet mit der Matrizenmultiplikation als Verknüpfung eine (im Allgemeinennichtkommutative)Gruppe, dieallgemeine lineare Gruppe
. In dieser Gruppe ist die Einheitsmatrix dasneutrale Element und die inverse Matrix dasinverse Element. Als solches ist die Inverse einer Matrix eindeutig definiert und sowohl links- als auch rechtsinvers. Insbesondere ergibt die Inverse der Einheitsmatrix wieder die Einheitsmatrix, also
,
und die Inverse der inversen Matrix wieder die Ausgangsmatrix, das heißt
.
Die Matrizen
und
werden daher auch zueinander invers genannt. Das Produkt zweier regulärer Matrizen ist wieder regulär und die Inverse des Produkts ist das Produkt der jeweiligen Inversen, allerdings in umgekehrter Reihenfolge:
.
Kann eine Matrix als Produkt leicht invertierbarer Matrizen dargestellt werden, so kann auf diese Weise die Inverse der Matrix schnell ermittelt werden. Für die Inverse des Produkts mehrerer Matrizen gilt die allgemeine Produktformel

mit
. Damit gilt speziell für die Inverse einerMatrixpotenz
.
Diese Matrix wird auch durch
notiert.
Für die Inverse einer Matrix mit Einträgen aus einem Körper
gelten folgende weitere Eigenschaften. Für die Inverse desProdukts einer Matrix mit einem Skalar
mit
gilt
.
Die Inverse dertransponierten Matrix ist gleich der Transponierten der Inversen, also
.
Gleiches gilt auch für die Inverse eineradjungierten komplexen Matrix
.
Diese beiden Matrizen werden gelegentlich auch durch
und
notiert.[1] Für denRang der Inversen gilt

und für ihreDeterminante
.
Ist
einEigenwert von
zumEigenvektor
, so ist
ein Eigenwert von
ebenfalls zum Eigenvektor
.
Die Inverse einer reellenDiagonalmatrix mitDiagonalelementen
ergibt sich durch Bildung derKehrwerte aller Diagonalelemente, denn
.
Manche reguläre Matrizen behalten ihre Zusatzeigenschaften unter Inversion. Beispiele hierfür sind:
Zur Berechnung der Inversen einer Matrix
(auch als Inversion oder Invertierung der Matrix bezeichnet) nutzt man, dass deren
-ten Spalten
jeweils die Lösungen der linearen Gleichungssysteme
mit dem
-ten Einheitsvektor als rechter Seite sind. Numerische Verfahren wie derGauß-Jordan-Algorithmus führen dann zu effizienten Algorithmen zur Berechnung der Inversen. Daneben lassen sich unter Verwendung der Adjunkten einer Matrix auch explizite Formeln für die Inverse herleiten.
Im Folgenden wird angenommen, dass die Einträge der Matrix aus einemKörper stammen, damit die entsprechenden Rechenoperationen stets durchführbar sind.
Ausgeschrieben lautet die Matrixgleichung
mit
und
.
Die
-te Spalte der Inversen
ergibt sich damit als Lösung deslinearen Gleichungssystems
,
wobei
der
-teEinheitsvektor ist. Die Inverse einer Matrix
ist demnach spaltenweise in der Form

aus den Lösungen
linearer Gleichungssysteme mit jeweils
als Koeffizientenmatrix und einem Einheitsvektor als rechter Seite zusammengesetzt.
Die Inverse einer Matrix kann nun effizient mit demGauß-Jordan-Algorithmus berechnet werden. Die Idee bei diesem Verfahren ist es, die
linearen Gleichungssysteme
simultan zu lösen. Hierzu wird zunächst die Koeffizientenmatrix
um die Einheitsmatrix
erweitert und man schreibt dann
.
Nun wird die Matrix
mit Hilfeelementarer Zeilenumformungen auf obereDreiecksgestalt gebracht, wobei die Einheitsmatrix
mit umgeformt wird:
.
An dieser Stelle kann entschieden werden, ob die Matrix
überhaupt eine Inverse besitzt. Die Matrix
ist nämlich genau dann invertierbar, wenn die Matrix
keine Null auf der Hauptdiagonalen enthält. Ist dies der Fall, so kann die Matrix
mit weiteren elementaren Zeilenumformungen zunächst aufDiagonalgestalt gebracht werden und dann durch entsprechende Skalierungen in die Einheitsmatrix überführt werden. Schließlich erhält man die Form
,
wobei auf der rechten Seite dann die gesuchte Inverse
steht.
Als Beispiel werde die Inverse der reellen
-Matrix

gesucht. Mit dem Gauß-Jordan-Algorithmus ergeben sich die Rechenschritte
.
Hierbei wird zunächst die
unterhalb der Diagonale eliminiert, was durch Subtraktion des Doppelten der ersten Zeile von der zweiten Zeile erfolgt. Anschließend wird die
oberhalb der Diagonale zu null gesetzt, was durch Addition des Doppelten der zweiten Zeile zur ersten Zeile geschieht. Im letzten Schritt wird dann das zweite Diagonalelement auf eins normiert, was eine Multiplikation der zweiten Zeile mit
erfordert. Die Inverse von
ist demnach
.
Als weiteres Beispiel werde die Inverse der reellen
-Matrix

gesucht. Zunächst werden hier die beiden
-en in der ersten Spalte eliminiert, was jeweils durch Subtraktion des Doppelten der ersten Zeile erfolgt. Nachdem in der zweiten Spalte nun dasPivotelement gleich
ist, wird zur Elimination der
die zweite mit der dritten Zeile vertauscht und man erhält die obere Dreiecksform:
.
Auch diese Matrix ist also invertierbar. Nun muss lediglich die verbleibende
oberhalb der Diagonalen zu null gesetzt werden, was durch Addition des Zweidrittelfachen der zweiten Zeile zur ersten Zeile geschieht. Schließlich muss noch die zweite Zeile durch
dividiert werden und man erhält als Ergebnis:
.
Die Inverse von
ist demnach
.
Dass durch den Gauß-Jordan-Algorithmus tatsächlich die inverse Matrix berechnet wird, kann wie folgt nachgewiesen werden. Sind
Elementarmatrizen, mit denen die Matrix
in die Einheitsmatrix umgeformt wird, dann gilt
.
Werden nun beide Seiten dieserGleichung von rechts mit der Matrix
multipliziert, folgt daraus
.
Wird demnach eine Matrix
durch Multiplikation von links mit einer Reihe von Elementarmatrizen in die Einheitsmatrix umgewandelt, so ergibt die Multiplikation der Einheitsmatrix mit diesen Elementarmatrizen in der gleichen Reihenfolge gerade die Inverse
.
DieLaufzeit desGauß-Jordan-Algorithmus für die Inversion einer
-Matrix beträgt
.[2]
Mit Hilfe derCramerschen Regel lässt sich die Lösung des linearen Gleichungssystems
auch explizit durch

angeben, wobei die Matrix
durch Ersetzen der
-ten Spalte mit dem Einheitsvektor
entsteht. Wird nun die Determinante im Zähler mit Hilfe desLaplaceschen Entwicklungssatzes nach der
-ten Spalte entwickelt, ergibt sich
,
wobei
dieUntermatrix von
ist, die durch Streichung der
-ten Zeile und
-ten Spalte entsteht (man beachte in obiger Formel die Vertauschung der Reihenfolge von
und
). Die Unterdeterminanten
werden auch alsMinoren von
bezeichnet. Die Zahlen

heißen auch Kofaktoren von
und bilden als Matrix zusammengefasst die Kofaktormatrix
. Die Transponierte der Kofaktormatrix wird auchAdjunkte
von
genannt. Mit der Adjunkten hat die Inverse einer Matrix dann die explizite Darstellung
.
Diese Darstellung gilt auch für Matrizen mit Einträgen aus einemkommutativen Ring mit Eins, sofern
eineEinheit in dem Ring darstellt.
Für
-Matrizen ergibt sich damit die explizite Formel
.
Für
-Matrizen ergibt sich entsprechend die Formel
,
wobei
mit derRegel von Sarrus angegeben werden kann. Auch für größere Matrizen können auf diese Weise explizite Formeln für die Inverse hergeleitet werden; ihre Darstellung und Berechnung erweist sich jedoch schnell als sehr aufwändig.
Die Inverse der folgenden reellen
-Matrix ergibt sich zu

und die Inverse der folgenden reellen
-Matrix zu
.
Ist einequadratischeBlockmatrix
gegeben, wobei
und dasSchur-Komplement
von
in
eine reguläre Matrix ist, dann ist auch
eine reguläre Matrix und es gilt

Daraus folgt für die inverse Matrix

Wenn
und dasSchur-Komplement
von
in
eine reguläre Matrix ist, gilt entsprechend

und für die inverse Matrix[3]

Mithilfe dieser Formel kann die inverse Matrix einerquadratischen (
)-Blockmatrix
mit Blöcken der Dimension
effizient berechnet werden. Es ist also
. DieLaufzeit für die Inversion beträgt
. Im Vergleich dazu beträgt dieLaufzeit für denGauß-Jordan-Algorithmus
.[4]
Speziell für einequadratische,reguläre Matrix lässt sich das Inverse mithilfe ihrescharakteristischen Polynomes berechnen:
Sei
eine quadratische Matrix, und
dascharakteristische Polynom von
. Dann ist
genau dann regulär, wenn
ist, da
gleich derDeterminante von
ist, und es gilt

Das Einsetzen der Matrix in das Polynom verläuft analog zum Einsetzen einer reellen Zahl, nur dass hier dieRechenregeln für Matrizen gelten.
bezeichnet dieEinheitsmatrix mit
Zeilen und Spalten.
Ausgenutzt wurde hierbei derSatz von Cayley-Hamilton, welcher besagt, dass sich immer
ergibt, wenn man eine Matrix in ihrcharakteristisches Polynom einsetzt. Für
mit ihrem charakteristischen Polynom
gilt also immer:

Sei
. Dann ist ihr charakteristisches Polynom
.
Einsetzen in die Formel ergibt:

Wobei hier die Zusammenhänge
(siehecharakteristisches Polynom) sowie
(sieheEinheitsmatrix) ausgenutzt wurden.
Generell werden in derNumerik lineare Gleichungssysteme der Form
nicht über die Inverse durch
,
sondern mit speziellen Verfahren für lineare Gleichungssysteme gelöst (sieheNumerische lineare Algebra). Der Berechnungsweg über die Inverse ist zum einen wesentlich aufwändiger und zum anderen wenigerstabil. Gelegentlich kann es jedoch erforderlich sein, die Inverse einer Matrix explizit zu ermitteln. Insbesondere bei sehr großen Matrizen wird dann aufNäherungsverfahren zurückgegriffen. Ein Ansatz hierfür ist dieNeumann-Reihe, mit der die Inverse einer Matrix durch die unendlicheReihe

dargestellt werden kann, sofern die Reihe konvergiert. Wird diese Reihe nach endlich vielen Termen abgeschnitten, erhält man eine näherungsweise Inverse. Für spezielle Matrizen, wieBandmatrizen oderToeplitz-Matrizen, gibt es eigene effiziente Berechnungsverfahren zur Ermittlung der Inversen.
Mit Hilfe der inversen Matrix können folgende Klassen von Matrizen charakterisiert werden:
Weitere Matrizen, deren Inverse explizit angegeben werden kann, sind neben Diagonalmatrizen unter anderemFrobeniusmatrizen,Hilbertmatrizen undTridiagonal-Toeplitz-Matrizen.
Sind
und
zwei
-dimensionaleVektorräume über dem Körper
, dann wird die zu einer gegebenenbijektivenlinearen Abbildung
zugehörigeinverse Abbildung
durch

charakterisiert, wobei
dieidentische Abbildung darstellt. Ist nun
eineBasis für
und
eine Basis für
, dann gilt für die zugehörigenAbbildungsmatrizen
und
die Beziehung
.
Die Abbildungsmatrix der inversen Abbildung ist demnach gerade die Inverse der Abbildungsmatrix der Ausgangsabbildung.
Ist
ein endlichdimensionaler Vektorraum über dem Körper
, dann ist der zugehörigeDualraum
der Vektorraum derlinearen Funktionale
. Ist
eine Basis für
, dann wird die zugehörigeduale Basis
von
mit Hilfe desKronecker-Deltas durch

für
charakterisiert. Ist nun
die Matrix bestehend aus denKoordinatenvektoren der Basisvektoren, dann ergibt sich die zugehörige duale Matrix
als
.
Die Basismatrix der dualen Basis ist demnach gerade die Inverse der Basismatrix der primalen Basis.
Inverse Matrizen werden in der linearen Algebra unter anderem auch verwendet:
- Siegfried Bosch:Lineare Algebra. Springer, 2006,ISBN 3-540-29884-3.
- Gene Golub, Charles van Loan:Matrix Computations. 3. Auflage. Johns Hopkins University Press, 1996,ISBN 0-8018-5414-8.
- Roger Horn, Charles R. Johnson:Matrix Analysis. Cambridge University Press, 1990,ISBN 0-521-38632-2.
- Jörg Liesen,Volker Mehrmann:Lineare Algebra. 3. Auflage. Springer, Berlin, Heidelberg 2021,ISBN 978-3-662-62741-9,doi:10.1007/978-3-662-62742-6.
- Hans Rudolf Schwarz, Norbert Köckler:Numerische Mathematik. 8. Auflage. Vieweg & Teubner, 2011,ISBN 978-3-8348-1551-4.
- ↑G. W. Stewart:Matrix Algorithms. Volume 1:Basic Decompositions. SIAM, 1998,S. 38.
- ↑Universität Leipzig:Lineare Gleichungssysteme und lineare Unterräume
- ↑Stephen M. Watt, University of Western Ontario:Pivot-Free Block Matrix Inversion
- ↑Iria C. S. Cosme, Isaac F. Fernandes, Joao L. de Carvalho, Samuel Xavier-de-Souza:Memory-Usage Advantageous Block Recursive Matrix Inverse