Eigenwerte und Eigenvektoren

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet vonEigenwerte)
Zur Navigation springenZur Suche springen
In dieserScherung der Mona Lisa wurde das Bild so verformt, dass der rote Pfeil (Vektor) seine Richtung (entlang der vertikalen Achse) nicht geändert hat, der blaue Pfeil jedoch schon. Der rote Vektor ist ein Eigenvektor der Scherabbildung, während der blaue Vektor dies aufgrund seiner Richtungsänderung nicht ist. Da der rote Vektor nicht skaliert wird, ist sein zugehöriger Eigenwert 1.

EinEigenvektor einerAbbildung ist in derlinearen Algebra ein vomNullvektor verschiedenerVektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert, wobei man den Skalierungsfaktor alsEigenwert der Abbildung bezeichnet.

Eigenwerte charakterisieren wesentliche Eigenschaftenlinearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften einesmathematischen Modells. Die Verwendung des Präfixes „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung vonDavid Hilbert aus dem Jahre 1904 zurückführen[1] und wird alsGermanismus auch in einigen weiteren Sprachen, darunter demEnglischen, verwendet.

Die im Folgenden beschriebene mathematische Problemstellung heißtspezielles Eigenwertproblem und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalenVektorraums in sich selbst (Endomorphismen), wie sie durch quadratischeMatrizen dargestellt werden.

Hierbei stellt sich die Frage, unter welchen Bedingungen eine Matrixähnlich zu einerDiagonalmatrix ist.[2]

In der englischen Literatur existieren eine Vielzahl an weiteren Begriffen für die Eigenwerte, so werden sie auchenglischcharacteristic roots, latent roots, characteristic values oderenglischproper values genannt.

Inhaltsverzeichnis

Definition

[Bearbeiten |Quelltext bearbeiten]

IstV{\displaystyle V} ein Vektorraum über einemKörperK{\displaystyle K} (in Anwendungen meist der KörperR{\displaystyle \mathbb {R} } derreellen Zahlen oder der KörperC{\displaystyle \mathbb {C} } derkomplexen Zahlen) undf:VV{\displaystyle f\colon V\to V} eine lineare Abbildung vonV{\displaystyle V} in sich selbst (Endomorphismus), so bezeichnet man alsEigenvektor einen Vektorv0{\displaystyle v\neq 0}, der durchf{\displaystyle f} auf ein Vielfachesλv{\displaystyle \lambda \,v} von sich selbst mitλK{\displaystyle \lambda \in K} abgebildet wird:

f(v)=λv{\displaystyle f(v)=\lambda \,v}

Den Faktorλ{\displaystyle \lambda } nennt man dann den zugehörigenEigenwert.

Anders formuliert: Hat für einλK{\displaystyle \lambda \in K} die Gleichung

f(v)=λv{\displaystyle f(v)=\lambda \,v}

eine Lösungv0{\displaystyle v\neq 0} (der Nullvektor ist natürlich immer eine Lösung), so heißtλ{\displaystyle \lambda }Eigenwert vonf.{\displaystyle f.} Jede Lösungv0{\displaystyle v\neq 0} heißtEigenvektor vonf{\displaystyle f} zum Eigenwertλ.{\displaystyle \lambda .}

Hat der Vektorraum eine endliche Dimensiondim(V)=nN,{\displaystyle \operatorname {dim} (V)=n\in \mathbb {N} ,} so kann jeder Endomorphismusf{\displaystyle f} durch eine quadratische(n×n){\displaystyle \left(n\times n\right)}-MatrixA{\displaystyle A} beschrieben werden. Die obige Gleichung lässt sich dann als Matrizengleichung

Ax=λx{\displaystyle A\cdot x=\lambda \,x}

schreiben, wobeix{\displaystyle x} hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösungx0{\displaystyle x\neq 0} Eigenvektor undλ{\displaystyle \lambda } Eigenwert der MatrixA.{\displaystyle A.}

Diese Gleichung kann man auch in der Form

Ax=λEx{\displaystyle A\cdot x=\lambda \,E\cdot x}

schreiben, wobeiE{\displaystyle E} dieEinheitsmatrix bezeichnet, und äquivalent zu

(AλE)x=0{\displaystyle (A-\lambda E)\cdot x=0}

oder

(λEA)x=0{\displaystyle (\lambda E-A)\cdot x=0}

umformen.

Berechnung der Eigenwerte

[Bearbeiten |Quelltext bearbeiten]

Bei kleinen Matrizen können die Eigenwerte symbolisch (exakt) berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hierVerfahren dernumerischen Mathematik zum Einsatz kommen.

Symbolische Berechnung

[Bearbeiten |Quelltext bearbeiten]

Die Gleichung

(AλE)x=0{\displaystyle (A-\lambda E)\cdot x=0}

definiert die Eigenwerte und stellt ein homogeneslineares Gleichungssystem dar.
Dax0{\displaystyle x\neq 0} vorausgesetzt wird, ist dieses genau dann lösbar, wenn

det(AλE)=0{\displaystyle \det(A-\lambda E)=0}

gilt. DieseDeterminante heißt „charakteristisches Polynom“. Es handelt sich um einnormiertes Polynomn{\displaystyle n}-ten Grades inλ.{\displaystyle \lambda .} SeineNullstellen, also die Lösungen der Gleichung

λn+αn1λn1++α1λ+α0=0{\displaystyle \lambda ^{n}+\alpha _{n-1}\cdot \lambda ^{n-1}+\dotsb +\alpha _{1}\cdot \lambda +\alpha _{0}=0}

überK{\displaystyle K}, sind die Eigenwerte. Da ein Polynom vom Gradn{\displaystyle n} höchstensn{\displaystyle n} Nullstellen hat, gibt es auch höchstensn{\displaystyle n} Eigenwerte. Zerfällt das Polynom vollständig in Linearfaktoren, so gibt es genaun{\displaystyle n} Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt werden. Ist der Gradn{\displaystyle n} eine ungerade Zahl und giltK=R{\displaystyle K=\mathbb {R} }, dann ist mindestens einer der Eigenwerte reell.

Eigenraum zum Eigenwert

[Bearbeiten |Quelltext bearbeiten]

Istλ{\displaystyle \lambda } ein Eigenwert der linearen Abbildungf:VV{\displaystyle f\colon V\to V}, dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit dem Nullvektor denEigenraum zum Eigenwertλ{\displaystyle \lambda }. Der Eigenraum ist durch

Eig(f,λ):={vVf(v)=λv}{\displaystyle \operatorname {Eig} (f,\lambda ):=\{v\in V\,\mid \,f(v)=\lambda \cdot v\}}

definiert. Falls dieDimension des Eigenraums größer als 1 ist, wenn es also mehr als einenlinear unabhängigen Eigenvektor zum Eigenwertλ{\displaystyle \lambda } gibt, so nennt man den zum Eigenraum zugehörigen Eigenwertausgeartet (früher auchentartet).[3] DieDimension des EigenraumsEig(f,λ){\displaystyle \operatorname {Eig} \left(f,\lambda \right)} wird alsgeometrische Vielfachheit vonλ{\displaystyle \lambda } bezeichnet.

Eine Verallgemeinerung des Eigenraums ist derHauptraum.

Spektrum und Vielfachheiten

[Bearbeiten |Quelltext bearbeiten]

Für den Rest dieses Abschnittes seiK=C.{\displaystyle K=\mathbb {C} .} Dann besitzt jede(n×n)-Matrix A{\displaystyle \left(n\times n\right){\text{-Matrix }}A} genaun{\displaystyle n} Eigenwerte, wenn man diese mit ihren Vielfachheiten zählt. Mehrfaches Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählungλ1,,λk{\displaystyle \lambda _{1},\dotsc ,\lambda _{k}} derverschiedenen Eigenwerte mit ihren Vielfachheitenμ1,,μk.{\displaystyle \mu _{1},\dotsc ,\mu _{k}.} Dabei ist1kn{\displaystyle 1\leq k\leq n} undi=1kμi=n.{\displaystyle \textstyle \sum _{i=1}^{k}\mu _{i}=n.}

Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man alsalgebraische Vielfachheit. Eigenwerte der algebraischen Vielfachheit1{\displaystyle 1} werden alseinfacher Eigenwert bezeichnet.

Die Menge der Eigenwerte wirdSpektrum genannt undσ(A){\displaystyle \sigma \left(A\right)} geschrieben, sodass also

σ(A)={λC|x0:Ax=λx}{\displaystyle \sigma (A)=\{\lambda \in \mathbb {C} \,|\,\exists x\neq 0\colon Ax=\lambda x\}}

gilt. AlsSpektralradius bezeichnet man den Betrag des betragsmäßig größten Eigenwerts.

Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seinergeometrischen Vielfachheit ist, so spricht man von einemhalbeinfachen Eigenwert (aus dem englischen ‚semisimple‘). Dies entspricht genau der Diagonalisierbarkeit der Blockmatrix zum gegebenen Eigenwert.

Kennt man die Eigenwerte sowie ihre algebraischen und geometrischen Vielfachheiten (siehe unten), kann man dieJordansche Normalform der Matrix erstellen.

Beispiel

[Bearbeiten |Quelltext bearbeiten]

Es sei die quadratische Matrix

A=(021211213){\displaystyle A={\begin{pmatrix}0&2&-1\\2&-1&1\\2&-1&3\end{pmatrix}}}

gegeben. Subtraktion der mitλ{\displaystyle \lambda } multipliziertenEinheitsmatrix vonA{\displaystyle A} ergibt:

AλE=(0λ2121λ1213λ){\displaystyle A-\lambda E={\begin{pmatrix}0-\lambda &2&-1\\2&-1-\lambda &1\\2&-1&3-\lambda \end{pmatrix}}}

Ausrechnen derDeterminante dieser Matrix (mit Hilfe derRegel von Sarrus) liefert:

det(AλE)=(0λ)(1λ)(3λ)+4+2(2λ+2+λ+124λ)=λ3+2λ2+4λ8=(λ2)(λ2)(λ+2){\displaystyle {\begin{matrix}\det(A-\lambda E)&=&(0-\lambda )(-1-\lambda )(3-\lambda )+4+2-(2\lambda +2+\lambda +12-4\lambda )\\&=&-\lambda ^{3}+2\lambda ^{2}+4\lambda -8\\&=&-(\lambda -2)(\lambda -2)(\lambda +2)\end{matrix}}}

Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:

λ1,2=2, λ3=2{\displaystyle \lambda _{1,2}=2,\ \lambda _{3}=-2}

Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.

Numerische Berechnung

[Bearbeiten |Quelltext bearbeiten]

Während die exakte Berechnung der Nullstellen des charakteristischen Polynoms schon für dreireihige Matrizen nicht so einfach ist, wird sie für große Matrizen meist unmöglich, sodass man sich dann auf das Bestimmen von Näherungswerten beschränkt. Hierzu werden Verfahren bevorzugt, die sich durchnumerische Stabilität und geringen Rechenaufwand auszeichnen. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie

sowie spezielle Methoden fürsymmetrische Matrizen als auch Methoden fürdünnbesetzte große Matrizen wie

Des Weiteren gibt es noch Methoden zur Abschätzung, z. B. mithilfe

die immer eine grobe Abschätzung (unter gewissen Bedingungen sogar genaue Bestimmung) zulassen.

  • DieFolded Spectrum Method liefert mit jedem Durchlauf einen Eigenvektor, der jedoch auch aus der Mitte des Spektrums stammen kann.

Berechnung der Eigenvektoren

[Bearbeiten |Quelltext bearbeiten]

Algorithmus

[Bearbeiten |Quelltext bearbeiten]

Für einen Eigenwertλ{\displaystyle \lambda } lassen sich die Eigenvektoren aus der Gleichung

(AλE)x=0{\displaystyle (A-\lambda E)\cdot x=0}

bestimmen. Die Eigenvektoren spannen denEigenraum auf, dessen Dimension alsgeometrische Vielfachheit des Eigenwertes bezeichnet wird. Für einen Eigenwertλ{\displaystyle \lambda } der geometrischen Vielfachheitμ{\displaystyle \mu } lassen sich alsoμ{\displaystyle \mu } linear unabhängige Eigenvektorenx1,,xμ{\displaystyle x_{1},\dotsc ,x_{\mu }} finden, sodass die Menge aller Eigenvektoren zuλ{\displaystyle \lambda } gleich der Menge derLinearkombinationen vonx1,,xμ{\displaystyle x_{1},\dotsc ,x_{\mu }} ist. Die Menge{x1,,xμ}{\displaystyle \left\{x_{1},\dotsc ,x_{\mu }\right\}} heißt dann eineBasis aus Eigenvektoren des zum Eigenwertλ{\displaystyle \lambda } gehörenden Eigenraumes.

Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahllinear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.

Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit.

Beispiel

[Bearbeiten |Quelltext bearbeiten]

Gegeben ist wie in obigem Beispiel die quadratische Matrix

A=(021211213).{\displaystyle A={\begin{pmatrix}0&2&-1\\2&-1&1\\2&-1&3\end{pmatrix}}.}

Die Eigenwerteλ1,2=2,λ3=2{\displaystyle \lambda _{1,2}=2,\,\lambda _{3}=-2} wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der durch die Eigenvektoren aufgespannteEigenraum) zum Eigenwertλ=2{\displaystyle \lambda =2} berechnet:

A2E=(221231211){\displaystyle A-2\cdot E={\begin{pmatrix}-2&2&-1\\2&-3&1\\2&-1&1\end{pmatrix}}}

Man muss also das folgende lineare Gleichungssystem lösen:

(221231211)x=(000){\displaystyle {\begin{pmatrix}-2&2&-1\\2&-3&1\\2&-1&1\end{pmatrix}}\cdot x={\begin{pmatrix}0\\0\\0\end{pmatrix}}}

Bringt man die Matrix auf obereDreiecksform, so erhält man:

(1012010000)x=(000){\displaystyle {\begin{pmatrix}1&0&{\frac {1}{2}}\\0&1&0\\0&0&0\end{pmatrix}}\cdot x={\begin{pmatrix}0\\0\\0\end{pmatrix}}}

Die gesuchten Eigenvektoren sind alle Vielfachen des Vektorsx=(12,0,1){\displaystyle x={\begin{pmatrix}{\frac {1}{2}},&0,&-1\end{pmatrix}}^{\top }} (jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein Eigenvektor ist).

Obwohl der Eigenwertλ=2{\displaystyle \lambda =2} eine algebraische Vielfachheit von 2 hat, existiertnur ein linear unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert isteindimensional); also hat dieser Eigenwert eine geometrische Vielfachheit von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nichtdiagonalisierbar. Man kann nun versuchen, die Matrix stattdessen in dieJordansche Normalform überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt mangeneralisierte Eigenvektoren oderHauptvektoren.

Für den Eigenwertλ=2{\displaystyle \lambda =-2} geht man genauso vor:

(221211215)x=(000){\displaystyle {\begin{pmatrix}2&2&-1\\2&1&1\\2&-1&5\end{pmatrix}}\cdot x={\begin{pmatrix}0\\0\\0\end{pmatrix}}}

Wieder bringt man die Matrix auf Dreiecksform:

(1032012000)x=(000){\displaystyle {\begin{pmatrix}1&0&{\frac {3}{2}}\\0&1&-2\\0&0&0\end{pmatrix}}\cdot x={\begin{pmatrix}0\\0\\0\end{pmatrix}}}

Hier ist die Lösung der Vektor(32,2,1),{\displaystyle {\begin{pmatrix}{\frac {3}{2}},&-2,&-1\end{pmatrix}}^{\top },} wieder mit allen seinen vom Nullvektor verschiedenen Vielfachen.

Eigenschaften

[Bearbeiten |Quelltext bearbeiten]
i=1nλi=SpurAundi=1nλi=detA,{\displaystyle \sum _{i=1}^{n}\lambda _{i}=\operatorname {Spur} A\quad {\text{und}}\quad \prod _{i=1}^{n}\lambda _{i}=\operatorname {det} A\,,}
wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist. Hier bezeichnetSpurA{\displaystyle \operatorname {Spur} A} dieSpur der MatrixA{\displaystyle A}.
σ(A)=σ(A).{\displaystyle \sigma (A)=\sigma \left(A^{\top }\right).}
Analog gilt
σ(A)=σ(A¯)=σ(A)¯.{\displaystyle \sigma \left(A^{*}\right)=\sigma \left({\overline {A}}\right)={\overline {\sigma (A)}}.}

Speziell für reellesymmetrische oder komplexehermitesche Matrizen gilt:

|vij|2k=1;kin(λiλk)=k=1n1(λiμjk){\displaystyle |v_{ij}|^{2}\prod _{k=1;k\neq i}^{n}{\big (}\lambda _{i}-\lambda _{k}{\big )}=\prod _{k=1}^{n-1}{\big (}\lambda _{i}-\mu _{jk}{\big )}}

Eigenvektoren kommutierender Matrizen

[Bearbeiten |Quelltext bearbeiten]

Für kommutierende diagonalisierbare (insbesondere symmetrische) Matrizen ist es möglich, ein System gemeinsamer Eigenvektoren zu finden:

Kommutieren zwei MatrizenA{\displaystyle A} undB{\displaystyle B} (gilt alsoAB=BA{\displaystyle AB=BA}) und istλ{\displaystyle \lambda } ein nichtentarteter Eigenwert (d. h., der zugehörige Eigenraum ist eindimensional) vonA{\displaystyle A} mit Eigenvektorv,{\displaystyle v,} so gilt

ABv=BAv=λBv.{\displaystyle ABv=BAv=\lambda Bv.}

AuchBv{\displaystyle Bv} ist also ein Eigenvektor vonA{\displaystyle A} zum Eigenwertλ.{\displaystyle \lambda .} Da dieser Eigenwert nicht entartet ist, mussBv{\displaystyle Bv} ein Vielfaches vonv{\displaystyle v} sein. Das bedeutet, dassv{\displaystyle v} auch ein Eigenvektor der MatrixB{\displaystyle B} ist.

Aus diesem einfachen Beweis geht hervor, dass die Eigenvektoren zu nichtentarteten Eigenwerten mehrerer paarweise kommutierender Matrizen Eigenvektoren aller dieser Matrizen sind.

Allgemein können auch für kommutierende diagonalisierbare Matrizen mit entarteten Eigenwerten gemeinsame Eigenvektoren gefunden werden.[7] Aus diesem Grund können mehrere paarweise kommutierende diagonalisierbare Matrizen auch simultan (d. h. mit einer Basistransformation für alle Matrizen)diagonalisiert werden.

Linkseigenvektoren und verallgemeinertes Eigenwertproblem

[Bearbeiten |Quelltext bearbeiten]

Manchmal bezeichnet man einen so definierten Eigenvektor auch alsRechtseigenvektor und definiert dann entsprechend den Begriff desLinkseigenvektors durch die Gleichung

xA=λx.{\displaystyle x^{*}\cdot A=\lambda \,x^{*}.}

Linkseigenvektoren finden sich z. B. in der Stochastik bei der Berechnung vonstationären Verteilungen vonMarkow-Ketten mittels einerÜbergangsmatrix.

Wegen(xA)=Ax{\displaystyle (x^{*}\cdot A)^{*}=A^{*}\cdot x} sind die Linkseigenvektoren vonA{\displaystyle A} gerade die Rechtseigenvektoren deradjungierten MatrixA.{\displaystyle A^{*}.}Beinormalen Matrizen fallen Links- und Rechtseigenvektoren zusammen.

Allgemeiner kann man auch quadratische MatrizenA{\displaystyle A} undB{\displaystyle B} und die Gleichung

Ax=λBx{\displaystyle A\cdot x=\lambda \,B\cdot x}

untersuchen. Diesesverallgemeinerte Eigenwertproblem wird hier jedoch nicht weiter betrachtet.

Spektraltheorie in der Funktionalanalysis

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Spektraltheorie

Eigenwerte und Eigenfunktionen

[Bearbeiten |Quelltext bearbeiten]

In derFunktionalanalysis betrachtet man lineare Abbildungen zwischen linearenFunktionenräumen (also lineare Abbildungen zwischen unendlichdimensionalen Vektorräumen). Meistens spricht man vonlinearen Operatoren anstatt von linearen Abbildungen. SeiV{\displaystyle V} ein Vektorraum über einem KörperK{\displaystyle K} mitdim(V)={\displaystyle \dim(V)=\infty } undA{\displaystyle A} ein linearer Operator. In der Funktionalanalysis ordnet manA{\displaystyle A} ein Spektrum zu. Dieses besteht aus allenλK,{\displaystyle \lambda \in K,} für die der OperatorAλId{\displaystyle A-\lambda \operatorname {Id} } nicht invertierbar ist. Dieses Spektrum muss jedoch nicht – wie bei Abbildungen zwischen endlichdimensionalen Vektorräumen – diskret sein. Denn im Gegensatz zu den linearen Abbildungen zwischen endlichdimensionalen Vektorräumen, die nurnN{\displaystyle n\in \mathbb {N} } verschiedene Eigenwerte haben, haben lineare Operatoren im Allgemeinen unendlich viele Elemente im Spektrum. Daher ist es zum Beispiel möglich, dass das Spektrum von linearen OperatorenHäufungspunkte besitzt. Um die Untersuchung des Operators und des Spektrums zu vereinfachen, unterteilt man das Spektrum in unterschiedliche Teilspektren. Elemente, die die GleichungAxλIdx=0{\displaystyle Ax-\lambda \operatorname {Id} x=0} für einx0{\displaystyle x\neq 0} lösen, nennt man wie in der linearen AlgebraEigenwerte. Die Gesamtheit der Eigenwerte nennt man dasPunktspektrum vonA.{\displaystyle A.} Wie in der linearen Algebra wird jedem Eigenwert ein Raum von Eigenvektoren zugeordnet. Da die Eigenvektoren meist als Funktionen aufgefasst werden, spricht man auch von Eigenfunktionen.

Beispiel

[Bearbeiten |Quelltext bearbeiten]

SeiΩR{\displaystyle \Omega \subset \mathbb {R} } offen. Dann besitzt derAbleitungsoperatorddx:C(Ω,C)C(Ω,C){\displaystyle {\tfrac {\mathrm {d} }{\mathrm {d} x}}\colon C^{\infty }(\Omega ,\mathbb {C} )\to C^{\infty }(\Omega ,\mathbb {C} )} ein nichtleeres Punktspektrum. Betrachtet man nämlich für allexΩ{\displaystyle x\in \Omega } die Gleichung

dfdx(x)=λf(x){\displaystyle {\frac {\mathrm {d} f}{\mathrm {d} x}}(x)=\lambda f(x)}

und wähltf(x)=eλx,{\displaystyle f(x)=e^{\lambda x},} dann sieht man, dass die Gleichungddxeλx=λeλx{\displaystyle {\tfrac {\mathrm {d} }{\mathrm {d} x}}e^{\lambda x}=\lambda e^{\lambda x}} für alleλC{\displaystyle \lambda \in \mathbb {C} } erfüllt ist. Also ist jedesλC{\displaystyle \lambda \in \mathbb {C} } ein Eigenwert mit zugehöriger Eigenfunktioneλx.{\displaystyle e^{\lambda x}.}

Praktische Beispiele

[Bearbeiten |Quelltext bearbeiten]

Durch Lösung eines Eigenwertproblems berechnet man

Eigenwerte spielen in derQuantenmechanik eine besondere Rolle. Physikalische Größen wie z. B. derDrehimpuls werden hier durchOperatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z. B. derHamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretesSpektrum, so kann die Energie nurdiskrete Werte annehmen, was z. B. für die Energieniveaus in einemAtom typisch ist. So stellen bei den Lösungen der bekanntenSchrödingergleichung (im Jahr 1926 durch den PhysikerErwin Schrödinger aufgestellt) die Eigenwerte die erlaubten Energiewerte der Elektronen und die Eigenfunktionen die zugehörigen Wellenfunktionen der Elektronen dar.

Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z. B. von Ort und Impuls), wie von derHeisenbergschen Unschärferelation ausgedrückt, ist letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren existiert.

Literatur

[Bearbeiten |Quelltext bearbeiten]

Weblinks

[Bearbeiten |Quelltext bearbeiten]
Wikiversity: Vorlesung über Eigenwerte und Eigenvektoren – Kursmaterialien

Einzelnachweise

[Bearbeiten |Quelltext bearbeiten]
  1. FAQL.de, abgerufen am 10. Juni 2013, zitiert David Hilberts ArtikelGrundzüge einer allgemeinen Theorie der linearen Integralgleichungen, veröffentlicht 1904 in denNachrichten von der Königlichen Gesellschaft der Wissenschaften zu Göttingen, mathematisch-physikalische Klasse.
  2. Hans-Joachim Kowalsky, Gerhard O. Michler:Lineare Algebra. 12. Auflage. Walter de Gruyter, Berlin 2003,ISBN 3-11-017963-6,S. 121. 
  3. Karl-Heinz Goldhorn, Hans-Peter Heinz, Margarita Kraus:Moderne mathematische Methoden der Physik. Springer, 2010,ISBN 978-3-642-05184-5,S. 87 (google.com [abgerufen am 29. Februar 2012]). 
  4. Reiner Kreissig, Ulrich Benedix:Höhere technische Mechanik: Lehr- und Übungsbuch. Springer DE, 2002,ISBN 978-3-7091-6135-7,S. 12 (eingeschränkte Vorschau in der Google-Buchsuche). 
  5. Symmetrische Abbildungen und Matrizen. Archiviert vom Original am 18. Juli 2012; abgerufen am 2. Februar 2023 (Theorem 10.75). 
  6. P. B. Denton, S. J. Parke, T. Tao, X. Zhang: Eigenvectors from Eigenvalues. (PDF) 10. August 2019, S. 1–3, abgerufen am 29. November 2019 (englisch). 
  7. A. W. Joshi:Matrices and tensors in physics. New Age International, 1995,ISBN 978-81-224-0563-7,S. 117 (google.com [abgerufen am 29. Februar 2012]). 
Normdaten (Sachbegriff):GND:4013802-1(lobid,OGND,AKS)
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Eigenwerte_und_Eigenvektoren&oldid=253190279
Kategorie:
Versteckte Kategorie: