Zufallsmatrix

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springenZur Suche springen

EineZufallsmatrix bezeichnet in derStochastik einematrixwertigeZufallsvariable (englischRandom Matrix). Ihre Verteilung nennt man zur Abgrenzung von denmultivariaten Verteilungen einematrixvariate Wahrscheinlichkeitsverteilung.

Zufallsmatrizen spielen eine wichtige Rolle in derstatistischen sowiemathematischen Physik, insbesondere in derstatistischen Mechanik. Aus historischer Sicht hat sich die Theorie aus dem Versuch entwickelt, Systeme mit vielen stochastischen aber miteinander agierenden Teilchen zu beschreiben. Viele der Grundlagen der Theorie stammen deshalb von mathematischen Physikern und viele Modelle haben eine physikalische Interpretation. Die ersten Arbeiten zum Thema Zufallsmatrizen stammen allerdings von dem StatistikerJohn Wishart.

Die Theorie der Zufallsmatrizen ist in dermultivariaten Statistik relevant, wo man sie zur Analyse vonKovarianzmatrizen benötigt. Insbesondere im Zusammenhang mit hoch-dimensionalen Daten und spektralstatistischen Verfahren wie derHauptkomponentenanalyse (PCA).

Zufallsmatrizen sind zu unterscheiden von derstochastischen Matrix.

Inhaltsverzeichnis

Haarsches Maß und Weylsche Integralformel

[Bearbeiten |Quelltext bearbeiten]

Auf jederLie-GruppeG{\displaystyle G} existiert ein eindeutiges, links-invariantesMaßμL{\displaystyle \mu _{L}}, d. h. für jedesgG{\displaystyle g\in G} und jedeBorel-messbare MengeSG{\displaystyle S\subseteq G} giltμL(Sg)=μL(g){\displaystyle \mu _{L}(Sg)=\mu _{L}(g)}. Dieses Maß nennt manlinkes Haarsches Maß und es ist eindeutig bis auf Multiplikation mit einerKonstanten.

Betrachtet man nun einekompakte Lie-GruppeG{\displaystyle G}, so existiert ein eindeutiges, linkes Haarsches MaßμH{\displaystyle \mu _{H}}, welches zugleich auch rechts-invariant und normalisiert ist, genannt das HaarscheWahrscheinlichkeitsmaß aufG{\displaystyle G}. Das heißt für jedesgG{\displaystyle g\in G} und jedeBorel-messbare MengeBG{\displaystyle B\subseteq G} giltμH(Bg)=μH(gB)=μH(g){\displaystyle \mu _{H}(Bg)=\mu _{H}(gB)=\mu _{H}(g)}.

Für kompakte Lie-Gruppen lässt sich mit Hilfe derIntegralformel von Weyl eine Formel für dieWahrscheinlichkeitsdichte bezüglich derEigenwerte finden. Als Beispiel seiG=U(n){\displaystyle G=\mathbb {U} (n)} dieunitäre Gruppe, die Eigenwerte sind von der Formeiϕ1,,eiϕn{\displaystyle e^{i\phi _{1}},\dots ,e^{i\phi _{n}}} mitϕ1,,ϕnR{\displaystyle \phi _{1},\ldots ,\phi _{n}\in \mathbb {R} }. Weiter seif{\displaystyle f} eineKlassenfunktion undT{\displaystyle T} dermaximale Torus allerDiagonalmatrizent=diag(eiϕ1,,eiϕn){\displaystyle t=\operatorname {diag} (e^{i\phi _{1}},\ldots ,e^{i\phi _{n}})} vonU(n){\displaystyle \mathbb {U} (n)},Ad{\displaystyle \operatorname {Ad} } bezeichnet dieadjungierte Darstellung undR{\displaystyle R} bezeichne dasWurzelsystem, dann gilt:[1]

det(IdAdG/T(t1))=αR(1eα)=j<k|eiϕkeiϕj|2{\displaystyle \det(\operatorname {Id} -\operatorname {Ad} _{G/T}(t^{-1}))=\prod \limits _{\alpha \in R}(1-e^{-\alpha })=\prod \limits _{j<k}|e^{i\phi _{k}}-e^{i\phi _{j}}|^{2}},

und somit erhält man mit Hilfe von Weyl’s Integralformel ein Integral über den maximalen TorusT{\displaystyle T}

Gfdg=1n!Tf(t)j<k|eiϕkeiϕj|2dt{\displaystyle \int _{G}f\,\mathrm {d} g={\frac {1}{n!}}\int _{T}f(t)\prod \limits _{j<k}|e^{i\phi _{k}}-e^{i\phi _{j}}|^{2}\mathrm {d} t}.

Definition

[Bearbeiten |Quelltext bearbeiten]

Eine formale mathematische Definition lautet:[2]

SeiMn{\displaystyle {\mathcal {M}}_{n}} der Raum dern×n{\displaystyle n\times n}-Matrizen über demKörperK{\displaystyle K} mit einerσ-AlgebraA{\displaystyle {\mathcal {A}}} und(Ω,F,P){\displaystyle (\Omega ,{\mathcal {F}},\mathbb {P} )} einWahrscheinlichkeitsraum. Eine(F,A){\displaystyle ({\mathcal {F}},{\mathcal {A}})}-messbare FunktionA:ΩMn{\displaystyle A\colon \Omega \to {\mathcal {M}}_{n}} heißtZufallsmatrix.

Alsσ{\displaystyle \sigma }-Algebra kann dieborelsche σ-Algebra des euklidischen Umgebungsraumes der MannigfaltigkeitMn{\displaystyle {\mathcal {M}}_{n}} verwendet werden.Eine Zufallsmatrix ist somit das matrixwertige Analogon zu einerskalaren Zufallsvariablen.

Zentrale Begriffe

[Bearbeiten |Quelltext bearbeiten]

Partitionsfunktion

[Bearbeiten |Quelltext bearbeiten]

SeiE{\displaystyle {\mathcal {E}}} ein Matrix-Raum (z. B. derhermiteschenn×n{\displaystyle n\times n}-MatrizenHn(C):={XMn(C):X=X}{\displaystyle {\mathcal {H}}_{n}(\mathbb {C} ):=\{X\in {\mathcal {M}}_{n}(\mathbb {C} ):X^{*}=X\}}) und seiμ(dM){\displaystyle \mu (\mathrm {d} M)} ein komplexes Maß auf diesem Raum, welches in der Regel nicht normalisiert ist. Dann nennt man das Integral

Z:=Eμ(dM){\displaystyle Z:=\int _{\mathcal {E}}\mu (\mathrm {d} M)}

Partitionsfunktion und man erhält einen Erwartungswert zur Funktionf:EC{\displaystyle f:{\mathcal {E}}\to \mathbb {C} }

E[f(M)]:=1ZEf(M)μ(dM){\displaystyle \mathbb {E} [f(M)]:={\frac {1}{Z}}\int _{\mathcal {E}}f(M)\mu (\mathrm {d} M)}

Wignersche Matrix

[Bearbeiten |Quelltext bearbeiten]

Seien(Xi,j)1i<jC{\displaystyle (X_{i,j})_{1\leq i<j}\in \mathbb {C} } und(Yi,i)1iR{\displaystyle (Y_{i,i})_{1\leq i}\in \mathbb {R} }i.i.d Zufallsvariablen mit gleichemErwartungswert0{\displaystyle 0} sowieE[Xi,j2]=0{\displaystyle \mathbb {E} [X_{i,j}^{2}]=0} undE[|Xi,j|2]=1{\displaystyle \mathbb {E} [|X_{i,j}|^{2}]=1}. Man nennt eine ZufallsmatrixHn=(hi,j)1i,jn{\displaystyle H_{n}=(h_{i,j})_{1\leq i,j\leq n}} eine (komplexe)Wignersche-Matrix wenn siehermitesch ist und folgendes gilthi,j={Xi,j/ni<jYi,i/ni=j{\displaystyle h_{i,j}={\begin{cases}X_{i,j}/{\sqrt {n}}&i<j\\Y_{i,i}/{\sqrt {n}}&i=j\\\end{cases}}}.

Die Matrix wird oft mitn1{\displaystyle {\sqrt {n}}^{-1}} skaliert. Manche Autoren definieren sie aber auch ohne Skalierung.

Sie ist ein wichtiger Typ von Zufallsmatrizen und benannt nachEugene Wigner.

Wignersche Matrizen mit einer zugrundeliegendenNormalverteilung führen zu dem Begriff dergaußschen invarianten Ensembles. Allgemeine Wignersche Matrizen sind nicht invariant.

DasGUE erhält man, wenn zusätzlichE[Yi,i2]=1{\displaystyle \mathbb {E} [Y_{i,i}^{2}]=1} gilt und die Einträge normalverteilt sind. DasGOE erhält man wenn alle Einträge reell und normalverteilt sind und zusätzlichE[Yi,i2]=2{\displaystyle \mathbb {E} [Y_{i,i}^{2}]=2} gilt.

Invariante Ensembles

[Bearbeiten |Quelltext bearbeiten]

Zentrale Studienobjekte sind die invarianten Ensembles, welche durch die folgenden Maße auf dem entsprechenden Raum der Matrizen induziert werden:

Pβn(dA):=1Zβ,neβ2nTr(Q(A))dA{\displaystyle P_{\beta }^{n}(\mathrm {d} A):={\frac {1}{Z_{\beta ,n}}}e^{-{\frac {\beta }{2}}n\operatorname {Tr} (Q(A))}\mathrm {d} A}

wobeiβ{\displaystyle \beta } der Dyson-Index ist undQ(A){\displaystyle Q(A)} dasPotential. Man setzt anQ{\displaystyle Q} voraus, dassQ(x){\displaystyle Q(x)\to \infty } genügend schnell, wennx±{\displaystyle x\to \pm \infty }, damit alle Momente existieren. In der Regel istQ{\displaystyle Q} ein Polynom. Man erhält für

Diefreie Energie der unitären Ensembles ist[3]

Fn0=n2lnZ2,n=n2lnHnenTrQ(M)dM{\displaystyle F_{n}^{0}=-n^{-2}\ln Z_{2,n}=-n^{-2}\ln \int _{{\mathcal {H}}_{n}}e^{-n\operatorname {Tr} Q(M)}\mathrm {d} M}

wobeiHn{\displaystyle {\mathcal {H}}_{n}} den Raum der hermiteschen Matrizen bezeichnet.

Mit Hilfe der weylschen Integralformel lässt sich zeigen, dass das kanonische (unnormalisierte)Haarsche MaßdUh{\displaystyle \mathrm {d} U_{h}} auf der entsprechenden kompaktenLie-GruppeO(n),U(n)/Tn{\displaystyle \mathbb {O} (n),\mathbb {U} (n)/\mathbb {T} ^{n}} oderUSp(n)/Tn{\displaystyle \mathbb {USp} (n)/\mathbb {T} ^{n}} folgende Darstellung zulässt

dA=i<j|λjλi|βdΛdUh{\displaystyle \mathrm {d} A=\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\mathrm {d} \Lambda \mathrm {d} U_{h}}

wobeidΛ{\displaystyle \mathrm {d} \Lambda } dasLebesgue-Maß der Eigenwerte ist. Für skalierte Einträge des Gaußschen Ensembles erhält man eine geschlossene Form des Wahrscheinlichkeitsmaßes über derWeyl-Kammer mitλnλ1{\displaystyle \lambda _{n}\geq \dots \geq \lambda _{1}}

Pβn(dλ1,,dλn)=1Z~β,ni<j|λjλi|βk=1neβn2Q(λk)dλk.{\displaystyle P_{\beta }^{n}(\mathrm {d} \lambda _{1},\dots ,\mathrm {d} \lambda _{n})={\frac {1}{{\widetilde {Z}}_{\beta ,n}}}\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\prod _{k=1}^{n}e^{-{\frac {\beta n}{2}}Q(\lambda _{k})}\mathrm {d} \lambda _{k}.}

Das Wahrscheinlichkeitsmaß enthält denBoltzmann-FaktoreβnE(λ1,,λn){\displaystyle e^{-\beta n{\mathcal {E}}(\lambda _{1},\dots ,\lambda _{n})}} wobeiE{\displaystyle {\mathcal {E}}} die totale potentielle Energie bezeichnet

E(λ1,,λn):=12j=1nQ(λk)1ni<jlog|λjλi|.{\displaystyle {\mathcal {E}}(\lambda _{1},\dots ,\lambda _{n}):={\frac {1}{2}}\sum \limits _{j=1}^{n}Q(\lambda _{k})-{\frac {1}{n}}\sum _{i<j}\log |\lambda _{j}-\lambda _{i}|.}

Die Konstante

Z~β,n:=n!(i<j|λjλi|βi=1neβn2Q(λi)dλi){\displaystyle {\widetilde {Z}}_{\beta ,n}:=n!\left(\int _{-\infty }^{\infty }\cdots \int _{-\infty }^{\infty }\prod _{i<j}\left|\lambda _{j}-\lambda _{i}\right|^{\beta }\prod \limits _{i=1}^{n}e^{-{\frac {\beta n}{2}}Q(\lambda _{i})}\mathrm {d} \lambda _{i}\right)}

lässt sich mit Hilfe desSelberg-Integrals berechnen.

Gaußsche Ensembles

[Bearbeiten |Quelltext bearbeiten]

Wichtige Spezialfälle der invariante Ensembles sind dieGaußschen Ensembles, welche durch das PotentialQ(A):=12A2{\displaystyle Q(A):={\tfrac {1}{2}}A^{2}} mitQ(λk):=12λk2{\displaystyle Q(\lambda _{k}):={\tfrac {1}{2}}\lambda _{k}^{2}} und die folgendenGaußschen Maße erzeugt werden

Pβn(dA):=1Zβ,neβ4nTr(A2)dA.{\displaystyle P_{\beta }^{n}(\mathrm {d} A):={\frac {1}{Z_{\beta ,n}}}e^{-{\frac {\beta }{4}}n\operatorname {Tr} (A^{2})}\mathrm {d} A.}

Man erhält für

Die Bezeichnungorthogonal/unitär/symplektisch bezeichnet, unter welcher Matrix Konjugation die Verteilung invariant ist.

Beispielsweise gilt für eine MatrixMn{\displaystyle M_{n}} aus dem GOE und einer MatrixO{\displaystyle O} aus derorthogonalen GruppeOn{\displaystyle \mathbb {O} _{n}}, dassMnOTMnO{\displaystyle M_{n}\sim O^{T}M_{n}O}.

In derQuantenmechanik werden sie verwendet, umHamiltonoperatoren zu modellieren.

Herleitung des GUE durch Ornstein-Uhlenbeck-Prozesse
[Bearbeiten |Quelltext bearbeiten]

Man betrachte das Systemstochastischer Differentialgleichungen derOrnstein-Uhlenbeck-Prozesse

{dXi(t)=Xi(t)dt+dWi(t)1in,dXij(t)=Xij(t)dt+dWij(1)(t)1i<jn,dYij(t)=Yij(t)dt+dWij(2)(t)1i<jn{\displaystyle {\begin{cases}\mathrm {d} X_{i}(t)=X_{i}(t)\mathrm {d} t+\mathrm {d} W_{i}(t)&\quad 1\leq i\leq n,\\\mathrm {d} X_{ij}(t)=-X_{ij}(t)\mathrm {d} t+\mathrm {d} W_{ij}^{(1)}(t)&\quad 1\leq i<j\leq n,\\\mathrm {d} Y_{ij}(t)=-Y_{ij}(t)\mathrm {d} t+\mathrm {d} W_{ij}^{(2)}(t)&\quad 1\leq i<j\leq n\\\end{cases}}}

wobei{Wi,Wij(1),Wij(2)}{\displaystyle \{W_{i},W_{ij}^{(1)},W_{ij}^{(2)}\}} unabhängigebrownsche Bewegungen sind mit

E[W˙i(t1)W˙j(t2)]=2Dδijδ(t1t2),E[W˙ij(σ1)(t1)W˙st(σ2)(t2)]=Dδσ1σ2δstδijδ(t1t2){\displaystyle \mathbb {E} [{\dot {W}}_{i}(t_{1}){\dot {W}}_{j}(t_{2})]=2D\delta _{ij}\delta (t_{1}-t_{2}),\qquad \mathbb {E} [{\dot {W}}_{ij}^{(\sigma _{1})}(t_{1}){\dot {W}}_{st}^{(\sigma _{2})}(t_{2})]=D\delta _{\sigma _{1}\sigma _{2}}\delta _{st}\delta _{ij}\delta (t_{1}-t_{2})}

und die InitialwerteXi(0),Xij(0),Yij(0){\displaystyle X_{i}(0),X_{ij}(0),Y_{ij}(0)} beliebig sind.

Definiert man nun eine hermitesche ZufallsmatrixH=(hij(t)/n)1i,jn{\displaystyle H=(h_{ij}(t)/{\sqrt {n}})_{1\leq i,j\leq n}} fürt0{\displaystyle t\geq 0} mit

hij(t)={Xi(t)i=j,Xij(t)+iYij(t)i<j{\displaystyle h_{ij}(t)={\begin{cases}X_{i}(t)&\quad i=j,\\X_{ij}(t)+\mathrm {i} Y_{ij}(t)&\quad i<j\\\end{cases}}}

und bezeichnet mitft(dH){\displaystyle f_{t}(\mathrm {d} H)} das zugehörige Wahrscheinlichkeitsmaß, dann gilt fürD=2{\displaystyle D=2} undt{\displaystyle t\to \infty }

ft(dH)P2n(dH){\displaystyle f_{t}(\mathrm {d} H)\propto P_{2}^{n}(\mathrm {d} H)}

wobeiP2n(dH){\displaystyle P_{2}^{n}(\mathrm {d} H)} das GUE bezeichnet.[4]

Zirkulare Ensembles

[Bearbeiten |Quelltext bearbeiten]

Man erhält dasZirkulare Unitäre Ensemble (ZUE) durch das haarsche Maß auf dem Raum derunitären Matrizen. DasZirkulare Orthogonale Ensemble (ZOE) erhält man durch das haarsche Maß auf dem Raum der symmetrischen unitären Matrizen. DasZirkulare Symplektische Ensemble (ZSE) erhält man durch das haarsche Maß auf dem Raum der selbst-dualen unitären Quaternionen-Matrizen. Die Dichte der Eigenwerteλj=eiθj{\displaystyle \lambda _{j}=e^{i\theta _{j}}} der Zirkularen Ensembles ist

pβ(λ1,,λn)=1Zβ,ncirci<j|eiθjeiθi|β,π<θlπ,{\displaystyle p_{\beta }(\lambda _{1},\dots ,\lambda _{n})={\frac {1}{Z_{\beta ,n}^{circ}}}\prod _{i<j}\left|e^{i\theta _{j}}-e^{i\theta _{i}}\right|^{\beta },\quad -\pi <\theta _{l}\leq \pi ,}

wobeiβ=1{\displaystyle \beta =1} für das ZOE,β=2{\displaystyle \beta =2} für das ZUE undβ=4{\displaystyle \beta =4} für das ZSE gilt.[5]

β-Ensembles und Dysons „Threefolded Way“

[Bearbeiten |Quelltext bearbeiten]

Man spricht vonDysonsβ{\displaystyle \beta }-Ensemble, daFreeman Dyson in seiner wissenschaftlichen SchriftThe Threefolded Way[6] dieseβ={1,2,4}{\displaystyle \beta =\{1,2,4\}} Klassifizierungen der Zufallsmatrizen herleitete, basierend auf physikalisch möglichenZeitumkehr-Eigenschaften derQuantenmechanik (orthogonal, unitär, symplektisch). Der Fallβ=3{\displaystyle \beta =3} ist aufgrund desSatzes von Frobenius nicht möglich. Neben den Gaußschen Ensembles spielen auch dieβ{\displaystyle \beta }-Wishart-Laguerre-Ensembles und dieβ{\displaystyle \beta }-Jacobi-Manova-Ensembles eine zentrale Rolle in der Theorie der Zufallsmatrizen.

Es ist üblich, nur vonLaguerre-Ensembles bzw.Jacobi-Ensembles zu sprechen, statt vonWishart- bzw.Manova-Ensembles

Allgemeineβ{\displaystyle \beta } spielen in der klassischen Theorie der Zufallsmatrizen eine untergeordnete Rolle.

Theorie der Zufallsmatrizen

[Bearbeiten |Quelltext bearbeiten]

Die Theorie der Zufallsmatrizen befasst sich weniger mit einer konkreten Zufallsmatrix, sondern mit dem Matrizenraum dahinter. Konkret geht es um Wahrscheinlichkeitsmaße auf Matrixräumen und Lie-Gruppen, dies erklärt den Begriff desEnsembles. Ein klassisches Problem der Theorie der Zufallsmatrizen ist das Finden einer multivariaten Wahrscheinlichkeitsdichte für die Eigenwerte unterschiedlicher Matrix-Ensembles. Eine der frühesten Arbeiten stammt vonDyson, welcher eine geschlossene Form für eine große Menge von Matrizen fand, abhängig von der zugrundeliegenden Symmetrie der Matrizen und Wahrscheinlichkeitsverteilung.

Die Spektraleigenschaften großer Zufallsmatrizen habenuniverselle Eigenschaften und man kann beim Studium komplizierter deterministischerOperatoren, wie zum Beispiel demDirac-Operator aus der Physik, diese Operatoren mit Zufallsmatrizen ersetzen und die Theorie der Zufallsmatrizen anwenden.

Beim Studium von Integralen über Matrix-Räume verwendet man zum Teil Resultate aus der Theorie derLie-Gruppen undLie-Algebren. Auch diefreie Wahrscheinlichkeitstheorie vonVoiculescu ist von Relevanz für große Zufallsmatrizen.

Generell untersucht man Matrizen mit bestimmten Symmetrie-Eigenschaften (z. B.hermitesche) und hat bestimmte stochastische Anforderungen an die Wahrscheinlichkeitsverteilung auf den Raum jener Matrizen (z. B. obere Dreiecksmatrix unabhängig). Des Weiteren interessiert man sich vor allem für dieSpektraltheorie und dessenasymptotisches Verhalten, wenn die DimensionN{\displaystyle N\to \infty }. Die Spektraltheorie ist engverbunden mit der Theorie derPunktprozesse, da die Eigenwerte einen (zufälligen) Punktprozess formen. Bei vielen Ensembles taucht in der gleichen Region derselbe Punktprozess in unendlicher Dimension auf (Universalität). Matrix-wertige Funktionen wie dieDeterminante oder dieSpur können nicht einfach auf unendlich-dimensionale Matrizen übertragen werden. Für bestimmteOperatoren lässt sich aber mit derabstrakten Fredholmtheorie eine Erweiterung auf unendlich-dimensionaleseparableHilberträume über dieäußere Algebra finden. Es lassen sich Determinanten für Operatoren aus denSchatten-von Neumann-Klassen definieren.

Definiert man die Einträge der Matrix alsBrownsche Bewegungen, so lässt sich auch das matrixwertige Analogon eines stochastischen Prozesses bilden und die Theorie derstochastischen Analysis und dieMartingal-Theorie ist anwendbar, sieheDysons brownsche Bewegung undWishart-Prozess.

Spektraltheorie der Zufallsmatrizen

[Bearbeiten |Quelltext bearbeiten]

Sind die Einträge einer hermiteschen ZufallsmatrixMn{\displaystyle M_{n}} von der GrößeO(n){\displaystyle {\mathcal {O}}({\sqrt {n}})}, so konvergiert dasempirische Spektralmaß

νn(λ;Mn):=n1j=0nδ(λλj(Mn)),{\displaystyle \nu _{n}(\lambda ;M_{n}):=n^{-1}\sum \limits _{j=0}^{n}\delta (\lambda -\lambda _{j}(M_{n})),}

wobeiδ{\displaystyle \delta } dasDirac-Delta bezeichnet.

Da die zufälligen EnsemblesPunktprozesse sind, kann man dien{\displaystyle n}-Punkt Korrelationsfunktion für die Eigenwerteλ1,,λN{\displaystyle \lambda _{1},\dots ,\lambda _{N}} herleiten. Seiφ{\displaystyle \varphi } eineTestfunktion und definiere das Funktional

EN[φ]:=n=0N(1)n(Nn)E[φ(λ1)φ(λn)]{\displaystyle E_{N}[\varphi ]:=\sum \limits _{n=0}^{N}(-1)^{n}{\binom {N}{n}}\mathbb {E} \left[\varphi (\lambda _{1})\cdots \varphi (\lambda _{n})\right]}

Dann ist dien{\displaystyle n}-Punkt Korrelationsfunktion folgende ausgewerteteFunktionalableitung[7]

(1)nδnδφ(λ1)δφ(λn)EN[φ]|φ=0=RN(n)(λ1,,λn).{\displaystyle (-1)^{n}{\frac {\delta ^{n}}{\delta \varphi (\lambda _{1})\cdots \delta \varphi (\lambda _{n})}}E_{N}[\varphi ]{\Biggr |}_{\varphi =0}=R_{N}^{(n)}(\lambda _{1},\dots ,\lambda _{n}).}

Mit demDarstellungssatz von Fréchet-Riesz lässt sich Konvergenz im Erwartungswert fürφCc(R){\displaystyle \varphi \in C_{c}(\mathbb {R} )} definieren

φdEνn(λ;Mn):=Eφdνn(λ;Mn).{\displaystyle \int \varphi \;\mathrm {d} \mathbb {E} \nu _{n}(\lambda ;M_{n}):=\mathbb {E} \int \varphi \;\mathrm {d} \nu _{n}(\lambda ;M_{n}).}

Globale Situation

[Bearbeiten |Quelltext bearbeiten]

Eines der wichtigsten Ergebnisse ist das sogenannteWignersche Halbkreisgesetz (sieheEugen Wigner): Es besagt, dass das (skalierte) empirische Spektralmaßνn{\displaystyle \nu _{n}} einer Wignerischen Zufallsmatrix (in der Physik bekannt als die sogenannteZustandsdichte) einer charakteristischen Halbkreis-Verteilung genügt.

Das Variationsproblem der Verteilung der Eigenwerte

[Bearbeiten |Quelltext bearbeiten]

Allgemeiner handelt es sich bei der Grenzwertverteilung der Eigenwerte um die Lösung einesVariationsproblem. Definiere den Raum der Maße

M1(R)={ν:ν0, Rdν=1}{\displaystyle M_{1}(\mathbb {R} )=\left\{\nu :\nu \geq 0,\ \int _{\mathbb {R} }\mathrm {d} \nu =1\right\}}

und betrachte das Funktional

EQ=infνM1(R)xyln|xy|dν(x)dν(y)+Q(x)dν(x).{\displaystyle E_{Q}=\inf \limits _{\nu \in M_{1}(\mathbb {R} )}-\int \int _{x\neq y}\ln |x-y|\mathrm {d} \nu (x)\mathrm {d} \nu (y)+\int Q(x)\mathrm {d} \nu (x).}

Das Funktional erklärt sich durch die Integralschreibweise der totalen potentiellen Energie

xyln|xy|1+ni=1nQ(x){\displaystyle \sum _{x\neq y}\ln |x-y|^{-1}+n\sum _{i=1}^{n}Q(x)}

bezüglich des empirischen Spektralmaßesνn{\displaystyle \nu _{n}}. FürEQ{\displaystyle E_{Q}} wird ein eindeutigesEquilibriummaßνQ{\displaystyle \nu _{Q}} durch die Euler-Lagrange-Variationsbedingung für eine reelle Konstantel{\displaystyle l}[3]

2Rlog|xy|dν(y)Q(x)=l,xJ{\displaystyle 2\int _{\mathbb {R} }\log |x-y|\mathrm {d} \nu (y)-Q(x)=l,\quad x\in J}
2Rlog|xy|dν(y)Q(x)l,xRJ{\displaystyle 2\int _{\mathbb {R} }\log |x-y|\mathrm {d} \nu (y)-Q(x)\leq l,\quad x\in \mathbb {R} \setminus J}

definiert, wobeiJ=j=1q[aj,bj]{\displaystyle J=\bigcup \limits _{j=1}^{q}[a_{j},b_{j}]} der Träger des Maßes ist und definiere das Polynom

q(x)=(Q(x)2)2+Q(x)Q(y)xydνQ(y){\displaystyle q(x)=-\left({\frac {Q'(x)}{2}}\right)^{2}+\int {\frac {Q'(x)-Q'(y)}{x-y}}\mathrm {d} \nu _{Q}(y)}.

Das EquilibirummaßνQ{\displaystyle \nu _{Q}} besitzt folgende Radon-Nikodym-Dichte

dνQ(x)dx=1πq(x).{\displaystyle {\frac {\mathrm {d} \nu _{Q}(x)}{\mathrm {d} x}}={\frac {1}{\pi }}{\sqrt {q(x)}}.}
Beispiel: Wignersche Halbkreis
[Bearbeiten |Quelltext bearbeiten]

Im Fall des GUE konvergiert daszufällige Maßschwach inWahrscheinlichkeit gegen die deterministische Verteilung

σ(dx):=12π(4x2)+dx{\displaystyle \sigma (\mathrm {d} x):={\frac {1}{2\pi }}{\sqrt {(4-x^{2})_{+}}}\mathrm {d} x}

Es gilt für eine FunktionfCb(R){\displaystyle f\in C_{b}(\mathbb {R} )} undε>0{\displaystyle \varepsilon >0}

limnP(|νn,fσ,f|>ε)=0{\displaystyle \lim \limits _{n\to \infty }P(|\langle \nu _{n},f\rangle -\langle \sigma ,f\rangle |>\varepsilon )=0}

Der Satz kann mit Mitteln derKombinatorik und der Momentmethode bewiesen werden. Für eine ZufallsvariableXσ(dx){\displaystyle X\sim \sigma (\mathrm {d} x)} gilt, dassE[Xk]=δk/2ZCk/2{\displaystyle \mathbb {E} \left[X^{k}\right]=\delta _{k/2\in \mathbb {Z} }C_{k/2}} wobeiCn{\displaystyle C_{n}} dieCatalan-Zahlen sind.

Durch die oben erwähnteEquilibriummaß-Methode der statistischen Mechanik gibt es eine Verbindung zurTheorie der großen Abweichungen. Einen analytischen konstruktiven Beweis ergibt sich über dieStieltjes-Transformation.

Für Wishart- bzw.Laguerre-Matrizen konvergiert das empirische Spektralmaßνn{\displaystyle \nu _{n}} gegen dieMartschenko-Pastur-Verteilung und fürMANOVA bzw.Jacobi-Matrizen gegen dieKesten-Mckey-Verteilung.

Für quadratische ZufallsmatrizenAn{\displaystyle A_{n}} miti.i.d. komplexen Einträgen(a)ij{\displaystyle (a)_{ij}} mitE[(a)ij]=0{\displaystyle \mathbb {E} [(a)_{ij}]=0} undVar[(a)ij]=1{\displaystyle \operatorname {Var} [(a)_{ij}]=1} gilt das Kreisgesetz (Tao-Vu[8]) welches besagt, dassνn{\displaystyle \nu _{n}} gegen

θ(dx):=1π1|x|2+|y|21dxdy{\displaystyle \theta (\mathrm {d} x):={\frac {1}{\pi }}1_{|x|^{2}+|y|^{2}\leq 1}\mathrm {d} x\mathrm {d} y}

konvergiert.

Man spricht vonUniversalität, weil die Sätze unabhängig von der zugrundeliegenden Verteilung sind.

Lokale Situation

[Bearbeiten |Quelltext bearbeiten]

Limitverhalten

Lokal ergibt sich bei Skalierung einPunktprozess für die Eigenwerte. Der Fallβ=2{\displaystyle \beta =2} von hermiteschen Matrizen ist signifikant einfacher. Man kann mittels der Theorie derorthogonale Polynome eine determinantale Form für die Korrelationsfunktion finden, welche dann zuFredholm-Determinanten vonIntegraloperatoren führen. Die Fälleβ=1{\displaystyle \beta =1} undβ=4{\displaystyle \beta =4}lassen sich mitQuaternionen-Determinanten undschief-orthogonalen Polynome lösen.[9]

Es gilt für dien{\displaystyle n}-Punkt Korrelationsfunktion

RN(n)(λ1,,λn)=N!(Nn)!R(λn+1)R(λN)pβ(λ1,,λN)j=n+1Ndλj{\displaystyle R_{N}^{(n)}(\lambda _{1},\dots ,\lambda _{n})={\frac {N!}{(N-n)!}}\int _{\mathbb {R} (\lambda _{n+1})}\cdots \int _{\mathbb {R} (\lambda _{N})}p_{\beta }(\lambda _{1},\dots ,\lambda _{N})\prod \limits _{j=n+1}^{N}\mathrm {d} \lambda _{j}}

wobeipβ(λ1,,λn){\displaystyle p_{\beta }(\lambda _{1},\dots ,\lambda _{n})} die multivariate Dichte der Eigenwerte ist.

Für dasGUE erhält man einendeterminantal point process, eineinfacher Punktprozess mitKern bezüglich eines Maßesμ{\displaystyle \mu }, dessenRN(n){\displaystyle R_{N}^{(n)}} existiert, so dass für allen1{\displaystyle n\geq 1} gilt

RN(n)(dx1,,dxn)=det[K(xi,xj)]1i,jnμ(dx1,,dxn){\displaystyle R_{N}^{(n)}(\mathrm {d} x_{1},\dots ,\mathrm {d} x_{n})=\operatorname {det} [K(x_{i},x_{j})]_{1\leq i,j\leq n}\mu (\mathrm {d} x_{1},\dots ,\mathrm {d} x_{n})}.

Skaliert man denIntegralkern konvergiert dieser entweder zu demSinus- oderAiry-Kern. Die benötigten asymptotischen Entwicklungen können mittels der nicht-trivialenMethode des steilsten Anstiegs gezeigt werden (asymptotische Entwicklungen vom Plancherel-Rotach-Typ).

KSine(x,y)=sin(π(xy))π(xy){\displaystyle K_{\text{Sine}}(x,y)={\tfrac {\sin(\pi (x-y))}{\pi (x-y)}}}

Die Wahrscheinlichkeit, dass einekompakte MengeVR{\displaystyle V\subset \mathbb {R} } keine (unskalierte) Eigenwerte(λi)in{\displaystyle (\lambda _{i})_{i\leq n}} enthält, lässt sich als Fredholm-Determinante formulieren (Gaudin-Mehta)

limnP(nλ1,,nλnV)=1+k=1(1)kk!VVdet[KSine(xi,xj)]i,j=1kj=1kdxj{\displaystyle \lim \limits _{n\to \infty }P({\sqrt {n}}\lambda _{1},\dots ,{\sqrt {n}}\lambda _{n}\not \in V)=1+\sum _{k=1}^{\infty }{\frac {(-1)^{k}}{k!}}\int _{V}\cdots \int _{V}\operatorname {det} [K_{\text{Sine}}(x_{i},x_{j})]_{i,j=1}^{k}\prod \limits _{j=1}^{k}\mathrm {d} x_{j}}.

Universalität im Hauptteil

2010 zeigtenErdős-Ramírez-Schlein-Tao-Vu-Yau für wignerische Matrizen mit subexponentialer Abnahme Universalität des Sinus-Kern.[10]

Rand

Betrachtet man den Rand des Spektrums, so erhält man einenAiry-Prozess und bekommt dieTracy-Widom-Verteilung mit Kern

KAiry(x,y)=Ai(x)Ai(y)Ai(x)Ai(y)xy{\displaystyle K_{\text{Airy}}(x,y)={\tfrac {\operatorname {Ai} (x)\operatorname {Ai} '(y)-\operatorname {Ai} '(x)\operatorname {Ai} (y)}{x-y}}}

wobeiAi{\displaystyle \operatorname {Ai} } dieAiry-Funktion bezeichnet.

Für dasGSE undGOE erhält man eine Verallgemeinerung, ein sogenannterpfaffian point processes.

Im Falle des Laguerre-Ensembles ergibt sich bei demhard edge (harten Rand) einBessel-Prozess und bei demsoft edge (weichen Rand) ein Airy-Prozess.

Geschichte

[Bearbeiten |Quelltext bearbeiten]

Bereits 1928 untersuchteJohn Wishart als einer der ersten die Zufallsmatrizen, die bei einer standard-multivariaten normalverteilten Stichprobe entstehen (dieKovarianzmatrix). Dies führte zu derWishart-Verteilung, diematrixvariate Verallgemeinerung derχ2-Verteilung bzw.Gamma-Verteilung.

In den 1950er untersuchteEugene Wigner die Verteilung zwischen benachbartenEnergieniveaus von schweren Atomkernen. Das Energieniveau wird durch die Eigenwerte desHamiltonian der (zeitunabhängigen)Schrödingergleichung beschrieben

H^|Ψ=E|Ψ{\displaystyle \operatorname {\hat {H}} |\Psi \rangle =E|\Psi \rangle }

Für schwere Atomkerne ist dieses Problem zu komplex um es theoretisch zu lösen, deshalb kam Wigner auf die Idee, dieses Problem als statistisches Problem zu lösen und stattdessen die Spektraldichte von großen endlichen Zufallsmatrizen zu untersuchen.

Empirische Daten aus Experimenten zeigten, dass die Verteilung von der Form

ω(dx)=Cβxβekβx2dx{\displaystyle \omega (\mathrm {d} x)=C_{\beta }x^{\beta }e^{-k_{\beta }x^{2}}\mathrm {d} x}

sein musste und somit das Energieniveau korreliert ist, da sonst einePoisson-Verteilung zugrunde liegen sollte und es erklärte auch das Phänomen, dass sich die Energieniveaus gegenseitig abstiessen. Dieses Resultat wird alsWigners Vermutung (englischWigner's surmise) bezeichnet. Die KonstantenCβ,kβ{\displaystyle C_{\beta },k_{\beta }} sind vonβ{1,2,4}{\displaystyle \beta \in \{1,2,4\}} abhängig undβ{\displaystyle \beta } beschreibt die zugrundeliegendeSymmetrie der Atomkerne unterZeitumkehr undSpinrotation. Wigner postulierte, dass die Abstände zwischen den Linien des Spektrums den Abständen der Eigenwerte einer Zufallsmatrix gleichen.

Aus den 1960ern stammen bedeutende Arbeiten zur mathematischen Theorie der Zufallsmatrizen vonGaudin,Mehta undDyson. Parallel dazu entwickelte sich auch wichtige Arbeiten zu den Kovarianzmatrizen.

Die traditionelle Ausgangslage derStatistik hat eine (kleine) fixe Anzahlp{\displaystyle p} von Parametern undn{\displaystyle n\to \infty } Observationen. Die Theorie der Zufallsmatrizen hat sich aus der Situation entwickelt, wennp{\displaystyle p} sehr groß ist und man interessiert sich auch für die Fälle wennn,p{\displaystyle n,p\to \infty }.

In den 1970ern entdeckteMontgomery und Dyson eine Verbindung zwischen den Zufallsmatrizen und derZahlentheorie respektive zwischen schweren Atomkernen und den kritischen Nullstellen derriemannschen Zeta-Funktion.

Anwendungen

[Bearbeiten |Quelltext bearbeiten]

Statistik

[Bearbeiten |Quelltext bearbeiten]

Physik

[Bearbeiten |Quelltext bearbeiten]

Weitere Anwendungen

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]

Weblinks

[Bearbeiten |Quelltext bearbeiten]

Einzelnachweise und Anmerkungen

[Bearbeiten |Quelltext bearbeiten]
  1. Elizabeth Meckes:The Random Matrix Theory of the Classical Compact Groups. 1. Auflage. Cambridge University Press, 2019,ISBN 978-1-108-41952-9,doi:10.1017/9781108303453. 
  2. Greg W. Anderson, Alice Guionnet, Ofer Zeitouni:An Introduction to Random Matrices. Cambridge University Press, 2009. 
  3. abJohn Harnad:Random Matrices, Random Processes and Integrable Systems. Hrsg.: Springer.ISBN 978-1-4614-2877-0. 
  4. Yan V. Fyodorov:Introduction to the Random Matrix Theory: Gaussian Unitary Ensemble and Beyond.doi:10.48550/ARXIV.MATH-PH/0412017. 
  5. Peter J. Forrester:Log-Gases and Random Matrices. In: Princeton University Press (Hrsg.):London Mathematical Society Monographs (LMS-34).Band 34. 
  6. Freeman Dyson: The Threefold Way. Algebraic Structure of Symmetry Groups and Ensembles in Quantum Mechanics. Abgerufen am 23. Mai 2021. 
  7. Leonid Pastur und Mariya Shcherbina:Eigenvalue distribution of large random matrices. Hrsg.: American Mathematical Society. 2011. 
  8. 2010 gezeigt durchTerence Tao undVan H. Vu
  9. G. Mahoux und M.L. Mehta:A method of integration over matrix variables IV. In: EDP Sciences, (Hrsg.):Journal de Physique I.Nr. 1, 1991,S. 1093–1108. 
  10. Laszlo Erdos, Jose Ramirez and Benjamin Schlein and Terence Tao and Van Vu and Horng-Tzer Yau:Bulk universality for Wigner hermitian matrices with subexponential decay.arxiv:0906.4400 [math]. 
  11. https://tel.archives-ouvertes.fr/tel-02397287/document
  12. VS Rychkov, S Borlenghi, H Jaffres, A Fert, X Waintal:Spin Torque and Waviness in Magnetic Multilayers: A Bridge Between Valet-Fert Theory and Quantum Approaches. In:Phys. Rev. Lett. 103. Jahrgang,Nr. 6, August 2009,S. 066602,doi:10.1103/PhysRevLett.103.066602,PMID 19792592. 
  13. DJE Callaway:Random Matrices, Fractional Statistics, and the Quantum Hall Effect. In:Phys. Rev., B Condens. Matter. 43. Jahrgang,Nr. 10, April 1991,S. 8641–8643,doi:10.1103/PhysRevB.43.8641,PMID 9996505. 
  14. M Janssen, K Pracz:Correlated Random Band Matrices: Localization-delocalization Transitions. In:Phys Rev E Stat Phys Plasmas Fluids Relat Interdiscip Topics. 61. Jahrgang, 6 Pt A, Juni 2000,S. 6278–86,doi:10.1103/PhysRevE.61.6278,PMID 11088301. 
  15. DM Zumbühl, JB Miller, CM Marcus, K Campman, AC Gossard:Spin-orbit Coupling, Antilocalization, and Parallel Magnetic Fields in Quantum Dots. In:Phys. Rev. Lett. 89. Jahrgang,Nr. 27, Dezember 2002,S. 276803,doi:10.1103/PhysRevLett.89.276803,PMID 12513231. 
  16. SR Bahcall:Random Matrix Model for Superconductors in a Magnetic Field. In:Phys. Rev. Lett. 77. Jahrgang,Nr. 26, Dezember 1996,S. 5276–5279,doi:10.1103/PhysRevLett.77.5276,PMID 10062760. 
  17. D Sánchez, M Büttiker:Magnetic-field Asymmetry of Nonlinear Mesoscopic Transport. In:Phys. Rev. Lett. 93. Jahrgang,Nr. 10, September 2004,S. 106802,doi:10.1103/PhysRevLett.93.106802,PMID 15447435. 
  18. F Franchini, VE Kravtsov:Horizon in Random Matrix Theory, the Hawking Radiation, and Flow of Cold Atoms. In:Phys. Rev. Lett. 103. Jahrgang,Nr. 16, Oktober 2009,S. 166401,doi:10.1103/PhysRevLett.103.166401,PMID 19905710. 
  19. arxiv:math.OA/0412545
  20. James A. Mingo, Roland Speicher:Free Probability and Random Matrices. Fields Institute Monographs, Bd. 35, Springer Verlag, New York, 2017
  21. arxiv:math.OA/0501238
  22. http://web.mit.edu/sea06/agenda/talks/Harding.pdf
  23. Antonia M. Tulino, Sergio Verdú:Random Matrix Theory and Wireless Communications.Now, 2004. 
  24. newscientist.com
Spezielle Matrizen in der Statistik
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Zufallsmatrix&oldid=252502841
Kategorie:
Versteckte Kategorien: