F-Test

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springenZur Suche springen
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mitBelegen (beispielsweiseEinzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst undgute Belege einfügst.
Dieser Artikel behandelt denF-Test in einfacher Notation. Für denF-Test in Vektor-Matrix-Schreibweise sieheTesten allgemeiner linearer Hypothesen.

AlsF-Test wird eine Gruppe vonstatistischen Tests bezeichnet, bei denen die Teststatistik unter derNullhypothese einerF-Verteilung folgt. Im Kontext derRegressionsanalyse wird mit dem F-Test eine Kombination von linearen (Gleichungs-)Hypothesen untersucht. Beim Spezialfall derVarianzanalyse ist mitF-Test ein Test gemeint, mithilfe dessen mit einer gewissenKonfidenz entschieden werden kann, ob zweiStichproben aus unterschiedlichen, normalverteiltenPopulationen sich hinsichtlich ihrerVarianzwesentlich unterscheiden. Er dient damit unter anderem zur generellen Überprüfung von Unterschieden zwischen zwei statistischen Populationen.

Der Test geht zurück auf einen der bekanntesten Statistiker,Ronald Aylmer Fisher (1890–1962).[1]

Inhaltsverzeichnis

F-Test für zwei Stichproben

[Bearbeiten |Quelltext bearbeiten]

DerF-Test ist ein Begriff aus dermathematischen Statistik, er bezeichnet eine Gruppe vonHypothesentests mitF-verteilterTeststatistik. Bei derVarianzanalyse ist mit demF-Test der Test gemeint, der für zwei Stichproben aus unterschiedlichen, normalverteilten Grundgesamtheiten die Unterschiede in den Varianzen prüft.

DerF-Test setzt zwei unterschiedliche normalverteilte Grundgesamtheiten (Gruppen) voraus mit den Parameternμ1{\displaystyle \mu _{1}} undσ12{\displaystyle \sigma _{1}^{2}} bzw.μ2{\displaystyle \mu _{2}} undσ22{\displaystyle \sigma _{2}^{2}}. Es wird vermutet, dass die Varianz in der zweiten Grundgesamtheit (Gruppe) größer sein könnte als die in der ersten Grundgesamtheit. Um dies zu prüfen, wird aus jeder Grundgesamtheit eineZufallsstichprobe gezogen, wobei die Stichprobenumfängen1{\displaystyle n_{1}} undn2{\displaystyle n_{2}} auch unterschiedlich sein dürfen. Die StichprobenvariablenX1,1,,X1,n1{\displaystyle X_{1,1},\dots ,X_{1,n_{1}}} der ersten Grundgesamtheit undX2,1,,X2,n2{\displaystyle X_{2,1},\dots ,X_{2,n_{2}}} der zweiten Grundgesamtheit müssen dabei unabhängig sowohl innerhalb einer Gruppe als auch untereinander sein.

Für den Test derNullhypothese:H0:σ22=σ12{\displaystyle H_{0}\colon \,\sigma _{2}^{2}=\sigma _{1}^{2}} gegen dieAlternativhypothese:H1:σ22>σ12{\displaystyle H_{1}\colon \,\sigma _{2}^{2}>\sigma _{1}^{2}} eignet sich derF-Test, dessen Teststatistik der Quotient der geschätztenVarianzen der beiden Stichproben ist:

FStichprobe=S22S12=1n21i=1n2(X2,iX¯2)21n11i=1n1(X1,iX¯1)2.{\displaystyle F_{\mathrm {Stichprobe} }={\frac {S_{2}^{2}}{S_{1}^{2}}}={\frac {\displaystyle {\frac {1}{n_{2}-1}}\sum _{i=1}^{n_{2}}(X_{2,i}-{\overline {X}}_{2})^{2}}{\displaystyle {\frac {1}{n_{1}-1}}\sum _{i=1}^{n_{1}}(X_{1,i}-{\overline {X}}_{1})^{2}}}.}

Dabei sindS12{\displaystyle S_{1}^{2}},S22{\displaystyle S_{2}^{2}} dieStichprobenvarianzen undX¯1{\displaystyle {\overline {X}}_{1}},X¯2{\displaystyle {\overline {X}}_{2}} dieStichprobenmittel innerhalb der beiden Gruppen.

Unter der Gültigkeit der Nullhypothese ist die TeststatistikFStichprobe{\displaystyle F_{\mathrm {Stichprobe} }}F-verteilt mitn21{\displaystyle n_{2}-1}Freiheitsgraden im Zähler undn11{\displaystyle n_{1}-1} im Nenner. Die Nullhypothese wird abgelehnt für zu große Werte der Teststatistik. Man bestimmt dazu denkritischen Wert oder man berechnet denp-Wert des Prüfwerts. Dies geschieht am einfachsten unter Zuhilfenahme einerF-Wert-Tabelle.

Der kritische WertK ergibt sich aus der Bedingung:

P(F(n21,n11)KH0)α0,{\displaystyle P\left(F(n_{2}-1,n_{1}-1)\geq K\mid H_{0}\right)\leq \alpha _{0},}

mitα0{\displaystyle \alpha _{0}} dem erwünschtenSignifikanzniveau.

Denp-Wert berechnet man mittels:

p=P(F(n21,n11)fStichprobeH0),{\displaystyle p=P\left(F(n_{2}-1,n_{1}-1)\geq f_{\mathrm {Stichprobe} }\mid H_{0}\right),}

mitfStichprobe{\displaystyle f_{\mathrm {Stichprobe} }}, dem in der Stichprobe gefundenen Wert der TeststatistikFStichprobe{\displaystyle F_{\mathrm {Stichprobe} }}.

Hat manK bestimmt, dann lehnt manH0{\displaystyle H_{0}} ab, fallsfStichprobeK{\displaystyle f_{\mathrm {Stichprobe} }\geq K}. Hat man den p-Wertp berechnet, lehnt manH0{\displaystyle H_{0}} ab, fallspα0{\displaystyle p\leq \alpha _{0}}.

Häufig wird für das Signifikanzniveauα0{\displaystyle \alpha _{0}} der Wert 5 % gewählt. Es handelt sich dabei aber nur um eine gängige Konvention, siehe auch den ArtikelStatistische Signifikanz. Allerdings können aus der erhaltenen WahrscheinlichkeitP(FH0){\displaystyle P(F\mid H_{0})} keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der Alternativhypothese gezogen werden.

Um eine Entscheidung zu fällen, muss man wissen, welcherVerteilung dieTeststatistikFStichprobe{\displaystyle F_{\mathrm {Stichprobe} }} folgt. Dazu betrachtet man zunächst Zähler und Nenner der Prüfgröße genauer. Beide sind die Summe von quadrierten, um ihren Mittelwert bereinigtennormalverteiltenZufallsvariablen, jeweils dividiert durch die um eins reduzierte Stichprobengröße. Teilt man Zähler und Nenner durch dieVarianzσ12=σ22{\displaystyle \sigma _{1}^{2}=\sigma _{2}^{2}} in der Grundgesamtheit, was den Wert des Quotienten nicht verändert, und multipliziert mit dem Faktor1ni1{\displaystyle {\tfrac {1}{n_{i}-1}}}, so folgen beide einerChi-Quadrat-Verteilung und es gilt[2]

S12σ12(n11)=n11σ121n11i=1n1(X1,iX¯1)2=i=1n1(X1,iX¯σ1)2{\displaystyle {\frac {S_{1}^{2}}{\sigma _{1}^{2}}}\cdot (n_{1}-1)={\frac {n_{1}-1}{\sigma _{1}^{2}}}\cdot {\frac {1}{n_{1}-1}}\cdot \sum _{i=1}^{n_{1}}(X_{1,i}-{\overline {X}}_{1})^{2}=\sum _{i=1}^{n_{1}}\left({\frac {X_{1,i}-{\overline {X}}}{\sigma _{1}}}\right)^{2}}

Beispiel

[Bearbeiten |Quelltext bearbeiten]

Ein Unternehmen will die Herstellung eines seiner Produkte auf ein Verfahren umstellen, das bessere Qualität verspricht. Das neue Verfahren wäre zwar teurer, aber sollte eine kleinere Streuung aufweisen. Als Test werden 100 Produkte, hergestellt mit dem neuen Verfahren B, verglichen mit 120 Produkten, die mit der alten Methode A produziert worden sind. Die Produkte B weisen eine Varianz von 80 auf, und die Produkte A eine Varianz von 95. Getestet wird

H0:σA=σB{\displaystyle H_{0}\colon \sigma _{A}=\sigma _{B}}

gegen

H1:σA>σB{\displaystyle H_{1}\colon \sigma _{A}>\sigma _{B}}

Die Teststatistik hat den Prüfwert:

fStichprobe=sA2sB2=9580=1,1875{\displaystyle f_{\mathrm {Stichprobe} }={\frac {s_{A}^{2}}{s_{B}^{2}}}={\frac {95}{80}}=1{,}1875}

Dieser F-Wert stammt unter der Nullhypothese aus einerF(119;99){\displaystyle F_{(119;\,99)}}-Verteilung. Der p-Wert des Stichprobenergebnisses ist also:

P(F(119;99)1,1875)0,189.{\displaystyle P(F(119;\,99)\geq 1{,}1875)\approx 0{,}189.}

Die Nullhypothese kann also nicht abgelehnt werden, und somit wird die Produktion nicht auf das neue Verfahren umgestellt. Dabei bleibt die Frage, ob diese Entscheidung gerechtfertigt ist. Was wäre, wenn das neue Verfahren tatsächlich eine kleinere Varianz bewirkt, aber aufgrund der Stichprobe ist dies unentdeckt geblieben? Aber auch wenn die Nullhypothese abgelehnt worden wäre, also ein signifikanter Unterschied zwischen den Varianzen aufgefunden worden wäre, hätte doch der Unterschied unbedeutend klein sein können. Zuerst stellt sich natürlich die Frage, ob der Test im Stande wäre, den Unterschied zu entdecken. Dazu betrachtet man die Teststärke. Das Signifikanzniveauα0{\displaystyle \alpha _{0}} ist auch der Minimalwert der Teststärke. Das führt also nicht weiter. In der Praxis aber würde die Produktion natürlich nur dann umgestellt, wenn eine erhebliche Verbesserung zu erwarten wäre, z. B. eine Abnahme der Standardabweichung um 25 %. Wie wahrscheinlich ist es, dass der Test einen solchen Unterschied entdeckt? Das ist genau der Wert der Teststärke fürσB=0,75σA{\displaystyle \sigma _{B}=0{,}75\sigma _{A}}. Die Berechnung erfordert zuerst die Berechnung des kritischen Wertsfkrit{\displaystyle f_{\mathrm {krit} }}. Dazu unterstellen wirα0=5 %{\displaystyle \alpha _{0}=5\ \%}, und lesen aus einer Tabelle ab:

fkrit=1,378.{\displaystyle f_{\mathrm {krit} }=1{,}378.}

Es gilt also:

P(FStichprobe1,378|H0)=0,05.{\displaystyle P(F_{\mathrm {Stichprobe} }\geq 1{,}378|H_{0})=0{,}05.}

Der gesuchte Wert der Teststärke ist die Wahrscheinlichkeit, die erwähnte Abnahme der Standardabweichung zu entdecken, also:

P(H0 ablehnen|σB=34σA)={\displaystyle P(H_{0}\ {\text{ablehnen}}|\sigma _{B}={\tfrac {3}{4}}\sigma _{A})=}
=P(FStichprobefkrit|σB=34σA)={\displaystyle =P(F_{\mathrm {Stichprobe} }\geq f_{\mathrm {krit} }|\sigma _{B}={\tfrac {3}{4}}\sigma _{A})=}
=P(SA2SB2fkrit|σBσA=34)={\displaystyle =P\left(\left.{\frac {S_{A}^{2}}{S_{B}^{2}}}\geq f_{\mathrm {krit} }\right|{\frac {\sigma _{B}}{\sigma _{A}}}={\tfrac {3}{4}}\right)=}
=P(SA2/σA2SB2/σB2(34)2fkrit)={\displaystyle =P\left({\frac {S_{A}^{2}/\sigma _{A}^{2}}{S_{B}^{2}/\sigma _{B}^{2}}}\geq ({\tfrac {3}{4}})^{2}f_{\mathrm {krit} }\right)=}
=P(F(119;99)0,775)=0,91.{\displaystyle =P\left(F(119;99)\geq 0{,}775\right)=0{,}91.}

Das bedeutet: Wenn die Varianz um 25 % oder mehr abnimmt, so wird das in mindestens 91 % der Fälle entdeckt.

F-Test für mehrere Stichprobenvergleiche

[Bearbeiten |Quelltext bearbeiten]

Dereinfachen Varianzanalyse liegt ebenfalls derF-Test zugrunde. Hier werden die Quadratsumme der Behandlung und dieResiduenquadratsumme einander gegenübergestellt.

F-Test auf Gesamtsignifikanz eines Modells

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Globaler F-Test

Beim globalenF-Tests (auchOverall-F-Test oderF-Test auf Gesamtsignifikanz eines Modells) wird geprüft, ob mindestens eine erklärende Variable einen Erklärungsgehalt für das Modell liefert und das Modell somit als Gesamtes signifikant ist.

Einordnung

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]

Einzelnachweise

[Bearbeiten |Quelltext bearbeiten]
  1. Richard G Lomax:An introduction to statistical concepts. Lawrence Erlbaum Associates Publishers, Mahwah, N.J. 2007,S. 205 (archive.org). 
  2. Statistik-Nachhilfe.de:F-Test
Abgerufen von „https://de.wikipedia.org/w/index.php?title=F-Test&oldid=249151355
Kategorie:
Versteckte Kategorie: