Movatterモバイル変換


[0]ホーム

URL:


Zum Inhalt springen
WikipediaDie freie Enzyklopädie
Suche

Zufallsvariable

aus Wikipedia, der freien Enzyklopädie

In derStochastik ist eineZufallsvariable eine Größe, deren Wert vom Zufall abhängig ist.[1] Formal ist eine Zufallsvariable eineFunktion, die jedemmöglichen Ergebnis einesZufallsexperiments eine Größe zuordnet.[2] Ist diese Größe einereelle Zahl, so spricht man von einerreellen Zufallsvariablen oderZufallsgröße.[3] Beispiele für reelle Zufallsvariablen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einemGlücksspiel. Zufallsvariablen können aber auch komplexeremathematische Objekte sein, wieZufallsfelder,Zufallsbewegungen,Zufallspermutationen oderZufallsgraphen. Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.[2]

Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt manRealisierung[4] oder im Falle einesstochastischen Prozesses einenPfad. Bei derZufallszahlenerzeugung werden Realisierungen spezieller Zufallsexperimente alsZufallszahlen bezeichnet.

Alternative Bezeichnungen

[Bearbeiten |Quelltext bearbeiten]

Heutzutage istZufallsvariable die gängigste Bezeichnung; in älterer Literatur finden sich aber auchzufällige Variable[3],zufällige Größe[2],zufällige Veränderliche[3],zufälliges Element[3],Zufallselement[5] undZufallsveränderliche[6][7]

WährendA. N. Kolmogorow zunächst vondurch den Zufall bestimmten Größen sprach[8][9], führte er 1933 den Begriffzufällige Größe ein[10] und sprach später vonZufallsgrößen.[11] Im Jahr 1933 ist auch schon der BegriffZufallsvariable in Gebrauch.[12] Bereits 1935 ist der Begriffzufällige Variable nachweisbar.[13] Später hat sich (ausgehend vom englischenrandom variable, das sich gegenchance variable undstochastic Variable durchsetzte[14]) der etwas irreführende Begriff[15]Zufallsvariable durchgesetzt.

Einführung

[Bearbeiten |Quelltext bearbeiten]

Die Grundidee hinter der Zufallsvariable ist es, den Zufall mit Hilfe des Begriffes derFunktion zu modellieren. Dies wird einige Vorteile mit sich bringen. Angenommen, wir betrachten ein Zufallsexperiment, welches nur zwei Ausgänge hat, welche wir mitω1{\displaystyle \omega _{1}} undω2{\displaystyle \omega _{2}} notieren. Mit Hilfe der Funktion können wir nun eine„zufällige Variable“ definieren, die berücksichtigt, obω1{\displaystyle \omega _{1}} oderω2{\displaystyle \omega _{2}} eingetroffen ist.

Ein Beispiel einer Zufallsvariable. Die MengeE{\displaystyle E} steht für eine beliebige Menge, welche die Zahlen1,0,1{\displaystyle -1,0,1} enthält.

Dies geschieht durch die Funktion

X(ω)={a1,wenn ω=ω1,a2,wenn ω=ω2.{\displaystyle X(\omega )={\begin{cases}a_{1},&\quad {\text{wenn }}\omega =\omega _{1},\\a_{2},&\quad {\text{wenn }}\omega =\omega _{2}.\end{cases}}}

wobei die Wertea1{\displaystyle a_{1}} unda2{\displaystyle a_{2}} vom Experiment abhängen, welches man modelliert. Man nennt

Wir notieren die Menge der Realisierungen mitE={a1,a2}{\displaystyle E=\{a_{1},a_{2}\}}. In den meisten Fällen wählt man fürE{\displaystyle E} entweder die reellen ZahlenR{\displaystyle \mathbb {R} } oder eine diskrete Menge wie zum BeispielN{\displaystyle \mathbb {N} } oderZ{\displaystyle \mathbb {Z} }. Allgemeiner kannE{\displaystyle E} aber auchRn{\displaystyle \mathbb {R} ^{n}}, einBanach-Raum oder eintopologischer Vektorraum sein.

Eine Zufallsvariable ist somit eine Abbildung der FormX:ΩE{\displaystyle X\colon \Omega \to E}.

X(ω)={0,wenn ω=ω1,1,wenn ω=ω2,{\displaystyle X(\omega )={\begin{cases}0,&\quad {\text{wenn }}\omega =\omega _{1},\\1,&\quad {\text{wenn }}\omega =\omega _{2},\end{cases}}}
Wir haben alsoa1=0{\displaystyle a_{1}=0} unda2=1{\displaystyle a_{2}=1} gewählt, hätten wir hingegen bei falscher Wette 1 EUR bezahlen müssen, dann hätten wir uns füra1=1{\displaystyle a_{1}=-1} entschieden.
X(ω)=ω.{\displaystyle X(\omega )=\omega .}
  1. X1(ω):=X(ω1){0,1}{\displaystyle X_{1}(\omega ):=X(\omega _{1})\in \{0,1\}} als Auszahlung nach der ersten Wette,
  2. X2(ω):=X(ω2){0,1}{\displaystyle X_{2}(\omega ):=X(\omega _{2})\in \{0,1\}} als Auszahlung nach der zweiten Wette,
  3. S(ω):=X(ω1)+X(ω2){0,1,2}{\displaystyle S(\omega ):=X(\omega _{1})+X(\omega _{2})\in \{0,1,2\}} als Summe der beiden Auszahlungen.

Zufallsvariablen werden üblicherweise mit einem Großbuchstaben bezeichnet (hierX,X1,X2,S{\displaystyle X,X_{1},X_{2},S}), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (zum Beispielx=0{\displaystyle x=0},x1=1{\displaystyle x_{1}=1},x2=0{\displaystyle x_{2}=0},s=1{\displaystyle s=1}).

Im Münzwurf-Beispiel hat die MengeΩ={Kopf,Zahl}{\displaystyle \Omega =\{{\text{Kopf}},{\text{Zahl}}\}} eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente vonΩ{\displaystyle \Omega } als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.

Notation

[Bearbeiten |Quelltext bearbeiten]

Häufig verzichtet man auf die SchreibweiseX(ωi)=ai{\displaystyle X(\omega _{i})=a_{i}} und benutzt stattdessen die KurzschreibweiseX=ai{\displaystyle X=a_{i}}. Dies sollte aber nicht falsch verstanden werden, denn es handelt sich hier nur um eine Abkürzung fürX(ωi)=ai{\displaystyle X(\omega _{i})=a_{i}} respektive für die Menge allerω{\displaystyle \omega }, so dassX(ω)=ai{\displaystyle X(\omega )=a_{i}}.

Elemente der Maßtheorie

[Bearbeiten |Quelltext bearbeiten]

Damit man über Wahrscheinlichkeiten sprechen kann, müssen die RäumeΩ{\displaystyle \Omega } undE{\displaystyle E} noch mit zusätzlichen Strukturen ausgestattet sein. FürΩ{\displaystyle \Omega } brauchen wir

Aus technischer Sicht verwendet man hierfür dieMaßtheorie, was zum Begriff desWahrscheinlichkeitsraumes(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} führt, wobeiΣ{\displaystyle \Sigma } eine sogenannteσ-Algebra undP{\displaystyle P} einWahrscheinlichkeitsmaß ist. FürE{\displaystyle E} brauchen wir etwas ähnliches, welches mit der Struktur aufΩ{\displaystyle \Omega } verträglich ist.

Konkret brauchen wir fürE{\displaystyle E} ein SystemΣ{\displaystyle \Sigma '}, welches mit dem SystemΣ{\displaystyle \Sigma } vonΩ{\displaystyle \Omega } verträglich ist. Dies führt zum Begriff derMessbarkeit. Es soll gelten

Wenn diese Eigenschaft gilt, dann nennen wirX{\displaystyle X} eine(Σ,Σ){\displaystyle (\Sigma ,\Sigma ')}-messbare Funktion. Zufallsvariablen erfüllen diese Eigenschaft (für einΣ{\displaystyle \Sigma } undΣ{\displaystyle \Sigma '}) und sind messbare Funktionen.

Als Letztes ermöglicht uns die Messbarkeit, das WahrscheinlichkeitsmaßP{\displaystyle P} auf den Raum(E,Σ){\displaystyle (E,\Sigma ')} zu übertragen. Dies führt zum Begriff derWahrscheinlichkeitsverteilung, welche als sogenanntesBildmaß unter der ZufallsvariableX{\displaystyle X} durchPX(A)=P(X1(A)){\displaystyle P^{X}(A)=P\left(X^{-1}(A)\right)} für alleAΣ{\displaystyle A\in \Sigma '} definiert ist.

Definition

[Bearbeiten |Quelltext bearbeiten]

Als Zufallsvariable bezeichnet man einemessbare Funktion von einemWahrscheinlichkeitsraum in einenMessraum.

Eine formale mathematische Definition lässt sich wie folgt geben:[16]

Es seien(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} ein Wahrscheinlichkeitsraum und(E,Σ){\displaystyle (E,\Sigma ')} ein Messraum. Eine(Σ,Σ){\displaystyle (\Sigma ,\Sigma ')}-messbare FunktionX:ΩE{\displaystyle X\colon \Omega \to E} heißt dann eineE{\displaystyle E}-Zufallsvariable aufΩ{\displaystyle \Omega } oder einfach nurZufallsvariable.

Beispiel: Zweimaliger Würfelwurf

[Bearbeiten |Quelltext bearbeiten]
Summe von zwei Würfeln:(Ω,Σ,P)S(E,Σ,PS){\displaystyle (\Omega ,\Sigma ,P)\xrightarrow {S} (E,\Sigma ',P^{S})}

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} modellieren:

Die ZufallsvariablenX1{\displaystyle X_{1}} (gewürfelte Zahl des ersten Würfels),X2{\displaystyle X_{2}} (gewürfelte Zahl des zweiten Würfels) undS{\displaystyle S} (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:

  1. X1:ΩR;(n1,n2)n1,{\displaystyle X_{1}\colon \Omega \to \mathbb {R} ;\quad \left(n_{1},n_{2}\right)\mapsto n_{1},}
  2. X2:ΩR;(n1,n2)n2,{\displaystyle X_{2}\colon \Omega \to \mathbb {R} ;\quad \left(n_{1},n_{2}\right)\mapsto n_{2},} und
  3. S:ΩR;(n1,n2)n1+n2,{\displaystyle S\colon \Omega \to \mathbb {R} ;\quad \left(n_{1},n_{2}\right)\mapsto n_{1}+n_{2},}

wobei fürΣ{\displaystyle \Sigma '} dieborelsche σ-Algebra auf den reellen Zahlen gewählt wird.

Bemerkungen

[Bearbeiten |Quelltext bearbeiten]

In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum aufΩ{\displaystyle \Omega } und welcher Messraum aufE{\displaystyle E} gemeint ist.

Bei einer endlichen ErgebnismengeΩ{\displaystyle \Omega } wirdΣ{\displaystyle \Sigma } meistens als die Potenzmenge vonΩ{\displaystyle \Omega } gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die ErgebnismengeΩ{\displaystyle \Omega }überabzählbar viele Elemente enthält.

Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:

Reelle Zufallsvariable

[Bearbeiten |Quelltext bearbeiten]

Bei reellen Zufallsvariablen ist der Bildraum die MengeR{\displaystyle \mathbb {R} } derreellen Zahlen versehen mit derborelschenσ{\displaystyle \sigma }-Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:

Eine reelle Zufallsvariable ist eine FunktionX:ΩR{\displaystyle X\colon \Omega \to \mathbb {R} }, die jedem Ergebnisω{\displaystyle \omega } aus einerErgebnismengeΩ{\displaystyle \Omega } eine reelle ZahlX(ω){\displaystyle X(\omega )} zuordnet und die folgende Messbarkeitsbedingung erfüllt:
xR: {ωX(ω)x}Σ{\displaystyle \forall x\in \mathbb {R} :\ \lbrace \omega \mid X(\omega )\leq x\rbrace \in \Sigma }

Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.

Im Beispiel des zweimaligen Würfelns sindX1{\displaystyle X_{1}},X2{\displaystyle X_{2}} undS{\displaystyle S} jeweils reelle Zufallsvariablen.

Mehrdimensionale Zufallsvariable

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Zufallsvektor

Eine mehrdimensionale Zufallsvariable ist eine messbare AbbildungX:ΩRn{\displaystyle X\colon \Omega \to \mathbb {R} ^{n}} für eine DimensionnN{\displaystyle n\in \mathbb {N} }. Sie wird auch als Zufallsvektor bezeichnet. Damit istX=(X1,,Xn){\displaystyle X=(X_{1},\dotsc ,X_{n})} gleichzeitig ein Vektor von einzelnen reellen ZufallsvariablenXi:ΩR{\displaystyle X_{i}\colon \Omega \to \mathbb {R} }, die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung vonX{\displaystyle X} wird alsmultivariat bezeichnet, die Verteilungen der KomponentenXi{\displaystyle X_{i}} nennt man auchRandverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind derErwartungswertvektor und dieKovarianzmatrix.

Im Beispiel des zweimaligen Würfelns istX=(X1,X2){\displaystyle X=(X_{1},X_{2})} eine zweidimensionale Zufallsvariable.

Zufallsvektoren sollten nicht mitWahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente desRn{\displaystyle \mathbb {R} ^{n}}, deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mitn{\displaystyle n} Elementen.

Komplexe Zufallsvariable

[Bearbeiten |Quelltext bearbeiten]

Bei komplexen Zufallsvariablen ist der Bildraum die MengeC{\displaystyle \mathbb {C} } derkomplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischenC{\displaystyle \mathbb {C} } undR2{\displaystyle \mathbb {R} ^{2}} „geerbten“ borelschen σ-Algebra.X{\displaystyle X} ist genau dann eine Zufallsvariable, wenn RealteilRe(X){\displaystyle \operatorname {Re} (X)} und ImaginärteilIm(X){\displaystyle \operatorname {Im} (X)} jeweils reelle Zufallsvariablen sind.

Numerische oder erweiterte Zufallsvariable

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Erweiterte Zufallsvariable

Der BegriffZufallsvariable ohne weitere Charakterisierung bedeutet meistens – und fast immer in anwendungsnahen Darstellungen –reelle Zufallsvariable. Zur Unterscheidung von einer solchen wird eine Zufallsvariable mit Werten in denerweiterten reellen ZahlenR{,}{\displaystyle \mathbb {R} \cup \{-\infty ,\infty \}} alsnumerische Zufallsvariable[17] – entsprechend der Terminologie dernumerischen Funktion – oder alserweiterte Zufallsvariable[17] (engl.extended random variable[18]) bezeichnet. Es gibt aber auch eine abweichende Terminologie, bei derZufallsvariable eine numerische Zufallsvariable bezeichnet und eine reelle Zufallsvariable immer als solche bezeichnet wird.[19]

Zufallselement

[Bearbeiten |Quelltext bearbeiten]

In der Literatur wird die obige Definition der Zufallsvariable manchmal für den BegriffZufallselement oderzufälliges Element (resp.englischrandom element) verwendet, um reelle ZufallsvariablenΩR{\displaystyle \Omega \to \mathbb {R} } von allgemeineren Objekten wie demZufallsvektor, demzufälligen Maß, derZufallsfunktion, derZufallsmenge, derZufallsmatrix usw. zu unterscheiden.

Die Verteilung von Zufallsvariablen, Existenz

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Verteilung einer Zufallsvariablen

Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum vonX{\displaystyle X} induziertenWahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die VerteilungPX{\displaystyle P^{X}} einer ZufallsvariablenX{\displaystyle X} als dasBildmaß des WahrscheinlichkeitsmaßesP{\displaystyle P} definiert, also

PX(A)=P(X1(A)){\displaystyle P^{X}(A)=P\left(X^{-1}(A)\right)} für alleAΣ{\displaystyle A\in \Sigma '}, wobeiΣ{\displaystyle \Sigma '} die auf dem Bildraum der ZufallsvariableX{\displaystyle X} gegebene σ-Algebra ist.

StattPX{\displaystyle P^{X}} werden in der Literatur für die Verteilung vonX{\displaystyle X} auch die SchreibweisenPX,X(P){\displaystyle P_{X},X(P)} oderPX1{\displaystyle P\circ X^{-1}} verwendet.

Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einerNormalverteilung entspricht.

Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auchwahrscheinlichkeitstheoretisch genannt.[20] Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.

Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweiseΩ=R{\displaystyle \Omega =\mathbb {R} },Σ{\displaystyle \Sigma } als die Borelsche σ-Algebra auf den reellen Zahlen undP{\displaystyle P} als das durch die Verteilungsfunktion induzierteLebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann dieidentische AbbildungX:RR{\displaystyle X\colon \mathbb {R} \to \mathbb {R} } mitX(ω)=ω{\displaystyle X(\omega )=\omega } gewählt werden.[21]

Wenn eineFamilie von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.

Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Familie von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz vonÉ. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelteBernoulli-Folgen betrachten lassen (ähnlichHilberts Hotel).[22]

Mathematische Attribute für Zufallsvariablen

[Bearbeiten |Quelltext bearbeiten]

Verschiedene mathematische Attribute, die teilweise denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:

Diskret

[Bearbeiten |Quelltext bearbeiten]

Eine Zufallsvariable wird alsdiskret bezeichnet, wenn sie nurendlich viele oderabzählbar unendlich viele Werte annimmt, oder etwas allgemeiner, wenn ihre Verteilung einediskrete Wahrscheinlichkeitsverteilung ist.[23] Im obigen Beispiel des zweimaligen Würfelns sind alle drei ZufallsvariablenX1{\displaystyle X_{1}},X2{\displaystyle X_{2}} undS{\displaystyle S} diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sindzufällige Permutationen.

Konstant

[Bearbeiten |Quelltext bearbeiten]

Eine Zufallsvariable wird alskonstant bezeichnet, wenn sie nur einen Wert annimmt:X(ω)=c{\displaystyle X(\omega )=c} für alleωΩ{\displaystyle \omega \in \Omega }. Sie ist ein Spezialfall einer diskreten Zufallsvariable.

Es gilt

(ωΩ:X(ω)=c)P(X=c)=1{\displaystyle (\forall \omega \in \Omega \colon X(\omega )=c)\implies P(X=c)=1},[24]

die Umkehrung gilt im Allgemeinen nicht. Eine Zufallsvariable, die nur die rechte Seite erfüllt, heißtfast sicher konstant.

Unabhängig

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Stochastisch unabhängige Zufallsvariablen

Zwei reelle ZufallsvariablenX,Y{\displaystyle X,Y} heißen unabhängig, wenn für je zwei Intervalle[a1,b1]{\displaystyle [a_{1},b_{1}]} und[a2,b2]{\displaystyle [a_{2},b_{2}]} die EreignisseEX:={ω|X(ω)[a1,b1]}{\displaystyle E_{X}:=\{\omega |X(\omega )\in [a_{1},b_{1}]\}} undEY:={ω|Y(ω)[a2,b2]}{\displaystyle E_{Y}:=\{\omega |Y(\omega )\in [a_{2},b_{2}]\}}stochastisch unabhängig sind. Das sind sie, wenn gilt:P(EXEY)=P(EX)P(EY){\displaystyle P(E_{X}\cap E_{Y})=P(E_{X})P(E_{Y})}.

In obigem Beispiel sindX1{\displaystyle X_{1}} undX2{\displaystyle X_{2}} unabhängig voneinander; die ZufallsvariablenX1{\displaystyle X_{1}} undS{\displaystyle S} hingegen nicht.

Unabhängigkeit mehrerer ZufallsvariablenX1,X2,,Xn{\displaystyle X_{1},X_{2},\dotsc ,X_{n}} bedeutet, dass das WahrscheinlichkeitsmaßPX{\displaystyle P_{X}} des ZufallsvektorsX=(X1,X2,,Xn){\displaystyle X=\left(X_{1},X_{2},\dotsc ,X_{n}\right)} demProduktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß vonPX1,PX2,,PXn{\displaystyle P_{X_{1}},P_{X_{2}},\dotsc ,P_{X_{n}}} entspricht.[25] So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} mit

Ω={1,2,3,4,5,6}3{\displaystyle \Omega =\{1,2,3,4,5,6\}^{3}},
Σ{\displaystyle \Sigma } der Potenzmenge vonΩ{\displaystyle \Omega } und
P((n1,n2,n3))=163=1216{\displaystyle P\left(\left(n_{1},n_{2},n_{3}\right)\right)={\frac {1}{6^{3}}}={\frac {1}{216}}}

modellieren; die Zufallsvariable „Ergebnis desk{\displaystyle k}-ten Wurfes“ ist dann

Xk(n1,n2,n3)=nk{\displaystyle X_{k}\left(n_{1},n_{2},n_{3}\right)=n_{k}} fürk{1,2,3}{\displaystyle k\in \{1,2,3\}}.

Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.[26]

Identisch verteilt

[Bearbeiten |Quelltext bearbeiten]

Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw.i.d. für identically distributed), wenn ihreinduzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sindX1{\displaystyle X_{1}},X2{\displaystyle X_{2}} identisch verteilt; die ZufallsvariablenX1{\displaystyle X_{1}} undS{\displaystyle S} hingegen nicht.

Unabhängig und identisch verteilt

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Unabhängig und identisch verteilte Zufallsvariablen

Häufig werdenFolgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängigen, identisch verteilten Zufallsvariablen, üblicherweise mitu.i.v. bzw.i.i.d. (fürindependent and identically distributed) abgekürzt.

In obigem Beispiel des dreimaligen Würfelns sindX1{\displaystyle X_{1}},X2{\displaystyle X_{2}} undX3{\displaystyle X_{3}} u.i.v. Die Summe der ersten beiden WürfeS1,2=X1+X2{\displaystyle S_{1,2}=X_{1}+X_{2}} und die Summe des zweiten und dritten WurfsS2,3=X2+X3{\displaystyle S_{2,3}=X_{2}+X_{3}} sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sindS1,2{\displaystyle S_{1,2}} undX3{\displaystyle X_{3}} unabhängig, aber nicht identisch verteilt.

Austauschbar

[Bearbeiten |Quelltext bearbeiten]

Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.

Mathematische Attribute für reelle Zufallsvariablen

[Bearbeiten |Quelltext bearbeiten]

Kenngrößen

[Bearbeiten |Quelltext bearbeiten]

Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist dieVerteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch dieWahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmtenIntervalls liegen. Des Weiteren sind Kennzahlen wie derErwartungswert, dieVarianz oder höhere mathematischeMomente von Interesse.

Stetig oder kontinuierlich

[Bearbeiten |Quelltext bearbeiten]

Das Attributstetig wird für unterschiedliche Eigenschaften verwendet.

Verteilungsfunktion

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Verteilungsfunktion

Eine reelle ZufallsvariableX{\displaystyle X} mit der WahrscheinlichkeitsverteilungPX{\displaystyle P_{X}} hat dieVerteilungsfunktion

FX(x)=PX((,x]),xR.{\displaystyle F_{X}(x)=P_{X}((-\infty ,x]),\quad x\in \mathbb {R} \;.}

Transformation

[Bearbeiten |Quelltext bearbeiten]

Wenn eine reelle ZufallsvariableX{\displaystyle X} auf dem ErgebnisraumΩ{\displaystyle \Omega } und eine messbare Funktiong:RR{\displaystyle g\colon \mathbb {R} \to \mathbb {R} } gegeben ist, dann ist auchY=g(X){\displaystyle Y=g(X)} eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist.g(X){\displaystyle g(X)} wird auch alsTransformation der ZufallsvariablenX{\displaystyle X} unterg{\displaystyle g} bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} nach(R,B(R),PX){\displaystyle (\mathbb {R} ,{\mathcal {B}}(\mathbb {R} ),P^{X})} gelangt, kann benutzt werden, um die Verteilung vonY{\displaystyle Y} zu erhalten.

Die VerteilungsfunktionFY{\displaystyle F_{Y}} der transformierten ZufallsvariablenY=g(X){\displaystyle Y=g(X)} kann mit der WahrscheinlichkeitsverteilungPX{\displaystyle P_{X}} bestimmt werden

FY(y)=P(g(X)y),yR{\displaystyle F_{Y}(y)=\operatorname {P} (g(X)\leq y),\quad y\in \mathbb {R} }.

Beispiel

[Bearbeiten |Quelltext bearbeiten]

Es seiX{\displaystyle X} eine reelle Zufallsvariable mit stetiger VerteilungsfunktionFX{\displaystyle F_{X}}. Dann ist die VerteilungsfunktionFY{\displaystyle F_{Y}} der ZufallsvariablenY=X2{\displaystyle Y=X^{2}} durch

FY(y)=P(X2y)={0falls y<0FX(y)FX(y)falls y0{\displaystyle F_{Y}(y)=\operatorname {P} (X^{2}\leq y)={\begin{cases}0&{\text{falls }}y<0\\F_{X}\left({\sqrt {y}}\right)-F_{X}\left(-{\sqrt {y}}\right)&{\text{falls }}y\geq 0\\\end{cases}}}

gegeben.[29]

Erwartungswert

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Erwartungswert

DerErwartungswert einerquasi-integrierbaren ZufallsgrößeX{\displaystyle X} von(Ω,Σ,P){\displaystyle (\Omega ,\Sigma ,P)} nach(R¯,B(R¯)){\displaystyle ({\bar {\mathbb {R} }},{\mathcal {B}}({\bar {\mathbb {R} }}))} mit der VerteilungPX{\displaystyle P_{X}} ist

E[X]=ΩX(ω)dP(ω)=RxdPX(x){\displaystyle \operatorname {E} [X]=\int _{\Omega }X(\omega )\mathrm {d} P(\omega )=\int _{\mathbb {R} }x\mathrm {d} P_{X}(x)\,}.

Integrierbar und quasi-integrierbar

[Bearbeiten |Quelltext bearbeiten]

Eine Zufallsvariable heißtintegrierbar, wenn derErwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißtquasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.

Standardisierung

[Bearbeiten |Quelltext bearbeiten]
Hauptartikel:Standardisierung (Statistik)

Eine Zufallsvariable nennt man standardisiert, wenn ihrErwartungswert 0 und ihreVarianz 1 ist. Die Transformation einer ZufallsvariableY{\displaystyle Y} in eine standardisierte Zufallsvariable

Z=YE(Y)Var(Y){\displaystyle Z={\frac {Y-\operatorname {E} (Y)}{\sqrt {\operatorname {Var} (Y)}}}}

bezeichnet man als Standardisierung der ZufallsvariableY{\displaystyle Y}.

Sonstiges

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]
  • Karl Hinderer:Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin / Heidelberg / New York 1980,ISBN 3-540-07309-4. 
  • Erich Härtter:Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler. Vandenhoeck & Ruprecht, Göttingen 1974,ISBN 3-525-03114-9. 
  • Michel Loève:Probability Theory I. 4. Auflage. Springer, 1977,ISBN 0-387-90210-4 (englisch). 
  • P. H. Müller (Hrsg.):Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991,ISBN 3-05-500608-9, Zufällige Variable (random variable),S. 511. 

Weblinks

[Bearbeiten |Quelltext bearbeiten]
Commons: Zufallsvariable – Sammlung von Bildern, Videos und Audiodateien
Wikibooks: Zufallsvariablen – Lern- und Lehrmaterialien
Wikibooks: Funktionen von Zufallsvariablen – Lern- und Lehrmaterialien

Einzelnachweise

[Bearbeiten |Quelltext bearbeiten]
  1. Norbert Henze:Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner Verlag, 2010,ISBN 978-3-8348-0815-8,doi:10.1007/978-3-8348-9351-2, S. 12.
  2. abcJörg Bewersdorff:Glück, Logik und Bluff. Mathematik im Spiel - Methoden, Ergebnisse und Grenzen. 6. Auflage. Springer Spektrum, Wiesbaden 2012,ISBN 978-3-8348-1923-9,S. 39,doi:10.1007/978-3-8348-2319-9 (eingeschränkte Vorschau in der Google-Buchsuche). 
  3. abcdP. H. Müller (Hrsg.):Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991,ISBN 3-05-500608-9, Zufällige Variable (random variable),S. 511. 
  4. David Meintrup, Stefan Schäffler:Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005,ISBN 3-540-21676-6,S. 456–457,doi:10.1007/b137972. 
  5. Peter Gänssler, Winfried Stute:Wahrscheinlichkeitstheorie. Springer-Verlag, Berlin / Heidelberg / New York 1977,ISBN 3-540-08418-5, Kap. VIIIZufallselemente in metrischen Räumen,doi:10.1007/978-3-642-66749-7. 
  6. S. Goldberg:Die Wahrscheinlichkeit. Vieweg, Braunschweig 1960,ISBN 3-663-01040-6, Kap IV.Zufallsveränderliche (Zufallsvariable),doi:10.1007/978-3-663-02953-3. 
  7. Pál Révész:Die Gesetze der Grossen Zahlen (= Lehrbücher und Monographien aus dem Gebiete der exakten Wissenschaften.Band 35). Birkhäuser, Basel 1980,ISBN 3-0348-6941-X, Kap. 2Unabhängige Zufallsveränderliche,doi:10.1007/978-3-0348-6940-9 (Originalausgabe:The Laws of Large Numbers, Budapest 1967, übersetzt von Eva Vas). 
  8. Andrei Nikolajewitsch Kolmogorow:Über die Summen durch den Zufall bestimmter unabhängiger Größen. In:Mathematische Annalen.Band 99, 1928,S. 309 ff. (uni-goettingen.de). 
  9. Andrei Nikolajewitsch Kolmogorow:Bemerkungen zu meiner Arbeit „Über die Summen durch den Zufall bestimmter unabhängiger Größen“. In:Mathematische Annalen.Band 99, 1930,S. 484 ff. (uni-goettingen.de). 
  10. Andrei Nikolajewitsch Kolmogorow:Grundbegriffe der Wahrscheinlichkeitsrechnung. Springer, Berlin 1933. 
  11. Boris Gnedenko, Andrei Nikolajewitsch Kolmogorow:Grenzverteilung von Summen unabhängiger Zufallsgrößen. Akademie Verlag, 1959. 
  12. Z. Birnbaum, J. Schreier:Anmerkung zum starken Gesetz der großen Zahlen. In:Studia Mathematica.Band 4, 1933,doi:10.4064/sm-4-1-85-89. 
  13. Oskar N. Anderson:Einführung in die Mathematische Statistik. Springer, Wien 1935,ISBN 3-7091-5873-7, Kap 2.6Zufällige Variable,S. 167,doi:10.1007/978-3-7091-5923-1. 
  14. Jeff Miller:Earliest Known Uses of Some of the Words of Mathematics. AbschnittR.
  15. Eine Zufallsvariable ist wederzufällig noch eineVariable, siehe Jürgen Hedderich, Lothar Sachs:Angewandte Statistik: Methodensammlung mit R. 15. Auflage. 2016,ISBN 978-3-662-45690-3,S. 197,doi:10.1007/978-3-662-45691-0. 
  16. Karl Hinderer:Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin 1980,ISBN 3-540-07309-4 (nicht überprüft)
  17. abGuido Walz (Hrsg.):Lexikon der Mathematik.Band 4 (Moo bis Sch). Springer Spektrum, Berlin 2017,ISBN 978-3-662-53499-1,S. 98. 
  18. Galen R. Shorack:Probability for Statisticians (= Springer Texts in Statistics). 2. Auflage. Springer, Cham 2017,ISBN 978-3-319-52206-7,S. 35,doi:10.1007/978-3-319-52207-4. 
  19. Klaus D. Schmidt:Maß und Wahrscheinlichkeit. 2.,durchgesehene Auflage. Springer, Berlin / Heidelberg 2011,ISBN 978-3-642-21025-9,S. 194. 
  20. Loève:Probability Theory. 4. Auflage. Band 1, Springer 1977,ISBN 0-387-90210-4, S. 172f.
  21. Robert B. Ash:Real Analysis and Probability. Academic Press, New York 1972,ISBN 0-12-065201-3, Definition 5.6.2.
  22. Olav Kallenberg:Foundations of Modern Probability. 2. Ausgabe. Springer, New York 2002,ISBN 0-387-95313-2, S. 55.
  23. David Meintrup, Stefan Schäffler:Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005,ISBN 3-540-21676-6,S. 90,doi:10.1007/b137972. 
  24. Diese Implikation gilt, daP(X=c)=P({ωX(ω)=c})=P(Ω)=1{\displaystyle P(X=c)=P(\{\omega \mid X(\omega )=c\})=P(\Omega )=1}.
  25. Robert B. Ash:Real Analysis and Probability. Academic Press, New York 1972,ISBN 0-12-065201-3 (Definition 5.8.1)
  26. Klaus D. Schmidt:Maß und Wahrscheinlichkeit. Springer-Verlag, Berlin / Heidelberg 2009,ISBN 978-3-540-89729-3, Kapitel 11.4.
  27. Marek Fisz:Wahrscheinlichkeitsrechnung und mathematische Statistik. 11. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1989, Definition 2.3.3.
  28. Robert B. Ash:Real Analysis and Probability. Academic Press, New York 1972,ISBN 0-12-065201-3, S. 210.
  29. Füry<0{\displaystyle y<0} istP(X2y)=P({ωX2(ω)y})=P()=0{\displaystyle \operatorname {P} (X^{2}\leq y)=\operatorname {P} (\{\omega \mid X^{2}(\omega )\leq y\})=\operatorname {P} (\emptyset )=0}.Füry0{\displaystyle y\geq 0} gilt
    P(X2y)=P({ωX2(ω)y})=P({ωyX(ω)y})=P({ωX(ω)y}{ωX(ω)<y})=P({ωX(ω)y})P({ωX(ω)<y})=FX(y)FX(y)+P({ωX(ω)=y})=FX(y)FX(y).{\displaystyle {\begin{aligned}\operatorname {P} (X^{2}\leq y)&=\operatorname {P} (\{\omega \mid X^{2}(\omega )\leq y\})\\&=\operatorname {P} (\{\omega \mid -{\sqrt {y}}\leq X(\omega )\leq {\sqrt {y}}\})\\&=\operatorname {P} (\{\omega \mid X(\omega )\leq {\sqrt {y}}\}\setminus \{\omega \mid X(\omega )<{\sqrt {-y}}\})\\&=\operatorname {P} (\{\omega \mid X(\omega )\leq {\sqrt {y}}\})-\operatorname {P} (\{\omega \mid X(\omega )<-{\sqrt {y}}\})\\&=F_{X}({\sqrt {y}})-F_{X}(-{\sqrt {y}})+\operatorname {P} (\{\omega \mid X(\omega )=-{\sqrt {y}}\})\\&=F_{X}({\sqrt {y}})-F_{X}(-{\sqrt {y}})\;.\end{aligned}}}
    Das letzte Gleichheitszeichen folgt, da die Verteilungsfunktion vonFX{\displaystyle F_{X}} als stetig vorausgesetzt ist, worausP(X=y)=P({ωX(ω)=y})=0{\displaystyle \operatorname {P} (X=-{\sqrt {y}})=\operatorname {P} (\{\omega \mid X(\omega )=-{\sqrt {y}}\})=0} folgt.
    Typischerweise werden solche Berechnungen in der Statistik mit etwas Übung ohne expliziten Rückgriff auf die zugrundeliegende ErgebnismengeΩ{\displaystyle \Omega } und damit den zugrundeliegenden Wahrscheinlichkeitsraum durchgeführt, z. B. für den Fally0{\displaystyle y\geq 0} in der Form
    P(X2y)=P(yXy)=P(Xy)P(Xy)+P(X=y)=FX(y)FX(y).{\displaystyle {\begin{aligned}\operatorname {P} (X^{2}\leq y)&=\operatorname {P} (-{\sqrt {y}}\leq X\leq {\sqrt {y}})\\&=\operatorname {P} (X\leq {\sqrt {y}})-\operatorname {P} (X\leq -{\sqrt {y}})+\operatorname {P} (X=-{\sqrt {y}})\\&=F_{X}({\sqrt {y}})-F_{X}(-{\sqrt {y}})\;.\end{aligned}}}
  30. Günter Mühlbach:Repetitorium Stochastik: Ein Zugang über Beispiele. 1. Auflage. Carl Hanser Verlag GmbH & Co. KG, 2011,ISBN 978-3-446-47597-7,S. 53. 
  31. Matthias Vierkötter:Grundlagen der modernen Finanzmathematik. 2021,ISBN 978-3-662-63062-4,S. 16–17. 
Normdaten (Sachbegriff):GND:4129514-6 (GND Explorer,lobid,OGND,AKS)
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Zufallsvariable&oldid=264072238
Kategorien:

[8]ページ先頭

©2009-2026 Movatter.jp