Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Loi uniforme continue

Un article de Wikipédia, l'encyclopédie libre.

Loi uniforme continue
de paramètresa{\displaystyle a} etb{\displaystyle b}
Image illustrative de l’article Loi uniforme continue
Densité de probabilité

Image illustrative de l’article Loi uniforme continue
Fonction de répartition

Paramètres<a<b<+{\displaystyle -\infty <a<b<+\infty }
Support[a,b]{\displaystyle [a,b]}
Densité de probabilité{1bapour axb0pour x<a ou x>b{\displaystyle {\begin{cases}{\frac {1}{b-a}}&{\text{pour }}a\leq x\leq b\\0&{\text{pour }}x<a{\text{ ou }}x>b\end{cases}}}
Fonction de répartition{0pour x<axabapour ax<b1pour xb{\displaystyle {\begin{cases}0&{\text{pour }}x<a\\{\frac {x-a}{b-a}}&{\text{pour }}a\leq x<b\\1&{\text{pour }}x\geq b\end{cases}}}
Espérancea+b2{\displaystyle {\frac {a+b}{2}}}
Médianea+b2{\displaystyle {\frac {a+b}{2}}}
Modetoute valeur dans [a,b]{\displaystyle {\text{toute valeur dans }}[a,b]}
Variance(ba)212{\displaystyle {\frac {(b-a)^{2}}{12}}}
Asymétrie0{\displaystyle 0}
Kurtosis normalisé65{\displaystyle -{\frac {6}{5}}}
Entropieln(ba){\displaystyle \ln(b-a)}
Fonction génératrice des momentsetbetat(ba){\displaystyle {\frac {{\rm {e}}^{tb}-{\rm {e}}^{ta}}{t(b-a)}}}
Fonction caractéristiqueeitbeitait(ba){\displaystyle {\frac {{\rm {e}}^{{\rm {i}}tb}-{\rm {e}}^{{\rm {i}}ta}}{{\rm {i}}t(b-a)}}}
modifier 

Enthéorie des probabilités et enstatistiques, leslois uniformes continues forment une famille delois de probabilité àdensité. Une telle loi est caractérisée par la propriété suivante : tous lesintervalles de même longueur inclus dans lesupport de la loi ont la même probabilité. Cela se traduit par le fait que la densité de probabilité d'une loi uniforme continue est constante sur son support.

Elles constituent donc une généralisation de la notion d'équiprobabilité dans le cascontinu pour desvariables aléatoires à densité ; le casdiscret étant couvert par leslois uniformes discrètes.

Une loi uniforme est paramétrée par la plus petite valeura{\displaystyle a} et la plus grande valeurb{\displaystyle b} que lavariable aléatoire correspondante peut prendre. La loi uniforme continue ainsi définie est souvent notéeU(a,b).{\displaystyle {\mathcal {U}}(a,b).}

Les densités associées aux lois uniformes continues sont des généralisations de lafonction rectangle en raison de leurs formes.

Caractérisation

[modifier |modifier le code]

Densité

[modifier |modifier le code]

Ladensité de probabilité de la loiU(a,b){\displaystyle {\mathcal {U}}(a,b)} est unefonction porte sur l'intervalle[a,b] :

f(x)={1bapour axb,0sinon.{\displaystyle \mathrm {f} (x)={\begin{cases}{\dfrac {1}{b-a}}&{\text{pour }}a\leq x\leq b,\\0&{\text{sinon}}.\end{cases}}}

Fonction de répartition

[modifier |modifier le code]

Lafonction de répartition de la loiU(a,b){\displaystyle {\mathcal {U}}(a,b)} est :

F(x)={0pour x<a,xabapour ax<b,1pour xb.{\displaystyle \mathrm {F} (x)={\begin{cases}0&{\text{pour }}x<a,\\{\dfrac {x-a}{b-a}}&{\text{pour }}a\leq x<b,\\1&{\text{pour }}x\geq b.\end{cases}}}

Fonctions génératrices

[modifier |modifier le code]

Fonction génératrice des moments

[modifier |modifier le code]

Lafonction génératrice des moments de la loiU(a,b){\displaystyle {\mathcal {U}}(a,b)} est :

MX=E[etX]=etbetat(ba).{\displaystyle M_{X}=\mathbb {E} [{\rm {e}}^{tX}]={\frac {{\rm {e}}^{tb}-{\rm {e}}^{ta}}{t(b-a)}}.}

Elle permet de calculer tous lesmoments non centrés,mk :

m1=a+b2,{\displaystyle m_{1}={\frac {a+b}{2}},}
m2=a2+ab+b23,{\displaystyle m_{2}={\frac {a^{2}+ab+b^{2}}{3}},}
mk=1k+1i=0kaibki.{\displaystyle m_{k}={\frac {1}{k+1}}\sum _{i=0}^{k}a^{i}b^{k-i}.}

Ainsi, pour unevariable aléatoire suivant la loiU(a,b),{\displaystyle {\mathcal {U}}(a,b),} l'espérance estm1 = (a + b)/2, et lavariance estm2 − m12 = (b − a)2/12.

Fonction génératrice des cumulants

[modifier |modifier le code]

Pourn ≥ 2, len-ièmecumulant de la loi uniforme continue sur l'intervalle [0, 1] estbn/n, oùbn est len-ièmenombre de Bernoulli.

Propriétés

[modifier |modifier le code]

Statistiques d'ordre

[modifier |modifier le code]

SoitX1, ...,Xn un échantilloni.i.d. issu de la loiU(0,1).{\displaystyle {\mathcal {U}}(0,1).} SoitX(k) lak-ièmestatistique d'ordre de l'échantillon. Alors la distribution deX(k) est uneloi bêta de paramètresk etn − k + 1.

L'espérance est :

E[X(k)]=kn+1.{\displaystyle \mathbb {E} [X_{(k)}]={k \over n+1}.}

Ce fait est utile lorsqu'on construit unedroite de Henry.

La variance est :

V[X(k)]=k(nk+1)(n+1)2(n+2).{\displaystyle \mathbb {V} [X_{(k)}]={k(n-k+1) \over (n+1)^{2}(n+2)}.}

Aspect uniforme

[modifier |modifier le code]

La probabilité qu'une variable uniforme tombe dans un intervalle donné est indépendante de la position de cet intervalle, mais dépend seulement de sa longueur(),{\displaystyle (\ell ),} à condition que cet intervalle soit inclus dans le support de la loi. Ainsi, siX suit la loiU(a,b){\displaystyle {\mathcal {U}}(a,b)} et si[x,x+]{\displaystyle [x,x+\ell ]} est un sous-intervalle de [a,b], avec>0{\displaystyle \ell >0} fixé, alors :

P(X[x,x+])=xx+dyba=ba,{\displaystyle \mathbb {P} {\big (}X\in [x,x+\ell ]{\big )}=\int _{x}^{x+\ell }{\frac {\mathrm {d} y}{b-a}}={\frac {\ell }{b-a}},}

qui est indépendant dex. Ce fait motive la dénomination de cette loi.

Loi uniforme standard

[modifier |modifier le code]

Le cas particuliera = 0 etb = 1 donne naissance à laloi uniforme standard, notéeU(0,1).{\displaystyle {\mathcal {U}}(0,1).}Il faut noter le fait suivant : siu1 est distribué selon une loi uniforme standard, alors c'est aussi le cas pouru2 = 1 –u1.

Loi uniforme sur une partie borélienne

[modifier |modifier le code]

À toute partieA deRd,{\displaystyle \mathbb {R} ^{d},} borélienne, dont lamesure de Lebesgueλ(A) est finie et strictement positive, on associe une loi de probabilité, appeléeloi uniforme surA, dedensité de probabilitéƒ définie, pour toutxRd,{\displaystyle x\in \mathbb {R} ^{d},} par :

f(x) = 1λ(A) χA(x),{\displaystyle \mathrm {f} (x)\ =\ {\frac {1}{\lambda (A)}}\ \chi _{A}(x),}

χA est lafonction indicatrice (ou caractéristique), notée aussi 𝟙A, de l'ensembleA. La densitéf{\displaystyle \mathrm {f} } est donc nulle à l'extérieur deA, mais égale à la constante1λ(A) surA.

Cette page traite principalement du cas particulier oùd = 1 et oùA est unintervalle[a,b] deR.{\displaystyle \mathbb {R} .}

Transport et invariance

[modifier |modifier le code]

Condition suffisante — La loi de la variable aléatoireY =T(X), image par une transformationT d'une variableX uniforme sur une partieA deRd,{\displaystyle \mathbb {R} ^{d},} est encore la loi uniforme surT(A) siT est, à un ensemble négligeable près, injective et différentiable, et si, presque partout surA, la valeur absolue dujacobien deT est constante.

Exemples de transformations respectant l'uniformité :

Conséquence — Si la suiteV=(V1,V2,,Vn){\displaystyle V=(V_{1},V_{2},\dots ,V_{n})} est une suite de variables aléatoires indépendantes et uniformes sur[0, 1], et siUk={V1+V2++Vk},{\displaystyle U_{k}=\{V_{1}+V_{2}+\dots +V_{k}\},} alors la suiteU=(U1,U2,,Un){\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} est une suite de variables aléatoires indépendantes et uniformes sur[0, 1].

Démonstration

La loi conditionnelle deUk,{\displaystyle U_{k},} sachant que(V1,V2,,Vk1)=(a1,a2,,ak1),{\displaystyle (V_{1},V_{2},\dots ,V_{k-1})=(a_{1},a_{2},\dots ,a_{k-1}),} est la loi de{a1+a2++ak1+Vk},{\displaystyle \{a_{1}+a_{2}+\dots +a_{k-1}+V_{k}\},} qui se trouve être la loi uniforme sur [0, 1], comme on vient de le voir quelques lignes plus haut. Donc la loi conditionnelle deUk{\displaystyle U_{k}} sachant que(V1,V2,,Vk1)=(a1,a2,,ak1){\displaystyle (V_{1},V_{2},\dots ,V_{k-1})=(a_{1},a_{2},\dots ,a_{k-1})} ne dépend absolument pas de(a1,a2,,ak1).{\displaystyle (a_{1},a_{2},\dots ,a_{k-1}).} Cela a deux conséquences :

Cela suffit pour conclure.

Il peut sembler surprenant que les variables{V1+V2}{\displaystyle \{V_{1}+V_{2}\}} et{V1+V2+V3},{\displaystyle \{V_{1}+V_{2}+V_{3}\},} par exemple, soient indépendantes, alors qu'elles dépendent toutes deux de manière cruciale des variablesV1{\displaystyle V_{1}} etV2.{\displaystyle V_{2}.} C'est une conséquence particulière de la propriété d'invariance de la loi uniforme : par exemple, étant lamesure de Haar deRZ,{\displaystyle \mathbb {R} \backslash \mathbb {Z} ,} elle estidempotente pour laconvolution.

Distributions associées

[modifier |modifier le code]

Le théorème suivant[1] stipule quetoutes les distributions sont liées à la loi uniforme :

Théorème de la réciproque — Pour une variable aléatoire de fonction de répartitionF,{\displaystyle \mathrm {F} ,} on noteG{\displaystyle \mathrm {G} } saréciproque généralisée, définie, pour toutω ]0,1[,{\displaystyle \omega \in \ ]0,1[,} par :

G(ω)=inf{xR | F(x)ω}.{\displaystyle \mathrm {G} (\omega )=\inf \left\{x\in \mathbb {R} \ |\ \mathrm {F} (x)\geq \omega \right\}.}

SiU{\displaystyle U} désigne une variable aléatoire réelle uniforme sur[0,1],{\displaystyle [0,1],} alorsX=G(U){\displaystyle X=\mathrm {G} (U)} a pour fonction de répartitionF.{\displaystyle \mathrm {F} .}

Ainsi, pour obtenir des tirages (indépendants) selon la loi répartie parF,{\displaystyle \mathrm {F} ,} il suffit d'appliquer l'inverse deF{\displaystyle \mathrm {F} } à des tirages (indépendants) uniformes sur[0,1].{\displaystyle [0,1].}

Voici quelques exemples d’application de ce théorème(UU(0,1)):{\displaystyle {\big (}U\sim {\mathcal {U}}(0,1){\big )}:}

On trouvera un tableau plus completici. Par ailleurs, l'art d'engendrer des variables aléatoires de lois arbitraires, par exemple à l'aide de variables uniformes, est développé dansNon-Uniform Random Variate Generation, deLuc Devroye, édité chez Springer, disponible sur le web[2].


Inférence statistique

[modifier |modifier le code]

Estimation de l'un des paramètres lorsque l'autre est connu

[modifier |modifier le code]

Cette section décrit l'estimation de la borne supérieure(b){\displaystyle (b)} de la distributionU(a,b),{\displaystyle {\mathcal {U}}(a,b),} au vu d'un échantillon den{\displaystyle n} individus, la borne inférieure(a){\displaystyle (a)} étant connue.

Estimation du maximum

[modifier |modifier le code]
Estimateur sans biais de variance minimale
[modifier |modifier le code]
Article principal :Problème du char d'assaut allemand.

Pour une loi uniforme sur[0,b]{\displaystyle [0,b]} avecb{\displaystyle b} inconnu, l'estimateur sans biais de variance minimale (en) pour le maximum est donné par :

b^MV=k+1km=m+mk,{\displaystyle {\hat {b}}_{MV}={\frac {k+1}{k}}m=m+{\frac {m}{k}},}

m{\displaystyle m} est le maximum de l'échantillon etk{\displaystyle k} la taille de l'échantillon, échantillonné sans remise (bien que cette précision n'a aucune incidence dans le cas uniforme).

On obtient cette valeur par un raisonnement similaire au cas discret. Ce problème peut être vu comme un cas simple d'estimation de l'espacement maximal (en). Il est connu sous le nom deProblème du char d'assaut allemand, par son application d'estimation maximale de la production des chars d'assaut allemands pendant laSeconde Guerre mondiale.

Estimateur par maximum de vraisemblance
[modifier |modifier le code]

L'estimateur parmaximum de vraisemblance est :

b^ML=m,{\displaystyle {\hat {b}}_{ML}=m,}

m{\displaystyle m} est la valeur maximum dans l'échantillon, qui est aussi lastatistique d'ordre maximale de l'échantillon.

Estimateur par la méthode des moments
[modifier |modifier le code]

L'estimateur par laméthode des moments est :

b^MM=2X¯,{\displaystyle {\hat {b}}_{MM}=2{\bar {X}},}

X¯{\displaystyle {\bar {X}}} est la moyenne de l'échantillon.

Estimation du milieu

[modifier |modifier le code]

Le milieua+b2{\displaystyle {\tfrac {a+b}{2}}} de l'intervalle de la loi uniformeU(a,b){\displaystyle {\mathcal {U}}(a,b)} est à la fois la moyenne et la médiane de cette loi. Bien que la moyenne et la médiane de l'échantillon sont des estimateurs sansbiais du milieu, ils ne sont pas aussiefficaces que lemilieu de gamme de l'échantillon, i.e. lamoyenne arithmétique du maximum et du minimum de l'échantillon, qui est l'estimateur sans biais de variance minimale du milieu (et aussi l'estimateur par maximum de vraisemblance).

Intervalle de confiance

[modifier |modifier le code]

Pour le maximum

[modifier |modifier le code]

On considèreX1,X2, ...,Xn un échantillon deU[0,L],{\displaystyle {\mathcal {U}}_{[0,L]},}L est la valeur maximum dans la population. AlorsX(n) = max(X1,X2, ...,Xn ) a la densité de Lebesgue-Borel[3]f=dPX(n)dλ:{\displaystyle \mathrm {f} ={\frac {\mathrm {d} \mathbb {P} _{X_{(n)}}}{\mathrm {d} \lambda }}:}

f(t)=n1L(tL)n111[0;L](t)=ntn1Ln11[0;L](t),{\displaystyle \mathrm {f} (t)=n{\frac {1}{L}}\left({\frac {t}{L}}\right)^{n-1}1\!\!1_{[0;L]}(t)=n{\frac {t^{n-1}}{L^{n}}}1\!\!1_{[0;L]}(t),}

11[0,L]{\displaystyle 1\!\!1_{[0,L]}} est lafonction caractéristique (ou indicatrice) de[0,L].{\displaystyle [0,L].}

L'intervalle de confiance est mathématiquement incorrect, carP([θ^,θ^+ε]θ)1α{\displaystyle \mathbb {P} ([{\hat {\theta }},{\hat {\theta }}+\varepsilon ]\ni \theta )\geq 1-\alpha } ne peut être résolu pourε{\displaystyle \varepsilon } sans information surθ.{\displaystyle \theta .} On peut cependant résoudre

P([θ^,θ^(1+ε)]θ)1α{\displaystyle \mathbb {P} ([{\hat {\theta }},{\hat {\theta }}(1+\varepsilon )]\ni \theta )\geq 1-\alpha } pourε(1α)1/n1{\displaystyle \varepsilon \geq (1-\alpha )^{-1/n}-1} pour toutθ{\displaystyle \theta } inconnu mais valide ;

on peut alors choisir le plus petitε{\displaystyle \varepsilon } possible vérifiant la condition ci-dessus. On note que la longueur de l'intervalle[θ^,θ^(1+ε)]{\displaystyle [{\hat {\theta }},{\hat {\theta }}(1+\varepsilon )]} dépend de la variable aléatoireθ^.{\displaystyle {\hat {\theta }}.}

Estimation simultanée des deux paramètres

[modifier |modifier le code]

Cette section décrit l'estimation des deux bornes(a;b){\displaystyle (a;b)} de la distribution uniforme continueU(a,b),{\displaystyle {\mathcal {U}}(a,b),} au vu d'un échantillon den{\displaystyle n} individus.

Soienta^{\displaystyle {\hat {a}}} etb^{\displaystyle {\hat {b}}} les estimateurs respectifs des bornes inférieure(a){\displaystyle (a)} et supérieure(b){\displaystyle (b)} de la distribution mère, construits sur la base de l'échantillon contenant lesn{\displaystyle n} modalités de la variable aléatoireX{\displaystyle X} issues de la distributionU(a,b).{\displaystyle {\mathcal {U}}(a,b).}

La méthode dumaximum de vraisemblance aboutit à la sélection desminimum et maximum empiriques :

{a^=min(xi)i=1,nb^=max(xi)i=1,n.{\displaystyle {\begin{cases}{\hat {a}}&=&\min \,(x_{i})_{i=1,n}\\{\hat {b}}&=&\max \,(x_{i})_{i=1,n}.\end{cases}}}
Démonstration

SoitL(a,b){\displaystyle L(a,b)} la vraisemblance d'un n-échantillon{xi}i=1,n{\displaystyle \{x_{i}\}_{i=1,n}} tiré suivant une loi uniformeU(a,b){\displaystyle {\mathcal {U}}(a,b)} dont les deux paramètres doivent être estimés :

L(a,b)=i=1nfa,b(xi)={i=1n1ba=1(ba)nsiamini{xi}etbmaxi{xi}0dans tous les autres cas.{\displaystyle L(a,b)=\prod _{i=1}^{n}f_{a,b}(x_{i})={\begin{cases}\prod _{i=1}^{n}{\frac {1}{b-a}}&=&{\frac {1}{(b-a)^{n}}}&{\text{si}}\,a\leq \min _{i}\{x_{i}\}\;{\text{et}}\;b\geq \max _{i}\{x_{i}\}\\0&&&{\text{dans tous les autres cas.}}\end{cases}}}

Maximiser la vraisemblance revient à minimiser(ba){\displaystyle (b-a)} sous les contraintes :

{amini{xi}bmaxi{xi}.{\displaystyle {\begin{cases}a\leq \min _{i}\{x_{i}\}\\b\geq \max _{i}\{x_{i}\}.\end{cases}}}

Le couple d'estimateurs(a^,b^){\displaystyle ({\hat {a}},{\hat {b}})} qui réalise cette maximisation est :

{a^=mini{xi}b^=maxi{xi}.{\displaystyle {\begin{cases}{\hat {a}}&=&\min _{i}\{x_{i}\}\\{\hat {b}}&=&\max _{i}\{x_{i}\}.\end{cases}}}

Ce couple d'estimateurs est biaisé : la probabilité qu'unn{\displaystyle n}-échantillon capture le minimum(a){\displaystyle (a)} ou le maximum(b){\displaystyle (b)} permis par la distribution mère étant quasi-nulle, la moyenne d'un grand nombre d'observations sur de telsn{\displaystyle n}-échantillons ne converge pas vers les bornes de ladite distribution mère :

{E(a^)aE(b^)b.{\displaystyle {\begin{cases}\mathbb {E} ({\hat {a}})&\geq &a\\\mathbb {E} ({\hat {b}})&\leq &b.\end{cases}}}

La démonstration est produite plus bas.

Loi de distribution régissant ces estimateurs biaisés

[modifier |modifier le code]

Les densités de probabilité sont notées en minuscules (par ex.f{\displaystyle \mathrm {f} }), les fonctions de répartition sont notées en majuscules (par ex.F{\displaystyle \mathrm {F} }).

Densité de probabilité associée au couple d'estimateurs biaisés
[modifier |modifier le code]

d2P(xa^x+dx;yb^y+dy)=n(n1)(ba)n(yx)n2fa^,b^(x,y)dxdy.{\displaystyle d^{2}\mathbb {P} \,\left(x\leq {\hat {a}}\leq x+dx\,;\,y\leq {\hat {b}}\leq y+dy\right)=\underbrace {{\frac {n\,\left(n-1\right)}{\left(b-a\right)^{n}}}\,\left(y-x\right)^{n-2}} _{f_{{\hat {a}},{\hat {b}}}(x,y)}\,dx\,dy.}

Démonstration

Pour quea^{\displaystyle {\hat {a}}} soit compris entrex{\displaystyle x} etx+dx{\displaystyle x+dx} et queb^{\displaystyle {\hat {b}}} soit compris entrey{\displaystyle y} ety+dy{\displaystyle y+dy}, il faut :

  1. que le minimum desxi{\displaystyle x_{i}} soit compris entrex{\displaystyle x} etx+dx{\displaystyle x+dx} :dP=dxba{\displaystyle d\mathbb {P} ={\frac {dx}{b-a}}}
  2. que le maximum desxi{\displaystyle x_{i}} soit compris entrey{\displaystyle y} ety+dy{\displaystyle y+dy} :dP=dyba{\displaystyle d\mathbb {P} ={\frac {dy}{b-a}}}
  3. et que les(n2){\displaystyle (n-2)} autresxi{\displaystyle x_{i}} soient compris entrex{\displaystyle x} ety{\displaystyle y} :P=(yabaxaba)n2=(yxba)n2.{\displaystyle \mathbb {P} =\left({\frac {y-a}{b-a}}-{\frac {x-a}{b-a}}\right)^{n-2}=\left({\frac {y-x}{b-a}}\right)^{n-2}.}

Comme n'importe quelle paire choisie parmi lesxi{\displaystyle x_{i}} peut constituer le couple (min, max) de l'échantillon, il y aAn2=n!(n2)!=n(n1){\displaystyle A_{n}^{2}={\frac {n!}{\left(n-2\right)!}}=n\,\left(n-1\right)} arrangements possibles, d'où la probabilité énoncée.

La notion d'arrangement (plutôt que de combinaisons) découle du fait qu'être min ou max de l'échantillon ne constitue pas le même évènement, ce qui introduit une notion d'ordre.

Lois marginales régissant les minimum et maximum empiriques
[modifier |modifier le code]

Concernant l'estimateur de la borne inférieure(a^) :{\displaystyle ({\hat {a}})\ :}

x[a,b]{dP(xa^x+dx)=fa^(x)dx=nba(bxba)n1dxP(a^x)=Fa^(x)=1(bxba)n.{\displaystyle \forall x\in [a,b]\;{\begin{cases}d\mathbb {P} \,(x\leq {\hat {a}}\leq x+dx)&=&f_{\hat {a}}(x)\,dx&=&{\frac {n}{b-a}}\,{\Bigl (}{\frac {b-x}{b-a}}{\Bigr )}^{n-1}\,dx\\\mathbb {P} \,({\hat {a}}\leq x)&=&F_{\hat {a}}(x)&=&1-{\Bigl (}{\frac {b-x}{b-a}}{\Bigr )}^{n}.\end{cases}}}
Démonstration

Pour quea^{\displaystyle {\hat {a}}} soit compris entrex{\displaystyle x} etx+dx{\displaystyle x+dx}, il faut :

  1. que le minimum desxi{\displaystyle x_{i}} soit compris entrex{\displaystyle x} etx+dx{\displaystyle x+dx} :dP=dxba{\displaystyle d\mathbb {P} ={\frac {dx}{b-a}}}
  2. et que tous les autresxi{\displaystyle x_{i}} soient supérieurs ou égaux àx{\displaystyle x} :P=(bxba)n1.{\displaystyle \mathbb {P} =\left({\frac {b-x}{b-a}}\right)^{n-1}.}

Comme n'importe lequel desxi{\displaystyle x_{i}} peut être le minimum, il y an{\displaystyle n} possibilités, d'où :

dP(xa^x+dx)=fa^(x)dx=nba(bxba)n1dx.{\displaystyle d\mathbb {P} \,(x\leq {\hat {a}}\leq x+dx)=f_{\hat {a}}(x)\,dx={\frac {n}{b-a}}\,\left({\frac {b-x}{b-a}}\right)^{n-1}\,dx.}

On obtient la fonction de répartition par intégration :

F(a^)=axfa^(t)dt=(btba)xa=1(bxba)n.{\displaystyle F({\hat {a}})=\int _{a}^{x}f_{\hat {a}}(t)\,\mathrm {d} t=\left({\frac {b-t}{b-a}}\right)_{x}^{a}=1-\left({\frac {b-x}{b-a}}\right)^{n}.}

Remarque :
Une intégration partielle de la densité de probabilitéfa^,b^(x,y){\displaystyle f_{{\hat {a}},{\hat {b}}}\left(x,y\right)} définie au paragraphe précédent aboutit aux mêmes résultats :

  1. sur le domaineb^[a^,b]{\displaystyle {\hat {b}}\in \left[{\hat {a}},b\right]} pour établir la densité marginale du minimum empirique,
  2. ou sur le domainea^[a,b^]{\displaystyle {\hat {a}}\in \left[a,{\hat {b}}\right]} pour établir la densité marginale du maximum empirique.

Par une démonstration similaire, on obtient pour l'estimateur de la borne supérieure(b^){\displaystyle ({\hat {b}})} :

x[a,b]{dP(xb^x+dx)=fb^(x)dx=nba(xaba)n1dxP(b^x)=Fb^(x)=(xaba)n.{\displaystyle \forall x\in [a,b]\;{\begin{cases}\mathrm {d} \mathbb {P} \,(x\leq {\hat {b}}\leq x+dx)&=&f_{\hat {b}}(x)\,\mathrm {d} x&=&{\frac {n}{b-a}}\,\left({\frac {x-a}{b-a}}\right)^{n-1}\,\mathrm {d} x\\\mathbb {P} \,({\hat {b}}\leq x)&=&F_{\hat {b}}(x)&=&\left({\frac {x-a}{b-a}}\right)^{n}.\end{cases}}}

Convergence de ces estimateurs

[modifier |modifier le code]

La définition de la convergence d'un estimateur est donnée dans le document référencé[4].

Concernant l'estimateur de la borne inférieure (a^n{\displaystyle {\hat {a}}_{n}} sur un n-échantillon) :P(|a^na|>ε)=P(a^n>a+ε){\displaystyle \mathbb {P} \,(|{\hat {a}}_{n}-a|>\varepsilon )=\mathbb {P} \,({\hat {a}}_{n}>a+\varepsilon )} car aucune valeur inférieure àa ne peut être observée. Donc :

P(|a^na|>ε)=(baεba)n=(1εba)nn+0.{\displaystyle \mathbb {P} \,(|{\hat {a}}_{n}-a|>\varepsilon )=\left({\frac {b-a-\varepsilon }{b-a}}\right)^{n}=\left(1-{\frac {\varepsilon }{b-a}}\right)^{n}{\xrightarrow[{n\rightarrow +\infty }]{}}\,0.}

Une démonstration similaire s'applique pour l'estimateur de laborne supérieure.

(a^;b^){\displaystyle ({\hat {a}};{\hat {b}})} forme donc un couple d'estimateurs convergents.

Biais de ces estimateurs

[modifier |modifier le code]

Lorsque l'on multiplie les échantillons (de taillen{\displaystyle n} donnée), la moyenne des observations ne tend pas vers le couple de bornes(a,b){\displaystyle (a,b)} de la distribution mère :

{E(a^)=a+ban+1E(b^)=bban+1.{\displaystyle {\begin{cases}\mathbb {E} ({\hat {a}})&=&a+{\frac {b-a}{n+1}}\\\mathbb {E} ({\hat {b}})&=&b-{\frac {b-a}{n+1}}.\end{cases}}}

Ces deux estimateurs ne sont qu'asymptotiquement sans biais[4], i.e. lorsque la taillen{\displaystyle n} de l'échantillon tend vers l'infini.

Démonstration
E(a^)=abnxba(bxba)n1dx=n(ba)nabx(bx)n1dx.{\displaystyle \mathbb {E} ({\hat {a}})=\int _{a}^{b}{\frac {n\,x}{b-a}}\,\left({\frac {b-x}{b-a}}\right)^{n-1}\,\mathrm {d} x={\frac {n}{(b-a)^{n}}}\,\int _{a}^{b}x\,(b-x)^{n-1}\,\mathrm {d} x.}

Une intégration par parties permet d'arriver au résultat énoncé.

Idem pour le calcul de l'espérance deb^.{\displaystyle {\hat {b}}.}

Recherche d'estimateurs sans biais

[modifier |modifier le code]

Le couple d'estimateurs(a^^;b^^){\displaystyle ({\hat {\hat {a}}}\,;\,{\hat {\hat {b}}})} défini ci-dessous est sans biais[5] :

{a^^=a^b^a^n1=na^b^n1b^^=b^+b^a^n1=nb^a^n1.{\displaystyle {\begin{cases}{\hat {\hat {a}}}&=&{\hat {a}}-{\frac {{\hat {b}}-{\hat {a}}}{n-1}}&=&{\frac {n\,{\hat {a}}-{\hat {b}}}{n-1}}\\{\hat {\hat {b}}}&=&{\hat {b}}+{\frac {{\hat {b}}-{\hat {a}}}{n-1}}&=&{\frac {n\,{\hat {b}}-{\hat {a}}}{n-1}}.\end{cases}}}
Démonstration

On vérifie l'espérance de l'estimateura^^{\displaystyle {\hat {\hat {a}}}} :

E(a^^)=E(a^)1n1(E(b^)E(a^))=a+ban+1ban1n1n+1=a.{\displaystyle \mathbb {E} ({\hat {\hat {a}}})=\mathbb {E} ({\hat {a}})-{\frac {1}{n-1}}\left(\mathbb {E} ({\hat {b}})-\mathbb {E} ({\hat {a}})\right)=a+{\frac {b-a}{n+1}}-{\frac {b-a}{n-1}}\,{\frac {n-1}{n+1}}=a.}

L'espérance de l'erreur commise(a^^a){\displaystyle ({\hat {\hat {a}}}-a)} est nulle, ce qui en fait un estimateur sans biais dea.{\displaystyle a.}

La démonstration est identique avec l'autre estimateurb^^.{\displaystyle {\hat {\hat {b}}}.}

Le calcul de ces estimateurs (avec ou sans biais) ne nécessite pas la connaissance des paramètres(a;b){\displaystyle (a;b)} de la distribution mère.

Les lois de distribution qui régissent le couple d'estimateurs sans biais sont plus complexes à déterminer. Le document[5] donne les lois suivantes :

Densité de probabilité associée au couple d'estimateurs sans biais
[modifier |modifier le code]
d2P(xa^^x+dx;yb^^y+dy)=n(n1)n(n+1)n1(ba)n(yx)n2fa^^,b^^(x,y)dxdy.{\displaystyle d^{2}\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\,;\,y\leq {\hat {\hat {b}}}\leq y+dy\right)=\underbrace {{\frac {n\,\left(n-1\right)^{n}}{\left(n+1\right)^{n-1}\,\left(b-a\right)^{n}}}\,\left(y-x\right)^{n-2}} _{f_{{\hat {\hat {a}}},{\hat {\hat {b}}}}(x,y)}\,dx\,dy.}
Lois marginales régissant chacun des deux estimateurs sans biais
[modifier |modifier le code]

Sachant que la variablea^^{\displaystyle {\hat {\hat {a}}}} admet comme support l'intervalle[nabn1;b]{\displaystyle \left[{\frac {n\,a-b}{n-1}}\,;\,b\right]} :

{xadP(xa^^x+dx)=(n1)n1nn2(ba)n[(bx)n1nn1(ax)n1]dxxadP(xa^^x+dx)=(n1)n1nn2(ba)n(bx)n1dx.{\displaystyle {\begin{cases}\forall x\leq a&d\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left[\left(b-x\right)^{n-1}-n^{n-1}\left(a-x\right)^{n-1}\right]\,dx\\\forall x\geq a&d\mathbb {P} \,\left(x\leq {\hat {\hat {a}}}\leq x+dx\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left(b-x\right)^{n-1}\,dx.\end{cases}}}

Sachant que la variableb^^{\displaystyle {\hat {\hat {b}}}} admet comme support l'intervalle[a;nban1]{\displaystyle \left[a\,;\,{\frac {n\,b-a}{n-1}}\right]} :

{ybdP(yb^^y+dy)=(n1)n1nn2(ba)n(ya)n1dyybdP(yb^^y+dy)=(n1)n1nn2(ba)n[(ya)n1nn1(yb)n1]dy.{\displaystyle {\begin{cases}\forall y\leq b&d\mathbb {P} \,\left(y\leq {\hat {\hat {b}}}\leq y+dy\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left(y-a\right)^{n-1}\,dy\\\forall y\geq b&d\mathbb {P} \,\left(y\leq {\hat {\hat {b}}}\leq y+dy\right)&=&{\frac {\left(n-1\right)^{n-1}}{n^{n-2}\,\left(b-a\right)^{n}}}\,\left[\left(y-a\right)^{n-1}-n^{n-1}\left(y-b\right)^{n-1}\right]\,dy.\end{cases}}}

Intervalle de pari

[modifier |modifier le code]

On considère ici :

Les estimateurs considérés sont ceux avec biais car :

  • leurs lois de distribution sont simples à manipuler ;
  • le document référencé[5] montre que construire des intervalles de pari à partir des estimateurs sans biais n'aboutit pas in fine à des intervalles plus réduits pour un niveau de confiance donné, et en explique la raison.

On cherche à connaître comment se répartissent les n-échantillons possibles formés à partir de la distribution mèreU(a,b){\displaystyle {\mathcal {U}}\,(a,b)}, en plaçant dans le planR2{\displaystyle \mathbb {R} ^{2}} :

  • sur l'axe des abscisses, la borne inférieure(a){\displaystyle (a)} de la distribution mère et les minima empiriques des échantillons ;
  • sur l'axe des ordonnées, la borne supérieure(b){\displaystyle (b)} de la distribution mère et les maxima empiriques des échantillons.

On note :

{m=valeur dea^=min(xi)i=1,nM=valeur deb^=max(xi)i=1,n.{\displaystyle {\begin{cases}m&=&{\text{valeur de}}\,{\hat {a}}&=&\min \,(x_{i})_{i=1,n}\\M&=&{\text{valeur de}}\,{\hat {b}}&=&\max \,(x_{i})_{i=1,n}.\end{cases}}}
Zone du plan où l'on peut trouver des échantillons issus de U (a,b)
Zone du plan où l'on peut trouver des échantillons issus de U (a,b)

La distribution mèreU(a,b){\displaystyle {\mathcal {U}}(a,b)} et la construction des estimateurs imposent la hiérarchie suivante :amMb.{\displaystyle a\leq m\leq M\leq b.} Les échantillons issus de cette loi mère sont tous situés à l'intérieur dutriangle rectangle formé par la droitex=a{\displaystyle x=a}, la droitey=b{\displaystyle y=b} et lapremière bissectrice (cf. figure ci-contre).

Unbon échantillon (i.e. un échantillon représentatif de sa population mère) se caractérise par :

Le risque de pari(α){\displaystyle (\alpha )} associé à un échantillon(a^=m;b^=M){\displaystyle ({\hat {a}}=m\,;{\hat {b}}=M)} est défini par la probabilité de trouver un échantillon plusmauvais que lui, i.e. présentant :

Intervalle de pari sur le minimum empirique
[modifier |modifier le code]
Intervalle de pari sur le minimum empirique d'un échantillon issu de U (a,b)
Intervalle de pari sur le minimum empirique d'un échantillon issu de U (a,b)

L'expérimentateur choisit son risque de pari(α){\displaystyle (\alpha )}. Le risque de pari sur le minimum empirique est défini par l'équation suivante :

α=P(a^mb^[a^;b])=(bmba)nm1α=b(ba)α1n{\displaystyle \alpha =\mathbb {P} \,\left({\hat {a}}\geq m\;\forall {\hat {b}}\in \left[{\hat {a}}\,;\,b\right]\right)=\left({\frac {b-m}{b-a}}\right)^{n}\Rightarrow \,m_{1-\alpha }=b-(b-a)\cdot \alpha ^{\frac {1}{n}}}

La surface de pari sur le minimum empirique au niveau de confiance(1α){\displaystyle (1-\alpha )} rassemble les échantillons qui vérifient :a^[a;m1α]{\displaystyle {\hat {a}}\in [a\,;m_{1-\alpha }]} etb^[a^;b]{\displaystyle {\hat {b}}\in [{\hat {a}}\,;b]}.

Intervalle de pari sur le maximum empirique
[modifier |modifier le code]
Intervalle de pari sur le maximum empirique d'un échantillon issu de U (a,b)
Intervalle de pari sur le maximum empirique d'un échantillon issu de U (a,b)

De façon similaire, le risque de pari sur le maximum empirique est défini par l'équation suivante :

α=P(b^Ma^[a;b^])=(Maba)nM1α=a+(ba)α1n{\displaystyle \alpha =\mathbb {P} \,\left({\hat {b}}\leq M\;\forall {\hat {a}}\in \left[a\,;{\hat {b}}\right]\right)=\left({\frac {M-a}{b-a}}\right)^{n}\Rightarrow \,M_{1-\alpha }=a+(b-a)\cdot \alpha ^{\frac {1}{n}}}

La surface de pari sur le maximum empirique au niveau de confiance(1α){\displaystyle (1-\alpha )} rassemble les échantillons qui vérifient :b^[M1α;b]{\displaystyle {\hat {b}}\in [M_{1-\alpha }\,;b]} eta^[a;b^]{\displaystyle {\hat {a}}\in [a\,;{\hat {b}}]}.

Surface de pari sur les deux bornes
[modifier |modifier le code]

La surface de pari est celle qui capture la proportion(1α){\displaystyle (1-\alpha )} des échantillons formés à partir d'une population mèreU(a,b){\displaystyle {\mathcal {U}}\,(a,b)} donnée et connue.

Choix de la forme de la surface de pari, représenté dans les coordonnées réduites (φ;ψ)
Choix de la forme de la surface de pari, représenté dans les coordonnées réduites(φ;ψ){\displaystyle \left(\varphi \,;\,\psi \right)}

Le problème dépend de la forme que l'on aura choisi de donner à cette surface, qui peut être un carré, un triangle, un quart de cercle, ... On choisit ici un triangle rectangle, de sommetP1(a;b){\displaystyle P_{1}\,\left(a\,;\,b\right)} et dont l'hypoténuse est parallèle à la première bissectrice (cf. figure ci-contre). La raison est que la densité de probabilité associée au couple(a^;b^){\displaystyle \left({\hat {a}}\,;\,{\hat {b}}\right)}est constante le long d'un lieuyx=Cte{\displaystyle y-x=Cte}. Ceci permet de découper l'espace suivant une ligne iso-densité, minimisant ainsi la surface de pari pour capturer un effectif donné.

Les variables réduites classiques pour les distributions uniformes sont introduites afin de simplifier les calculs qui suivent :

{φ=mabaψ=Maba{\displaystyle {\begin{cases}\varphi &=&{\frac {m-a}{b-a}}\\\psi &=&{\frac {M-a}{b-a}}\end{cases}}}

Les relations de conversion du domaine réel en domaine réduit sont données par le tableau ci-dessous :

Échantillon {m ; M} à population {a ; b} donnéeReprésentation adimensionnéePopulation {a ; b} à échantillon {m ; M} donné
amMb{\displaystyle a\leq m\leq M\leq b}0φψ1{\displaystyle 0\leq \varphi \leq \psi \leq 1}amMb{\displaystyle a\leq m\leq M\leq b}
{m[a;M]M[m;b]{\displaystyle {\begin{cases}m&\in &\left[a\,;\,M\right]\\M&\in &\left[m\,;\,b\right]\end{cases}}}{a];m]b[M;+[{\displaystyle {\begin{cases}a&\in &\left]-\infty \,;m\right]\\b&\in &\left[M\,;+\infty \right[\end{cases}}}
m=a{\displaystyle m=a}φ=0{\displaystyle \varphi =0}a=m{\displaystyle a=m}
mM=b{\displaystyle m\rightarrow M=b}φ=1{\displaystyle \varphi =1}a{\displaystyle a\rightarrow -\infty }
Mm=a{\displaystyle M\rightarrow m=a}ψ=0{\displaystyle \psi =0}b+{\displaystyle b\rightarrow +\infty }
M=b{\displaystyle M=b}ψ=1{\displaystyle \psi =1}b=M{\displaystyle b=M}

Exprimée dans le plan des coordonnées réduites, la surface pari au niveau de confiance(1α){\displaystyle (1-\alpha )} est constituée par l'intérieur du triangle rectangle de sommets :

P1(01)P2(δ1)P3(01δ){\displaystyle P_{1}{\begin{pmatrix}0\\1\end{pmatrix}}\;\;P_{2}{\begin{pmatrix}\delta \\1\end{pmatrix}}\;\;P_{3}{\begin{pmatrix}0\\1-\delta \end{pmatrix}}}

La marge réduite(δ){\displaystyle \left(\delta \right)} est reliée au risque de pari(α){\displaystyle \left(\alpha \right)} par l'équation suivante :

(1δ)n1[1+(n1)δ]=α{\displaystyle \left(1-\delta \right)^{n-1}\,\left[1+\left(n-1\right)\delta \right]=\alpha }

Marge réduite = f (effectif de l'échantillon, risque de pari)
Marge réduite = f (effectif de l'échantillon, risque de pari
Démonstration

La densité de probabilité associée au couple(m;M){\displaystyle \left(m\,;\,M\right)}et exprimée en fonction des variables réduites s'écrit :

d2P(φmabaφ+dφ;ψMabaψ+dψ)=n(n1)(ψφ)n2dφdψ{\displaystyle d^{2}\mathbb {P} \,\left(\varphi \leq {\frac {m-a}{b-a}}\leq \varphi +d\varphi \,;\,\psi \leq {\frac {M-a}{b-a}}\leq \psi +d\psi \right)=n\,\left(n-1\right)\,\left(\psi -\varphi \right)^{n-2}\,d\varphi \,d\psi }

La surface de pari triangulaire recherchée doit capturer la proportion(1α){\displaystyle \left(1-\alpha \right)} des échantillons générés à partir de la poplulation mère. En s'aidant de la figure ci-dessus plaçant le domaine de pari dans le plan des coordonnées réduites, il vient :

φ=0δψ=φ+1δ1n(n1)(ψφ)n2dφdψ=1α{\displaystyle \int _{\varphi =0}^{\delta }\int _{\psi =\varphi +1-\delta }^{1}n\left(n-1\right)\,\left(\psi -\varphi \right)^{n-2}\,d\varphi \,d\psi =1-\alpha }

Soit, tous calculs effectués :1(1δ)n1[1+(n1)δ]=1α{\displaystyle 1-\left(1-\delta \right)^{n-1}\,\left[1+\left(n-1\right)\delta \right]=1-\alpha }

D'où la relation énoncée liantδ{\displaystyle \delta } àα{\displaystyle \alpha }.

L'équation liant la marge réduite(δ1α){\displaystyle \left(\delta _{1-\alpha }\right)} au risque de pari(α){\displaystyle \left(\alpha \right)} peut être résolue par laméthode du point fixe : la suite(xn){\displaystyle \left(x_{n}\right)} définie ci-dessous converge rapidement vers la solution, même avec une initialisation forfaitaire :

Surface pari au niveau de confiance (1−α) tracée dans le plan des coordonnées de l'expérimentateur
Surface pari au niveau de confiance(1α){\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur

{x0=12xn+1=1(α1+(n1)xn)1n1{\displaystyle {\begin{cases}x_{0}&=&{\frac {1}{2}}\\x_{n+1}&=&1-\left({\frac {\alpha }{1+\left(n-1\right)\,x_{n}}}\right)^{\frac {1}{n-1}}\end{cases}}}

Le lieu des solutions est tracé ci-contre, en fonction de l'effectif de l'échantillon et du risque de pariα{\displaystyle \alpha }.

Replacée dans le plan des coordonnées correspondant au problème réel de l'expérimentateur, la surface pari au niveau de confiance(1α){\displaystyle (1-\alpha )} est constituée par l'intérieur du triangle rectangle de sommets :

P1(ab)P2(a+δ1α(ba)b)P3(abδ1α(ba)){\displaystyle P_{1}{\begin{pmatrix}a\\b\end{pmatrix}}\;\;P_{2}{\begin{pmatrix}a+\delta _{1-\alpha }\,\left(b-a\right)\\b\end{pmatrix}}\;\;P_{3}{\begin{pmatrix}a\\b-\delta _{1-\alpha }\,\left(b-a\right)\end{pmatrix}}}

Surface de confiance

[modifier |modifier le code]

Le point de vue est inversé par rapport à la section précédente :

Surface de confiance au niveau de confiance {\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur
Surface de confiance au niveau de confiance(1α){\displaystyle \left(1-\alpha \right)} tracée dans le plan des coordonnées de l'expérimentateur

Il s'agit donc de recenser les populations mères qui contiennent l'échantillon en question dans leurs surfaces de pari respectives au niveau de confiance(1α){\displaystyle (1-\alpha )}.

L'intégrale calculée lors de la démonstration qui établit la surface de pari en coordonnées réduites(φ;ψ){\displaystyle \left(\varphi \,;\,\psi \right)} reste inchangée, quelles que soient les raisons qui font varier ces coordonnées réduites :

La surface de confiance est obtenue par déréduction de la surface établie en coordonnées(φ;ψ){\displaystyle \left(\varphi \,;\,\psi \right)} pour le niveau de confiance(1α){\displaystyle (1-\alpha )}, en cherchant(a;b){\displaystyle \left(a\,;\,b\right)} à échantillon(m;M){\displaystyle \left(m\,;M\right)} fixé. Cette surface de confiance est constituée par l'intérieur du triangle rectangle de sommets :

Q1(mM)Q2(mδ1αM1δ1αM)Q3(mMδ1αm1δ1α){\displaystyle Q_{1}{\begin{pmatrix}m\\M\end{pmatrix}}\;\;Q_{2}{\begin{pmatrix}{\frac {m-\delta _{1-\alpha }\,M}{1-\delta _{1-\alpha }}}\\M\end{pmatrix}}\;\;Q_{3}{\begin{pmatrix}m\\{\frac {M-\delta _{1-\alpha }\,m}{1-\delta _{1-\alpha }}}\end{pmatrix}}}

Applications

[modifier |modifier le code]

Enstatistiques, lorsqu'unevaleur p (p-value) est utilisée dans une procédure detest statistique pour unehypothèse nulle simple, et que la distribution du test est continue, alors la valeur p est uniformément distribuée selon la loi uniforme sur [0, 1] si l'hypothèse nulle est vérifiée.

Obtenir des réalisations de la loi uniforme

[modifier |modifier le code]
Article détaillé :Générateur de nombres pseudo-aléatoires.

La plupart deslangages de programmation fournissent un générateur de pseudo-nombres aléatoires, dont la distribution est effectivement la loi uniforme standard.

Siu estU(0, 1), alorsv =a + (ba)u suit la loiU(a,b).

Obtenir des réalisations d'une loi continue quelconque

[modifier |modifier le code]
Article détaillé :Méthode de la transformée inverse.

D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser laFonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard. Malheureusement, dans bien des cas pratiques, on ne dispose pas d'une expression analytique pour la fonction de répartition; on peut alors utiliser une inversion numérique (coûteuse en calculs) ou des méthodes concurrentes, comme laMéthode de rejet.

Le plus important exemple d'échec de laméthode de la transformée inverse est laLoi normale. Toutefois, laMéthode de Box-Muller fournit une méthode pratique pour transformer un échantillon uniforme en un échantillon normal, et ce de manière exacte[6].

Permutations aléatoires uniformes et loi uniforme

[modifier |modifier le code]

Des mathématiciens commeLuc Devroye ouRichard P. Stanley ont popularisé l'utilisation de la loi uniforme sur [0, 1] pour l'étude des permutations aléatoires (tailles des cycles,nombres eulériens, analyse d'algorithmes de tri comme letri rapide, par exemple).

Construction d'unepermutation aléatoire uniforme à l'aide d'un échantillon de loi uniforme

[modifier |modifier le code]

SoitU=(U1,U2,,Un){\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} une suite de variables aléatoires i.i.d. uniformes sur [0, 1], définies sur un espace probabilisé(Ω,A,P){\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} (par exemple, définies surΩ=[0,1]n{\displaystyle \Omega =[0,1]^{n}} muni de satribu des boréliens et de samesure de Lebesgue, parUk(ω1,ω2,,ωn) = ωk,{\displaystyle U_{k}(\omega _{1},\omega _{2},\dots ,\omega _{n})\ =\ \omega _{k},} ou, de manière équivalente, parU(ω)=ω{\displaystyle U(\omega )=\omega }). Pour tout entierk compris entre 1 etn, posons

σ(k,ω) = Card{i tels que 1in, et tels que Ui(ω)Uk(ω)}.{\displaystyle \sigma (k,\omega )\ =\ \mathrm {Card} \left\{i\ \mathrm {tels~que} \ 1\leq i\leq n,\ \mathrm {et~tels~que} \ U_{i}(\omega )\leq U_{k}(\omega )\right\}.}

Ainsi,σ(k,ω){\displaystyle \sigma (k,\omega )} s'interprète comme lerang deUk(ω){\displaystyle U_{k}(\omega )} dans l'échantillon, une fois celui-ci rangé dans l'ordre croissant.

Proposition —  L'applicationkσ(k,ω){\displaystyle k\mapsto \sigma (k,\omega )} est une permutation aléatoire uniforme.

Démonstration

Pour unepermutationτ fixée, notons

Aτ= {xRnxτ(1)<xτ(2)<<xτ(n)},{\displaystyle A_{\tau }=\ \left\{x\in \mathbb {R} ^{n}\mid x_{\tau (1)}<x_{\tau (2)}<\dots <x_{\tau (n)}\right\},}

et posons

τ.x= (xτ(1),xτ(2),,xτ(n)).{\displaystyle \tau .x=\ (x_{\tau (1)},x_{\tau (2)},\dots ,x_{\tau (n)}).}

Alors

{xAτ}  {τ.xAId}.{\displaystyle \{x\in A_{\tau }\}\ \Leftrightarrow \ \{\tau .x\in A_{\mathrm {Id} }\}.}

Par ailleurs, de manière évidente, siU(ω)Aτ,{\displaystyle U(\omega )\in A_{\tau },} alors

{k tel que 1kn,σ(τ(k),ω) = k} ou encore {σ(.,ω)=τ1}.{\displaystyle \left\{\forall k\ \mathrm {tel~que} \ 1\leq k\leq n,\quad \sigma (\tau (k),\omega )\ =\ k\right\}\ \mathrm {ou~encore} \ \{\sigma (.,\omega )=\tau ^{-1}\}.}

Comme

τSnAτ = {xRn|les xi sont tous diffe´rents},{\displaystyle \bigcup _{\tau \in {\mathfrak {S}}_{n}}A_{\tau }\ =\ \left\{x\in \mathbb {R} ^{n}\,|\,\mathrm {les} \ x_{i}\ \mathrm {sont~tous~diff{\acute {e}}rents} \right\},}

il en découle que

B=Ω(τSnAτ) = 1i<jn{xRn|xi=xj}.{\displaystyle B=\Omega \backslash \left(\bigcup _{\tau \in {\mathfrak {S}}_{n}}A_{\tau }\right)\ =\ \bigcup _{1\leq i<j\leq n}\left\{x\in \mathbb {R} ^{n}\,|\,x_{i}=x_{j}\right\}.}

SiU(ω)B,{\displaystyle U(\omega )\in B,} il existe donc un couplei <j tel queUi(ω)=Uj(ω),{\displaystyle U_{i}(\omega )=U_{j}(\omega ),} et, par suite,σ(i,ω)=σ(j,ω).{\displaystyle \sigma (i,\omega )=\sigma (j,\omega ).} Ainsiσ(.,ω) n'est pas une permutation. Finalement, commeB et les ensembles de typeAρ{\displaystyle A_{\rho }} forment une partition deRn,{\displaystyle \mathbb {R} ^{n},} il en découle que pour toutepermutationτ,

{U(ω)Aτ}  {σ(.,ω)τ1},{\displaystyle \left\{U(\omega )\notin A_{\tau }\right\}\ \Rightarrow \ \{\sigma (.,\omega )\neq \tau ^{-1}\},}

et par conséquent

P(UAτ) = P(σ=τ1).{\displaystyle \mathbb {P} \left(U\in A_{\tau }\right)\ =\ \mathbb {P} \left(\sigma =\tau ^{-1}\right).}

Comme les composantes du vecteur aléatoireU=(U1,U2,,Un){\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} sont desvariables aléatoiresindépendantes àdensité de densités respectives notéesfi,1in,{\displaystyle f_{i},\quad 1\leq i\leq n,} on sait que le vecteur aléatoireU possède lui-même une densitéf, définie par

f(x)=i=1nfi(xi).{\displaystyle f(x)=\prod _{i=1}^{n}f_{i}(x_{i}).}

De même, une densité de probabilité du vecteur aléatoireτ.U estg, définie par :

g(x)=i=1nfτ(i)(xi).{\displaystyle g(x)=\prod _{i=1}^{n}f_{\tau (i)}(x_{i}).}

Dans le cas, comme ici, où les composantes d'un vecteur aléatoire sont i.i.d., on peut choisir les densités de probabilitésfi{\displaystyle f_{i}} toutes égales. Ainsi, les densitésf etg des vecteurs aléatoiresU etτ.U sont égales : les vecteurs aléatoiresU etτ.U ont donc même loi. Par conséquent, pour toutepermutationτ,

P(UAId) = P(τ.UAId) = P(UAτ) = P(σ=τ1).{\displaystyle \mathbb {P} \left(U\in A_{\mathrm {Id} }\right)\ =\ \mathbb {P} \left(\tau .U\in A_{\mathrm {Id} }\right)\ =\ \mathbb {P} \left(U\in A_{\tau }\right)\ =\ \mathbb {P} \left(\sigma =\tau ^{-1}\right).}

Par ailleurs,

P(UB) = P(i<j tels que Ui=Uj)  1i<jnP(Ui=Uj) = 0.{\displaystyle \mathbb {P} \left(U\in B\right)\ =\ \mathbb {P} \left(\exists i<j\ \mathrm {tels~que} \ U_{i}=U_{j}\right)\ \leq \ \sum _{1\leq i<j\leq n}\mathbb {P} \left(U_{i}=U_{j}\right)\ =\ 0.}

En effet l'hyperplan{xi=xj}{\displaystyle \{x_{i}=x_{j}\}} est demesure de Lebesgue nulle, et la loi de probabilité deU est àdensité doncabsolument continue par rapport à la mesure de Lebesgue, donc

{λ({xi=xj})=0}  {0=PU({xi=xj})(=P(Ui=Uj))}.{\displaystyle \left\{\lambda (\{x_{i}=x_{j}\})=0\right\}\ \Rightarrow \ \left\{0=\mathbb {P} _{U}(\{x_{i}=x_{j}\})(=\mathbb {P} \left(U_{i}=U_{j}\right))\right\}.}

Finalement

n!P(σ=τ)=n!P(UAτ1) = n!P(UAId)=ρSnP(UAρ)=P(UB)+ρSnP(UAρ)=1,{\displaystyle {\begin{aligned}n!\,\mathbb {P} \left(\sigma =\tau \right)&=n!\,\mathbb {P} \left(U\in A_{\tau ^{-1}}\right)\ =\ n!\,\mathbb {P} \left(U\in A_{\mathrm {Id} }\right)\\&=\sum _{\rho \in {\mathfrak {S}}_{n}}\mathbb {P} \left(U\in A_{\rho }\right)\\&=\mathbb {P} \left(U\in B\right)+\sum _{\rho \in {\mathfrak {S}}_{n}}\mathbb {P} \left(U\in A_{\rho }\right)\\&=1,\end{aligned}}}

où la dernière égalité utilise le fait queB et les ensemblesAρ{\displaystyle A_{\rho }} forment une partition deRn.{\displaystyle \mathbb {R} ^{n}.}

La proposition ci-dessus reste vérifiée si la distribution de probabilité commune aux variablesUi{\displaystyle U_{i}} possède unedensité, quelle qu'elle soit, et non pas seulement pour la densité uniforme. On peut même se contenter de variables i.i.d. dont la loi est diffuse (sans atomes) modulo une modification mineure de la démonstration. Cependant la loi uniforme est particulièrement commode pour diverses applications.

Nombres de descentes d'une permutation aléatoire, etnombres eulériens

[modifier |modifier le code]

SoitXn(ω){\displaystyle X_{n}(\omega )} le nombre de descentes d'une permutationσ(ω){\displaystyle \sigma (\omega )} tirée au hasard uniformément dansSn.{\displaystyle {\mathfrak {S}}_{n}.}Bien sûr,

P(Xn=k)=nombre de cas favorablesnombre de cas possibles=A(n,k)n!,{\displaystyle {\begin{aligned}\mathbb {P} \left(X_{n}=k\right)&={\frac {\mathrm {nombre~de~cas~favorables} }{\mathrm {nombre~de~cas~possibles} }}\\&={\frac {A(n,k)}{n!}},\end{aligned}}}

A(n,k) désigne le nombre de permutations deSn{\displaystyle {\mathfrak {S}}_{n}} possédant exactementk descentes.A(n,k) est appelénombre eulérien. Posons

Sn=U1+U2++Un.{\displaystyle S_{n}=U_{1}+U_{2}+\dots +U_{n}.}

On a alors[7]

Théorème (S. Tanny, 1973) — De manière équivalente,

P(Xn=k) = P(Sn=k) = P(kSn<k+1),{\displaystyle \mathbb {P} \left(X_{n}=k\right)\ =\ \mathbb {P} \left(\lfloor S_{n}\rfloor =k\right)\ =\ \mathbb {P} \left(k\leq S_{n}<k+1\right),}

ou bien

A(n,k) = n! P(kSn<k+1).{\displaystyle A(n,k)\ =\ n!\ \mathbb {P} \left(k\leq S_{n}<k+1\right).}
Démonstration

On suppose la suiteU=(U1,U2,,Un){\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} construite à l'aide d'une suiteV=(V1,V2,,Vn){\displaystyle V=(V_{1},V_{2},\dots ,V_{n})} de variables aléatoires indépendantes et uniformes sur [0, 1], via la relationUk={V1+V2++Vk}{\displaystyle U_{k}=\{V_{1}+V_{2}+\dots +V_{k}\}} (on rappelle que { } désigne la partie fractionnaire). On sait alors, grâce à des considérations d'invariance (voir plus haut), queU=(U1,U2,,Un){\displaystyle U=(U_{1},U_{2},\dots ,U_{n})} est une suite de variables aléatoires indépendantes et uniformes sur [0, 1]. On construit alors une permutation aléatoire uniformeσ(.,ω) à l'aide de la suiteU, comme indiqué à lasection ci-dessus : il y adescente au rangi pourσ(.,ω) siσ(i,ω) >σ(i + 1,ω) ou, de manière équivalente, siUi(ω)>Ui+1(ω).{\displaystyle U_{i}(\omega )>U_{i+1}(\omega ).} Parallèlement, on dessine, sur lecercle trigonométrique, les pointsMk(ω){\displaystyle M_{k}(\omega )} ayant pouraffixese2iπUk(ω).{\displaystyle {\rm {e}}^{2{\rm {i}}\pi U_{k}(\omega )}.} On entreprend alors un voyage sur le cercle unité, consistant à parcourir les pointsM1(ω),{\displaystyle M_{1}(\omega ),} puisM2(ω),{\displaystyle M_{2}(\omega ),} puis… , puisMn(ω),{\displaystyle M_{n}(\omega ),} dans cet ordre, en tournant toujours dans le sens trigonométrique, et en partant du pointA d'affixe 1 (de coordonnées cartésiennes (0, 1)). La longueur totale du chemin ainsi parcouru est alors

2π (V1+V2++Vn).{\displaystyle 2\pi \ \left(V_{1}+V_{2}+\dots +V_{n}\right).}

Par ailleurs, il y adescente au rangi pourσ(.,ω) si et seulement si l'étape du voyage ci-dessus allant du pointMi(ω){\displaystyle M_{i}(\omega )} au pointMi+1(ω){\displaystyle M_{i+1}(\omega )} traverseA. Donc le nombre de descentes deσ(.,ω) est le nombre de traversées du pointA, qui est aussi le nombre de tourscomplets du cercle unité effectués lors du voyage deA àMn(ω).{\displaystyle M_{n}(\omega ).} Au vu du calcul donnant la longueur totale du chemin ainsi parcouru, voir ci-dessus, le nombre de tours complets s'écrit aussi :

V1(ω)+V2(ω)++Vn(ω).{\displaystyle \left\lfloor V_{1}(\omega )+V_{2}(\omega )+\dots +V_{n}(\omega )\right\rfloor .}

Ainsi le nombre de descentes deσ(.,ω) est égal àV1(ω)+V2(ω)++Vn(ω).{\displaystyle \left\lfloor V_{1}(\omega )+V_{2}(\omega )+\dots +V_{n}(\omega )\right\rfloor .} Le nombre de descentes deσ a donc même loi queSn.{\displaystyle \left\lfloor S_{n}\right\rfloor .}

Il en découle immédiatement unthéorème central limite pourXn,{\displaystyle X_{n},} via lethéorème de Slutsky.

Notes et références

[modifier |modifier le code]
  1. Voir l'article détailléici.
  2. La version pdf (libre et autorisée) de(en) LucDevroye,Non-Uniform Random Variate Generation, New York, Springer-Verlag,,1re éd.(lire en ligne) est disponible, ainsi qu'un récit humoristique des démêlés de Luc Devroye avec son éditeur.
  3. (en) KN Nechval, NA Nechval NA, EK Vasermanis et VY Makeev, « Constructing shortest-length confidence intervals »,Transport and Telecommunication,vol. 3,no 1,‎,p. 95-103(lire en ligne)
  4. a etbJean-Jacques Ruch, « Statistiques : estimation », surwww.google.fr(consulté le)
  5. ab etcChristophe Boilley, « Estimation des bornes d'une loi uniforme », surClasseur numérique de Christophe Boilley,(consulté le)
  6. Plus exactement, la méthode nécessite deux tirages indépendantsU(0, 1) pour fournir deux tirages normaux indépendants.
  7. voir(en) S.Tanny, « A probabilistic interpretation of the Eulerian numbers »,Duke Math. J.,vol. 40,‎,p. 717-722 ou bien(en) R.P.Stanley, « Eulerian partitions of a unit hypercube »,Higher Combinatorics, Dordrecht, M. Aigner, ed., Reidel,‎.

Articles connexes

[modifier |modifier le code]
v ·m
Lois discrètes
à support fini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Nparamètres de forme
à support infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Lois absolument continues
à support compact
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
à support semi-infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Nparamètres de forme
à support infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Loismultidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
v ·m
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Loi_uniforme_continue&oldid=233114879 ».
Catégorie :
Catégories cachées :

[8]ページ先頭

©2009-2026 Movatter.jp