Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Loi binomiale

Un article de Wikipédia, l'encyclopédie libre.
Wikipédia:Bons articles

Vous lisez un « bon article » labellisé en 2015.

Loi binomiale
Image illustrative de l’article Loi binomiale
Fonction de masse
Image illustrative de l’article Loi binomiale
Fonction de répartition

ParamètresnN{\displaystyle n\in \mathbb {N} }
p[0,1]{\displaystyle p\in [0,1]}
Supportk{0,,n}{\displaystyle k\in \{0,\dots ,n\}\!}
Fonction de masse(nk)pk(1p)nk{\displaystyle {n \choose k}p^{k}(1-p)^{n-k}\!}
Fonction de répartitionI1p(nk,1+k){\displaystyle I_{1-p}(n-\lfloor k\rfloor ,1+\lfloor k\rfloor )\!}
Espérancenp{\displaystyle np}
Médianenp{\displaystyle \lfloor np\rfloor } ounp+1{\displaystyle \lfloor np\rfloor +1}
Mode(n+1)p{\displaystyle \lfloor (n+1)\,p\rfloor \!}
Variancenp(1p){\displaystyle np(1-p)\!}
Asymétrie12pnpq{\displaystyle {\frac {1-2p}{\sqrt {npq}}}\!}
Kurtosis normalisé16p(1p)np(1p){\displaystyle {\frac {1-6p(1-p)}{np(1-p)}}\!}
Entropie12ln(2πnep(1p))+O(1n){\displaystyle {\frac {1}{2}}\ln \left(2\pi n\mathrm {e} p(1-p)\right)+O\left({\frac {1}{n}}\right)}
Fonction génératrice des moments(1+p(et1))n{\displaystyle (1+p(\mathrm {e} ^{t}-1))^{n}\!}
Fonction caractéristique(1+p(eit1))n{\displaystyle (1+p(\mathrm {e} ^{\mathrm {i} t}-1))^{n}\!}
Fonction génératrice des probabilités(1+p(t1))n{\displaystyle (1+p(t-1))^{n}}
modifier 

Enthéorie des probabilités et enstatistique, laloi binomiale modélise la fréquence du nombre de succès obtenus lors de la réalisation de plusieurs expériences aléatoires identiques et indépendantes.

Plus mathématiquement, la loi binomiale est uneloi de probabilité discrète décrite par deux paramètres :n le nombre d'expériences réalisées, etp la probabilité de succès. Pour chaque expérience appeléeépreuve de Bernoulli, on utilise unevariable aléatoire qui prend la valeur1 lors d'un succès et la valeur0 sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et suit une loi binomiale. Il est alors possible d'obtenir la probabilité dek succès dans une répétition den expériences :

P(X=k)=(nk)pk(1p)nk.{\displaystyle \mathbb {P} (X=k)={n \choose k}\,p^{k}(1-p)^{n-k}.}

Cette formule fait intervenir lecoefficient binomial(nk){\displaystyle {n \choose k}} duquel provient le nom de la loi.

L'importance de cette loi est d'abord historique puisqu'elle a été l'objet d'étude duthéorème de Moivre-Laplace, résultat duxviiie siècle fondateur desthéorèmes de convergence. Une loi binomiale peut également être utilisée pour modéliser des situations simples de succès ou échec tel un jeu depile ou face par exemple, ou également une marche aléatoire sur une ligne droite. Le calcul de safonction de masse devient rapidement fastidieux lorsquen est grand, il est alors possible d'utiliser des approximations par d'autreslois de probabilité telles que laloi de Poisson ou laloi normale et d'utiliser des tables de valeurs.

La loi binomiale est utilisée dans divers domaines d'étude, notamment à travers destests statistiques qui permettent d'interpréter des données et de prendre des décisions dans des situations dépendant de l'aléa. De par la simplicité de sa définition, c'est l'une des lois de probabilité étudiées dans les cours d'introduction à la théorie des probabilités.

Explication intuitive

[modifier |modifier le code]
Pile ou face.

Premiers exemples

[modifier |modifier le code]

Pile ou face

[modifier |modifier le code]

On considèren lancers successifs d'une pièce de monnaie. Alors le nombre de fois où la pièce apparaît du côté pile suit la loi binomiale où le nombre d'expériences réalisées estn et où la probabilité de succès estp=12{\displaystyle p={\frac {1}{2}}}.

Lancer de dé

[modifier |modifier le code]

On considèren lancers successifs d'un dé à 6 faces. Alors le nombre de fois où l'on obtient un 1, suit la loi binomiale où le nombre d'expériences réalisées estn et où la probabilité de succès estp=16{\displaystyle p={\frac {1}{6}}}.

Définition intuitive

[modifier |modifier le code]

Uneloi de Bernoulli décrit le comportement d'uneexpérience aléatoire qui possède deux résultats possibles traditionnellement appelés succès et échec[1]. Une telle expérience s'appelle uneépreuve de Bernoulli. Par exemple, lors d'un lancer depile ou face, on peut considérer qu'obtenir face est un succès et obtenir pile est un échec. Dans ce modèle, la probabilité de succès est une valeur fixe, c'est-à-dire qui reste constante à chaque renouvellement de l'expérience aléatoire. Cette probabilité de succès est notéep. On peut noter sa loi de probabilité :

x{0;1},P(X=x)=px(1p)1x{\displaystyle x\in \{0;1\},\;\;\;\mathbb {P} (X=x)=p^{x}(1-p)^{1-x}}

On considère la situation où une telle expérience aléatoire (deux résultats possibles et une probabilité fixe) est répétée un certain nombre de fois de manière indépendante ; on noten ce nombre de fois. Cette répétition indépendante d'épreuves de Bernoulli s'appelle unschéma de Bernoulli ou simplement desépreuves de Bernoulli[2]. Une loi binomiale décrit le nombre de fois où lesuccès apparaît sur lesn expériences effectuées. Le nombre de succès obtenus étant une valeur aléatoire, une loi binomiale est décrite grâce à la donnée des probabilités que le succès apparaisse précisémentk fois sur lesn essais.

Arbre de probabilité

[modifier |modifier le code]
arbre de probabilité
Arbre de probabilité pour une loi binomiale associée à 3 épreuves de Bernoulli.

Une manière visuelle de représenter une suite d'expériences est d'utiliser unarbre de probabilité. Chaque épreuve est représentée par deux branches : l'une pour le succès, l'autre l'échec. À chaque extrémité, on rajoute deux branches (succès et échec) pour l'épreuve suivante. On recommence jusqu'au nombre total d'épreuves. À chaque extrémité finale, on peut compter le nombre de succès obtenus. Il suffit de multiplier le nombre de fois où il y ak succès par la probabilité d'obtenirk succès pour obtenir la probabilité correspondante de la loi binomiale.

Par exemple, on lance 3 fois de suite un dé équilibré à six faces et on s'intéresse au nombre de fois que le1 apparaît. Il apparaît 0, 1, 2 ou 3 fois. Chaque lancer est indépendant des autres et la probabilité d'obtenir le1 est de1/6 sur chacun d'entre eux, autrement dit la probabilité qu'il n'apparaisse pas est de5/6 à chaque lancer. Ainsi, pour chaque lancer, on considère une loi de Bernoulli de paramètre1/6. Il y a trois configurations pour obtenir une seule fois le1 : il apparaît au premier lancer ou au deuxième ou au troisième. Chacune de ces issues a la même probabilité d'apparaître :16×56×56{\displaystyle {\frac {1}{6}}\times {\frac {5}{6}}\times {\frac {5}{6}}}. La probabilité pour avoir une fois le1 est alors :3×16×56×56{\displaystyle 3\times {\frac {1}{6}}\times {\frac {5}{6}}\times {\frac {5}{6}}}. On retrouve bienP(X=1)=(31)(1/6)1(5/6)31{\displaystyle \mathbb {P} (X=1)={3 \choose 1}\left(1/6\right)^{1}\left(5/6\right)^{3-1}} pour une loi binomialeb(3, 1/6). Il est possible de retrouver les autres probabilités de la même façon.

Définition mathématique

[modifier |modifier le code]

Laloi binomiale est uneloi de probabilité discrète[3] à deux paramètres :nN{\displaystyle n\in \mathbb {N} ^{*}} etp[0;1]{\displaystyle p\in [0;1]}. Il est fréquent d'utiliser également le paramètreq = 1 –p pour avoir des expressions plus concises. Elle possède plusieurs définitions équivalentes :

fonctions de masse d'unela loi binomiale
Diagrammes en bâtons de trois fonctions de masse de lois binomiales. Les paramètres sontn = 20 etp = 0,1 (en bleu),p = 0,5 (en vert) etp = 0,8 (en rouge).

Définition 1[4],[1] — La loi binomiale, de paramètresn etp, est laloi de probabilité d'une variable aléatoireX égale au nombre de succès rencontrés au cours d'une répétition denépreuves de Bernoulli,p étant la probabilité desuccès dans chacune d'entre elles.

Définition 2[5] — La loi binomiale, de paramètresn etp, est laloi de probabilité d'une variable aléatoireX telle que :

X=Y1+Y2++Yn,{\displaystyle X=Y_{1}+Y_{2}+\dots +Y_{n},}

Y1,Y2,,Yn,{\displaystyle Y_{1},Y_{2},\dots ,Y_{n},} sont desvariables aléatoires indépendantes deloi de Bernoulli de même paramètrep.

Définition 3[3] — La loi binomiale, de paramètresn etp, est laloi de probabilité discrète d'une variable aléatoireX dont lafonction de masse est donnée par :

P(X=k)=(nk)pkqnk{\displaystyle \mathbb {P} (X=k)={n \choose k}p^{k}q^{n-k}} pourk=0,1,n{\displaystyle k=0,1\dots ,n}.

On rappelle que des variables aléatoiresY1{\displaystyle Y_{1}} etY2{\displaystyle Y_{2}} de loi discrète sontindépendantes siP(Y1=k,Y2=h)=P(Y1=k)P(Y2=h){\displaystyle \mathbb {P} (Y_{1}=k,Y_{2}=h)=\mathbb {P} (Y_{1}=k)\mathbb {P} (Y_{2}=h)}.

La fonction de masse donnée dans la définition 3 a bien un sens puisque laformule du binôme de Newton donne[6] :k=0nP(X=k)=k=0n(nk)pkqnk=(p+1p)n=1{\displaystyle \sum _{k=0}^{n}\mathbb {P} (X=k)=\sum _{k=0}^{n}{n \choose k}p^{k}q^{n-k}=(p+1-p)^{n}=1}. La définition 2 est l'écriture mathématique de la définition 1[7].

La définition 3 est équivalente aux deux autres : on calcule explicitement la probabilité quek succès apparaissent dansn essais. Puisque lesn répétitions sont indépendantes, la probabilité d'obtenirk succès et doncn – k échecs est :pk(1p)nk{\displaystyle p^{k}(1-p)^{n-k}}, dans le cas où on ne tient pas compte de la place des résultats[5],[8]. Il suffit alors de s'intéresser à la place desk succès etn – k échecs. C'est-à-dire, combien y a-t-il de manière de placerk succès parmin résultats (sans s'occuper de l'ordre entre les succès) ? C'est le nombre decombinaisons dek éléments parmin éléments[9] donné par lecoefficient binomial(nk){\displaystyle {n \choose k}}. On retrouve alors la fonction de masse de la définition 3.

Notation

Le fait qu'une variable aléatoireX suive une loi binomiale de paramètresn etp est noté[3],[5] :Xb(n,p){\displaystyle X\sim b(n,p)} ;XB(n,p){\displaystyle X\sim B(n,p)} ouXBi(n,p){\displaystyle X\sim Bi(n,p)}.

Mesure de probabilité

Puisque la loi binomialeb(n,p) est une loi discrète, il est possible de la définir grâce à samesure de probabilité[10] :

P=k=0n(nk)pkqnkδk{\displaystyle \mathbb {P} =\sum _{k=0}^{n}{n \choose k}p^{k}q^{n-k}\delta _{k}} , oùδk{\displaystyle \delta _{k}} est lamesure de Dirac au pointk.

Historique

[modifier |modifier le code]
Schéma constitué de formes géométriques
Laplanche de Galton : les billes rouges (les points rouges sur la figure) empilées dans le bas de l'appareil correspondent à lafonction de masse de la loi binomiale, la courbe bleue correspond à la densité de la loi normale.

La loi binomiale fait partie des plus anciennes lois de probabilités étudiées[3]. Elle a été introduite parJacques Bernoulli qui y fait référence en 1713 dans son ouvrageArs Conjectandi. Entre 1708 et 1718, on découvre aussi laloi multinomiale (généralisation multi-dimensionnelle de la loi binomiale), laloi binomiale négative ainsi que l'approximation de la loi binomiale par laloi de Poisson, laloi des grands nombres pour la loi binomiale et une approximation de laqueue de la loi binomiale[11].

Grâce à l'expression de safonction de masse, la loi binomiale a été utilisée par plusieurs scientifiques pour réaliser des calculs dans des situations concrètes. C'est le cas d'Abraham de Moivre[a 1] qui réussit à trouver une approximation de la loi binomiale par laloi normale, il publie d'abord ses résultats en 1733 en latin[12] :Approximatio ad summam terminorum binomii(a + b)nin seriem expansi, puis les traduit pour les publier en 1738 dansThe Doctrine of Chances (en)[12]. En 1812,Pierre-Simon de Laplace reprend ces travaux.Francis Galton crée laplanche de Galton qui permet d'avoir une représentation physique de cette convergence[a 1]. En 1909,Émile Borel énonce et prouve, dans le cas de la loi binomiale, la première version de laloi forte des grands nombres[13].

Plus récemment, en 1914,McKendrick démontre que la loi binomiale est la solution d'un processus simplede naissance et d'émigration[14]. D'après les travaux deWilliam Feller en 1957, elle peut aussi être vue comme laloi stationnaire pour lemodèle des urnes d'Ehrenfest. Cette même année, Haight montre que la loi binomiale est liée à unproblème de file d'attente[14].

La loi binomiale apparaît dans de nombreuses applications auXXe siècle[15] : engénétique, enbiologie animale, enécologie végétale, pour lestests statistiques, dans différents modèles physiques tels que des réseaux téléphoniques[16] ou le modèle des urnes d'Ehrenfest, etc.

Le nom « binomiale » de cette loi provient[7],[a 1] de l'écriture de sa fonction de masse (voir ci-dessous) qui contient uncoefficient binomial issu du développement du binôme :(p + q)n.

Représentation sous la forme d'un arbre

[modifier |modifier le code]
Article détaillé :Arbre de probabilité.
Représentation de la loi binomiale sous forme d'un arbre.

Puisque la loi binomiale est une suite d'épreuves de Bernoulli, il est possible de la représenter grâce à unarbre de probabilité : chaque nœud représente le résultat d'une épreuve, les probabilités de succès et d'échecs sont représentés par deux branches distinctes rattachées à un nœud. Le graphique est donc unarbre binaire équilibré. Un arbre contenantn générations correspond à une loi binomialeb(n,p).

Si on indique les résultats de chaque épreuve sur les arêtes de l'arbre, il est possible de visualiser les différentes issues de la loi binomiale[17]. Si ce sont les valeurs des probabilités qui sont indiquées sur les arêtes, alors les probabilités de la loi binomiale apparaissent au bout des branches[18] (voir le graphique ci-contre).

Le graphique est un arbre de probabilité pour une loi binomiale de paramètren = 3. Sur chaque branche sont indiquées les probabilités des différentes issues : par exemple branches droite, gauche puis droite ; c'est-à-dire échec, succès puis échec. Au bout des branches de l'arbre, apparaissent les probabilités de chaque issue de la loi binomialeb(3,p). C'est-à-dire pour les valeursk = 0, 1, 2 ou3, on obtientP(X=0)=q3{\displaystyle \mathbb {P} (X=0)=q^{3}},P(X=1)=3pq2{\displaystyle \mathbb {P} (X=1)=3pq^{2}},P(X=2)=3qp2{\displaystyle \mathbb {P} (X=2)=3qp^{2}} etP(X=3)=p3{\displaystyle \mathbb {P} (X=3)=p^{3}}. On retrouve ainsi les différentscoefficients binomiaux :(30)=1 ; (31)=3 ; (32)=3 ; (33)=1.{\displaystyle {3 \choose 0}=1{\text{ ; }}{3 \choose 1}=3{\text{ ; }}{3 \choose 2}=3{\text{ ; }}{3 \choose 3}=1{\text{.}}}

Propriétés

[modifier |modifier le code]

Moments

[modifier |modifier le code]

Les plus connus sont l'espérance et lavariance, que l'on déduit classiquement[a 2] de ladéfinition 2 ci-dessus :

E(X)=npetVar(X)=npq{\displaystyle \mathbb {E} (X)=np\quad {\text{et}}\quad \operatorname {Var} (X)=npq}.

Lesmoments factoriels de la loi binomiale de paramètresn etp sont[a 3],[a 4] :

E((X)k)=E(X(X1)...(Xk+1))=n!(nk)! pk{\displaystyle \mathbb {E} \left((X)_{k}\right)=\mathbb {E} \left(X(X-1)...(X-k+1)\right)={\frac {n!}{(n-k)!}}~p^{k}}.

Par conséquent[19], sesmoments ordinaires sont[20] :

μr=E(Xr)=k=0rn!(nk)!{\displaystyle \mu '_{r}=\mathbb {E} (X^{r})=\sum _{k=0}^{r}{\frac {n!}{(n-k)!}}}S(r,k)pk,avec comme premières valeurs[21] :

μ1=E(X)={\displaystyle \mu '_{1}=\mathbb {E} (X)=}np{\displaystyle np} (espérance)
μ2=E(X2)={\displaystyle \mu '_{2}=\mathbb {E} (X^{2})=}np+n(n1)p2{\displaystyle np+n(n-1)p^{2}}
μ3=E(X3)={\displaystyle \mu '_{3}=\mathbb {E} (X^{3})=}np+3n(n1)p2+n(n1)(n2)p3{\displaystyle np+3n(n-1)p^{2}+n(n-1)(n-2)p^{3}}

On peut aussi les obtenir par laformule de récurrence

μr+1=pq(nqμr+dμrdp){\displaystyle \mu '_{r+1}=pq\left({\frac {n}{q}}\mu '_{r}+{\frac {{\rm {d}}\mu '_{r}}{{\rm {d}}p}}\right)},

où le termeddp{\displaystyle {\frac {\rm {d}}{{\rm {d}}p}}} désigne ladérivée par rapport à la variablep.

Les moments inverses, c'est-à-direE(Xr){\displaystyle \mathbb {E} (X^{-r})} avecrN{\displaystyle r\in \mathbb {N} ^{*}}, sont infinis[22].

Moments centrés

Lesmoments centrés sont les moments de la différence entre la variable et sa moyenne[23],[21].

μ2=Var(X)=E((Xnp)2)={\displaystyle \mu _{2}=Var(X)=\mathbb {E} \left((X-np)^{2}\right)=}npq{\displaystyle npq\;}  ; (variance)
μ3=E((Xnp)3)={\displaystyle \mu _{3}=\mathbb {E} \left((X-np)^{3}\right)=}np(1p)(12p)=npq(qp){\displaystyle np(1-p)(1-2p)=npq(q-p)}
μr=E((Xnp)r)={\displaystyle \mu _{r}=\mathbb {E} ((X-np)^{r})=}npqk=0r2(r1k)μkpk=0r2(r1k)μk+1{\displaystyle npq\sum _{k=0}^{r-2}{r-1 \choose k}\mu _{k}-p\sum _{k=0}^{r-2}{r-1 \choose k}\mu _{k+1}}

L'expression de la variance donne l'écart type[24] :σ(X)=npq{\displaystyle \sigma {(X)}={\sqrt {npq}}}.

Les moments centrés se calculent aussi par cette autre relation de récurrence[a 5],[21] :

μr+1=pq(nrμr1+dμrdp){\displaystyle \mu _{r+1}=pq\left(nr\mu _{r-1}+{\frac {{\rm {d}}\mu _{r}}{{\rm {d}}p}}\right)}.

Écart moyen

L'Écart moyen (ou déviation moyenne) est la moyenne des écarts à la moyenne ; il est donné par[22] :

E(|Xnp|)=2n(n1np)pnp+1qnnp{\displaystyle \mathbb {E} (|X-np|)=2n{n-1 \choose \lfloor np\rfloor }p^{\lfloor np\rfloor +1}q^{n-\lfloor np\rfloor }},

np{\displaystyle \lfloor np\rfloor } est lapartie entière denp.

Par exemple, siXB(2n,1/2){\displaystyle X\sim B(2n,1/2)},E(|Xn|)=n(2nn)22nnπ{\displaystyle \mathbb {E} (|X-n|)=n{\frac {2n \choose n}{2^{2n}}}\sim {\sqrt {n \over \pi }}}, valeur à comparer avec l'écart-type :E((Xn)2)=n2{\displaystyle {\sqrt {\mathbb {E} ((X-n)^{2})}}={\sqrt {n \over 2}}}.

Fréquence de succès

Grâce aux formules précédentes, on obtient les moments de la fréquence des succès[24] :Xn{\displaystyle {\frac {X}{n}}} :

moment d'ordre1 (ou espérance) de la fréquence de succèsE[Xn]={\displaystyle \mathbb {E} \left[{\frac {X}{n}}\right]=}p{\displaystyle p}
moment centré d'ordre2 (ou variance) de la fréquence de succèsE[(Xnp)2]={\displaystyle \mathbb {E} \left[\left({\frac {X}{n}}-p\right)^{2}\right]=}p(1p)n=pqn{\displaystyle {\frac {p(1-p)}{n}}={\frac {pq}{n}}}
moment centré d'ordre4 de la fréquence de succèsE[(Xnp)4]={\displaystyle \mathbb {E} \left[\left({\frac {X}{n}}-p\right)^{4}\right]=}pq(16pq)n3+3p2q2n2{\displaystyle {\frac {pq(1-6pq)}{n^{3}}}+3{\frac {p^{2}q^{2}}{n^{2}}}}

L'expression de la variance de la fréquence donne l'écart type de la fréquence des succès :σX/n=p(1p)n=pqn{\displaystyle \sigma _{X/n}={\sqrt {\frac {p(1-p)}{n}}}={\frac {\sqrt {pq}}{\sqrt {n}}}}.

Covariance

On considère deux variables aléatoiresX1{\displaystyle X_{1}} etX2{\displaystyle X_{2}}, pas forcémentindépendantes, de lois binomiales respectivesb(n,p1){\displaystyle b(n,p_{1})} etb(n,p2){\displaystyle b(n,p_{2})}. Lacovariance permet d'évaluer la dépendance entre les deux variables :

Cov(X1,X2)=nP(X1=1 et X2=1)np1p2{\displaystyle \mathrm {Cov} (X_{1},X_{2})=n\mathbb {P} (X_{1}=1{\text{ et }}X_{2}=1)-np_{1}p_{2}}.

Propriétés et caractérisations

[modifier |modifier le code]
Valeurs descriptives de la loi

Sinp est unentier, alors le mode, la moyenne et la médiane valent tous troisnp.

Propriétés de stabilité
Inégalités
Caractérisations

Fonction de répartition

[modifier |modifier le code]
Graphique de 3 fonctions de répartition de lois binomiales avec paramètres :n = 20 etp = 0,1 (en bleu),p = 0,5 (en vert) etp = 0,8 (en rouge).

Lafonction de répartition d'une variable aléatoireX suivant la loi binomialeb(n,p) est donnée par[23] :

F(x)=P(Xx)={1sixnk=0x(nk)pk(1p)nksi0x<n0six<0{\displaystyle F(x)=\mathbb {P} (X\leq x)={\begin{cases}1&{\textrm {si}}\;x\geq n\\[4pt]\displaystyle \sum _{k=0}^{\lfloor x\rfloor }{n \choose k}p^{k}(1-p)^{n-k}&{\textrm {si}}\;0\leq x<n\\[4pt]0&{\textrm {si}}\;x<0\end{cases}}}

x{\displaystyle \lfloor x\rfloor } est lapartie entière dex.

Même s'il existe une expression de la fonction de répartition, son calcul n'est pas facile[33] à cause des coefficients binomiaux(nk){\displaystyle {n \choose k}}, notamment lorsquen est grand. Il existe alors des tables de valeurs (voirci-dessous). Des théorèmes d'approximation ont été développés[33] pour approcher de manière théorique et calculatoire cette fonction de répartition (voirci-dessous). L'expression suivante provient du lien entre la loi binomiale et laloi bêta[23] (voirci-dessous) : pour0x<n{\displaystyle 0\leq x<n}

F(x)=1B(x+1,nx)p1tx(1t)nx1dt{\displaystyle F(x)={\frac {1}{\mathrm {B} \left(\lfloor x\rfloor +1,n-\lfloor x\rfloor \right)}}\int _{p}^{1}t^{\lfloor x\rfloor }(1-t)^{n-\lfloor x\rfloor -1}{\rm {d}}t}

B est lafonction bêta.il est alors possible d'écrire la fonction de répartition grâce à lafonction bêta incomplète[34] :

F(x)=I1p(nx,1+x){\displaystyle F(x)=I_{1-p}(n-\lfloor x\rfloor ,1+\lfloor x\rfloor )}.

Fonctions caractéristique et génératrice

[modifier |modifier le code]

Lafonction caractéristique d'une variable aléatoireX suivant la loi binomialeb(n,p) est donnée par[24] :

ϕ(t)=E(eitX)=(q+peit)n,tR{\displaystyle \phi (t)=\mathbb {E} \left(\mathrm {e} ^{\mathrm {i} tX}\right)=\left(q+p\mathrm {e} ^{\mathrm {i} t}\right)^{n}\;,\;\forall t\in \mathbb {R} }.

Lafonction génératrice des moments d'une variable aléatoireX suivant la loi binomialeb(n,p) est donnée par[23] :

M(t)=E(etX)=(q+pet)n,tR{\displaystyle M(t)=\mathbb {E} \left(\mathrm {e} ^{tX}\right)=\left(q+p\mathrm {e} ^{t}\right)^{n}\;,\;\forall t\in \mathbb {R} }.

On déduit directement lafonction génératrice des cumulants[14] :

ln(M(t))=nln(q+pet),tR{\displaystyle \ln(M(t))=n\ln \left(q+p\mathrm {e} ^{t}\right)\;,\;\forall t\in \mathbb {R} },

et lafonction génératrice des cumulants factoriels[14] :

ln(E[(1+t)X])=nln(1+pt),tR+{\displaystyle \ln \left(\mathbb {E} \left[(1+t)^{X}\right]\right)=n\ln \left(1+pt\right)\;,\;\forall t\in \mathbb {R} _{+}}.

Lien avec d'autres lois

[modifier |modifier le code]

Loi de Bernoulli

[modifier |modifier le code]

En utilisant le fait que la loi binomiale de paramètresnN{\displaystyle n\in \mathbb {N} ^{*}} etp[0,1]{\displaystyle p\in [0,1]} est la loi de la somme den variables aléatoires indépendantes deloi de Bernoulli de même paramètrep, la loi binomialeb(1,p) est une loi de Bernoulli de paramètrep.

C'est par cette représentation du nombre de succès et d'échecs dans une suite d'épreuves que la loi binomiale est source de nombreuses applications[35].

Lois réciproques

[modifier |modifier le code]

Les lois suivantes ont un lien avec la loi binomiale grâce à leur fonction de répartition. Lorsque le nombre de succèsk est fixé, elles donnent la loi du nombre d'épreuves nécessaires (loi binomiale négative) ou la loi du paramètrep (lois bêta ou de Fisher). En ce sens, elles peuvent servir delois réciproques.

P(Yk)=1Ip(k+1,nk)=P(Xp){\displaystyle \mathbb {P} (Y\leq k)=1-I_{p}(k+1,n-k)=\mathbb {P} (X\geq p)}X suit une loi bêta de paramètresk + 1 ,n – k etY suit une loi binomialeb(n,p).
  • La loi binomiale est liée à laloi de Fisher par la propriété suivante[a 7],[39] : siY suit une loi binomialeb(n,p) alors, pourk entre0 etn :
P(Yk)=P(F>ν2ν1p1p){\displaystyle \mathbb {P} (Y\leq k)=\mathbb {P} (F>{\frac {\nu _{2}}{\nu _{1}}}\cdot {\frac {p}{1-p}})}F suit une loi de Fischer de paramètresν1=2(k+1),ν2=2(nk){\displaystyle \nu _{1}=2(k+1)\,,\,\nu _{2}=2(n-k)}.
La relation précédente permet de trouver lesquantiles de la loi binomiale[39].

Autres lois

[modifier |modifier le code]
P(X=k)=(nk)pkqnk/i=r1nr2(ni)piqni.{\displaystyle \mathbb {P} (X=k)={n \choose k}p^{k}q^{n-k}/\sum _{i=r_{1}}^{n-r_{2}}{n \choose i}p^{i}q^{n-i}.}
De la même manière, il est possible de définir la loi binomiale (simplement) tronquée[40] en omettant uniquement les valeurs entre0 etr1{\displaystyle r_{1}} ou entrenr2{\displaystyle n-r_{2}} etn{\displaystyle n}.
Si le nombre de boules augmente, c'est-à-direA tend vers l'infini, et sip/A tend vers une valeurp[0,1]{\displaystyle p'\in [0,1]}, alors la loi hypergéométrique converge vers une loi binomiale[43]b(n,p').
Autrement dit, si la taille de la population (A) est grande par rapport à la taille de l'échantillon (n), alors les tirages peuvent être convenablement représentés par une loi binomiale de paramètrep' égal au pourcentage (p) d'éléments ayant le caractère étudié.
De plus, siX1{\displaystyle X_{1}} etX2{\displaystyle X_{2}} sont deux variables aléatoires indépendantes de loi binomiale respectivesb(n1,p){\displaystyle b(n_{1},p)} etb(n2,p){\displaystyle b(n_{2},p)}, alors la loi deX1{\displaystyle X_{1}} sachant queX1+X2=k{\displaystyle X_{1}+X_{2}=k} est la loi hypergéométrique de paramètres[29] :k,n1n1+n2{\displaystyle k,{\frac {n_{1}}{n_{1}+n_{2}}}} etn1+n2{\displaystyle n_{1}+n_{2}}.

Convergences et approximations

[modifier |modifier le code]

Pour de grandes valeurs den, le calcul des fonctions de masse et de répartition deviennent vite fastidieux. Une méthode est d'approcher ces valeurs grâce aux théorèmes limites. La loi (faible ou forte) des grands nombres permet d'approcher la moyenne de la loi binomiale. Pour obtenir des valeurs approchées de la fonction de répartition, il est possible d'utiliser l'approximation normale ou l'approximation par laloi de Poisson. L'approximation normale est plus performante lorsque le paramètrep n'est pas trop proche de0 ou de1, sinon l'approximation par la loi de Poisson donne de meilleurs résultats[44].

Loi des grands nombres

[modifier |modifier le code]
Article détaillé :loi des grands nombres.

Laloi faible des grands nombres, appliquée à unprocessus de Bernoulli de paramètrep, garantit que pour toute suite(Xn) de variables aléatoires, définies sur un mêmeespace probabilisé, et de lois respectivesb(n,p) (cf. définition 2ci-dessus), on a, pour toutε>0{\displaystyle \varepsilon >0} :limn+P(|Xnnp|<ε)=1.{\displaystyle \lim _{n\to +\infty }\mathbb {P} \left(\left|{\frac {X_{n}}{n}}-p\right|<\varepsilon \right)=1.}Plus précisément, puisque l'espérance et la variance deXn sont respectivement égales ànp etnp(1 –p), l'inégalité de Bienaymé-Tchebychev montre que[24] :P(|Xnnp|>ε)<p(1p)nε2.{\displaystyle \mathbb {P} \left(\left|{\frac {X_{n}}{n}}-p\right|>\varepsilon \right)<{\frac {p(1-p)}{n\,\varepsilon ^{2}}}.}Cela peut s'interpréter grossièrement de la manière suivante. Si l'on sait que lors d'une expérience aléatoire (tirage d'un individu dans une population de grande taille, lancer d'une pièce…) la probabilité d'apparition de la propriétéA estp(A), alors la fréquence d'apparition de la propriétéA au cours den expériences de ce type (tirages den individus dans une population de taille très supérieure àn,n lancers de pièce…) est souvent voisine dep(A), avec une probabilité d'autant meilleure quen est grand et quep(A) est proche de0 ou1.

Il existe de meilleures majorations de cette probabilité, l'inégalité de Hoeffding donne[a 8] :P(Xnnp>ε)<e2nε2.{\displaystyle \mathbb {P} \left({\frac {X_{n}}{n}}-p>\varepsilon \right)<\mathrm {e} ^{-2n\varepsilon ^{2}}.}

Convergence vers la loi de Poisson

[modifier |modifier le code]
Convergence

On considère une loi binomialeb(n,p) telle que les paramètresn etp sont liés par la formule :np=λ>0{\displaystyle np=\lambda >0}λ{\displaystyle \lambda } est fixé. Lorsquen tend vers l'infini, et doncp tend vers 0, alors[45] :limn+(nk)pkqnk=eλλkk!{\displaystyle \lim _{n\rightarrow +\infty }{n \choose k}p^{k}q^{n-k}=\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}}. Autrement dit, la probabilité qu'une variable de loi binomiale prenne la valeurk converge (lorsquen devient grand) vers la probabilité qu'une variable deloi de Poisson prenne la valeurk. Le paramètrep converge alors vers 0, il correspond donc à un évènement de probabilité très faible, la loi de Poisson est alors appelée loi des évènements rares[45]. Par sommation, on obtient alors le résultat[46] :

limn+P(Xx)=limn+k=0x(nk)pkqnk=eλk=0xλkk!=P(Yx){\displaystyle \lim _{n\rightarrow +\infty }\mathbb {P} (X\leq x)=\lim _{n\rightarrow +\infty }\sum _{k=0}^{\lfloor x\rfloor }{n \choose k}p^{k}q^{n-k}=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\lfloor x\rfloor }{\frac {\lambda ^{k}}{k!}}=\mathbb {P} (Y\leq x)}

{\displaystyle \lfloor \cdot \rfloor } est la partie entière,X est une variable de loi binomiale etY de loi de PoissonP(λ){\displaystyle {\mathcal {P}}(\lambda )}. Cette limite montre laconvergence en loi de la loi binomiale (avec les conditions précédentes) vers la loi de Poisson. Une expression plus détaillée de la convergence peut être donnée par la formule[47],[23] :P(Xx)=eλk=0xλkk!+O(1n2){\displaystyle \mathbb {P} (X\leq x)=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\lfloor x\rfloor }{\frac {\lambda ^{k}}{k!}}+{\mathcal {O}}\left({\frac {1}{n^{2}}}\right)} avecλ=(2nx)p2p{\displaystyle \lambda ={\frac {(2n-\lfloor x\rfloor )p}{2-p}}} lorsquen tend vers l'infini etO(){\displaystyle {\mathcal {O}}(\cdot )} est lecomparateur asymptotique.

Fonctions de masse d'une loi binomialeb(24;0,5){\displaystyle b(24\,;\,0{,}5)} (en violet),b(60;0,2){\displaystyle b(60\,;\,0{,}2)} (en rouge) et d'une loi de poissonP(12){\displaystyle {\mathcal {P}}(12)} (en bleu).

En 1953,Iouri Prokhorov donne une majoration de l'erreur totale d'approximation entre la fonction de répartition d'une loi binomialeb(n,p) et uneloi de PoissonP(np){\displaystyle {\mathcal {P}}(np)}[48] :k=0+|(nk)pkqnkenp(np)kk!|min(2np2,3p){\displaystyle \sum _{k=0}^{+\infty }\left|{n \choose k}p^{k}q^{n-k}-{\frac {\mathrm {e} ^{-np}(np)^{k}}{k!}}\right|\leq \min(2np^{2},3p)}. Il est également possible de borner le ratio entre les deux fonctions de répartition[48] :enp(1kn)kqn(nk)pkqnkenp(np)k/k!enpqnk.{\displaystyle \mathrm {e} ^{np}\left(1-{\frac {k}{n}}\right)^{k}q^{n}\leq {\frac {{n \choose k}p^{k}q^{n-k}}{\mathrm {e} ^{-np}(np)^{k}/k!}}\leq \mathrm {e} ^{np}q^{n-k}.}

Approximation

Grâce à la convergence ci-dessus, il est possible d'approcher les probabilités de la loi binomiale par la loi de Poisson. En pratique, le cas s'applique lorsquen est grand et doncp petit. Différentes valeurs sont proposées[47],[45],[49],[50] :

L'idée commune de toutes ces propositions est d'avoir la valeurnp stable lorsquen est grand etp petit.

Convergence vers la loi normale

[modifier |modifier le code]
Article détaillé :Théorème de Moivre-Laplace.
convergence de la loi binomiale
Illustration de la convergence de la fonction de masse de la loi binomiale vers la loi normale lorsquen grandit.
Convergence

Le théorème de Moivre-Laplace, énoncé en 1733, montre qu'une variable aléatoire de loi binomiale, convenablement renormalisée,converge en loi vers une variable aléatoire deloi normale. Ce résultat peut s'énoncer grâce aux fonctions de répartition des deux lois. On considère une variable aléatoireX de loi binomialeb(n,p), la variable aléatoireX renormalisée est la variable aléatoire centrée et réduite, c'est-à-dire :XE(X)σX=Xnpnpq{\displaystyle {\frac {X-\mathbb {E} (X)}{\sigma _{X}}}={\frac {X-np}{\sqrt {npq}}}}.Si l'on noteΦ{\displaystyle \Phi } la fonction de répartition de la loi normale, alors :

Théorème de Moivre-Laplace : pour toutxR{\displaystyle x\in \mathbb {R} } ,limn+P(Xnpnpqx)=12πxet22dt=Φ(x).{\displaystyle \lim _{n\to +\infty }\mathbb {P} \left({\frac {X-np}{\sqrt {npq}}}\leq x\right)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}\mathrm {e} ^{-{\frac {t^{2}}{2}}}{\rm {d}}t=\Phi (x).}

Bien qu'Abraham de Moivre n'ait énoncé ce résultat que dans le cas d'une loi binomiale[51], cette convergence est généralisée dans le cas d'autres lois, c'est lethéorème central limite. Ce théorème permet d'approcher une loi discrète par une loi continue, il est alors utile d'ajouter un coefficient, ditcorrection de continuité, afin d'améliorer les approximations futures (voir ci-dessous). La convergence précédente peut alors s'écrire sous forme d'équivalence lorsquen tend vers l'infini[52] : pour touta,bR{\displaystyle a,b\in \mathbb {R} }

P(aXb)P(a12npnpqXnpnpqb+12npnpq)n+Φ(b+12npnpq)Φ(a12npnpq).{\displaystyle \mathbb {P} \left(a\leq X\leq b\right)\approx \mathbb {P} \left({\frac {a-{\frac {1}{2}}-np}{\sqrt {npq}}}\leq {\frac {X-np}{\sqrt {npq}}}\leq {\frac {b+{\frac {1}{2}}-np}{\sqrt {npq}}}\right)\operatorname {\sim } _{n\rightarrow +\infty }\Phi \left({\frac {b+{\frac {1}{2}}-np}{\sqrt {npq}}}\right)-\Phi \left({\frac {a-{\frac {1}{2}}-np}{\sqrt {npq}}}\right).}

L'erreur commise par l'approximation est estimée par l'inégalité de Berry-Esseen dont la constante est régulièrement améliorée, elle fournit une borne de la différence entre les deux fonctions de répartition lorsquen est grand[53],[a 9], pourX une variable aléatoire de loi binomialeb(n,p) etY de loi normaleN(0,1){\displaystyle {\mathcal {N}}(0,1)} de fonction de répartition notéeΦ{\displaystyle \Phi } :supxR|P(Xnpnpqx)Φ(x)|0,4748npq{\displaystyle \sup _{x\in \mathbb {R} }\left|\mathbb {P} \left({\frac {X-np}{\sqrt {npq}}}\leq x\right)-\Phi (x)\right|\leq {\frac {0,4748}{\sqrt {npq}}}}. Une expression plus détaillée de la convergence peut être donnée par la formule avec correction de continuité[23] :P(Xx)=Φ(xnp+1/2npq)+O(1n){\displaystyle \mathbb {P} (X\leq x)=\Phi \left({\frac {x-np+1/2}{\sqrt {npq}}}\right)+{\mathcal {O}}({\frac {1}{\sqrt {n}}})}uniformément pour toute variablex, lorsquen tend vers l'infini et oùO(){\displaystyle {\mathcal {O}}(\cdot )} est lecomparateur asymptotique. D'autres approximations plus fines ont été étudiées[54], par exemple parLaplace (1820),Prokhorov (1953) ouPeizer etPratt (1968).

Approximation

Grâce aux théorèmes de convergence ci-dessus, lorsquen est grand, les probabilités de la binomiale renormalisée peuvent être approchées par les valeurs des probabilités de la loi normale. Il existe plusieurs règles sur les paramètresn etp pour que l'approximation soit valable[55],[50],[56],[57] :

L'influence de ces paramètres sur l'approximation a été finement étudiée dans les années 1990, par exemple[55] : pourn fixé, l'erreur absolue minimale est atteinte pourp = 1/2 ; l'erreur absolue est inférieure à0,0212/npq{\displaystyle 0,0212/{\sqrt {npq}}}.

Tables de la loi binomiale

[modifier |modifier le code]

Des tables de lafonction de masse et de lafonction de répartition de la loi binomiale ont été publiées en 1950 par leNational Bureau of Standards puis en 1955 dansNational of the Computation Laboratory et par Raoet al. en 1985[58].

Grâce aux relations de symétrie (voirci-dessus), il suffit[27],[28] de donner des tables de valeurs pourp0,5{\displaystyle p\leq 0{,}5}.

Valeurs de la fonction de masse

[modifier |modifier le code]

Les tables de valeurs suivantes[49] donnent les valeurs de la fonction de masse de la loi binomialeb(n,p) pour différentes valeurs den.

Exemples : SiX suit une loib(10;0,15){\displaystyle b(10\,;\,0,15)}, alorsP(X=4)0,0401{\displaystyle \mathbb {P} (X=4)\simeq 0,0401}. SiY suit une loib(10;0,85){\displaystyle b(10\,;\,0,85)}, alorsP(Y=4)=P(X=6)0,0012{\displaystyle \mathbb {P} (Y=4)=\mathbb {P} (X=6)\simeq 0,0012}.
Pourn = 5
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,77380,59050,44370,32770,23730,16810,11600,07780,0312
10,20360,32810,39150,40960,39550,36010,31240,25920,1562
20,02140,07290,13820,20480,26370,30870,33640,34560,3125
30,00110,00810,02440,05120,08790,13230,18110,23040,3105
40,00000,00050,00220,00640,01460,02830,04880,07680,1562
50,00000,00000,00010,00030,00100,00240,00530,01020,0312
 
Pourn = 10
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,59870,34870,19690,10740,05630,02820,01350,00600,0010
10,31510,38740,34740,26840,18770,12110,07250,04030,0098
20,07460,19370,27590,30200,28160,23350,17570,12090,0439
30,01050,05740,12980,20130,25030,26680,25220,21500,1172
40,00100,01120,04010,08810,14600,20010,23770,25080,2051
50,00010,00150,00850,02640,05840,10290,15360,20070,2461
60,00000,00010,00120,00550,01620,03680,06890,11150,2051
70,00000,00000,00010,00080,00310,00900,02120,04250,1172
80,00000,00000,00000,00010,00040,00140,00430,01060,0439
90,00000,00000,00000,00000,00000,00010,00050,00160,0098
100,00000,00000,00000,00000,00000,00000,00000,00010,0010
 
Pourn = 20
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,35850,12160,03880,01150,00320,00080,00020,00000,0000
10,37740,27020,13680,05760,02110,00680,00200,00050,0000
20,18870,28520,22930,13690,06690,02780,01000,00310,0002
30,05960,19010,24280,20540,13390,07160,03230,01230,0011
40,01330,08980,18210,21820,18970,13040,07380,03500,0046
50,00220,03190,10280,17460,20230,17890,12720,07460,0148
60,00030,00890,04540,10910,16860,19160,17120,12440,0370
70,00000,00200,01600,05450,11240,16430,18440,16590,0739
80,00000,00040,00460,02220,06090,11440,16140,17970,1201
90,00000,00010,00110,00740,02710,06540,11580,15970,1602
100,00000,00000,00020,00200,00990,03080,06860,11710,1762
110,00000,00000,00000,00050,00300,01200,03360,07100,1602
120,00000,00000,00000,00010,00080,00390,01360,03550,1201
130,00000,00000,00000,00000,00020,00100,00450,01460,0739
140,00000,00000,00000,00000,00000,00020,00120,00490,0370
150,00000,00000,00000,00000,00000,00000,00030,00130,0148
160,00000,00000,00000,00000,00000,00000,00000,00030,0046
170,00000,00000,00000,00000,00000,00000,00000,00000,0011
180,00000,00000,00000,00000,00000,00000,00000,00000,0002
 

Valeurs de la fonction de répartition

[modifier |modifier le code]

Les tables de valeurs suivantes[59] donnent les valeurs de la fonction de répartition de la loi binomialeb(n,p) pour différentes valeurs den.

Exemples : SiX suit une loib(10;0,15){\displaystyle b(10\,;\,0,15)}, alorsP(X4)0,9901{\displaystyle \mathbb {P} (X\leq 4)\simeq 0,9901}. SiY suit une loib(10;0,85){\displaystyle b(10\,;\,0,85)}, alorsP(Y4)=P(X6)=1P(X5)10,9986=0,0014{\displaystyle \mathbb {P} (Y\leq 4)=\mathbb {P} (X\geq 6)=1-\mathbb {P} (X\leq 5)\simeq 1-0,9986=0,0014}.
Pourn = 5
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,77380,59050,44370,32770,23730,16810,11600,07780,0312
10,97740,91850,83520,73730,63280,52820,42840,33700,1875
20,99880,99140,97340,94210,89650,83690,76480,68260,5000
31,00000,99950,99780,99330,98440,96920,94600,91300,8125
41,00001,00000,99990,99970,99900,99760,99470,98980,9688
51,00001,00001,00001,00001,00001,00001,00001,00001,0000
 
Pourn = 10
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,59870,34870,19690,10740,05630,02820,01350,00600,0010
10,91390,73610,54430,37580,24400,14930,08600,04640,0107
20,98850,92980,82020,67780,52560,38280,26160,16730,0547
30,99900,98720,95000,87910,77590,64960,51380,38230,1719
40,99990,99840,99010,96720,92190,84970,75150,63310,3770
51,00000,99990,99860,99360,98030,95270,90510,83380,6230
61,00001,00000,99990,99910,99650,98940,97400,94520,8281
71,00001,00001,00000,99990,99960,99840,99520,98770,9453
81,00001,00001,00001,00001,00000,99990,99950,99830,9893
91,00001,00001,00001,00001,00001,00001,00000,99990,9990
101,00001,00001,00001,00001,00001,00001,00001,00001,0000
 
Pourn = 20
k/p{\displaystyle k/p}0,050,100,150,200,250,300,350,400,50
00,35850,12160,03880,01150,00320,00080,00020,00000,0000
10,73580,38170,17560,06920,02430,00760,00210,00050,0000
20,92450,67690,40490,20610,09130,03550,01210,00360,0002
30,98410,86700,64770,41140,22520,10710,04440,01600,0013
40,99740,95680,82980,62960,41480,23750,11820,05100,0059
50,99970,98870,93270,80420,61720,41640,24540,12560,0207
61,00000,99760,97810,91330,78580,60800,41660,25000,0577
71,00000,99960,99410,96790,89820,77230,60100,41590,1316
81,00000,99990,99870,99000,95910,88670,76240,59560,2517
91,00001,00000,99980,99740,98610,95200,87820,75530,4119
101,00001,00001,00000,99940,99610,98290,94680,87250,5881
111,00001,00001,00000,99990,99910,99490,98040,94350,7483
121,00001,00001,00001,00000,9980,99870,99400,97900,8684
131,00001,00001,00001,00001,00000,99970,99850,99350,9423
141,00001,00001,00001,00001,00001,00000,99970,99840,9793
151,00001,00001,00001,00001,00001,00001,00000,99970,9941
161,00001,00001,00001,00001,00001,00001,00001,00000,9987
171,00001,00001,00001,00001,00001,00001,00001,00000,9998
181,00001,00001,00001,00001,00001,00001,00001,00001,0000
 

Tests et applications

[modifier |modifier le code]

Tests

[modifier |modifier le code]

D'une manière générale, untest statistique permet de rejeter, ou non, une hypothèse ditehypothèse nulle. L'idée principale est de prendre unéchantillon et de vérifier si l'hypothèse est vraie pour chaque élément de l'échantillon. Si on considère que les éléments sont indépendants, on compte donc le nombre d'éléments vérifiant une propriété, il y a donc présence de la loi binomiale. On compare si la proportion observée est significativement éloignée de la probabilité théorique de la loi binomiale[60]. Ce test est appelé untest binomial. On peut utiliser aussi la loi normale lorsque la taille de l'échantillon est grand.

Il est possible d'effectuer un test statistique sur la conformité des valeurs des paramètres d'une loi de probabilité, notamment d'une loi binomiale, par rapport aux paramètres théoriques attendus pour la population étudiée[61]. Le test de conformité de l'indice de dispersion s'applique dans ce cas[62]. Cet indice de dispersion est le quotient de la somme des carrés des écarts et de la moyenne. Sixk,k=1n{\displaystyle x_{k},\,k=1\dots n} sont les valeurs étudiées de moyenne notéex¯{\displaystyle {\bar {x}}} alors l'indice est :1x¯k=1n(xkx¯)2{\displaystyle {\frac {1}{\bar {x}}}\sum _{k=1}^{n}(x_{k}-{\bar {x}})^{2}}. Grâce à uneLoi du χ² ou uneloi normale, le test rejette l'hypothèse de la valeur que prend le paramètrep de la loi binomiale[62].

Il est également possible de tester l'égalité de deux variables aléatoires de lois binomiales. SoientX1{\displaystyle X_{1}} etX2{\displaystyle X_{2}} deuxvariables aléatoires de lois respectivesb(n1,p1){\displaystyle b(n_{1},p_{1})} etb(n2,p2){\displaystyle b(n_{2},p_{2})}. On souhaite tester sip1=p2=p{\displaystyle p_{1}=p_{2}=p}, c'est l'hypothèseH0{\displaystyle H_{0}} du test. Par lethéorème central limite, l'estimateurp^1=X1/n1{\displaystyle {\hat {p}}_{1}=X_{1}/n_{1}} suit uneloi normaleN(p1,p1(1p1)/n1){\displaystyle {\mathcal {N}}(p_{1},p_{1}(1-p_{1})/n_{1})} lorsquen1{\displaystyle n_{1}} est grand. Il en est de même avecp^2{\displaystyle {\hat {p}}_{2}}. En considérant l'hypothèseH0{\displaystyle H_{0}} vraie, on peut montrer queZ=p^1p^2p(1p)(1/n1+1/n2){\displaystyle Z={\frac {{\hat {p}}_{1}-{\hat {p}}_{2}}{\sqrt {p(1-p)(1/n_{1}+1/n_{2})}}}} suit une loi normale centrée réduite[63]. On rejette alors l'hypothèseH0{\displaystyle H_{0}} au niveau de confiance 0,95 si|Z|>1,96{\displaystyle |Z|>1,96}.

Autres applications

[modifier |modifier le code]

Par définition la somme de variables aléatoires indépendantes deloi de Bernoulli suit une loi binomiale. Un exemple typique de phénomène suivant une loi de Bernoulli est le lancer d'une pièce pour unpile ou face[35]. Le nombre de succès, par exemple le nombre de fois où l'on obtient pile, suit donc une loi binomiale. De nombreuses situations peuvent être modélisées par cet exemple ce qui donne son importance à la loi[35].

Engénétique, lors de la reproduction, chaquegène est composée de deuxallèles qui sont issus des deux parents. Soit les deux allèles proviennent du même parent, soit chaque parent transmet un allèle. Il est alors possible de faire une liste de différents allèles et de noter ces deux cas. Le nombre d'allèles issus du même parent peut être modélisé par une variable aléatoire de loi binomiale[64]. Pour savoir s'il y a égale probabilité d'allèle de même provenance ou de provenance différente, on peut étudier un test statistique[64]. Inversement, pour simuler les allèles d'un individu, il est possible de simuler les fréquences des allèles par des variables aléatoires binomiales[65].

marche aléatoire
Exemple de marche aléatoire (renormalisée). La position de la marche suit une loi binomiale.

Enlinguistique, la loi binomiale est utilisée pour étudier la richesse du vocabulaire d'un texte[a 10]. C'est un outil quantitatif qui permet de mesurer la fréquence d'un mot dans un texte indépendamment de la longueur du texte. Plus précisément la méthode de Müller permet d'évaluer la richesse théorique du vocabulaire d'un texte grâce au vocabulaire d'un texte plus long, et ainsi comparer avec la richesse du vocabulaire du texte court en question. Techniquement, siNa{\displaystyle N_{a}} est le nombre de mots d'un texte etNb{\displaystyle N_{b}} celui d'un autre texte. Alorsp=NaNa+Nb{\displaystyle p={\frac {N_{a}}{N_{a}+N_{b}}}} est la probabilité d'apparition d'un mot tiré au hasard dans le premier texte ; de même pourq=NbNa+Nb{\displaystyle q={\frac {N_{b}}{N_{a}+N_{b}}}} dans le deuxième texte[a 11]. Le nombre de mots ayant la même fréquence d'apparition dans le premier texte suit alors une loi binomiale de paramètresn=Na+Nb{\displaystyle n=N_{a}+N_{b}} etp. Il est possible d'effectuer des tests statistiques pour conclure si la richesse du vocabulaire est grande ou non.

En 1908,Émile Borel étudie la fréquence des différents chiffres dans ledéveloppement décimal d'unnombre réel. Il considère les2n premières valeurs de la décomposition décimale et estime la probabilité d'obtention du nombre de fois où apparaît chaque entier dans cette décomposition grâce à l'approximation par la loi normale. Il démontre ainsi le théorème desnombres normaux[a 12].

Unemarche aléatoire surZ{\displaystyle \mathbb {Z} } est unprocessus stochastique(Sn,nN){\displaystyle (S_{n},n\in \mathbb {N} ^{*})} à temps entier[66]. C'est-à-dire que la marche part d'une valeur initialeS0 = 0 par exemple et à chaque unité de temps, le marcheur se déplace (indépendamment du chemin parcouru avant) d'un pas vers le haut avec une probabilitép ou d'un pas vers le bas avec une probabilité1 –p, ainsiS1 = –1 ou1.Sn donne la position du marcheur au bout d'un tempsn. Sip = 1 –p = 0,5, la marche est dite symétrique et le marcheur a autant de chance d'aller vers le haut que vers le bas. Dans ce cas, au bout du tempsn, la variable aléatoire12(Sn+n){\displaystyle {\frac {1}{2}}(S_{n}+n)} peut prendre comme valeurs0,1n{\displaystyle 0,1\dots n} et elle est de loi binomialeb(n, 0,5). Cette considération ainsi que la convergence vers la loi normale (voirci-dessus) permet de démontrer qu'une marche aléatoire renormalisée converge vers lemouvement brownien (voirThéorème de Donsker)[67].

Notes et références

[modifier |modifier le code]
  1. a etbGossett 2009,p. 310.
  2. Dodge 2007,p. 175.
  3. abc etdDodge 2007,p. 287.
  4. Ruegg 1994,p. 38.
  5. abc etdBogaert 2005,p. 50.
  6. Gossett 2009,p. 316.
  7. a etbRuegg 1994,p. 39.
  8. Gossett 2009,p. 311.
  9. Bogaert 2005,p. 305.
  10. Foata, Fuchs et Ranchi 2012,p. 68.
  11. Hald 2005,p. 5.
  12. a etbHald 2005,p. 485.
  13. Hazewinkel 1994,p. 438.
  14. abc etdJohnson, Kemp et Kotz 2005,p. 109.
  15. Johnson, Kemp et Kotz 2005,p. 136.
  16. Johnson, Kemp et Kotz 2005,p. 140.
  17. Gossett 2009,p. 274.
  18. Ruegg 1994,p. 23.
  19. Johnson, Kemp et Kotz 2005,p. 53.
  20. Dette et Studden 1997,p. 16.
  21. ab etcJohnson, Kemp et Kotz 2005,p. 110.
  22. a etbJohnson, Kemp et Kotz 2005,p. 111.
  23. abcdef etgHazewinkel 1994,p. 397.
  24. abcd eteCourtin 2012,p. 1 G 17.
  25. Bogaert 2005,p. 329.
  26. Johnson, Kemp et Kotz 2005,p. 114.
  27. a etbMittag et Rinne 1993,p. 515.
  28. ab etcMittag et Rinne 1993,p. 105.
  29. a etbJohnson, Kemp et Kotz 2005,p. 115.
  30. Pfister 2012,p. 104.
  31. Courtin 2012,p. 1 G 16.
  32. ab etcJohnson, Kemp et Kotz 2005,p. 135.
  33. a etbJohnson, Kemp et Kotz 2005,p. 116.
  34. Johnson, Kemp et Kotz 2005,p. 125.
  35. ab etcLesigne 2005,p. 4ème couv.
  36. Bogaert 2005,p. 54.
  37. Johnson, Kemp et Kotz 2005,p. 218.
  38. Mittag et Rinne 1993,p. 109.
  39. a etbMittag et Rinne 1993,p. 116.
  40. a etbJohnson, Kemp et Kotz 2005,p. 137.
  41. Johnson, Kemp et Kotz 2005,p. 253.
  42. Johnson, Kemp et Kotz 2005,p. 254.
  43. Courtin 2012,p. 1 G 18.
  44. Siegmund et Yakir 2007,p. 14.
  45. ab etcFoata, Fuchs et Ranchi 2012,p. 73.
  46. Hald 2005,p. 215.
  47. a etbJohnson, Kemp et Kotz 2005,p. 121.
  48. a etbJohnson, Kemp et Kotz 2005,p. 123.
  49. a etbBogaert 2005,p. 348.
  50. a etbMittag et Rinne 1993,p. 106.
  51. Hald 2005,p. 492.
  52. Ruegg 1994,p. 93.
  53. Hazewinkel 1994,p. 369.
  54. Johnson, Kemp et Kotz 2005,p. 118.
  55. a etbJohnson, Kemp et Kotz 2005,p. 117.
  56. Lesigne 2005,p. 34.
  57. Bogaert 2005,p. 71.
  58. Dodge 2007,p. 288.
  59. Bogaert 2005,p. 349.
  60. Dagnelie 1998,p. 122.
  61. Dagnelie 1998,p. 76.
  62. a etbDagnelie 1998,p. 78.
  63. Siegmund et Yakir 2007,p. 17.
  64. a etbSiegmund et Yakir 2007,p. 11.
  65. Siegmund et Yakir 2007,p. 240.
  66. Pfister 2012,p. 154.
  67. Pfister 2012,p. 155.
Articles et autres sources
  1. ab etcAimé Fuchs, « Plaidoyer pour la loi normale ».
  2. Suivre par exemple lelien en bas de cette page vers la leçon surWikiversité.
  3. (en)R. B. Potts (en), « Note on the factorial moments of standard distributions »,Austr. J. Phys. (en),vol. 6,‎,p. 498(lire en ligne).
  4. Marc Diener, « Probabilités élémentaires — Chap. 7 : Fonctions génératrices », surUniversité Nice Sophia Antipolis,,p. 33.
  5. (en)V. Romanovsky, « Note on the moments of the binomial(p + q)n about its mean »,Biometrika,vol. 15,nos 3-4,‎,p. 410-412(DOI 10.2307/2331875).
  6. (en) Kais Hamza, « The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions »,Statist. Probab. Lett.,vol. 23,‎,p. 21-25(lire en ligne).
  7. abc etdE. Morice, « Quelques modèles mathématiques de durée de vie »,Revue de statistique appliquée,t. 14,no 1,‎,p. 45-126(lire en ligne),p. 68.
  8. (en) Wassily Hoeffdin, « Probability inequalities for sums of bounded random variables »,Journal of the American Statistical Association,vol. 58,no 301,‎,p. 13-30(lire en ligne).
  9. (en) Victor Korolev et Irina Shevtsova, « An improvement of the Berry–Esseen inequality with applications to Poisson and mixed Poisson random sums »,Scandinavian Actuarial Journal,vol. 2,‎,p. 81-105(lire en ligne).
  10. Étienne Évrard, « Les mystères des vocables »,Revue Informatique et Statistique dans les Sciences humaines - CIPL,vol. XXX (30 ?),nos 1 à 4,‎,p. 272-274(lire en ligne).
  11. Étienne Brunet, « Müller le lexicomaître »,CIPL,‎,p. 99-119(lire en ligne).
  12. ÉmileBorel, « Les probabilités dénombrables et leurs applications arithmétiques »,Rendiconti del Circolo Matematico di Palermo,Circolo Matematico di Palermo,vol. 27,no 1,‎,p. 247-271(ISSN 0009-725X et1973-4409,DOI 10.1007/BF03019651,lire en ligne).

Voir aussi

[modifier |modifier le code]

Sur les autres projets Wikimedia :

Bibliographie

[modifier |modifier le code]

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

Articles connexes

[modifier |modifier le code]

Liens externes

[modifier |modifier le code]

v ·m
Lois discrètes
à support fini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Nparamètres de forme
à support infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Lois absolument continues
à support compact
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
à support semi-infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
3paramètres de forme
Nparamètres de forme
à support infini
0paramètre de forme
1paramètre de forme
2paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Loismultidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
Cet article est reconnu comme « bon article » depuis saversion du 11 février 2015 (comparer avec la version actuelle).
Pour toute information complémentaire, consulter sapage de discussion et levote l'ayant promu.
La version du 11 février 2015 de cet article a été reconnue comme « bon article », c'est-à-dire qu'elle répond à des critères de qualité concernant le style, la clarté, la pertinence, la citation des sources et l'illustration.
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Loi_binomiale&oldid=229044837 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2026 Movatter.jp