Enthéorie des probabilités et enstatistique, laloi binomiale modélise la fréquence du nombre de succès obtenus lors de la réalisation de plusieurs expériences aléatoires identiques et indépendantes.
Plus mathématiquement, la loi binomiale est uneloi de probabilité discrète décrite par deux paramètres :n le nombre d'expériences réalisées, etp la probabilité de succès. Pour chaque expérience appeléeépreuve de Bernoulli, on utilise unevariable aléatoire qui prend la valeur1 lors d'un succès et la valeur0 sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et suit une loi binomiale. Il est alors possible d'obtenir la probabilité dek succès dans une répétition den expériences :
Cette formule fait intervenir lecoefficient binomial duquel provient le nom de la loi.
L'importance de cette loi est d'abord historique puisqu'elle a été l'objet d'étude duthéorème de Moivre-Laplace, résultat duxviiie siècle fondateur desthéorèmes de convergence. Une loi binomiale peut également être utilisée pour modéliser des situations simples de succès ou échec tel un jeu depile ou face par exemple, ou également une marche aléatoire sur une ligne droite. Le calcul de safonction de masse devient rapidement fastidieux lorsquen est grand, il est alors possible d'utiliser des approximations par d'autreslois de probabilité telles que laloi de Poisson ou laloi normale et d'utiliser des tables de valeurs.
La loi binomiale est utilisée dans divers domaines d'étude, notamment à travers destests statistiques qui permettent d'interpréter des données et de prendre des décisions dans des situations dépendant de l'aléa. De par la simplicité de sa définition, c'est l'une des lois de probabilité étudiées dans les cours d'introduction à la théorie des probabilités.
On considèren lancers successifs d'une pièce de monnaie. Alors le nombre de fois où la pièce apparaît du côté pile suit la loi binomiale où le nombre d'expériences réalisées estn et où la probabilité de succès est.
On considèren lancers successifs d'un dé à 6 faces. Alors le nombre de fois où l'on obtient un 1, suit la loi binomiale où le nombre d'expériences réalisées estn et où la probabilité de succès est.
Uneloi de Bernoulli décrit le comportement d'uneexpérience aléatoire qui possède deux résultats possibles traditionnellement appelés succès et échec[1]. Une telle expérience s'appelle uneépreuve de Bernoulli. Par exemple, lors d'un lancer depile ou face, on peut considérer qu'obtenir face est un succès et obtenir pile est un échec. Dans ce modèle, la probabilité de succès est une valeur fixe, c'est-à-dire qui reste constante à chaque renouvellement de l'expérience aléatoire. Cette probabilité de succès est notéep. On peut noter sa loi de probabilité :
On considère la situation où une telle expérience aléatoire (deux résultats possibles et une probabilité fixe) est répétée un certain nombre de fois de manière indépendante ; on noten ce nombre de fois. Cette répétition indépendante d'épreuves de Bernoulli s'appelle unschéma de Bernoulli ou simplement desépreuves de Bernoulli[2]. Une loi binomiale décrit le nombre de fois où lesuccès apparaît sur lesn expériences effectuées. Le nombre de succès obtenus étant une valeur aléatoire, une loi binomiale est décrite grâce à la donnée des probabilités que le succès apparaisse précisémentk fois sur lesn essais.
Une manière visuelle de représenter une suite d'expériences est d'utiliser unarbre de probabilité. Chaque épreuve est représentée par deux branches : l'une pour le succès, l'autre l'échec. À chaque extrémité, on rajoute deux branches (succès et échec) pour l'épreuve suivante. On recommence jusqu'au nombre total d'épreuves. À chaque extrémité finale, on peut compter le nombre de succès obtenus. Il suffit de multiplier le nombre de fois où il y ak succès par la probabilité d'obtenirk succès pour obtenir la probabilité correspondante de la loi binomiale.
Par exemple, on lance 3 fois de suite un dé équilibré à six faces et on s'intéresse au nombre de fois que le1 apparaît. Il apparaît 0, 1, 2 ou 3 fois. Chaque lancer est indépendant des autres et la probabilité d'obtenir le1 est de1/6 sur chacun d'entre eux, autrement dit la probabilité qu'il n'apparaisse pas est de5/6 à chaque lancer. Ainsi, pour chaque lancer, on considère une loi de Bernoulli de paramètre1/6. Il y a trois configurations pour obtenir une seule fois le1 : il apparaît au premier lancer ou au deuxième ou au troisième. Chacune de ces issues a la même probabilité d'apparaître :. La probabilité pour avoir une fois le1 est alors :. On retrouve bien pour une loi binomialeb(3, 1/6). Il est possible de retrouver les autres probabilités de la même façon.
Laloi binomiale est uneloi de probabilité discrète[3] à deux paramètres : et. Il est fréquent d'utiliser également le paramètreq = 1 –p pour avoir des expressions plus concises. Elle possède plusieurs définitions équivalentes :
Diagrammes en bâtons de trois fonctions de masse de lois binomiales. Les paramètres sontn = 20 etp = 0,1 (en bleu),p = 0,5 (en vert) etp = 0,8 (en rouge).
Définition 1[4],[1] — La loi binomiale, de paramètresn etp, est laloi de probabilité d'une variable aléatoireX égale au nombre de succès rencontrés au cours d'une répétition denépreuves de Bernoulli,p étant la probabilité desuccès dans chacune d'entre elles.
Définition 2[5] — La loi binomiale, de paramètresn etp, est laloi de probabilité d'une variable aléatoireX telle que :
On rappelle que des variables aléatoires et de loi discrète sontindépendantes si.
La fonction de masse donnée dans la définition 3 a bien un sens puisque laformule du binôme de Newton donne[6] :. La définition 2 est l'écriture mathématique de la définition 1[7].
La définition 3 est équivalente aux deux autres : on calcule explicitement la probabilité quek succès apparaissent dansn essais. Puisque lesn répétitions sont indépendantes, la probabilité d'obtenirk succès et doncn – k échecs est :, dans le cas où on ne tient pas compte de la place des résultats[5],[8]. Il suffit alors de s'intéresser à la place desk succès etn – k échecs. C'est-à-dire, combien y a-t-il de manière de placerk succès parmin résultats (sans s'occuper de l'ordre entre les succès) ? C'est le nombre decombinaisons dek éléments parmin éléments[9] donné par lecoefficient binomial. On retrouve alors la fonction de masse de la définition 3.
Notation
Le fait qu'une variable aléatoireX suive une loi binomiale de paramètresn etp est noté[3],[5] : ; ou.
Mesure de probabilité
Puisque la loi binomialeb(n,p) est une loi discrète, il est possible de la définir grâce à samesure de probabilité[10] :
Laplanche de Galton : les billes rouges (les points rouges sur la figure) empilées dans le bas de l'appareil correspondent à lafonction de masse de la loi binomiale, la courbe bleue correspond à la densité de la loi normale.
La loi binomiale fait partie des plus anciennes lois de probabilités étudiées[3]. Elle a été introduite parJacques Bernoulli qui y fait référence en 1713 dans son ouvrageArs Conjectandi. Entre 1708 et 1718, on découvre aussi laloi multinomiale (généralisation multi-dimensionnelle de la loi binomiale), laloi binomiale négative ainsi que l'approximation de la loi binomiale par laloi de Poisson, laloi des grands nombres pour la loi binomiale et une approximation de laqueue de la loi binomiale[11].
Grâce à l'expression de safonction de masse, la loi binomiale a été utilisée par plusieurs scientifiques pour réaliser des calculs dans des situations concrètes. C'est le cas d'Abraham de Moivre[a 1] qui réussit à trouver une approximation de la loi binomiale par laloi normale, il publie d'abord ses résultats en 1733 en latin[12] :Approximatio ad summam terminorum binomii(a + b)nin seriem expansi, puis les traduit pour les publier en 1738 dansThe Doctrine of Chances(en)[12]. En 1812,Pierre-Simon de Laplace reprend ces travaux.Francis Galton crée laplanche de Galton qui permet d'avoir une représentation physique de cette convergence[a 1]. En 1909,Émile Borel énonce et prouve, dans le cas de la loi binomiale, la première version de laloi forte des grands nombres[13].
Le nom « binomiale » de cette loi provient[7],[a 1] de l'écriture de sa fonction de masse (voir ci-dessous) qui contient uncoefficient binomial issu du développement du binôme :(p + q)n.
Représentation de la loi binomiale sous forme d'un arbre.
Puisque la loi binomiale est une suite d'épreuves de Bernoulli, il est possible de la représenter grâce à unarbre de probabilité : chaque nœud représente le résultat d'une épreuve, les probabilités de succès et d'échecs sont représentés par deux branches distinctes rattachées à un nœud. Le graphique est donc unarbre binaire équilibré. Un arbre contenantn générations correspond à une loi binomialeb(n,p).
Si on indique les résultats de chaque épreuve sur les arêtes de l'arbre, il est possible de visualiser les différentes issues de la loi binomiale[17]. Si ce sont les valeurs des probabilités qui sont indiquées sur les arêtes, alors les probabilités de la loi binomiale apparaissent au bout des branches[18] (voir le graphique ci-contre).
Le graphique est un arbre de probabilité pour une loi binomiale de paramètren = 3. Sur chaque branche sont indiquées les probabilités des différentes issues : par exemple branches droite, gauche puis droite ; c'est-à-dire échec, succès puis échec. Au bout des branches de l'arbre, apparaissent les probabilités de chaque issue de la loi binomialeb(3,p). C'est-à-dire pour les valeursk = 0, 1, 2 ou3, on obtient,, et. On retrouve ainsi les différentscoefficients binomiaux :
Par exemple, si,, valeur à comparer avec l'écart-type :.
Fréquence de succès
Grâce aux formules précédentes, on obtient les moments de la fréquence des succès[24] : :
moment d'ordre1 (ou espérance) de la fréquence de succès
moment centré d'ordre2 (ou variance) de la fréquence de succès
moment centré d'ordre4 de la fréquence de succès
L'expression de la variance de la fréquence donne l'écart type de la fréquence des succès :.
Covariance
On considère deux variables aléatoires et, pas forcémentindépendantes, de lois binomiales respectives et. Lacovariance permet d'évaluer la dépendance entre les deux variables :
Lecoefficient d'asymétrie d'une loi binomialeb(n,p) est[25] :. L'asymétrie de la loi binomialeb(n,p) est positive[26] sip < 1/2 et négative sip > 1/2. La loi est symétrique si et seulement sip = 1/2.
Lamédiane de la loi binomiale est ou, le signe désigne lapartie entière. Ces valeurs s'obtiennent grâce à la formule[a 6] : (cette borne étant optimale).
Lemode de la loi binomialeb(n,p) est la valeur, elle est la valeur de plus grande probabilité.
Sinp est unentier, alors le mode, la moyenne et la médiane valent tous troisnp.
Propriétés de stabilité
SiX suit une loi binomialeb(n,p), alors[5]Y = n – X suit une loib(n, 1 –p). Cette symétrie donne les relations suivantes pour la fonction de répartition et pour la fonction de masse[27],[28] : et.
Si lesvariables aléatoires indépendantes et sont de lois binomiales respectives et, alors la variable aléatoire est de loi binomiale. Cette propriété peut s'obtenir grâce à l'expression des fonctions caractéristiques ou grâce à l'écriture sous forme de somme de variables de Bernoulli[29].
L'inégalité de Hoeffding pour une variable aléatoireX de loib(n,p) est plus précise que l'inégalité de Bienaymé-Tchebychev lorsquex est grand, elle s'écrit[30] :
.
L'inégalité de Kolmogorov s'écrit pour une somme de variables aléatoires indépendantes. Pour des variables aléatoires indépendantes deloi de Bernoulli, la somme suit une loi binomialeb(k,p) recentrée, l'inegalité s'écrit alors[31] :
.
Caractérisations
En 1964, un cas particulier d'un théorème de Patil et Seshadri énonce[32] : si laloi conditionnelle deX + Y sachantX est uneloi hypergéométrique de paramètresm etn, alorsX etY suivent des lois binomiales de paramètres respectifs et où est arbitraire.
Même s'il existe une expression de la fonction de répartition, son calcul n'est pas facile[33] à cause des coefficients binomiaux, notamment lorsquen est grand. Il existe alors des tables de valeurs (voirci-dessous). Des théorèmes d'approximation ont été développés[33] pour approcher de manière théorique et calculatoire cette fonction de répartition (voirci-dessous). L'expression suivante provient du lien entre la loi binomiale et laloi bêta[23] (voirci-dessous) : pour
En utilisant le fait que la loi binomiale de paramètres et est la loi de la somme den variables aléatoires indépendantes deloi de Bernoulli de même paramètrep, la loi binomialeb(1,p) est une loi de Bernoulli de paramètrep.
C'est par cette représentation du nombre de succès et d'échecs dans une suite d'épreuves que la loi binomiale est source de nombreuses applications[35].
Les lois suivantes ont un lien avec la loi binomiale grâce à leur fonction de répartition. Lorsque le nombre de succèsk est fixé, elles donnent la loi du nombre d'épreuves nécessaires (loi binomiale négative) ou la loi du paramètrep (lois bêta ou de Fisher). En ce sens, elles peuvent servir delois réciproques.
La loi binomialeb(n,p) donne le nombre de succès dans une succession den épreuves indépendantes. Laloi binomiale négative, ou loi de Pascal, est le nombre d'épreuves nécessaires pour obtenirk succès[36]. le termenégatif provient de l'écriture de la fonction de masse qui contient un coefficient binomial avec un terme négatif[a 7]. De plus, siX suit une loi et siY suit une loib(n + k,p) alors[37],[38], pourk entre0 etn : , où est lafonction bêta incomplète. Autrement dit : la probabilité qu'il faille au moinsn épreuves pour avoirk succès est égale à la probabilité qu'il y ait au plusk succès enn + k épreuves.
Laloi binomiale (doublement) tronquée de paramètres et est la loi binomialeb(n,p) avec telle que les valeurs dans et dans sont enlevées[40]. Lafonction de masse de cette loi est donnée par l'expression : pour
De la même manière, il est possible de définir la loi binomiale (simplement) tronquée[40] en omettant uniquement les valeurs entre0 et ou entre et.
Laloi binomiale positive ouloi binomiale tronquée en 0 est la loi binomialeb(n,p) dont on retire la valeur 0. Sa fonction de masse est :. De la même manière il est possible de définir laloi binomiale négative.
Laloi multinomiale est la généralisation multi-dimensionnelle de la loi binomiale[23] dans le sens où la loi multinomiale modélise une succession d'épreuves dont chacune possède plusieurs issues, pas uniquement succès ou échec. Cette loi multidimensionnelle donne les probabilités du nombre d'apparition des différentes issues dans une succession d'épreuves indépendantes[a 7].
Laloi bêta-binomiale est construite grâce à un mélange de loi[41] : une variable aléatoire qui suit une loi binomiale dont le paramètre est une variable aléatoire qui suit uneloi bêta, est de loi bêta-binomiale de paramètres. Cette loi binomiale est similaire à laloi hypergéométrique négative(en), il suffit de changer les paramètres[42].
La fonction de masse d'une variableY deloi hypergéométrique de paramètres est donnée par :. Elle correspond au nombre tirages gagnants dans une expérience den tirages simultanés dans une urne contenantA boules et une proportion dep boules gagnantes.
Si le nombre de boules augmente, c'est-à-direA tend vers l'infini, et sip/A tend vers une valeur, alors la loi hypergéométrique converge vers une loi binomiale[43]b(n,p').
Autrement dit, si la taille de la population (A) est grande par rapport à la taille de l'échantillon (n), alors les tirages peuvent être convenablement représentés par une loi binomiale de paramètrep' égal au pourcentage (p) d'éléments ayant le caractère étudié.
De plus, si et sont deux variables aléatoires indépendantes de loi binomiale respectives et, alors la loi de sachant que est la loi hypergéométrique de paramètres[29] : et.
Pour de grandes valeurs den, le calcul des fonctions de masse et de répartition deviennent vite fastidieux. Une méthode est d'approcher ces valeurs grâce aux théorèmes limites. La loi (faible ou forte) des grands nombres permet d'approcher la moyenne de la loi binomiale. Pour obtenir des valeurs approchées de la fonction de répartition, il est possible d'utiliser l'approximation normale ou l'approximation par laloi de Poisson. L'approximation normale est plus performante lorsque le paramètrep n'est pas trop proche de0 ou de1, sinon l'approximation par la loi de Poisson donne de meilleurs résultats[44].
Laloi faible des grands nombres, appliquée à unprocessus de Bernoulli de paramètrep, garantit que pour toute suite(Xn) de variables aléatoires, définies sur un mêmeespace probabilisé, et de lois respectivesb(n,p) (cf. définition 2ci-dessus), on a, pour tout :Plus précisément, puisque l'espérance et la variance deXn sont respectivement égales ànp etnp(1 –p), l'inégalité de Bienaymé-Tchebychev montre que[24] :Cela peut s'interpréter grossièrement de la manière suivante. Si l'on sait que lors d'une expérience aléatoire (tirage d'un individu dans une population de grande taille, lancer d'une pièce…) la probabilité d'apparition de la propriétéA estp(A), alors la fréquence d'apparition de la propriétéA au cours den expériences de ce type (tirages den individus dans une population de taille très supérieure àn,n lancers de pièce…) est souvent voisine dep(A), avec une probabilité d'autant meilleure quen est grand et quep(A) est proche de0 ou1.
On considère une loi binomialeb(n,p) telle que les paramètresn etp sont liés par la formule : où est fixé. Lorsquen tend vers l'infini, et doncp tend vers 0, alors[45] :. Autrement dit, la probabilité qu'une variable de loi binomiale prenne la valeurk converge (lorsquen devient grand) vers la probabilité qu'une variable deloi de Poisson prenne la valeurk. Le paramètrep converge alors vers 0, il correspond donc à un évènement de probabilité très faible, la loi de Poisson est alors appelée loi des évènements rares[45]. Par sommation, on obtient alors le résultat[46] :
où est la partie entière,X est une variable de loi binomiale etY de loi de Poisson. Cette limite montre laconvergence en loi de la loi binomiale (avec les conditions précédentes) vers la loi de Poisson. Une expression plus détaillée de la convergence peut être donnée par la formule[47],[23] : avec lorsquen tend vers l'infini et est lecomparateur asymptotique.
Fonctions de masse d'une loi binomiale (en violet), (en rouge) et d'une loi de poisson (en bleu).
En 1953,Iouri Prokhorov donne une majoration de l'erreur totale d'approximation entre la fonction de répartition d'une loi binomialeb(n,p) et uneloi de Poisson[48] :. Il est également possible de borner le ratio entre les deux fonctions de répartition[48] :
Approximation
Grâce à la convergence ci-dessus, il est possible d'approcher les probabilités de la loi binomiale par la loi de Poisson. En pratique, le cas s'applique lorsquen est grand et doncp petit. Différentes valeurs sont proposées[47],[45],[49],[50] :
, lorsque (ce qui fait) ;
, lorsque (ce qui fait) ;
, lorsque (ce qui fait) ;
;
, lorsque ;
et.
L'idée commune de toutes ces propositions est d'avoir la valeurnp stable lorsquen est grand etp petit.
Illustration de la convergence de la fonction de masse de la loi binomiale vers la loi normale lorsquen grandit.
Convergence
Le théorème de Moivre-Laplace, énoncé en 1733, montre qu'une variable aléatoire de loi binomiale, convenablement renormalisée,converge en loi vers une variable aléatoire deloi normale. Ce résultat peut s'énoncer grâce aux fonctions de répartition des deux lois. On considère une variable aléatoireX de loi binomialeb(n,p), la variable aléatoireX renormalisée est la variable aléatoire centrée et réduite, c'est-à-dire :.Si l'on note la fonction de répartition de la loi normale, alors :
Théorème de Moivre-Laplace : pour tout ,
Bien qu'Abraham de Moivre n'ait énoncé ce résultat que dans le cas d'une loi binomiale[51], cette convergence est généralisée dans le cas d'autres lois, c'est lethéorème central limite. Ce théorème permet d'approcher une loi discrète par une loi continue, il est alors utile d'ajouter un coefficient, ditcorrection de continuité, afin d'améliorer les approximations futures (voir ci-dessous). La convergence précédente peut alors s'écrire sous forme d'équivalence lorsquen tend vers l'infini[52] : pour tout
L'erreur commise par l'approximation est estimée par l'inégalité de Berry-Esseen dont la constante est régulièrement améliorée, elle fournit une borne de la différence entre les deux fonctions de répartition lorsquen est grand[53],[a 9], pourX une variable aléatoire de loi binomialeb(n,p) etY de loi normale de fonction de répartition notée :. Une expression plus détaillée de la convergence peut être donnée par la formule avec correction de continuité[23] :uniformément pour toute variablex, lorsquen tend vers l'infini et où est lecomparateur asymptotique. D'autres approximations plus fines ont été étudiées[54], par exemple parLaplace (1820),Prokhorov (1953) ouPeizer etPratt (1968).
Approximation
Grâce aux théorèmes de convergence ci-dessus, lorsquen est grand, les probabilités de la binomiale renormalisée peuvent être approchées par les valeurs des probabilités de la loi normale. Il existe plusieurs règles sur les paramètresn etp pour que l'approximation soit valable[55],[50],[56],[57] :
, et ;
ou ;
et.
L'influence de ces paramètres sur l'approximation a été finement étudiée dans les années 1990, par exemple[55] : pourn fixé, l'erreur absolue minimale est atteinte pourp = 1/2 ; l'erreur absolue est inférieure à.
D'une manière générale, untest statistique permet de rejeter, ou non, une hypothèse ditehypothèse nulle. L'idée principale est de prendre unéchantillon et de vérifier si l'hypothèse est vraie pour chaque élément de l'échantillon. Si on considère que les éléments sont indépendants, on compte donc le nombre d'éléments vérifiant une propriété, il y a donc présence de la loi binomiale. On compare si la proportion observée est significativement éloignée de la probabilité théorique de la loi binomiale[60]. Ce test est appelé untest binomial. On peut utiliser aussi la loi normale lorsque la taille de l'échantillon est grand.
Il est possible d'effectuer un test statistique sur la conformité des valeurs des paramètres d'une loi de probabilité, notamment d'une loi binomiale, par rapport aux paramètres théoriques attendus pour la population étudiée[61]. Le test de conformité de l'indice de dispersion s'applique dans ce cas[62]. Cet indice de dispersion est le quotient de la somme des carrés des écarts et de la moyenne. Si sont les valeurs étudiées de moyenne notée alors l'indice est :. Grâce à uneLoi du χ² ou uneloi normale, le test rejette l'hypothèse de la valeur que prend le paramètrep de la loi binomiale[62].
Il est également possible de tester l'égalité de deux variables aléatoires de lois binomiales. Soient et deuxvariables aléatoires de lois respectives et. On souhaite tester si, c'est l'hypothèse du test. Par lethéorème central limite, l'estimateur suit uneloi normale lorsque est grand. Il en est de même avec. En considérant l'hypothèse vraie, on peut montrer que suit une loi normale centrée réduite[63]. On rejette alors l'hypothèse au niveau de confiance 0,95 si.
Par définition la somme de variables aléatoires indépendantes deloi de Bernoulli suit une loi binomiale. Un exemple typique de phénomène suivant une loi de Bernoulli est le lancer d'une pièce pour unpile ou face[35]. Le nombre de succès, par exemple le nombre de fois où l'on obtient pile, suit donc une loi binomiale. De nombreuses situations peuvent être modélisées par cet exemple ce qui donne son importance à la loi[35].
Engénétique, lors de la reproduction, chaquegène est composée de deuxallèles qui sont issus des deux parents. Soit les deux allèles proviennent du même parent, soit chaque parent transmet un allèle. Il est alors possible de faire une liste de différents allèles et de noter ces deux cas. Le nombre d'allèles issus du même parent peut être modélisé par une variable aléatoire de loi binomiale[64]. Pour savoir s'il y a égale probabilité d'allèle de même provenance ou de provenance différente, on peut étudier un test statistique[64]. Inversement, pour simuler les allèles d'un individu, il est possible de simuler les fréquences des allèles par des variables aléatoires binomiales[65].
Exemple de marche aléatoire (renormalisée). La position de la marche suit une loi binomiale.
Enlinguistique, la loi binomiale est utilisée pour étudier la richesse du vocabulaire d'un texte[a 10]. C'est un outil quantitatif qui permet de mesurer la fréquence d'un mot dans un texte indépendamment de la longueur du texte. Plus précisément la méthode de Müller permet d'évaluer la richesse théorique du vocabulaire d'un texte grâce au vocabulaire d'un texte plus long, et ainsi comparer avec la richesse du vocabulaire du texte court en question. Techniquement, si est le nombre de mots d'un texte et celui d'un autre texte. Alors est la probabilité d'apparition d'un mot tiré au hasard dans le premier texte ; de même pour dans le deuxième texte[a 11]. Le nombre de mots ayant la même fréquence d'apparition dans le premier texte suit alors une loi binomiale de paramètres etp. Il est possible d'effectuer des tests statistiques pour conclure si la richesse du vocabulaire est grande ou non.
En 1908,Émile Borel étudie la fréquence des différents chiffres dans ledéveloppement décimal d'unnombre réel. Il considère les2n premières valeurs de la décomposition décimale et estime la probabilité d'obtention du nombre de fois où apparaît chaque entier dans cette décomposition grâce à l'approximation par la loi normale. Il démontre ainsi le théorème desnombres normaux[a 12].
Unemarche aléatoire sur est unprocessus stochastique à temps entier[66]. C'est-à-dire que la marche part d'une valeur initialeS0 = 0 par exemple et à chaque unité de temps, le marcheur se déplace (indépendamment du chemin parcouru avant) d'un pas vers le haut avec une probabilitép ou d'un pas vers le bas avec une probabilité1 –p, ainsiS1 = –1 ou1.Sn donne la position du marcheur au bout d'un tempsn. Sip = 1 –p = 0,5, la marche est dite symétrique et le marcheur a autant de chance d'aller vers le haut que vers le bas. Dans ce cas, au bout du tempsn, la variable aléatoire peut prendre comme valeurs et elle est de loi binomialeb(n, 0,5). Cette considération ainsi que la convergence vers la loi normale (voirci-dessus) permet de démontrer qu'une marche aléatoire renormalisée converge vers lemouvement brownien (voirThéorème de Donsker)[67].
Charles-Edouard Pfister,Théorie des probabilités : cours d'introduction avec application à la statistique mathématique, Lausanne,PPUR,, 229 p.(ISBN978-2-88074-981-1,lire en ligne)
La version du 11 février 2015 de cet article a été reconnue comme « bon article », c'est-à-dire qu'elle répond à des critères de qualité concernant le style, la clarté, la pertinence, la citation des sources et l'illustration.