Movatterモバイル変換


[0]ホーム

URL:


Aller au contenu
Wikipédial'encyclopédie libre
Rechercher

Probabilité

Un article de Wikipédia, l'encyclopédie libre.
Page d’aide sur l’homonymie

Pour les articles homonymes, voirProbabilité (homonymie).

Page d’aide sur l’homonymie

Cet article présente les notions générales concernant les probabilités ; pour une approche élémentaire du calcul des probabilités voirProbabilités (mathématiques élémentaires) ; pour la théorie mathématique rigoureuse correspondante, voirThéorie des probabilités ; pour l'historique de ces notions, voirHistoire des probabilités ; pour l'analyse des concepts de probabilité et l'interprétation des probabilités, voirInterprétations de probabilité.

Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles.

Le termeprobabilité possède plusieurs sens : venu historiquement du latinprobabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractèreprobable d'unévénement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ;récemment[C'est-à-dire ?], la probabilité est devenue une science mathématique et est appeléethéorie des probabilités ou plus simplementprobabilités.

La probabilité d'un événement est unnombre réel compris entre 0 et 1. Plus ce nombre est grand, plus lerisque, ou lachance, que l'événement se produise est grand. L'étude scientifique des probabilités est relativement récente dans l'histoire des mathématiques. L'étude des probabilités a connu de nombreux développements depuis leXVIIIe siècle grâce à l'étude de l'aspect aléatoire et en partie imprévisible de certains phénomènes, en particulier lesjeux de hasard. Ceux-ci ont conduit les mathématiciens à développer une théorie qui a ensuite eu des implications dans des domaines aussi variés que lamétéorologie, lafinance ou lachimie.

Historique

[modifier |modifier le code]
Article détaillé :Histoire des probabilités.
Christian Huygens.

À l'origine, dans les traductions d'Aristote, le mot« probabilité » ne désigne pas une quantification du caractère aléatoire d'un fait, mais la perception qu'une idée est communément admise par tous. Ce n'est qu'au cours duMoyen Âge, puis de laRenaissance, autour des commentaires successifs et des imprécisions de traduction de l'œuvre d'Aristote, que ce terme connaîtra un glissement sémantique pour finir par désigner la vraisemblance d'une idée.

L'apparition de la notion de« risque », préalable à l'étude des probabilités, n'est apparue qu'auXIIe siècle, pour l'évaluation de contrats commerciaux avec le Traité des contrats dePierre de Jean Olivi[1], et s'est développée auXVIe siècle, avec la généralisation des contrats d'assurance maritime[2]. À part quelques considérations élémentaires parGirolamo Cardano[3] au début duXVIe siècle, et par Galilée au début duXVIIe siècle, le véritable début de la théorie des probabilités date de la correspondance entrePierre de Fermat etBlaise Pascal, en 1654.

C'est dans la seconde moitié duXVIIe siècle, à la suite des travaux de Blaise Pascal, Pierre de Fermat etChristian Huygens[b 1],[a 1] surle problème des partis, que le terme« probabilité » prend peu à peu son sens actuel, avec les développements du traitement mathématique du sujet parJakob Bernoulli.

AuXVIIIe siècle,Gabriel Cramer donne un cours sur lalogique probabiliste qui deviendra une base à l'articleprobabilité de l'encyclopédie de Diderot, écrite à la fin de ce même siècle[a 2]. Ce n'est alors qu'auXIXe siècle qu'apparaît ce qui peut être considéré comme la théorie moderne des probabilités en mathématiques.

Le calcul des probabilités prend un nouvel essor au début duXXe siècle, avec l'axiomatique de Kolmogorov; commence alors lathéorie des probabilités. Les probabilités deviennent une science et une théorie, comme branche des mathématiques[4].

Terminologies

[modifier |modifier le code]

Ainsi, il existe plusieurs notions que nous détaillerons dans les sections suivantes :

Voir l'article du wiktionnaire :probable ;

  • lesprobabilités d'un fait donnent le pourcentage de chance qu'un fait se produise, c'est-à-dire qu'elles donnent une ou plusieurs valeurs (ou pourcentages) de la possibilité qu'il se produise. Cette notion se rapproche de la notion mathématique deloi de probabilité (définition 1 du Larousse[a 4]). Plus formellement, c'est le rapport du nombre de cas favorables au nombre de cas possibles[a 3].

Voir l'article :probabilités (mathématiques élémentaires) ;

  • lesprobabilités ou lecalcul des probabilités ou lathéorie des probabilités sont la théorie mathématique qui étudie le caractère probable des événements (définition 1 du Larousse[a 4]).

Voir l'article :théorie des probabilités ;

  • ladoctrine des probabilités ouprobabilisme est une doctrine de théologie morale qui enseigne qu'on peut suivre une opinion, pourvu qu'elle soit probable[a 3].Voir l'article :probabilisme.

Probabilité et certitude

[modifier |modifier le code]

Le premier usage du motprobabilité apparaît en 1370 avec la traduction del'éthique à Nicomaque d'Aristote parOresme, et désigne alors « le caractère de ce qui est probable »[a 3]. Le concept de probable chez Aristote (ἔνδοξον /éndoxοn, en grec) est ainsi défini dans lesTopiques[5] :

« Sont probables les opinions qui sont reçues par tous les hommes, ou par la plupart d'entre eux, ou par les sages, et parmi ces derniers, soit par tous, soit par la plupart, soit enfin par les plus notables et les plus illustres. »

Ce qui rend une opinion probable chezAristote est son caractère généralement admis[a 5]; ce n'est qu'avec la traduction deCicéron desTopiques d'Aristote, qui traduit parprobabilis ou parverisimilis, que la notion de vraisemblance est associée à celle de « probabilité », ce qui aura un impact au cours duMoyen Âge puis de laRenaissance, avec les commentaires successifs de l'œuvre d'Aristote[a 6].

Une phrase, situation ou proposition est vraie ou fausse. Sa probabilité est la« connaissance évidente de la vérité ou de la fausseté d'une proposition »[a 2]. La notion d'incertitude est quant à elle le défaut de cette connaissance. Pour une proposition, il existe alors trois cas[a 2] :

  • la proposition est reconnue comme vraie avec certitude ;
  • la proposition est reconnue comme fausse avec certitude ;
  • elle est probable si on ne peut la reconnaître vraie ou fausse. Dans ce cas, il est possible de mesurer une certainevraisemblance par la connaissance du nombre de conditions requises pour être reconnue vraie.

Cette représentation développée par Cramer permet de faire apparaître une manière de mesurer la notion d'incertitude ou de probabilité. Il donne alors la définition suivante de la probabilité :

Définition (Gabriel Cramer)[a 2] — Puisque la certitude entière naît de l'assurance que l'on a de l'existence de toutes les conditions requises pour certaines vérités, et la probabilité de la connaissance qu'on a de l'existence de quelques-unes de ces conditions, on regarde la certitude comme un tout et la probabilité comme une partie. Le juste degré de probabilité d'une proposition sera donc exactement connu quand on pourra dire et prouver que cette probabilité monte à demi certitude ou au trois quarts de la certitude entière, ou seulement au tiers de la certitude, etc.

Probabilités d'un événement

[modifier |modifier le code]
Articles détaillés :probabilités (mathématiques élémentaires) etloi de probabilité.

Comme précisé précédemment, la notion de probabilité permet de quantifier le hasard. La formalisation du début duXXe siècle est aujourd'hui unanimement utilisée. (par exemple, voir l'ouvrage de Jacod et Protter[6] pour cette section)

La probabilité d'un certainévénementA, notéeP(A){\displaystyle \mathbb {P} (A)}, associe une valeur entre 0 et 1 que l'événement se réalise. LorsqueP(A)=1{\displaystyle \mathbb {P} (A)=1}, l'événement est ditpresque sûr (ou quasi certain), c'est-à-dire qu'il a « toutes les chances » de se réaliser. À l'inverse siP(A)=0{\displaystyle \mathbb {P} (A)=0},A est ditnégligeable (ou quasi impossible), c'est-à-dire qu'il a une chance nulle de se réaliser.

La probabilité d'un événementA peut s'obtenir de manière fréquentiste, notamment lorsqu'il est possible de faire une expérience plusieurs fois et de compter le nombre de succès de l'expérience. En effet, si on effectuen fois une expérience indépendamment et que dansnA fois des cas, l'événementA est réalisé, alors, la probabilité deA est donnée par :P(A)=limnnAn{\displaystyle \mathbb {P} (A)=\lim _{n\rightarrow \infty }{\frac {n_{A}}{n}}}.De manière plus probabiliste, lorsque le nombre de résultats possibles de l'expérience est fini et que ces résultats sont équiprobables, la probabilité deA est obtenue par :P(A)=nombre de cas ou` A se re´alisenombre de cas possibles{\displaystyle \mathbb {P} (A)={\frac {{\text{nombre de cas o}}\mathrm {\grave {u}} {\text{ }}A{\text{ se r}}\mathrm {\acute {e}} {\text{alise}}}{\text{nombre de cas possibles}}}}.

Mathématiquement, l'événementA est un sous-ensemble d'un ensembleΩ qui représente toutes les éventualités possibles. Pour obtenir une théorie, desaxiomes ont été proposés parKolmogorov : la probabilitéP{\displaystyle \mathbb {P} } doit vérifier :

  1. pour tout événementA,0P(A)1{\displaystyle 0\leq \mathbb {P} (A)\leq 1},
  2. P(Ω)=1{\displaystyle \mathbb {P} (\Omega )=1},
  3. P(AB)=P(A)+P(B){\displaystyle \mathbb {P} (A\cup B)=\mathbb {P} (A)+\mathbb {P} (B)} pourAB={\displaystyle A\cap B=\emptyset }.

Plus rigoureusement, l’ensemble Omega est muni d’une tribu, les événements sont les éléments de cette tribu, et la probabilité P est une application de Omega vers [0,1] vérifiant les propriétés précédentes, la propriété 3 étant demandée pour des unions dénombrables d’événements disjoints deux à deux.

Grâce à cette description, plusieurs notions peuvent s'écrire de manière mathématique.

Article détaillé :Indépendance (probabilités).

Deux événements sont ditsindépendants si le fait de connaître la probabilité du premier événement ne nous aide pas pour prévoir la probabilité du second et inversement. Mathématiquement, cela s'écrit :P(AB)=P(A)P(B){\displaystyle \mathbb {P} (A\cap B)=\mathbb {P} (A)\mathbb {P} (B)}. Par exemple, la probabilité d'obtenir un 1 à un premier jeté de dé (à 6 faces) et d'obtenir un 1 au deuxième jeté de dé est la multiplication des deux probabilités et vaut 1/36.

Article détaillé :Probabilité conditionnelle.

Il est possible de considérer la probabilité d'un événement (notons leA)conditionnellement à un autre (notéB). Lorsque les deux événements ne sont pas indépendants, le fait de connaître la probabilité de l'un influence la probabilité de l'autre par la formule :P(AB)=P(AB)/P(B){\displaystyle \mathbb {P} (A\mid B)=\mathbb {P} (A\cap B)/\mathbb {P} (B)}. Par exemple, la probabilité d'obtenir la somme des deux dés égale à 12 lorsque le premier dé a donné 6 vaut 1/6.

Articles détaillés :Formule de Poincaré,Formule des probabilités totales etThéorème de Bayes.

Des formules existent pour pouvoir calculer beaucoup de types de probabilités. C'est le cas par exemple de laformule de Poincaré, de laformule des probabilités totales ou duthéorème de Bayes.

Théorie des probabilités

[modifier |modifier le code]
Article détaillé :théorie des probabilités.

Encouragé par Pascal,Christian Huygens publieDe ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Ce livre est le premier ouvrage important sur les probabilités. Il y définit la notion d'espérance et y développe plusieurs problèmes de partages de gains lors de jeux ou de tirages dans des urnes[7]. Deux ouvrages fondateurs sont également à noter :Ars Conjectandi deJacques Bernoulli (posthume, 1713) qui définit la notion devariable aléatoire et donne la première version de laloi des grands nombres[8], etThéorie de la probabilité d'Abraham de Moivre (1718) qui généralise l'usage de lacombinatoire[9].

La théorie de la probabilité classique ne prend réellement son essor qu'avec les notions demesure et d'ensembles mesurables qu'Émile Borel introduit en 1897. Cette notion de mesure est complétée parHenri Léon Lebesgue et sa théorie de l'intégration[10]. La première version moderne duthéorème central limite est donnée parAlexandre Liapounov en 1901[11] et la première preuve du théorème moderne est donnée parPaul Lévy en 1910. En 1902,Andrei Markov introduit leschaînes de Markov[12] pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépendant les unes des autres. Ceschaînes de Markov connaîtront de nombreuses applications, entre autres pour modéliser ladiffusion ou pour l'indexation de sites internet par Google.

Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée parKolmogorov[13].

Kiyoshi Itô met en place une théorie et unlemme qui porte son nom dans les années 1940[14]. Ceux-ci permettent de relier lecalcul stochastique et leséquations aux dérivées partielles, faisant ainsi le lien entreanalyse et probabilités. Le mathématicienWolfgang Doeblin avait de son côté ébauché une théorie similaire avant de se suicider à la défaite de son bataillon en. Ses travaux furent envoyés à l'Académie des sciences dans un pli cacheté qui ne fut ouvert qu'en 2000[15].

Axiomatique

[modifier |modifier le code]
Articles détaillés :Axiomes des probabilités etEspace probabilisé.

Au début duXXe siècle, Kolmogorov définit des axiomes mathématiques afin de pouvoir étudier le hasard. Ainsi il construit l'espace des possibles, appeléunivers, qui contient tous les hasards possibles, il le munit d'un ensemble qui contient des sous-ensembles de l'univers, appelétribu et vérifiant certaines hypothèses, et d'unemesure de probabilité qui permet de calculer les probabilités correspondantes. L'espace(Ω,A,P){\displaystyle (\Omega ,{\mathcal {A}},\mathbb {P} )} ainsi construit vérifie les trois axiomes des probabilités[16] :

  1. (Positivité) la probabilité d'un événement est une valeur entre 0 et 1 : pour toutAA{\displaystyle A\in {\mathcal {A}}},0P(A)1{\displaystyle 0\leq \mathbb {P} (A)\leq 1} ;
  2. (Masse unitaire) la probabilité de l'univers est 1 :P(Ω)=1{\displaystyle \mathbb {P} (\Omega )=1} ;
  3. (Additivité) pour toute suitedénombrable d'événementsA1,A2,A{\displaystyle A_{1},A_{2},\dots \in {\mathcal {A}}} disjoints deux à deux, c'est-à-dire tels queAiAj={\displaystyle A_{i}\cap A_{j}=\emptyset } pour tousij{\displaystyle i\neq j}, alors :P(i1Ai)=i1P(Ai){\displaystyle \mathbb {P} \left(\bigcup _{i\geq 1}A_{i}\right)=\sum _{i\geq 1}\mathbb {P} (A_{i})}.

Variables aléatoires, lois et caractérisations

[modifier |modifier le code]
Article détaillé :Variable aléatoire.

Afin de pouvoir mieux manipuler le hasard, il est commode d'utiliser unevariable aléatoire. Elle peut êtreréelle, mais peut aussi êtremultidimensionnelle, ou même plus générale. Cette variable aléatoire réelle est, en théorie, une application (mesurable) :X:ΩR{\displaystyle X:\Omega \rightarrow \mathbb {R} }[17] qui à chaque aléaωΩ{\displaystyle \omega \in \Omega }, associe le résultat de l'expérience :X(ω){\displaystyle X(\omega )}.

Article détaillé :Loi de probabilité.

Cette variable possède une répartition de ses valeurs donnée par saloi de probabilité, qui est une mesure. Cette dernière peut être représentée de nombreuses manières, les plus communes étant par l'utilisation de lafonction de répartition, ladensité de probabilité (si elle existe) ou lafonction de masse, le cas échéant. De nombreuses propriétés des lois de probabilité, et donc des variables aléatoires, peuvent être étudiées :espérance,moments,indépendance entre plusieurs variables, etc.

Convergence et théorèmes limites

[modifier |modifier le code]
Article détaillé :Convergence de variables aléatoires.

Il est possible de considérer une infinité devariables aléatoires :(Xn,nN){\displaystyle (X_{n},n\in \mathbb {N} )}. Dans ce cas, y a-t-il une limite possible? La question de notion de convergence aléatoire se pose alors. Il existe plusieurs types de convergences[18] : laconvergence en loi qui est la convergence de la loi de la variable (en tant que mesure), laconvergence en probabilité, laconvergence presque sûre ou encore laconvergence en moyenne.

Articles détaillés :Loi des grands nombres etThéorème central limite.

De nombreux théorèmes limites existent alors. Les plus connus sont : laloi des grands nombres qui annonce que la moyenne desn premières variables aléatoires converge vers la moyenne théorique de la loi commune des variables aléatoires[19] ; lethéorème central limite, qui donne la bonnerenormalisation de la somme des variables aléatoires pour avoir une limite non triviale[20].

Calcul stochastique

[modifier |modifier le code]
Articles détaillés :calcul stochastique,Marche aléatoire,Chaîne de Markov,Processus stochastique,Processus de Markov etMartingale (calcul stochastique).

Lecalcul stochastique est l'étude des phénomènes qui évoluent au cours du temps de manière aléatoire[21]. Le temps peut être modélisé de manière discrète, c'est-à-dire par les valeurs entières :0,1,2,{\displaystyle 0,1,2,\dots }, dans ce cas le phénomène est représenté par une suite (infinie) de variables aléatoires :(Xn,n0){\displaystyle (X_{n},n\geq 0)}, c'est par exemple le cas d'unemarche aléatoire ou d’une chaîne de Markov. Le temps peut également être modélisé de manière continue, c'est-à-dire par des valeurs réellestR+{\displaystyle t\in \mathbb {R} _{+}} outR{\displaystyle t\in \mathbb {R} }, il s'agit alors d'unprocessus stochastique(Xt,t0){\displaystyle (X_{t},t\geq 0)}.

Plusieurs propriétés sont alors liées au calcul stochastique : lapropriété de Markov annonce que le mouvement futur du phénomène ne dépend que de l'état présent et non pas du mouvement passé ; larécurrence et la transience d'une chaîne de Markov assurent le retour ou le passage un nombre fini de fois en un état donné ; unemartingale est un processus tel que l'état futur est déterminé en moyenne par l'état présent, etc.

Doctrine des probabilités

[modifier |modifier le code]
Article détaillé :probabilisme.

La doctrine de la probabilité, autrement appeléeprobabilisme, est une théologie morale catholique qui s'est développée au cours duXVIe siècle, sous l'influence, entre autres, deBartolomé de Medina et desjésuites. Avec l'apparition de la doctrine de la probabilité, ce terme connaîtra un glissement sémantique pour finir par désigner, au milieu duXVIIe siècle, le caractère vraisemblable d'une idée.

La probabilité d'une opinion désigne alors, au milieu duXVIIe siècle, la probabilité qu'une opinion soit vraie. Ce n'est qu'à partir de la fin duXVIIe siècle, avec l'émergence de la probabilité mathématique, que la notion de probabilité ne concernera plus seulement les opinions et les idées, mais aussi les faits, et se rapprochera de la notion de hasard[b 2] que l'on connaît aujourd'hui.

Interprétations de la probabilité

[modifier |modifier le code]
Article détaillé :Interprétations de la probabilité.

Lors de l'étude d'un phénomène aléatoire, il existe plusieurs façons d'aborder la notion de probabilité liée à ce phénomène[a 7].

  • Laconception subjective de la probabilité d'un événement s'applique dans le cas où il est difficile, voire impossible, de connaître les différentes probabilités des résultats d'uneexpérience aléatoire. Notamment dans le cas où l'expérience ne peut se réaliser plusieurs fois dans les mêmes conditions. Les probabilités attribuées ne correspondent alors pas exactement à la réalité, et leurs estimations peuvent varier selon les personnes et les situations. On parle dans ce cas de probabilité épistémique ou deprobabilité bayésienne. Il s'agit d'une probabilité s'appliquant au jugement que l'on porte plus que sur l'événement lui-même[22],[23].

Par exemple : quelle est la probabilité de réussir à un examen ? Pour connaître les chances d'obtenir une note donnée à un examen, il faut l'estimer suivant le candidat et sa situation par rapport à l'examen. Il n'est pas possible de réaliser plusieurs fois l'expérience puisqu'un examen ne peut se passer plus d'une fois dans la même configuration. Les probabilités estimées et choisies pour chaque note vérifient les axiomes de Kolmogorov mais sont subjectives.

  • Laconception fréquentiste des probabilités d'un événement est plus historique. Elle permet d'attribuer les chances de réalisation de chaque événement par une méthode statistique, c'est-à-dire en réalisant plusieurs fois l'expérience et d'en déduire une estimation des probabilités liées aux événements. Idéalement il faudrait répéter l'expérience à l'infini pour obtenir les probabilités réelles de l'expérience, cependant, puisque ce n'est pas possible, les méthodes expérimentales donnent des probabilités empiriques. (voir la sectionLes probabilités d'un événement ci-dessus). Cette notion s'appelle égalementprobabilité statistique ouprobabilité a posteriori[a 3].Par exemple : un joueur possède un dé pipé dont il ne connaît pas le biais, c'est-à-dire que les valeurs du dé n'ont pas les mêmes chances d'apparaître. Une méthode possible est de réaliser un grand nombre de lancers et de compter les résultats obtenus. Les résultats sont alors approchés pour vérifier l'axiomatique de Kolmogorov.
  • Laconception classique de la probabilité s'utilise dans le cas de situations prédéfinies considérées comme connues. Beaucoup de situations sont considérées comme aléatoires et équiprobables, c'est-à-dire que chaque événement élémentaire à la même chance d'apparaître. Cette conception est également appeléeobjective,probabilité mathématique ouprobabilité a priori[a 3].Par exemple : un dé (non pipé) est supposé équilibré, c'est-à-dire que chaque valeur a une chance sur six d'apparaître. Lors d'une distribution de cartes, chaque donne est supposée apparaître avec les mêmes chances lorsque le jeu a été bien mélangé.

Une notion philosophique apparaît alors : puisque nous ne connaissons la nature et le monde autour de nous que par notre expérience et notre point de vue, nous ne le connaissons que de manière subjective et ne pouvons estimer précisément les lois objectives qui les dirigent.

Vulgarisation

[modifier |modifier le code]

LeGiec utilise pour les résumés pour décideurs de ses rapports unlangage naturel calibré[24].

« Les qualificatifs ci-après ont été utilisés pour indiquer la probabilité évaluée d’un résultat : quasiment certain (probabilité de 99 à 100 %), très probable (90 à 100 %), probable (66 à 100 %), à peu près aussi probable qu’improbable (33 à 66 %), improbable (0 à 33 %), très improbable (0 à 10 %), exceptionnellement improbable (0 à 1 %). La probabilité évaluée est indiquée en italique : par exemple très probable... D’autres qualificatifs peuvent également être utilisés le cas échéant : extrêmement probable (95 à 100 %), plus probable qu’improbable (> 50 à 100 %), plus improbable que probable (0 à < 50 %) et extrêmement improbable (0 à 5 %). Enfin, ce Rapport utilise également les expressions «  fourchette probable » et « fourchette très probable » qui signifient que la probabilité évaluée d’un résultat se situe dans la fourchette de 17 à 83 % ou de 5 à 95 %. »

Applications

[modifier |modifier le code]

Les jeux de hasard sont l'application la plus naturelle des probabilités mais de nombreux autres domaines s'appuient ou se servent des probabilités. Citons entre autres :


Liens avec la statistique

[modifier |modifier le code]
Article détaillé :Interconnexions entre la théorie des probabilités et la statistique.

Il existe plusieurs façons d'aborder les probabilités : le calcula priori et le calcula posteriori[25]. (voir la sectioninterprétation des probabilités ci-dessus). Le calcul desprobabilitésa posteriori correspond à une attribution des valeurs des probabilités inconnues grâce authéorème de Bayes.

Pour estimer les probabilités, lesestimateurs statistiques sont utilisés afin de mieux approcher la variable recherchée[26]. Un estimateur est une valeur calculée à partir d'un échantillon de la population totale étudiée. Un estimateur est bien choisi, c'est-à-dire qu'il donnera une bonne estimation des valeurs recherchées, si c'est un estimateur sans biais et convergent ; autrement dit lamoyenne empirique approche lamoyenne théorique et l'estimateurconverge vers la bonne variable aléatoire lorsque la taille de l'échantillon augmente. La méthode dumaximum de vraisemblance permet de choisir un bon estimateur.

Par ces méthodes, il est possible d’estimer les paramètres inconnus d'une loi de probabilité associée au phénomène étudié[27].

La révision bayésienne est une autre méthode pour le calcul desprobabilités a posteriori[a 8]. Celle-ci se fait grâce authéorème de Bayes :P(hypothese|preuve)=P(preuve|hypothese)×P(hypothese)P(preuve).{\displaystyle \mathbb {P} ({\textrm {hypothese}}|{\textrm {preuve}})={\frac {\mathbb {P} ({\textrm {preuve}}|{\textrm {hypothese}})\times \mathbb {P} ({\textrm {hypothese}})}{\mathbb {P} ({\textrm {preuve}})}}.}Dans cette formule, l'hypothèse représente ce que l'on supposea priori sur le phénomène aléatoire, lapreuve est une partie du phénomène que l'on connaît et que l'on peut mesurer. Le termeP(preuve|hypothese){\displaystyle \mathbb {P} ({\textrm {preuve}}|{\textrm {hypothese}})} est appelévraisemblance. AinsiP(hypothese|preuve){\displaystyle \mathbb {P} ({\textrm {hypothese}}|{\textrm {preuve}})} permet de mesurer laprobabilité a posteriori de l'hypothèse que l'on fixe en tenant compte de lapreuve.

Exemple 1

[modifier |modifier le code]

La fréquence empirique permet d'estimer les probabilités. Dans un échantillon den individus, il suffit de compter le nombre de fois où l'individu appartient à la catégorieA recherchée[28]. En notantnA{\displaystyle n_{A}} ce nombre parmi lesn tirages, la fréquencenAn{\displaystyle {\frac {n_{A}}{n}}} est proche de la probabilitéP(A){\displaystyle \mathbb {P} (A)} recherchée. Lors de 400 lancers de pièces, s'il apparaît 198 fois le côtéface, alors on en déduit que la probabilité d'obtenirface est approximativementP(obtenir face)198400=0,495{\displaystyle \mathbb {P} ({\text{obtenir face}})\simeq {\frac {198}{400}}=0,495}. C'est un cas particulier de laloi des grands nombres. 0,495 est la valeur estimée deP(obtenir face){\displaystyle \mathbb {P} ({\text{obtenir face}})}.

Exemple 2

[modifier |modifier le code]

Une liste de valeursx1,x2,,xn{\displaystyle x_{1},x_{2},\dots ,x_{n}} est connue, elle est supposée être le résultat d’expériences indépendantes deloi normale dont la moyennem est connue[27]. La question est de trouver l'écart typeσ de la loi normale. LastatistiqueT définie parT2=1ni=1n(xim)2{\displaystyle T^{2}={1 \over n}\sum _{i=1}^{n}(x_{i}-m)^{2}} est un estimateur deσ, c'est-à-dire qu'il tend versσ lorsquen tend vers l'infini.

Exemple 3

[modifier |modifier le code]

On se demande quel temps il fera demain, la météo permet d'obtenir des informations supplémentaires. Certaines données sont alors connues : dans cet exemple, la probabilité que la météo annonce un beau temps sachant qu'il fera effectivement beau :P(M|beau)=0,9{\displaystyle \mathbb {P} (M|{\text{beau}})=0,9}, la probabilité que la météo annonce un beau temps sachant qu'il pleuvra :P(M|pleut)=0,2{\displaystyle \mathbb {P} (M|{\text{pleut}})=0,2}.

Une hypothèse est choisie : par exempleP(beau)=1/2{\displaystyle \mathbb {P} ({\text{beau}})=1/2}, c'est-à-dire que l'on considère,a priori, qu'il y a une chance sur deux qu'il fera beau demain.

Il est alors possible de calculer la probabilité que la météo annonce un beau temps :P(M)=P(M|beau)P(beau)+P(M|pleut)P(pleut)=0,9×1/2+0,2×1/2=0,55.{\displaystyle \mathbb {P} (M)=\mathbb {P} (M|{\text{beau}})\mathbb {P} ({\text{beau}})+\mathbb {P} (M|{\text{pleut}})\mathbb {P} ({\text{pleut}})=0,9\times 1/2+0,2\times 1/2=0,55.}c'est-à-dire que la météo annonce un beau temps dans 55 % des cas. La probabilité qu'il fera beau demain sachant que la météo a annoncé beau temps est alors donnée par :P(beau|M)=P(M|beau)P(beau)P(M)=0,9×0,5/0,55.82%.{\displaystyle \mathbb {P} (\mathrm {beau} |M)={\frac {\mathbb {P} (M|{\textrm {beau}})\mathbb {P} ({\textrm {beau}})}{\mathbb {P} (M)}}=0,9\times 0,5/0,55.\approx 82\%.}

Il est alors possible de réviser une deuxième fois l'hypothèse qu'il fera beau en regardant un deuxième bulletin météo d'une source différente. On prendrait alors comme nouvelle hypothèse la probabilité d'avoir un beau temps nouvellement calculée.

Notes et références

[modifier |modifier le code]

Notes

[modifier |modifier le code]
  1. Ces trois auteurs n'ont jamais utilisé le terme« probabilité » dans le sens qu'il prend par la suite avec le« calcul des probabilités ».
  2. Pour désigner cette mathématique du probable, Pascal, en 1654, parle de« Géométrie du hasard ».

Références

[modifier |modifier le code]

Ouvrages

[modifier |modifier le code]
  1. SYLVAIN PIRON, « Le traitement de l’incertitude commerciale dans la scolastique médiévale », surJourn@l Électronique d'Histoire des Probabilités et de la Statistique,.
  2. (en) GIOVANNI CECCARELLI, « The Price for Risk-Taking: Marine Insurance and Probability Calculus in the Late Middle Age », surJourn@l Électronique d'Histoire des Probabilités et de la Statistique,.
  3. http://www.cict.fr/~stpierre/histoire/node1.html site sur l'histoire des probabilités
  4. Aslangul 2004,p. 1
  5. Tricot 1990,p. 16
  6. Jacod et Protter 2003,p. 7
  7. Les probabilités : Approche historique et définition.
  8. http://www.cict.fr/~stpierre/histoire/node3.html, une histoire de la probabilité jusqu'à Laplace
  9. Ian HackingL'émergence des probabilités
  10. http://www.cict.fr/~stpierre/histoire/node4.html histoire des probabilités de Borel à la seconde guerre mondiale
  11. Entre De Moivre et Laplace
  12. DicoMaths : Chaine de Markov« Copie archivée »(version du surInternet Archive)
  13. un article sur la mise en place de l'axiomatisation des probabilités.
  14. Biographie d'Itô sur le site de Mac Tutor
  15. Bernard Bru et Marc Yor (éd.), « Sur l'équation de Kolmogoroff, par W Doeblin »,C. R. Acad. Sci. Paris, Série I 331 (2000). Sur la vie de Doeblin, voir Bernard Bru, « La vie et l'œuvre de W. Doeblin (1915-1940) d'après les archives parisiennes »,Math. Inform. Sci. Humaines 119 (1992), 5-51 et, en anglais,Biographie de Doeblin sur le site de Mac Tutor
  16. Sinaï 1992,p. 6
  17. Le Gall 2006,p. 93
  18. Bertoin 2000,p. 34
  19. Le Gall 2006,p. 120
  20. Le Gall 2006,p. 138
  21. Revuz et Yor 2004,p. 15
  22. Thierry Martin,La probabilité, un concept pluriel,Pour la Science, n°385, novembre 2009, p.46-50
  23. Mikaël Cozic, Isabelle Drouet,Interpréter les probabilités, Pour la Science, n°385, novembre 2009, p.52-58
  24. « L’océan et la cryosphère dans le contexte du changement climatique »,(consulté le),p. 6
  25. Saporta 2006,p. 319
  26. Saporta 2006,p. 289
  27. a etbSaporta 2006,p. 292
  28. Saporta 2006,p. 278

Articles et autres sources

[modifier |modifier le code]
  1. NorbertMeusnier, « L'émergence d'une mathématique du probable auXVIIe siècle »,Revue d'histoire des mathématiques,vol. 2,‎,p. 119-147(zbMATH 0867.01008,lire en ligne).
  2. abcd eteThierryMartin, « La logique probabiliste de Gabriel Cramer »,Mathematics and social sciences,vol. 4,no 176,‎,p. 43-60(DOI 10.4000/msh.3647,lire en ligne)
  3. abcde etf« Définition de probabilité », surCNRTL
  4. ab etc« Définition : probabilité », surLarousse
  5. ArnaudMacé, « Aristote - Définir, décrire, classer chez Aristote : des opérations propédeutiques à la connaissance scientifique des choses »,Phulopsis,‎(lire en ligne)
  6. MartaSpranzi Zuber, « Rhétorique, dialectique et probabilité auXVIe siècle »,Revue de Synthèse,vol. 122,nos 2-4,‎,p. 297-317(DOI 10.1007/BF02969533,lire en ligne)
  7. David Stadelmann, « Les conceptions de la probabilité: Comparaison des différentes approches »,
  8. ChristianRobert, « L'analyse statistique bayésienne »,Courrier des statistiques,‎(lire en ligne)

Voir aussi

[modifier |modifier le code]

Sur les autres projets Wikimedia :

Bibliographie

[modifier |modifier le code]


Articles connexes

[modifier |modifier le code]

Liens externes

[modifier |modifier le code]
v ·m
Domaines desmathématiques
v ·m
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
v ·m
Domaines académiques
Concepts fondamentaux
Esprit critique etlogique informelle
Logique mathématique
Logiques non classiques
Métalogique etmétamathématique
Philosophie de la logique
Logiciens
Ce document provient de « https://fr.wikipedia.org/w/index.php?title=Probabilité&oldid=231448250 ».
Catégories :
Catégories cachées :

[8]ページ先頭

©2009-2026 Movatter.jp