Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles.
Le termeprobabilité possède plusieurs sens : venu historiquement du latinprobabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractèreprobable d'unévénement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ;récemment[C'est-à-dire ?], la probabilité est devenue une science mathématique et est appeléethéorie des probabilités ou plus simplementprobabilités.
À l'origine, dans les traductions d'Aristote, le mot« probabilité » ne désigne pas une quantification du caractère aléatoire d'un fait, mais la perception qu'une idée est communément admise par tous. Ce n'est qu'au cours duMoyen Âge, puis de laRenaissance, autour des commentaires successifs et des imprécisions de traduction de l'œuvre d'Aristote, que ce terme connaîtra un glissement sémantique pour finir par désigner la vraisemblance d'une idée.
lesprobabilités d'un fait donnent le pourcentage de chance qu'un fait se produise, c'est-à-dire qu'elles donnent une ou plusieurs valeurs (ou pourcentages) de la possibilité qu'il se produise. Cette notion se rapproche de la notion mathématique deloi de probabilité (définition 1 du Larousse[a 4]). Plus formellement, c'est le rapport du nombre de cas favorables au nombre de cas possibles[a 3].
lesprobabilités ou lecalcul des probabilités ou lathéorie des probabilités sont la théorie mathématique qui étudie le caractère probable des événements (définition 1 du Larousse[a 4]).
ladoctrine des probabilités ouprobabilisme est une doctrine de théologie morale qui enseigne qu'on peut suivre une opinion, pourvu qu'elle soit probable[a 3].Voir l'article :probabilisme.
Le premier usage du motprobabilité apparaît en 1370 avec la traduction del'éthique à Nicomaque d'Aristote parOresme, et désigne alors « le caractère de ce qui est probable »[a 3]. Le concept de probable chez Aristote (ἔνδοξον /éndoxοn, en grec) est ainsi défini dans lesTopiques[5] :
« Sont probables les opinions qui sont reçues par tous les hommes, ou par la plupart d'entre eux, ou par les sages, et parmi ces derniers, soit par tous, soit par la plupart, soit enfin par les plus notables et les plus illustres. »
Ce qui rend une opinion probable chezAristote est son caractère généralement admis[a 5]; ce n'est qu'avec la traduction deCicéron desTopiques d'Aristote, qui traduit parprobabilis ou parverisimilis, que la notion de vraisemblance est associée à celle de « probabilité », ce qui aura un impact au cours duMoyen Âge puis de laRenaissance, avec les commentaires successifs de l'œuvre d'Aristote[a 6].
Une phrase, situation ou proposition est vraie ou fausse. Sa probabilité est la« connaissance évidente de la vérité ou de la fausseté d'une proposition »[a 2]. La notion d'incertitude est quant à elle le défaut de cette connaissance. Pour une proposition, il existe alors trois cas[a 2] :
la proposition est reconnue comme vraie avec certitude ;
la proposition est reconnue comme fausse avec certitude ;
elle est probable si on ne peut la reconnaître vraie ou fausse. Dans ce cas, il est possible de mesurer une certainevraisemblance par la connaissance du nombre de conditions requises pour être reconnue vraie.
Cette représentation développée par Cramer permet de faire apparaître une manière de mesurer la notion d'incertitude ou de probabilité. Il donne alors la définition suivante de la probabilité :
Définition (Gabriel Cramer)[a 2] — Puisque la certitude entière naît de l'assurance que l'on a de l'existence de toutes les conditions requises pour certaines vérités, et la probabilité de la connaissance qu'on a de l'existence de quelques-unes de ces conditions, on regarde la certitude comme un tout et la probabilité comme une partie. Le juste degré de probabilité d'une proposition sera donc exactement connu quand on pourra dire et prouver que cette probabilité monte à demi certitude ou au trois quarts de la certitude entière, ou seulement au tiers de la certitude, etc.
La probabilité d'un certainévénementA, notée, associe une valeur entre 0 et 1 que l'événement se réalise. Lorsque, l'événement est ditpresque sûr (ou quasi certain), c'est-à-dire qu'il a « toutes les chances » de se réaliser. À l'inverse si,A est ditnégligeable (ou quasi impossible), c'est-à-dire qu'il a une chance nulle de se réaliser.
La probabilité d'un événementA peut s'obtenir de manière fréquentiste, notamment lorsqu'il est possible de faire une expérience plusieurs fois et de compter le nombre de succès de l'expérience. En effet, si on effectuen fois une expérience indépendamment et que dansnA fois des cas, l'événementA est réalisé, alors, la probabilité deA est donnée par :.De manière plus probabiliste, lorsque le nombre de résultats possibles de l'expérience est fini et que ces résultats sont équiprobables, la probabilité deA est obtenue par :.
Mathématiquement, l'événementA est un sous-ensemble d'un ensembleΩ qui représente toutes les éventualités possibles. Pour obtenir une théorie, desaxiomes ont été proposés parKolmogorov : la probabilité doit vérifier :
pour tout événementA,,
,
pour.
Plus rigoureusement, l’ensemble Omega est muni d’une tribu, les événements sont les éléments de cette tribu, et la probabilité P est une application de Omega vers [0,1] vérifiant les propriétés précédentes, la propriété 3 étant demandée pour des unions dénombrables d’événements disjoints deux à deux.
Grâce à cette description, plusieurs notions peuvent s'écrire de manière mathématique.
Deux événements sont ditsindépendants si le fait de connaître la probabilité du premier événement ne nous aide pas pour prévoir la probabilité du second et inversement. Mathématiquement, cela s'écrit :. Par exemple, la probabilité d'obtenir un 1 à un premier jeté de dé (à 6 faces) et d'obtenir un 1 au deuxième jeté de dé est la multiplication des deux probabilités et vaut 1/36.
Il est possible de considérer la probabilité d'un événement (notons leA)conditionnellement à un autre (notéB). Lorsque les deux événements ne sont pas indépendants, le fait de connaître la probabilité de l'un influence la probabilité de l'autre par la formule :. Par exemple, la probabilité d'obtenir la somme des deux dés égale à 12 lorsque le premier dé a donné 6 vaut 1/6.
Des formules existent pour pouvoir calculer beaucoup de types de probabilités. C'est le cas par exemple de laformule de Poincaré, de laformule des probabilités totales ou duthéorème de Bayes.
Encouragé par Pascal,Christian Huygens publieDe ratiociniis in ludo aleae (raisonnements sur les jeux de dés) en 1657. Ce livre est le premier ouvrage important sur les probabilités. Il y définit la notion d'espérance et y développe plusieurs problèmes de partages de gains lors de jeux ou de tirages dans des urnes[7]. Deux ouvrages fondateurs sont également à noter :Ars Conjectandi deJacques Bernoulli (posthume, 1713) qui définit la notion devariable aléatoire et donne la première version de laloi des grands nombres[8], etThéorie de la probabilité d'Abraham de Moivre (1718) qui généralise l'usage de lacombinatoire[9].
La théorie de la probabilité classique ne prend réellement son essor qu'avec les notions demesure et d'ensembles mesurables qu'Émile Borel introduit en 1897. Cette notion de mesure est complétée parHenri Léon Lebesgue et sa théorie de l'intégration[10]. La première version moderne duthéorème central limite est donnée parAlexandre Liapounov en 1901[11] et la première preuve du théorème moderne est donnée parPaul Lévy en 1910. En 1902,Andrei Markov introduit leschaînes de Markov[12] pour entreprendre une généralisation de la loi des grands nombres pour une suite d'expériences dépendant les unes des autres. Ceschaînes de Markov connaîtront de nombreuses applications, entre autres pour modéliser ladiffusion ou pour l'indexation de sites internet par Google.
Il faudra attendre 1933 pour que la théorie des probabilités sorte d'un ensemble de méthodes et d'exemples divers et devienne une véritable théorie, axiomatisée parKolmogorov[13].
Kiyoshi Itô met en place une théorie et unlemme qui porte son nom dans les années 1940[14]. Ceux-ci permettent de relier lecalcul stochastique et leséquations aux dérivées partielles, faisant ainsi le lien entreanalyse et probabilités. Le mathématicienWolfgang Doeblin avait de son côté ébauché une théorie similaire avant de se suicider à la défaite de son bataillon en. Ses travaux furent envoyés à l'Académie des sciences dans un pli cacheté qui ne fut ouvert qu'en 2000[15].
Afin de pouvoir mieux manipuler le hasard, il est commode d'utiliser unevariable aléatoire. Elle peut êtreréelle, mais peut aussi êtremultidimensionnelle, ou même plus générale. Cette variable aléatoire réelle est, en théorie, une application (mesurable) :[17] qui à chaque aléa, associe le résultat de l'expérience :.
Cette variable possède une répartition de ses valeurs donnée par saloi de probabilité, qui est une mesure. Cette dernière peut être représentée de nombreuses manières, les plus communes étant par l'utilisation de lafonction de répartition, ladensité de probabilité (si elle existe) ou lafonction de masse, le cas échéant. De nombreuses propriétés des lois de probabilité, et donc des variables aléatoires, peuvent être étudiées :espérance,moments,indépendance entre plusieurs variables, etc.
Il est possible de considérer une infinité devariables aléatoires :. Dans ce cas, y a-t-il une limite possible? La question de notion de convergence aléatoire se pose alors. Il existe plusieurs types de convergences[18] : laconvergence en loi qui est la convergence de la loi de la variable (en tant que mesure), laconvergence en probabilité, laconvergence presque sûre ou encore laconvergence en moyenne.
De nombreux théorèmes limites existent alors. Les plus connus sont : laloi des grands nombres qui annonce que la moyenne desn premières variables aléatoires converge vers la moyenne théorique de la loi commune des variables aléatoires[19] ; lethéorème central limite, qui donne la bonnerenormalisation de la somme des variables aléatoires pour avoir une limite non triviale[20].
Lecalcul stochastique est l'étude des phénomènes qui évoluent au cours du temps de manière aléatoire[21]. Le temps peut être modélisé de manière discrète, c'est-à-dire par les valeurs entières :, dans ce cas le phénomène est représenté par une suite (infinie) de variables aléatoires :, c'est par exemple le cas d'unemarche aléatoire ou d’une chaîne de Markov. Le temps peut également être modélisé de manière continue, c'est-à-dire par des valeurs réelles ou, il s'agit alors d'unprocessus stochastique.
Plusieurs propriétés sont alors liées au calcul stochastique : lapropriété de Markov annonce que le mouvement futur du phénomène ne dépend que de l'état présent et non pas du mouvement passé ; larécurrence et la transience d'une chaîne de Markov assurent le retour ou le passage un nombre fini de fois en un état donné ; unemartingale est un processus tel que l'état futur est déterminé en moyenne par l'état présent, etc.
Lors de l'étude d'un phénomène aléatoire, il existe plusieurs façons d'aborder la notion de probabilité liée à ce phénomène[a 7].
Laconception subjective de la probabilité d'un événement s'applique dans le cas où il est difficile, voire impossible, de connaître les différentes probabilités des résultats d'uneexpérience aléatoire. Notamment dans le cas où l'expérience ne peut se réaliser plusieurs fois dans les mêmes conditions. Les probabilités attribuées ne correspondent alors pas exactement à la réalité, et leurs estimations peuvent varier selon les personnes et les situations. On parle dans ce cas de probabilité épistémique ou deprobabilité bayésienne. Il s'agit d'une probabilité s'appliquant au jugement que l'on porte plus que sur l'événement lui-même[22],[23].
Par exemple : quelle est la probabilité de réussir à un examen ? Pour connaître les chances d'obtenir une note donnée à un examen, il faut l'estimer suivant le candidat et sa situation par rapport à l'examen. Il n'est pas possible de réaliser plusieurs fois l'expérience puisqu'un examen ne peut se passer plus d'une fois dans la même configuration. Les probabilités estimées et choisies pour chaque note vérifient les axiomes de Kolmogorov mais sont subjectives.
Laconception fréquentiste des probabilités d'un événement est plus historique. Elle permet d'attribuer les chances de réalisation de chaque événement par une méthode statistique, c'est-à-dire en réalisant plusieurs fois l'expérience et d'en déduire une estimation des probabilités liées aux événements. Idéalement il faudrait répéter l'expérience à l'infini pour obtenir les probabilités réelles de l'expérience, cependant, puisque ce n'est pas possible, les méthodes expérimentales donnent des probabilités empiriques. (voir la sectionLes probabilités d'un événement ci-dessus). Cette notion s'appelle égalementprobabilité statistique ouprobabilité a posteriori[a 3].Par exemple : un joueur possède un dé pipé dont il ne connaît pas le biais, c'est-à-dire que les valeurs du dé n'ont pas les mêmes chances d'apparaître. Une méthode possible est de réaliser un grand nombre de lancers et de compter les résultats obtenus. Les résultats sont alors approchés pour vérifier l'axiomatique de Kolmogorov.
Laconception classique de la probabilité s'utilise dans le cas de situations prédéfinies considérées comme connues. Beaucoup de situations sont considérées comme aléatoires et équiprobables, c'est-à-dire que chaque événement élémentaire à la même chance d'apparaître. Cette conception est également appeléeobjective,probabilité mathématique ouprobabilité a priori[a 3].Par exemple : un dé (non pipé) est supposé équilibré, c'est-à-dire que chaque valeur a une chance sur six d'apparaître. Lors d'une distribution de cartes, chaque donne est supposée apparaître avec les mêmes chances lorsque le jeu a été bien mélangé.
Une notion philosophique apparaît alors : puisque nous ne connaissons la nature et le monde autour de nous que par notre expérience et notre point de vue, nous ne le connaissons que de manière subjective et ne pouvons estimer précisément les lois objectives qui les dirigent.
LeGiec utilise pour les résumés pour décideurs de ses rapports unlangage naturel calibré[24].
« Les qualificatifs ci-après ont été utilisés pour indiquer la probabilité évaluée d’un résultat : quasiment certain (probabilité de 99 à 100 %), très probable (90 à 100 %), probable (66 à 100 %), à peu près aussi probable qu’improbable (33 à 66 %), improbable (0 à 33 %), très improbable (0 à 10 %), exceptionnellement improbable (0 à 1 %). La probabilité évaluée est indiquée en italique : par exemple très probable... D’autres qualificatifs peuvent également être utilisés le cas échéant : extrêmement probable (95 à 100 %), plus probable qu’improbable (> 50 à 100 %), plus improbable que probable (0 à < 50 %) et extrêmement improbable (0 à 5 %). Enfin, ce Rapport utilise également les expressions « fourchette probable » et « fourchette très probable » qui signifient que la probabilité évaluée d’un résultat se situe dans la fourchette de 17 à 83 % ou de 5 à 95 %. »
Les jeux de hasard sont l'application la plus naturelle des probabilités mais de nombreux autres domaines s'appuient ou se servent des probabilités. Citons entre autres :
lastatistique est un vaste domaine qui s'appuie sur les probabilités pour le traitement et l'interprétation des données ;
Lathéorie des jeux s'appuie fortement sur la probabilité et est utile en économie et plus précisément enmicro-économie ;
lesétudes probabilistes de sûreté où l'on évalue la probabilité d'occurrence d'un événement indésirable. C'est devenu un outil d'évaluation des risques dans bon nombre d'installations industrielles.
les assurances.
La modélisation de l’évolution de populations et la modélisation de propagation d’épidémies
Pour estimer les probabilités, lesestimateurs statistiques sont utilisés afin de mieux approcher la variable recherchée[26]. Un estimateur est une valeur calculée à partir d'un échantillon de la population totale étudiée. Un estimateur est bien choisi, c'est-à-dire qu'il donnera une bonne estimation des valeurs recherchées, si c'est un estimateur sans biais et convergent ; autrement dit lamoyenne empirique approche lamoyenne théorique et l'estimateurconverge vers la bonne variable aléatoire lorsque la taille de l'échantillon augmente. La méthode dumaximum de vraisemblance permet de choisir un bon estimateur.
Par ces méthodes, il est possible d’estimer les paramètres inconnus d'une loi de probabilité associée au phénomène étudié[27].
La révision bayésienne est une autre méthode pour le calcul desprobabilités a posteriori[a 8]. Celle-ci se fait grâce authéorème de Bayes :Dans cette formule, l'hypothèse représente ce que l'on supposea priori sur le phénomène aléatoire, lapreuve est une partie du phénomène que l'on connaît et que l'on peut mesurer. Le terme est appelévraisemblance. Ainsi permet de mesurer laprobabilité a posteriori de l'hypothèse que l'on fixe en tenant compte de lapreuve.
La fréquence empirique permet d'estimer les probabilités. Dans un échantillon den individus, il suffit de compter le nombre de fois où l'individu appartient à la catégorieA recherchée[28]. En notant ce nombre parmi lesn tirages, la fréquence est proche de la probabilité recherchée. Lors de 400 lancers de pièces, s'il apparaît 198 fois le côtéface, alors on en déduit que la probabilité d'obtenirface est approximativement. C'est un cas particulier de laloi des grands nombres. 0,495 est la valeur estimée de.
Une liste de valeurs est connue, elle est supposée être le résultat d’expériences indépendantes deloi normale dont la moyennem est connue[27]. La question est de trouver l'écart typeσ de la loi normale. LastatistiqueT définie par est un estimateur deσ, c'est-à-dire qu'il tend versσ lorsquen tend vers l'infini.
On se demande quel temps il fera demain, la météo permet d'obtenir des informations supplémentaires. Certaines données sont alors connues : dans cet exemple, la probabilité que la météo annonce un beau temps sachant qu'il fera effectivement beau :, la probabilité que la météo annonce un beau temps sachant qu'il pleuvra :.
Une hypothèse est choisie : par exemple, c'est-à-dire que l'on considère,a priori, qu'il y a une chance sur deux qu'il fera beau demain.
Il est alors possible de calculer la probabilité que la météo annonce un beau temps :c'est-à-dire que la météo annonce un beau temps dans 55 % des cas. La probabilité qu'il fera beau demain sachant que la météo a annoncé beau temps est alors donnée par :
Il est alors possible de réviser une deuxième fois l'hypothèse qu'il fera beau en regardant un deuxième bulletin météo d'une source différente. On prendrait alors comme nouvelle hypothèse la probabilité d'avoir un beau temps nouvellement calculée.
↑Bernard Bru et Marc Yor (éd.), « Sur l'équation de Kolmogoroff, par W Doeblin »,C. R. Acad. Sci. Paris, Série I 331 (2000). Sur la vie de Doeblin, voir Bernard Bru, « La vie et l'œuvre de W. Doeblin (1915-1940) d'après les archives parisiennes »,Math. Inform. Sci. Humaines 119 (1992), 5-51 et, en anglais,Biographie de Doeblin sur le site de Mac Tutor
↑ArnaudMacé, « Aristote - Définir, décrire, classer chez Aristote : des opérations propédeutiques à la connaissance scientifique des choses »,Phulopsis,(lire en ligne)