Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

Probabilità

Da Wikipedia, l'enciclopedia libera.
Alcunidadi a sei facce, spesso utilizzati per spiegare il calcolo delle probabilità.

Il concetto diprobabilità, utilizzato a partire dalXVII secolo, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca dellastatistica (lastatistica inferenziale), cui fanno ricorso numerose scienze sianaturali chesociali.

Storia

[modifica |modifica wikitesto]
Blaise Pascal
Pierre de Fermat

I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà delXVI secolo inLiber de ludo aleæ diCardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e inSulla scoperta dei dadi diGalilei (pubblicato nel 1656). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante entrambi i risultati si ottengano da un uguale numero di combinazioni.[1] Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto venne affrontato daPacioli nellaSumma de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente daTartaglia, per poi essere risolto daPascal eFermat.

La nascita del concetto moderno di probabilità viene attribuita a Pascal e Fermat. IlCavalier de Méré (un accanito giocatore) aveva calcolato che ottenere almeno un 6 in 4 lanci di undado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.

Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657Huygens scrisse unLibellus de ratiociniis in ludo aleæ,[3], il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto divalore atteso. I suoi lavori influenzarono tra l'altroMontmort, che scrisse nel 1708 unEssai d'analyse sur le jeux de hasard, ma ancheJakob Bernoulli ede Moivre.

Nel 1713 viene pubblicato postumoArs conjectandi diJakob Bernoulli, dove veniva dimostrato ilteorema che porta il suo nome, noto anche comelegge dei grandi numeri. Successivamente, de Moivre pervenne a una prima formulazione, poi generalizzata daLaplace, delteorema centrale del limite. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali delXX secolo, tuttavia, primade Finetti e poiSavage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento.

Nello stesso periodo,Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi allateoria della misura. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni.

Definizioni

[modifica |modifica wikitesto]

In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, dettievento certo (ad esempio: lanciando un dado a sei facce si ottiene un numero compreso tra 1 e 6) edevento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocanoeventi più o meno probabili (aleatori).

Si usa il linguaggio dellateoria degli insiemi: un insieme non vuotoΩ{\displaystyle \Omega } (dettospazio delle alternative) ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento diΩ{\displaystyle \Omega }) viene dettoevento elementare; altri eventi sonosottoinsiemi diΩ{\displaystyle \Omega } costituiti da più risultati.[4]

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventiA{\displaystyle A} eB{\displaystyle B}, si indica conAB{\displaystyle A\cup B} la loro unione, ovvero l'evento costituito dal verificarsi dell'eventoA{\displaystyle A} oppure dell'eventoB{\displaystyle B}. Si indica conAB{\displaystyle A\cap B} la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'eventoA{\displaystyle A} che dell'eventoB{\displaystyle B}.[5] SeAB={\displaystyle A\cap B=\varnothing } i due eventiA{\displaystyle A} eB{\displaystyle B} vengono dettiincompatibili (non possono verificarsi simultaneamente). Ilcomplemento di un eventoA{\displaystyle A} rispetto aΩ{\displaystyle \Omega },ΩA{\displaystyle \Omega \setminus A}, è dettonegazione diA{\displaystyle A} e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Definizione classica

[modifica |modifica wikitesto]

Secondo la prima definizione di probabilità, per questo detta «classica», la probabilità di unevento è il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili.[6]

Indicando conΩ{\displaystyle \Omega } l'insieme di casi possibili e con|Ω|{\displaystyle |\Omega |} la suacardinalità, conA{\displaystyle A} un evento e con|A|{\displaystyle |A|} la sua cardinalità, ovvero il numero dei casi favorevoli adA{\displaystyle A} (ad esempio, nel lancio di un dadoΩ={1,2,3,4,5,6}{\displaystyle \Omega =\{1,2,3,4,5,6\}},|Ω|=6{\displaystyle |\Omega |=6},A={\displaystyle A=}"esce unnumero pari",|A|=3{\displaystyle |A|=3}), la probabilità diA{\displaystyle A}, indicata conP(A){\displaystyle P(A)}, è pari a:

P(A)=|A||Ω|=36=12.{\displaystyle P(A)={\frac {|A|}{|\Omega |}}={\frac {3}{6}}={\frac {1}{2}}.}

Dalla definizione seguono tre regole:

  1. la probabilità di un evento aleatorio è un numero compreso tra0{\displaystyle 0} e1{\displaystyle 1};
  2. la probabilità dell'evento certo è pari a1{\displaystyle 1}, la probabilità dell'evento impossibile è pari a0{\displaystyle 0}: ad es. seA={\displaystyle A=}"esce un numero compreso tra 1 e 6",|A|=6{\displaystyle |A|=6} e|A||Ω|=1{\displaystyle {\frac {|A|}{|\Omega |}}=1}, se inveceA={\displaystyle A=}"esce un numero maggiore di 6",|A|=0{\displaystyle |A|=0} e|A||Ω|=0{\displaystyle {\frac {|A|}{|\Omega |}}=0}.
  3. la probabilità del verificarsi di uno di dueeventi incompatibili, ossia di due eventi che non possono verificarsi simultaneamente, è uguale alla somma delle probabilità dei due eventi; ad esempio seA={\displaystyle A=}"esce un numero pari", conP(A)=12{\displaystyle P(A)={\frac {1}{2}}}, eB={\displaystyle B=}"esce il numero 3", conP(B)=16{\displaystyle P(B)={\frac {1}{6}}}, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è:
P(AB)=|AB||Ω|=|A|+|B||Ω|=|A||Ω|+|B||Ω|=12+16=23{\displaystyle P(A\cup B)={\frac {|A\cup B|}{|\Omega |}}={\frac {|A|+|B|}{|\Omega |}}={\frac {|A|}{|\Omega |}}+{\frac {|B|}{|\Omega |}}={\frac {1}{2}}+{\frac {1}{6}}={\frac {2}{3}}}.

Frequenza dell'evento

[modifica |modifica wikitesto]

Come elemento propedeutico alla successiva definizione frequentista Introduciamo, appunto, il concetto di frequenza. Nell'esempio del lancio del dado con eventoA={\displaystyle A=}"numero pari", indichiamo come successi (SA{\displaystyle S_{A}}) il numero di volte che otteniamo un numero pari ed (S{\displaystyle S}) il totale dei lanci effettuati, la frequenza è uguale aF(A)=SAS{\displaystyle F(A)={\frac {S_{A}}{S}}}. Il rapporto indica la frequenzaF{\displaystyle F} dell'evento favorevole "uscita numero pari". Inoltre per lalegge dei grandi numeri con un numero elevatissimo di lanci il valore diF(A){\displaystyle F(A)} tende a quello diP(A){\displaystyle P(A)} che è interpretata, dalla definizione frequentista della probabilità descritta di seguito, come limite a cui tendeF(A){\displaystyle F(A)}.

Definizione frequentista

[modifica |modifica wikitesto]

La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti:

  • dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima probabilità, che è però ciò che si vuole definire;
  • non definisce la probabilità in caso di eventi non equiprobabili;
  • presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nelcontinuo.

Per superare tali difficoltà,von Mises propose di definire la probabilità di un evento comeillimite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:

P(A)=limnnAn.{\displaystyle P(A)=\lim _{n\rightarrow \infty }{\frac {n_{A}}{n}}.}

La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni.

Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevolinA{\displaystyle n_{A}} e numero dei casi possibilin{\displaystyle n} con il limite del rapporto pern{\displaystyle n} tendente all'infinito.

Tuttavia:

Definizione soggettiva

[modifica |modifica wikitesto]
Bruno de Finetti

De Finetti eSavage[7] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse condizioni:la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica.

Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza:le probabilità degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa.

In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.

  1. P(A)[0;1]{\displaystyle P(A)\in [0;1]}: infatti se fosseP(A)<0{\displaystyle P(A)<0} si avrebbe un guadagno certo, viceversa se fosseP(A)>1{\displaystyle P(A)>1} si avrebbe una perdita certa;
  2. P(Ω)=1{\displaystyle P(\Omega )=1}: se l'evento è certo, si riceverà sicuramente 1, ma se fosseP(Ω)<1{\displaystyle P(\Omega )<1} si avrebbe un guadagno certo, pari a1P(Ω)>0{\displaystyle 1-P(\Omega )>0}, se invece fosseP(Ω)>1{\displaystyle P(\Omega )>1} si avrebbe una perdita certa;
  3. seAB=,P(AB)=P(A)+P(B){\displaystyle A\cap B=\varnothing ,P(A\cup B)=P(A)+P(B)}. Si osserva preliminarmente che sen eventiA1,,An{\displaystyle A_{1},\dots ,A_{n}} sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), allora si hai=1nP(Ai)=1{\displaystyle \sum _{i=1}^{n}P(A_{i})=1}: infatti si pagaP(Ai){\displaystyle P(A_{i})} per ciascun eventoAi{\displaystyle A_{i}}, quindi se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibiliA{\displaystyle A} eB{\displaystyle B} e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha:
    P(A)+P(B)+P(AB¯)=1.{\displaystyle P(A)+P(B)+P({\overline {A\cup B}})=1.}
    Sono però incompatibili anche l'unione diA{\displaystyle A} eB{\displaystyle B} ed il suo complemento:
    P(AB)+P(AB¯)=1.{\displaystyle P(A\cup B)+P({\overline {A\cup B}})=1.}
    Dalle due uguaglianze segue:
    seAB={\displaystyle A\cap B=\varnothing }, alloraP(AB)=P(A)+P(B).{\displaystyle P(A\cup B)=P(A)+P(B).}

La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. Basta pensare che molti sarebbero disposti a giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.

Definizione assiomatica

[modifica |modifica wikitesto]
Andrey Kolmogorov

L'impostazione assiomatica della probabilità venne proposta daAndrey Nikolaevich Kolmogorov nel 1933 inGrundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa.

Va notato che la definizione assiomatica non è unadefinizione operativa e non fornisce indicazioni sucome calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista.

Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare ipostulati da cui poi si passava a definire iteoremi.

L'impostazione assiomatica muove dal concetto diσ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuotoΩ{\displaystyle \Omega }, dettospazio campionario, e ciascun evento è un sottoinsieme diΩ{\displaystyle \Omega }. La probabilità viene vista, in prima approssimazione, come unamisura, cioè come una funzione che associa a ciascun sottoinsieme diΩ{\displaystyle \Omega } un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a1{\displaystyle 1}.

SeΩ{\displaystyle \Omega } hacardinalità finitan{\displaystyle n} o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, dettoinsieme delle parti, ha, rispettivamente, cardinalità2n{\displaystyle 2^{n}} o lacardinalità del continuo. Tuttavia, seΩ{\displaystyle \Omega } ha la cardinalità del continuo, il suo insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi diΩ{\displaystyle \Omega } che costituiscono una classe additivaA{\displaystyle {\mathcal {A}}}, ovvero un insieme non vuotoA{\displaystyle {\mathcal {A}}} tale che

AAA¯A;{\displaystyle A\in {\mathcal {A}}\Rightarrow {\overline {A}}\in {\mathcal {A}};}
iN,AiAiNAiA.{\displaystyle \forall i\in \mathbb {N} ,A_{i}\in {\mathcal {A}}\Rightarrow \bigcup _{i\in \mathbb {N} }A_{i}\in {\mathcal {A}}.}

Una classe additiva è quindi un sottoinsieme dell'insieme delle parti diΩ{\displaystyle \Omega } che risultachiuso rispetto alle operazioni di complemento e di unione numerabile.

Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per leleggi di De Morgan si ha:

iN,AiAiNAi=iNAi¯¯A,{\displaystyle \forall i\in \mathbb {N} ,A_{i}\in {\mathcal {A}}\Rightarrow \bigcap _{i\in \mathbb {N} }A_{i}={\overline {\bigcup _{i\in \mathbb {N} }{\overline {A_{i}}}}}\in {\mathcal {A}},}

dove il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di un'unione numerabile dei complementi di insiemi che vi appartengono.

Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti):

  1. Glieventi sonosottoinsiemi di uno spazioΩ{\displaystyle \Omega } e formano unaclasse additivaA{\displaystyle {\mathcal {A}}}.
  2. Ad ogni eventoAA{\displaystyle A\in {\mathcal {A}}} è assegnato unnumero reale non negativoP(A){\displaystyle P(A)}, dettoprobabilità diA{\displaystyle A}.
  3. P(Ω)=1{\displaystyle P(\Omega )=1}, ossia la probabilità dell'evento certo è uguale a1{\displaystyle 1}.
  4. Se l'intersezione tra due eventiA{\displaystyle A} eB{\displaystyle B} è vuota, alloraP(AB)=P(A)+P(B){\displaystyle P(A\cup B)=P(A)+P(B)}.
  5. SeAn{\displaystyle A_{n}} è unasuccessione decrescente di eventi e al tendere din all'infinito l'intersezione degliAn{\displaystyle A_{n}} tende all'insieme vuoto, alloraP(An){\displaystyle P(A_{n})} tende a zero:[8]
AnlimnP(An)=0.{\displaystyle A_{n}\downarrow \varnothing \Rightarrow \lim _{n\rightarrow \infty }P(A_{n})=0.}

La funzioneP(A){\displaystyle P(A)} viene dettafunzione di probabilità, o anchedistribuzione di probabilità. La terna (Ω,A,P){\displaystyle \ (\Omega ,{\mathcal {A}},P)} viene dettaspazio di probabilità.

Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità:

P(A)+P(A¯)=P(AA¯)=P(Ω)=1.{\displaystyle P(A)+P({\overline {A}})=P(A\cup {\overline {A}})=P(\Omega )=1.}
  • La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento diΩ{\displaystyle \Omega } e si ha:
P()=P(Ω¯)=1P(Ω)=11=0.{\displaystyle P(\varnothing )=P({\overline {\Omega }})=1-P(\Omega )=1-1=0.}
  • La probabilità di un evento è minore o uguale a1{\displaystyle 1}. Infatti, dovendo la probabilità essere non negativa per il secondoassioma, si ha:
P(A)=1P(A¯)1.{\displaystyle P(A)=1-P({\overline {A}})\leq 1.}
ABP(B)=P(A(A¯B))=P(A)+P(A¯B)P(A).{\displaystyle A\subseteq B\Rightarrow P(B)=P(A\cup ({\overline {A}}\cap B))=P(A)+P({\overline {A}}\cap B)\geq P(A).}

Teoremi di base

[modifica |modifica wikitesto]

Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali.

Ilteorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due, poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi:

P(ABC)=P(A)+P(B)+P(C)P(AB)P(AC)P(BC)+P(ABC).{\displaystyle P(A\cup B\cup C)=P(A)+P(B)+P(C)-P(A\cap B)-P(A\cap C)-P(B\cap C)+P(A\cap B\cap C).}

Si diceprobabilità condizionata diA{\displaystyle A} datoB{\displaystyle B}, e si scriveP(A|B){\displaystyle P(A|B)}, la probabilità che l'eventoA{\displaystyle A} ha di verificarsi quando si sa cheB{\displaystyle B} si è verificato:

P(A|B)=P(AB)P(B).{\displaystyle P(A|B)={\frac {P(A\cap B)}{P(B)}}.}

Attraverso tale concetto si perviene alteorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può essere generalizzato), si ha:

P(AB)=P(A|B)P(B).{\displaystyle P(A\cap B)=P(A|B)P(B).}

SeP(A|B)=P(A){\displaystyle P(A|B)=P(A)}, i due eventiA{\displaystyle A} eB{\displaystyle B} vengono definitiindipendenti stocasticamente (oprobabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente:P(AB)=P(A)P(B){\displaystyle P(A\cap B)=P(A)P(B)}.

Ilteorema di Bayes consente di calcolare laprobabilità a posteriori di un eventoAi{\displaystyle A_{i}}, quando si sappia che si è verificato un eventoE{\displaystyle E}. SeAi{\displaystyle A_{i}} appartiene ad uninsieme finito o numerabile di eventi a due a due incompatibili, e seE{\displaystyle E} si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo leprobabilità a priori degli eventiAi{\displaystyle A_{i}} e le probabilità condizionateP(E|Ai){\displaystyle P(E|A_{i})} e sapendo che si è verificatoE{\displaystyle E}, si può calcolare laprobabilità a posteriori di un particolareAi{\displaystyle A_{i}}:

P(Ai|E)=P(E|Ai)P(Ai)jP(E|Aj)P(Aj){\displaystyle P(A_{i}|E)={\frac {P(E|A_{i})P(A_{i})}{\sum _{j}P(E|A_{j})P(A_{j})}}}

Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" diE{\displaystyle E} (ma non si sa per effetto di quale di esseE{\displaystyle E} si è verificato), sia le probabilità condizionate diE{\displaystyle E} data ciascuna delle cause, è possibile calcolare la probabilità cheE{\displaystyle E} si sia verificato per effetto di una particolare causa.

Difficoltà nell'utilizzo delle probabilità

[modifica |modifica wikitesto]

Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con risposte controintuitive:

  • nelparadosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli eventi: i lati delle carte e non le carte stesse;
  • nelparadosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ossia nel considerare un unico evento quelli che in realtà sono due;
  • nelproblema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita.

Un'ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia probabilità1{\displaystyle 1} implica che esso avvenga sempre (invece chequasi certamente).

Note

[modifica |modifica wikitesto]
  1. ^Il 9 si ottiene con le sei combinazioni(1,2,6),(1,3,5),(1,4,4),(2,2,5),(2,3,4),(3,3,3){\displaystyle (1,2,6),\,(1,3,5),\,(1,4,4),\,(2,2,5),\,(2,3,4),\,(3,3,3)}, il 10 con le sei combinazioni(1,3,6),(1,4,5),(2,2,6),(2,3,5),(2,4,4),(3,3,4){\displaystyle (1,3,6),\,(1,4,5),\,(2,2,6),\,(2,3,5),\,(2,4,4),\,(3,3,4)}, l'11 con(1,4,6),(2,3,6),(2,4,5),(1,5,5),(3,3,5),(3,3,4){\displaystyle (1,4,6),\,(2,3,6),\,(2,4,5),\,(1,5,5),\,(3,3,5),\,(3,3,4)} e il 12 con(1,5,6),(2,4,6),(2,5,5),(3,4,5),(3,3,6),(4,4,4){\displaystyle (1,5,6),\,(2,4,6),\,(2,5,5),\,(3,4,5),\,(3,3,6),\,(4,4,4)}. Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi(6+6+3+6+3+3){\displaystyle (6+6+3+6+3+3)}, il 9 e il 12 in 25 modi(6+6+3+3+6+1){\displaystyle (6+6+3+3+6+1)}.
  2. ^Secondo il Cavaliere, essendo1/6{\displaystyle 1/6} la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe41/6=2/3{\displaystyle 4\cdot 1/6=2/3}; la probabilità del doppio 6 in due lanci è invece1/36{\displaystyle 1/36} e, per arrivare a2/3{\displaystyle 2/3}, occorrono 24 lanci:241/36=2/3{\displaystyle 24\cdot 1/36=2/3}. In realtà la probabilità di ottenere almeno un 6 si calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è(5/6)4{\displaystyle (5/6)^{4}}, e sottraendo questa da1{\displaystyle 1}, ottenendo il51,8%{\displaystyle 51,8\%}; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è1(35/36)24=0,49=49%{\displaystyle 1-(35/36)^{24}=0,49=49\%}.
  3. ^La ristampa della traduzione inglese è disponibile inhttp://www.stat.ucla.edu/history/huygens.pdfArchiviato il 31 ottobre 2014 inInternet Archive..
  4. ^Ad esempio, nel lancio di un dado l'insiemeΩ{\displaystyle \Omega } è costituito dai sei risultati{1,2,3,4,5,6}{\displaystyle \left\{1,2,3,4,5,6\right\}}; l'evento "esce il 3" è rappresentato dall'insieme{3}{\displaystyle \left\{3\right\}}, l'evento "esce un numero pari" è rappresentato dall'insieme{2,4,6}{\displaystyle \left\{2,4,6\right\}}.
  5. ^Ad esempio, restando al lancio di un dado, seA={2}{\displaystyle A=\left\{2\right\}} eB={4,6}{\displaystyle B=\left\{4,\,6\right\}}, l'eventoAB{\displaystyle A\cup B} è{2,4,6}{\displaystyle \left\{2,\,4,\,6\right\}}, ovvero "esce un numero pari". Se inveceA={\displaystyle A=} "esce un numero pari" eB={\displaystyle B=} "esce un numero minore o uguale a 3",AB={2}{\displaystyle A\cap B=\left\{2\right\}}.
  6. ^(EN)IUPAC Gold Book, "probability", sugoldbook.iupac.org.
  7. ^L'impostazione soggettiva era stata anticipata daRamsey nel 1926.
  8. ^Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. Vederelimite insiemistico.

Bibliografia

[modifica |modifica wikitesto]

Voci correlate

[modifica |modifica wikitesto]

Altri progetti

[modifica |modifica wikitesto]

Altri progetti

Collegamenti esterni

[modifica |modifica wikitesto]
V · D · M
Probabilità
Teoria della probabilitàEvento ·Spazio campionario ·Indipendenza stocastica ·Probabilità condizionata ·Teorema di Bayes ·Disuguaglianza di Čebyšëv ·Disuguaglianza di Markov
Variabili casualiMisura di probabilità ·Funzione di densità di probabilità ·Funzione di ripartizione ·Funzione caratteristica ·Funzione generatrice dei momenti ·Convergenza di variabili casuali
Distribuzioni di probabilità univariate
Distribuzioni discreteUniforme discreta ·Binomiale (Bernoulliana) ·Degenere ·Ipergeometrica ·Di Pascal ·Geometrica ·Poissoniana
Distribuzioni continueUniforme continua ·Normale ·Esponenziale ·Beta ·Gamma ·t di Student ·di Cauchy ·Chi Quadrato
Distribuzioni di probabilità multivariateMultinomiale ·Normale multivariata ·Wishart ·Dirichlet
Processi stocasticiMatrice stocastica ·Processo markoviano ·Passeggiata aleatoria ·Martingala ·Moto browniano ·Integrale di Itō ·Equazione differenziale stocastica
Discipline connesseCombinatoria ·Statistica
Controllo di autoritàThesaurus BNCF12339 ·LCCN(ENsh85107090 ·GND(DE4137007-7 ·J9U(EN, HE987007538702705171
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica
Estratto da "https://it.wikipedia.org/w/index.php?title=Probabilità&oldid=147768561"
Categoria:
Categorie nascoste:

[8]ページ先頭

©2009-2025 Movatter.jp