Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

Metodo Monte Carlo

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento daMetodo Montecarlo)
Nessuna nota a piè di pagina
Questa voce o sezione sugli argomenti Fisica e matematica è priva o carente dinote eriferimenti bibliografici puntuali.

Sebbene vi siano unabibliografia e/o deicollegamenti esterni, manca la contestualizzazione delle fonti connote a piè di pagina o altri riferimenti precisi che indichino puntualmente la provenienza delle informazioni. Puoimigliorare questa vocecitando le fonti più precisamente. Segui i suggerimenti dei progetti di riferimento1,2.

Ilmetodo Monte Carlo è un'ampia classe di metodi computazionali basati sul campionamento casuale per ottenere risultati numerici. Può essere utile per superare i problemi computazionali legati aitestesatti (ad esempio i metodi basati sulladistribuzione binomiale ecalcolo combinatorio, che per grandi campioni generano un numero dipermutazioni eccessivo).

Il metodo è usato per trarre stime attraverso simulazioni.Si basa su unalgoritmo che genera una serie di numeri tra loro non correlati, che seguono ladistribuzione di probabilità che si suppone abbia il fenomeno da indagare.La non correlazione tra i numeri è assicurata da untest chi quadrato.

La simulazione Monte Carlo calcola una serie di realizzazioni possibili del fenomeno in esame, con il peso proprio della probabilità di tale evenienza, cercando di esplorare in modo denso tutto lo spazio dei parametri del fenomeno. Una volta calcolato questo campione casuale, la simulazione esegue delle 'misure' delle grandezze di interesse su tale campione. La simulazione Monte Carlo è ben eseguita se il valore medio di queste misure sulle realizzazioni del sistema converge al valore vero.

Le sue origini risalgono alla metà degli anni 40 nell'ambito delProgetto Manhattan. I formalizzatori del metodo sonoEnrico Fermi,John von Neumann eStanisław Marcin Ulam[1]. Il nome Monte Carlo fu inventato in seguito daNicholas Constantine Metropolis riferendosi alnoto casinò. L'uso di tecniche basate sulla selezione di numeri casuali era già citato in un lavoro diLord Kelvin del1901 ed in alcuni studi diWilliam Sealy Gosset[1].

L'algoritmo Monte Carlo è un metodo numerico utilizzato per trovare le soluzioni di problemi matematici a molte variabili e che non possono essere risolti facilmente, per esempio ilcalcolo integrale. L'efficienza di questo metodo aumenta rispetto agli altri metodi quando ladimensione del problema cresce.

Un primo esempio di utilizzo del metodo Monte Carlo è rappresentato dall'esperimento dell'ago di Buffon; il suo più famoso utilizzo fu quello diEnrico Fermi, che nel1930 usò un metodo casuale per problemi di trasporto neutronico[1].

Descrizione generale

[modifica |modifica wikitesto]
Il metodo Monte Carlo può essere illustrato come unabattaglia navale. Prima un giocatore spara colpi a caso. Successivamente applica alcuni algoritmi (es. la corazzata è di quattro punti nella direzione verticale o orizzontale). Infine, sulla base dei risultati del campionamento casuale e degli algoritmi, il giocatore può determinare le posizioni probabili delle navi degli altri giocatori.

Non c'è un solo metodo Monte Carlo; il termine descrive una classe di approcci utilizzati per una larga categoria di problemi. Tuttavia, questi approcci tendono a seguire un particolare schema:

  1. Definire undominio di possibili dati in input.
  2. Generare input casuali dal dominio con una certa distribuzione di probabilità determinate.
  3. Eseguire un calcolo deterministico utilizzando i dati in ingresso (input).
  4. Aggregare i risultati dei calcoli singoli nel risultato finale.

Integrazione

[modifica |modifica wikitesto]

I metodi deterministici diintegrazione numerica operano considerando un numero di campioni uniformemente distribuiti. In generale questo metodo lavora molto bene per funzioni di una variabile. Tuttavia, per funzioni divettori, i metodi deterministici di quadratura possono essere inefficienti. Per integrare numericamente una funzione di un vettore bidimensionale sono richieste griglie di punti equispaziati sulla superficie stessa. Per esempio una griglia di 10x10 richiede 100 punti. Se il vettore è a 100 dimensioni, la stessa spaziatura sulla griglia dovrebbe richiedere 10100 punti – troppo dispendioso computazionalmente. Le 100dimensioni non hanno un significato irragionevole, poiché in molti problemi di fisica, una "dimensione" è equivalente a ungrado di libertà.

I metodi di Monte Carlo forniscono una soluzione a questo problema di crescita del numero di gradi di libertà. Finché la funzione in questione ha un buon comportamento, può essere valutata selezionando in modo casuale i punti in uno spazio 100-dimensionale, e prendendo alcune tipologie di medie dei valori della funzione in questi punti. Per ilteorema del limite centrale, questo metodo mostrerà ordine di convergenza1/N{\displaystyle 1/{\sqrt {N}}}; per esempio quadruplicando il numero dei punti equispaziati si dimezza l'errore, nonostante il numero delle dimensioni.

Una caratteristica di questo metodo è quella di scegliere i punti in modo casuale, ma vengono scelti con maggior probabilità i punti che appartengono alle regioni che contribuiscono maggiormente al calcolo dell'integrale rispetto a quelli che appartengono a regioni di basso contributo. In altre parole, i punti dovrebbero essere scelti secondo una distribuzione simile in forma alla funzione integranda. Comprensibilmente, fare ciò è difficile tanto quanto risolvere l'integrale, ma ci sono altri metodi di approssimazione possibili, a partire da quelli che costruiscono unafunzione integrabile simile a quella da integrare, fino ad arrivare ad una delle procedure adattive.

Un simile approccio implica l'uso dilow-discrepancy sequences piuttosto delmetodo quasi-Monte Carlo. I metodi Quasi-Monte Carlo spesso possono essere più efficienti comemetodi di integrazione numerica poiché la successione di valori generata riempie meglio l'area e le successive valutazioni possono far convergere più velocemente la simulazione alla soluzione.

Discussione analitica

[modifica |modifica wikitesto]

Per un modello stocastico sia θ la quantità da determinarsi. Si esegua una simulazione, generando lavariabile casualeX1{\displaystyle X_{1}} in modo che θ sia ilvalore atteso diX1.{\displaystyle X_{1}.} Consideriamo una seconda simulazione, generando una variabile casualeX2{\displaystyle X_{2}} tale che il suo valore atteso sia sempre θ. Proseguiamo conk{\displaystyle k} simulazioni, generando fino ak{\displaystyle k} variabili casualiXk{\displaystyle X_{k}} conE[Xk]=θ.{\displaystyle E[X_{k}]=\theta .} Come stimatore di θ possiamo prendere la media aritmetica dellek{\displaystyle k} variabili casuali generate, cioè

X=i=1kXik{\displaystyle X={\frac {\sum _{i=1}^{k}X_{i}}{k}}}

in quantoE[X]=θ.{\displaystyle E[X]=\theta .} Qual è il valore più appropriato dik{\displaystyle k}? Supponiamo di averen{\displaystyle n} variabili aleatorie indipendenti,X1,,Xn{\displaystyle X_{1},\ldots ,X_{n}} aventi la stessa distribuzione. Sia σ2 la varianza della variabileXi{\displaystyle X_{i}} e θ il valore atteso, ossia

E[Xi]=θ,{\displaystyle E[X_{i}]=\theta ,}
Var(Xi)=σ2.{\displaystyle \operatorname {Var} (X_{i})=\sigma ^{2}.}

La media campionariaX{\displaystyle X} viene definita da

X=i=1nXin.{\displaystyle X={\frac {\sum _{i=1}^{n}X_{i}}{n}}.}

Il suovalore atteso è:

E[X]=i=1nE[Xi]n=θ.{\displaystyle E[X]={\frac {\sum _{i=1}^{n}E[X_{i}]}{n}}=\theta .}

QuindiX{\displaystyle X} è unostimatore non distorto (cioè con valore atteso uguale a quello del parametro) di θ. La suavarianza, usando laformula di Bienaymé è:

Var(X)=E[(Xθ)2]=Var[i=1nXin]=i=1nVar(Xi)n2=σ2n.{\displaystyle \operatorname {Var} (X)=E{\bigl [}(X-\theta )^{2}{\bigr ]}=\operatorname {Var} \left[{\frac {\sum _{i=1}^{n}X_{i}}{n}}\right]={\frac {\sum _{i=1}^{n}\operatorname {Var} (X_{i})}{n^{2}}}={\frac {\sigma ^{2}}{n}}.}

PertantoX{\displaystyle X} è una variabile aleatoria con media θ e varianzaσ2/n;{\displaystyle \sigma ^{2}/n;} ne segue cheX{\displaystyle X} è uno stimatore efficiente quandoσ/n{\displaystyle \sigma /{\sqrt {n}}} è piccolo. Fissata una tolleranza perσ2/n{\displaystyle \sigma ^{2}/n} ed avendo stimatoσ2{\displaystyle \sigma ^{2}} si può in tal modo stimaren.{\displaystyle n.}

Si può imporre che il valore atteso ottenuto con lo stimatore stia dentro un ben definitointervallo di confidenza. Si può a tale scopo utilizzare una conseguenza delteorema del limite centrale. SiaX1,,Xn,,{\displaystyle X_{1},\ldots ,X_{n},\ldots ,} una successione di variabili casualiindipendenti e distribuite identicamente aventi la media finita μ e la varianza finita σ2. Allora

limnP(X1+X2++Xnnμσnx)=Φ(x),{\displaystyle \lim _{n\to \infty }P\left({\frac {X_{1}+X_{2}+\ldots +X_{n}-n\mu }{\sigma {\sqrt {n}}}}\leq x\right)=\Phi (x),}

doveΦ(x){\displaystyle \Phi (x)} è la funzione di distribuzione di unavariabile casuale normale standard,

Φ(x)=12πxey22dy.{\displaystyle \Phi (x)={\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{x}e^{\frac {-y^{2}}{2}}\,dy.}

Quandon1,{\displaystyle n\gg 1,} il teorema del limite centrale ci dice che la variabile

Z=Xθσn{\displaystyle Z={\frac {X-\theta }{\frac {\sigma }{\sqrt {n}}}}}

è approssimativamente distribuita come una variabile aleatoria normale unitaria, indicata conN(0,1),{\displaystyle N(0,1),} cioè con media zero e varianza 1. Sia orazα,{\displaystyle z\alpha ,} dove0<α<1,{\displaystyle 0<\alpha <1,} quel numero tale che, per una variabile normale unitaria, si abbia

P(Z>zα)=α.{\displaystyle P(Z>z\alpha )=\alpha .}

Allora, dal teorema del limite centrale si ha che, asintoticamente pern{\displaystyle n} grande

P{Xz(α2)σn<θ<X+z(α2)σn}=1α,{\displaystyle P\left\{X-z\left({\frac {\alpha }{2}}\right){\frac {\sigma }{\sqrt {n}}}<\theta <X+z\left({\frac {\alpha }{2}}\right){\frac {\sigma }{\sqrt {n}}}\right\}=1-\alpha ,}

che afferma che la probabilità che la media θ sia compresa nell'intervallo

[Xz(α2)σn,X+z(α2)σn]{\displaystyle \left[X-z\left({\frac {\alpha }{2}}\right){\frac {\sigma }{\sqrt {n}}},X+z\left({\frac {\alpha }{2}}\right){\frac {\sigma }{\sqrt {n}}}\right]}

è 1-α. Perciò, assegnato 1-α e conoscendo σ, si può stimare il minimo valore din{\displaystyle n} necessario.

Nasce quindi il problema di come stimare la varianza σ2 = E[(X - θ)2].

Definizione. La varianza del campione S2 è definita da

S2=i=1n(XiX)2n1.{\displaystyle S^{2}=\sum _{i=1}^{n}{\frac {(X_{i}-X)^{2}}{n-1}}.}

Vale il seguente risultato.

Proposizione. E[S2]= σ2Infatti si ha:

i=1n(XiX)2=i=1n(Xi2nX2),{\displaystyle \sum _{i=1}^{n}(X_{i}-X)^{2}=\sum _{i=1}^{n}(X_{i}^{2}-nX^{2}),}

ne segue

(n1)E[S2]=E[i=1nXi2]nE[X2]=nE[Xi2]nE[X2].{\displaystyle (n-1)E[S^{2}]=E\left[\sum _{i=1}^{n}X_{i}^{2}\right]-nE[X^{2}]=nE[X_{i}^{2}]-nE[X^{2}].}

Per una variabile aleatoria si ha:

E[Y2]=Var(Y)+(E[Y])2{\displaystyle E[Y^{2}]=\operatorname {Var} (Y)+{{\bigl (}E[Y]{\bigr )}}^{2}}

e quindi

E[Xi2]=Var(Xi)+(E[Xi])2=σ2+θ2.{\displaystyle E[X_{i}^{2}]=\operatorname {Var} (X_{i})+{{\bigl (}E[X_{i}]{\bigr )}}^{2}=\sigma ^{2}+\theta ^{2}.}

Inoltre

E[X2]=Var(X)+(E[X])2=σ2n+θ2.{\displaystyle E[X^{2}]=\operatorname {Var} (X)+{{\bigl (}E[X]{\bigr )}}^{2}={\frac {\sigma ^{2}}{n}}+\theta ^{2}.}

Ne segue

(n1)E[S2]=nσ2+nθ2σ2nθ2=(n1)σ2.{\displaystyle (n-1)E[S^{2}]=n\sigma ^{2}+n\theta ^{2}-\sigma ^{2}-n\theta ^{2}=(n-1)\sigma ^{2}.}

Supponiamo ora di averen{\displaystyle n} variabili aleatorie indipendentiX1,X2,,Xn{\displaystyle X_{1},X_{2},\ldots ,X_{n}} aventi la stessa funzione di distribuzioneF e di volere stimare il parametro θ(F) (per evidenziare che tale quantità deve essere calcolata rispetto alla funzione di distribuzioneF). Siag(X1,X2,,Xn){\displaystyle g(X_{1},X_{2},\ldots ,X_{n})} lo stimatore proposto per θ(F); se questo non corrisponde al valore medio, il metodo precedentemente esposto per stimare la varianza dello stimatore non si può applicare. Vediamo come si può stimare l'errore quadratico medio che si commette quando si usa questo stimatore:

EQM(F)=EF[(g(X1,X2,,Xn)θ(F))2],{\displaystyle EQM(F)=E_{F}\!\left[{{\bigl (}g(X_{1},X_{2},\dots ,X_{n})-\theta (F){\bigr )}}^{2}\right],}

dove il pediceF significa che il valore d'aspettazione viene calcolato rispetto alla funzione di distribuzioneF che per il momento è incognita.

Un metodo per stimare tale quantità è quello delbootstrap, utilizzando la funzione di distribuzione empiricaFe(x) definita da:

Fe(x)=(numero degli i:Xix)n.{\displaystyle F_{e}(x)={\frac {({\text{numero degli }}i:X_{i}\leq x)}{n}}.}

La legge forte dei grandi numeri afferma che pern{\displaystyle n} molto grande, con probabilità 1,Fe(x) tende aF(x). Allora un valore approssimato di EQM(F) è dato da (approssimazione di bootstrap):

EQM(F)=EFe[(g(X1,X2,,Xn)θ(Fe))2].{\displaystyle EQM(F)=E_{Fe}\!\left[{{\bigl (}g(X_{1},X_{2},\ldots ,X_{n})-\theta (F_{e}){\bigr )}}^{2}\right].}

Va rilevato, da un punto di vista operativo, che ildimensionamento della simulazione si supera facilmente grazie alla crescente disponibilità di potenza di calcolo.In altre parole, procedendo all'uso del metodo su calcolatore, sarà sufficiente generare una serie di prove di ampiezza sicuramente ridondante per assicurarsi la significatività della stima.

Esempi

[modifica |modifica wikitesto]

Rendimento di un titolo

[modifica |modifica wikitesto]

Si voglia stimare il rendimento mensile di untitolo azionario. Il titolo esiste da cinque anni, quindi si hanno a disposizione solo 60 rendimenti mensili. Supponiamo che i rendimenti si distribuiscano seguendo unavariabile casuale normale.

Calcoliamo:

Con un modello diregressione lineare cercheremo di stimare lamedia a un mese. Successivamente, si andranno a generare attraverso l'algoritmo Monte Carlo una serie di medie "sperimentali" che saranno ricavate da una distribuzione normale (perché si è ipotizzato che i rendimenti seguano questa distribuzione) con media pari alla media stimata e scarto quadratico medio pari allo scarto quadratico medio campionario a un mese.

Una strategia per procedere e stimare la vera media del fenomeno, a questo punto, può essere quella di ricavare la media generale di tutte le medie sperimentali ottenute.I dati ottenuti forniscono stime tanto migliori quanto maggiore è il numero delle prove fatte.

Determinazione del valore π

[modifica |modifica wikitesto]
Il metodo Monte Carlo applicato nell'approssimazione del valore di π.

SiaM{\displaystyle M} un punto di coordinate(x,y){\displaystyle (x,y)} con0<x<1{\displaystyle 0<x<1} e0<y<1{\displaystyle 0<y<1} e scegliamo casualmente i valori dix{\displaystyle x} ey.{\displaystyle y.}

Sex2+y2<1{\displaystyle {\sqrt {x^{2}+y^{2}}}<1} allora il puntoM{\displaystyle M} appartiene al settore di disco (un quarto del cerchio a cui appartiene) di centro(0,0){\displaystyle (0,0)} di raggio 1.

L'area del settore di disco è il raggio elevato al quadrato perπ{\displaystyle \pi } diviso 4. Nell'esempio il raggio è uguale a uno e quindi l'area di interesse è1π/4=π/4.{\displaystyle 1\cdot \pi /4=\pi /4.} Il punto può cadere quindi o nel quarto di cerchio o nel quadrato circoscritto al settore di disco. La probabilità che il punto cada all'interno del settore di disco è quindi uguale al rapporto tra l'area del settoreπ/4{\displaystyle \pi /4} e l'area del quadrato circoscritto al settore di disco che è uguale a 1; quindi la probabilità èπ/4.{\displaystyle \pi /4.}

Facendo il rapporto del numero dei punti che cadono nel settore di disco con il numero dei tiri effettuati si ottiene un'approssimazione del numeroπ/4{\displaystyle \pi /4} se il numero dei tiri è grande.

Eseguendo numericamente l'esempio si ottiene un andamento percentuale dell'errore mostrato nel grafico sottostante.

Andamento percentuale dell'errore tra ilπ{\displaystyle \pi } teorico e ilπ{\displaystyle \pi } calcolato. Il programma ha eseguito 1370 milioni di lanci. Si noti che all'inizio l'errore è molto elevato ma rapidamente tende a decrescere. Essendo un metodo statistico ci possono essere dei temporanei innalzamenti dell'errore ma la tendenza è la sua diminuzione all'aumento dei lanci.

Determinazione della superficie di un lago

[modifica |modifica wikitesto]

Questo è un esempio classico della divulgazione del metodo Monte-Carlo. Sia data una zona rettangolare o quadrata di cui la lunghezza dei lati è conosciuta. Al centro di quest'area si trova un lago la cui superficie è sconosciuta. Grazie alle misure dei lati della zona, si conosce l'area del rettangolo. Per determinare l'area del lago, si chiede ad una truppa armata di tirareX{\displaystyle X} colpi di cannone in modo aleatorio su questa zona. Contiamo in seguito il numeroN{\displaystyle N} di palle che sono restate sulla terra, possiamo quindi determinare il numero di palle che sono cadute dentro il lago:XN.{\displaystyle X-N.} È sufficiente quindi stabilire un rapporto tra i valori:

superficieterrenosuperficielago=XXN,{\displaystyle {\frac {{\rm {superficie}}_{\,{\rm {terreno}}}}{{\rm {superficie}}_{\,{\rm {lago}}}}}={\frac {X}{X-N}},}
superficielago=superficieterrenoXNX.{\displaystyle {\rm {superficie}}_{\,{\rm {lago}}}={\rm {superficie}}_{\,{\rm {terreno}}}\cdot {\frac {X-N}{X}}.}

Per esempio, se il terreno ha superficie di 1000 m2, e supponiamo che l'armata tiri 500 palle e che 100 proiettili sono caduti dentro il lago allora la superficie del lago è di: 100*1000/500 = 200 m2.

Stima della superficie del lago grazie a dei tiri di cannone casuali
Stima della superficie del lago grazie a dei tiri di cannone casuali

Naturalmente, la qualità della stima migliora aumentando il numero dei tiri ed assicurandosi che l'artiglieria non miri sempre lo stesso posto ma copra bene la zona. Questa ultima ipotesi coincide con l'ipotesi di avere un buongeneratore di numeri aleatori, questa condizione è indispensabile per avere dei buoni risultati con il metodo Monte Carlo. Un generatore distorto è un po' come un cannone il cui tiro tende a indirizzarsi verso alcune zone rispetto ad altre: le informazioni che se ne possono ricavare sono anch'esse distorte.

Alcune applicazioni

[modifica |modifica wikitesto]

Il metodo è molto usato in varie discipline. Tra le possibili applicazioni:fisica statistica eingegneria, dove si presta molto bene a risolvere problemi legati, ad esempio, allafluidodinamica; ineconomia efinanza per prezzare iderivati e le opzioni non standard; inottica, per simulare l'illuminazione naturale; infisica medica trova uso per la pianificazione di trattamenti radioterapeutici, in particolare nellaprotonterapia apencil beam; nellachimica computazionale ilMonte Carlo quantistico è un metodo per la determinazione della struttura elettronica; ecc.

È molto potente se usato in combinazione con altri metodi non parametrici come ilresampling.

Un altro esempio particolare dell'utilizzo del Metodo Monte Carlo è l'impiego del metodo nell'analisiscacchistica. Negli ultimi anni alcuniprogrammi scacchistici in commercio implementano delle opzioni d'analisi che utilizzano "Monte Carlo analisi". Per valutare una posizione, si fanno giocare al computer migliaia di partite partendo dalla posizione da analizzare, facendo eseguire al PC delle mosse "casuali" (una scelta casuale tra le mosse che il programma giudica più logiche).La media dei risultati ottenuti in queste partite è un'indicazione plausibile della mossa migliore.[2]

Il metodo Monte Carlo trova un'applicazione di successo ancora maggiore nelgioco del go. In tal caso l'applicazione del metodo è ancora più diretta: molti programmi raggiungono un buon livello di gioco senza aver bisogno di restringere la selezione casuale a un sottoinsieme di mosse legali determinato da una funzione di valutazione (esempio di programma che usa questo metodo in unione con ilmachine learning èAlphaGo).

Note

[modifica |modifica wikitesto]
  1. ^abcCarlo Jacoboni e Paolo Lugli, The Monte Carlo Method for Semiconductor Device Simulation - Springer-Verlag
  2. ^Chessbase

Bibliografia

[modifica |modifica wikitesto]
  • W. K. Hastings,Monte Carlo sampling methods using Markov chains and their applications, Biometrika, 1970, pp. 97-109.
  • Bernd A. Berg,Markov Chain Monte Carlo Simulations and Their Statistical Analysis (With Web-Based Fortran Code), World Scientific 2004,ISBN 981-238-935-0.
  • P. Kevin MacKeown,Stochastic Simulation in Physics, 1997,ISBN 981-3083-26-3
  • Harvey Gould & Jan Tobochnik,An Introduction to Computer Simulation Methods, Part 2, Applications to Physical Systems, 1988,ISBN 0-201-16504-X
  • C.P. Robert and G. Casella. "Monte Carlo Statistical Methods" (second edition). New York: Springer-Verlag, 2004,ISBN 0-387-21239-6
  • Makers of commercial packages which implement Monte Carlo algorithms in includePalisade Corporation (@Risk),Decisioneering (Crystal Ball) andVanguard Software (DecisionPro)
  • Mosegaard, Klaus., eTarantola, Albert, 1995. Monte Carlo sampling of solutions to inverse problems. J. Geophys. Res., 100, B7, 12431-12447.
  • Albert Tarantola,Inverse Problem Theory, Society for Industrial and Applied Mathematics, 2005,ISBN 0-89871-572-5.
  • Morin, L. Richard,Monte Carlo Simulation in the Radiological Sciences, CRC Press,ISBN 0-8493-5559-1.
  • Arnold Kaufmann,La fabbricazione artificiale del caso; il metodo di Monte Carlo, inLe tecniche decisionali. Introduzione alla Praxeologia, traduzione diGiampaolo Barosso, Milano,il Saggiatore, 1968,SBN SBL0076985.

Voci correlate

[modifica |modifica wikitesto]

Altri progetti

[modifica |modifica wikitesto]

Altri progetti

Collegamenti esterni

[modifica |modifica wikitesto]

Software Statistici

[modifica |modifica wikitesto]
Controllo di autoritàThesaurus BNCF32258 ·LCCN(ENsh85087032 ·GND(DE4240945-7 ·J9U(EN, HE987007543534905171 ·NDL(EN, JA00567842
Estratto da "https://it.wikipedia.org/w/index.php?title=Metodo_Monte_Carlo&oldid=143213746"
Categorie:
Categorie nascoste:

[8]ページ先頭

©2009-2025 Movatter.jp