Dati d'allenamento consistenti in punti-nuvola di due gaussiane Una visualizzazione dello spazio-modello della Foresta casuale dopo un allenamento con i dati
Unaforesta casuale (in ingleserandom forest) è unclassificatored'insieme ottenuto dall'aggregazione tramitebagging dialberi di decisione[1][2]L'algoritmo per la creazione di foreste casuali fu sviluppato originariamente da Leo Breiman e Adele Cutler.[3]Le foreste casuali sono state proposte come soluzione atta a ridurre ilsovradattamento deltraining set negli alberi di decisione.[4]
Il nome viene dalle foreste di decisione casuali che furono proposte per la prima volta da Tin Kam Ho deiBell Labs nel1995.[5][6]
Il metodo combina l'idea delbagging di Breiman con la selezione casuale dellecaratteristiche, introdotta indipendentemente da Ho e Amit Geman al fine di costruire una collezione di alberi di decisione a varianza controllata.
La selezione di un sottoinsieme di caratteristiche è un esempio del metodo del sottoinsieme casuale che, nella formulazione di Ho, è un modo di implementare la discriminazione stocastica proposta da Eugene Kleinberg.[7]
In combinazione col metodo chiamatoRepeated Incremental and Pruning, trova impiego nellacategorizzazione automatica di fatti e opinioni, così come nelfact-checking di singole proposizioni.[8]