Forêt d'arbres décisionnels
algorithme d'apprentissage statistique / De Wikipedia, l'encyclopédie encyclopedia
Cher Wikiwand IA, Faisons court en répondant simplement à ces questions clés :
Pouvez-vous énumérer les principaux faits et statistiques sur Forêts aléatoires?
Résumez cet article pour un enfant de 10 ans
Pour les articles homonymes, voir Arbre (homonymie).
En intelligence artificielle, plus précisément en apprentissage automatique, les forêts d'arbres décisionnels[1] (ou forêts aléatoires de l'anglais random forest classifier) forment une technique d'apprentissage à base d'arbres de décision. Elle apprend plusieurs arbres de décision et de ce fait, elle fait partie des méthodes d'apprentissage ensembliste, c'est-à-dire des méthodes qui utilisent la sagesse des foules[2]. Ils ont été premièrement proposées par Ho en 1995[3] et ont été formellement proposées en 2001 par Leo Breiman[4] et Adele Cutler[5]. Cet algorithme combine les concepts de bagging (méthodes ensemblistes parallèles[2]) pour la phase de sélection des données, et de sous-espaces aléatoires. L'algorithme des forêts d'arbres décisionnels effectue un apprentissage sur de multiples arbres de décision entraînés sur des sous-ensembles de données légèrement différents.
Cet article ne cite pas suffisamment ses sources ().
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?
Type | |
---|---|
Inventeur | |
Décrit par |