Glossário IA
O dicionário completo da Inteligência Artificial
Forêt Aléatoire
Méthode d'ensemble qui combine plusieurs arbres de décision entraînés sur des sous-ensembles de données pour améliorer la précision prédictive et réduire le surapprentissage.
Bagging
Technique de bootstrap aggregating où plusieurs modèles sont entraînés sur des échantillons bootstrap différents et leurs prédictions sont combinées par vote majoritaire.
Arbres de Décision
Modèles prédictifs qui construisent une structure arborescente de décisions basées sur les caractéristiques des données pour aboutir à une prédiction finale.
Out-of-Bag
Échantillons non sélectionnés lors du bootstrap pour un arbre spécifique, utilisés comme ensemble de validation interne pour estimer l'erreur de généralisation.
Échantillonnage de Caractéristiques
Sélection aléatoire d'un sous-ensemble de caractéristiques à chaque division de nœud, augmentant la diversité entre les arbres de la forêt.
Vote Majoritaire
Méthode d'agrégation où la classe prédite est celle recevant le plus de votes parmi tous les arbres pour les problèmes de classification.
Moyenne des Prédictions
Technique d'agrégation pour la régression où la valeur finale prédite est la moyenne des prédictions de tous les arbres de la forêt.
Noeud Terminal
Feuille de l'arbre de décision où aucune division supplémentaire n'est effectuée, contenant la prédiction finale pour les échantillons atteignant ce point.
Critère de Split
Métrique utilisée pour évaluer la qualité d'une division de nœud, comme l'indice de Gini ou l'entropie pour les classifications.
Hyperparamètres
Paramètres configurables avant l'entraînement qui contrôlent le comportement de la forêt aléatoire, comme le nombre d'arbres ou la profondeur maximale.