AI 词汇表
人工智能完整词典
Parallel Ensemble Learning
Paradigme d'apprentissage où les modèles de base sont construits simultanément et indépendamment les uns des autres, permettant une parallélisation efficace sur architectures distribuées. Contraste avec les méthodes séquentielles comme boosting où les modèles dépendent des précédents.
Decision Tree Ensemble
Collection d'arbres de décision construits en parallèle pour former un modèle prédictif plus robuste et généralisable qu'un arbre unique. Chaque arbre capture différentes patterns des données, et leur combinaison réduit le risque de surapprentissage.
Model Averaging
Technique d'agrégation combinant les prédictions continues de multiples modèles par calcul de leur moyenne arithmétique. Pour la classification, équivaut à la moyenne des probabilités de classe (soft voting) avant décision finale.
Independent Base Learners
Modèles fondamentaux dans les ensembles parallèles construits sans interaction ni dépendance entre eux pendant l'entraînement. Cette indépendance permet une parallélisation efficace et réduit le risque de propagation d'erreurs entre modèles.
Feature Subspace
Sous-ensemble aléatoire de caractéristiques sélectionnées à chaque noeud de division dans Random Forest, typiquement √p pour classification et p/3 pour régression. Introduit une diversité supplémentaire entre les arbres pour améliorer la performance de l'ensemble.
Pasting
Variante de bagging utilisant des échantillons sans remplacement plutôt qu'avec remplacement, garantissant que chaque observation apparaît au plus une fois par échantillon. Utile lorsque la taille du jeu de données est suffisamment grande pour éviter la redondance.
Random Subspaces
Méthode d'ensemble construisant chaque modèle de base sur un sous-ensemble aléatoire de caractéristiques plutôt que d'observations, appliquant l'approche de bagging dans l'espace des features. Particulièrement efficace pour les données haute dimensionnalité avec features redondantes.