এআই গ্লসারি
কৃত্রিম বুদ্ধিমত্তার সম্পূর্ণ অভিধান
Bootstrap Aggregating Regressor
Méthode d'ensemble qui applique le principe du bagging aux modèles de régression, en entraînant plusieurs régresseurs sur des échantillons bootstrap et en agrégeant leurs prédictions par moyenne ou médiane pour réduire la variance.
Out-of-Bag Error (OOB)
Métrique d'évaluation du bagging calculée sur les échantillons n'ayant pas été inclus dans l'échantillon bootstrap d'un modèle donné, fournissant une estimation non biaisée de l'erreur de généralisation sans nécessiter de validation croisée.
Agrégation par Moyenne
Technique de combinaison des prédictions dans un bagging regressor où la prédiction finale est la moyenne arithmétique des prédictions individuelles de tous les modèles de l'ensemble.
Agrégation par Médiane
Alternative robuste à l'agrégation par moyenne où la prédiction finale est la médiane des prédictions individuelles, moins sensible aux valeurs aberrantes et aux prédictions extrêmes des modèles.
Régresseur de Base
Algorithme de régression individuel (comme l'arbre de décision ou les k-plus proches voisins) utilisé comme modèle faible dans l'architecture du bagging, entraîné sur différents échantillons bootstrap.
Stabilité du Bagging
Propriété du bagging regressor de produire des prédictions plus stables et moins variables face aux changements dans les données d'entraînement, grâce à la réduction de la variance par agrégation.
Random Subspace Regressor
Variante du bagging où chaque régresseur de base est entraîné sur un sous-ensemble aléatoire des caractéristiques (features) en plus des échantillons bootstrap, augmentant la diversité des modèles.
Pasting Regressor
Variante du bagging où les échantillons pour entraîner chaque modèle sont tirés sans remise, utilisée lorsque le jeu de données est trop grand pour le bootstrap avec remise.
Erreur Quadratique Moyenne Agrégée
Métrique d'évaluation spécifique aux bagging regressors calculant la moyenne des erreurs quadratiques entre les prédictions agrégées et les vraies valeurs sur l'ensemble de test.
Bagging avec Arbres de Décision
Application la plus courante du bagging regressor utilisant des arbres de décision comme modèles de base, connue pour réduire significativement la variance tout en maintenant un biais faible.
Intervalles de Prédiction par Bagging
Technique utilisant la distribution des prédictions individuelles des modèles de bagging pour construire des intervalles de confiance quantitatifs autour de la prédiction finale agrégée.