एआई शब्दावली
आर्टिफिशियल इंटेलिजेंस का पूर्ण शब्दकोश
Out-of-Bag Score
Métrique de performance dérivée de l'out-of-bag error, souvent exprimée comme 1 moins l'erreur OOB, fournissant une évaluation interne de la qualité du modèle sans validation croisée.
OOB Estimate
Estimation non biaisée de l'erreur de test obtenue en agrégeant les prédictions sur les échantillons out-of-bag pour chaque observation du jeu d'entraînement.
Bagging Error
Erreur de généralisation d'un modèle de bagging, pouvant être estimée efficacement par la méthode out-of-bag sans nécessiter un ensemble de validation externe.
Random Forest OOB
Application spécifique de l'erreur out-of-bag aux forêts aléatoires, où chaque arbre est évalué sur les échantillons non utilisés dans son bootstrap pour estimer la performance globale.
OOB Variable Importance
Mesure de l'importance des variables calculée en évaluant l'augmentation de l'erreur OOB lorsque les valeurs d'une variable sont permutées aléatoirement dans les échantillons out-of-bag.
OOB Cross-Validation
Alternative à la validation croisée traditionnelle utilisant les échantillons out-of-bag comme ensembles de validation internes pour chaque itération de bootstrap.
Bagging Variance Reduction
Propriété fondamentale du bagging réduisant la variance des prédictions en moyennant les sorties de modèles entraînés sur différents échantillons bootstrap.
OOB Confidence Interval
Intervalle de confiance pour l'erreur de généralisation estimée à partir de la distribution des erreurs out-of-bag sur les différents échantillons bootstrap.
Subagging OOB
Variante du bagging utilisant des sous-échantillons sans remise, où l'estimation out-of-bag doit être adaptée pour tenir compte de la stratégie d'échantillonnage différente.
OOB Proximity Matrix
Matrice mesurant la proximité entre observations basée sur la fréquence où elles tombent dans les mêmes feuilles terminales des arbres évalués sur les échantillons out-of-bag.
Bagging Instability
Mesure de la sensibilité d'un algorithme de base aux variations des données d'entraînement, condition nécessaire pour que le bagging et l'estimation OOB soient efficaces.
OOB Learning Curve
Courbe montrant l'évolution de l'erreur out-of-bag en fonction du nombre de modèles dans l'ensemble, permettant d'optimiser la taille de l'ensemble sans surapprentissage.