Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Out-of-Bag Error
Erreur de validation calculée sur les observations non sélectionnées lors d'un échantillonnage bootstrap, constituant une estimation non biaisée de l'erreur de généralisation du modèle. L'OOB error sert d'alternative à la validation croisée dans les méthodes d'ensemble comme Random Forest.
Bootstrap Aggregating (Bagging)
Méthode d'ensemble qui entraîne multiples modèles sur différents échantillons bootstrap et combine leurs prédictions par vote majoritaire ou moyennage pour réduire la variance et améliorer la stabilité prédictive. Bagging est particulièrement efficace pour les algorithmes instables comme les arbres de décision.
Bootstrap Confidence Interval
Intervalle de confiance estimé par rééchantillonnage bootstrap pour quantifier l'incertitude des paramètres du modèle ou des métriques de performance. Plusieurs méthodes existent : percentile, BCa, et basic bootstrap intervals.
Jackknife Validation
Technique de rééchantillonnage systématique où chaque observation est omise tour à tour pour estimer le biais et la variance d'un estimateur, considérée comme une approximation du bootstrap. Le jackknife est moins coûteux computationnellement mais moins flexible que le bootstrap.
Permutation Validation
Méthode de validation non paramétrique qui évalue la significativité statistique d'un modèle en permutant aléatoirement les étiquettes cibles pour créer une distribution nulle de performance. Cette technique permet de tester si le modèle apprend réellement des patterns significatifs.
Bootstrap Bias Correction
Procédure utilisant le bootstrap pour estimer et corriger le biais d'un estimateur ou d'une métrique d'évaluation du modèle. Cette correction améliore la précision des estimations particulièrement sur les petits échantillons.
BCa Bootstrap (Bias-Corrected and Accelerated)
Méthode bootstrap avancée qui ajuste les intervalles de confiance en corrigeant le biais et l'accélération (skewness) de la distribution bootstrap. BCa fournit des intervalles plus précis que la méthode percentile standard.
Parametric Bootstrap
Variante du bootstrap où les échantillons sont générés à partir d'une distribution paramétrique ajustée aux données plutôt qu'un rééchantillonnage direct. Cette méthode est utile lorsque le modèle sous-jacent des données est connu ou supposé.
Non-parametric Bootstrap
Approche bootstrap classique qui rééchantillonne directement avec remplacement depuis les données observées sans faire d'hypothèses sur la distribution sous-jacente. Cette méthode est plus flexible et robuste aux violations des hypothèses distributionnelles.
Bootstrap Sampling Distribution
Distribution empirique d'une statistique obtenue en calculant cette statistique sur de multiples échantillons bootstrap, permettant d'estimer la variabilité et les propriétés asymptotiques de l'estimateur. Cette distribution sert de base aux inférences bootstrap.
Bootstrap Standard Error
Estimation de l'erreur standard d'une statistique calculée comme l'écart-type de sa distribution bootstrap, fournissant une mesure de précision robuste aux hypothèses distributionnelles. Cette estimation est particulièrement utile pour les statistiques complexes.
Bootstrap Hypothesis Testing
Approche de test d'hypothèses utilisant le bootstrap pour générer la distribution sous l'hypothèse nulle et calculer les p-values de manière non paramétrique. Cette méthode évite les approximations asymptotiques et fonctionne avec des statistiques de test complexes.
Bootstrap Model Selection
Processus de sélection de modèle utilisant le bootstrap pour évaluer la stabilité et la performance comparative de différents candidats modèles sur de multiples rééchantillons. Cette approche quantifie l'incertitude dans le processus de sélection lui-même.
Bootstrap Power Analysis
Évaluation de la puissance statistique d'un test ou modèle en simulant de multiples échantillons bootstrap sous différentes alternatives hypothétiques. Cette méthode permet d'estimer la taille d'échantillon requise sans hypothèses distributionnelles restrictives.
Bootstrap Calibration
Technique d'ajustement des probabilités prédites par un modèle de classification en utilisant le bootstrap pour estimer et corriger le biais de calibration. Cette méthode améliore la fiabilité des scores de probabilité du modèle.
Bootstrap Ensemble Methods
Famille d'algorithmes combinant bootstrap et agrégation pour réduire la variance des prédictions, incluant Random Forest, Extra Trees et d'autres méthodes basées sur des échantillons bootstrap. Ces méthodes exploitent la diversité créée par le rééchantillonnage.
Bootstrap Feature Importance
Évaluation de l'importance des variables en mesurant leur impact sur la performance du modèle à travers de multiples échantillons bootstrap, fournissant des intervalles de confiance pour l'importance. Cette approche quantifie la stabilité de l'importance des caractéristiques.
Bootstrap Model Stability
Mesure de la robustesse d'un modèle évaluée par la cohérence de ses prédictions ou paramètres à travers différents échantillons bootstrap. La stabilité est cruciale pour la confiance dans les déploiements réels du modèle.
Bootstrap.632+
Variante avancée du bootstrap qui corrige le biais optimiste de l'estimation d'erreur en combinant l'erreur bootstrap et l'erreur apparente avec un poids de 0.632, ajusté pour le surapprentissage. Cette méthode fournit des estimations d'erreur plus précises.