Glossaire IA
Le dictionnaire complet de l'Intelligence Artificielle
Pasting Ensemble
Méthode d'ensemble qui construit plusieurs modèles sur des sous-ensembles aléatoires des données d'entraînement, sans remplacement, pour réduire la variance et améliorer la généralisation.
Échantillonnage sans Remplacement
Technique de sélection d'observations où chaque élément choisi est retiré de la population, garantissant des sous-ensembles uniques comme dans le pasting.
Échantillonnage avec Remplacement
Méthode où les observations peuvent être sélectionnées plusieurs fois dans le même échantillon, caractéristique fondamentale du bagging.
Sous-ensemble d'Entraînement
Portion des données d'entraînement utilisée pour construire un modèle individuel dans une méthode d'ensemble, avec ou sans remplacement selon la technique.
Agrégation de Prédictions
Processus de combinaison des prédictions individuelles des modèles d'ensemble, typiquement par vote majoritaire (classification) ou moyenne (régression).
Diversité des Modèles
Principe selon lequel les modèles d'ensemble doivent être différents pour que l'agrégation soit efficace, obtenu par des sous-ensembles de données variés.
Random Subspace Sampling
Extension du bagging où les modèles sont entraînés sur des sous-ensembles aléatoires de caractéristiques en plus des sous-ensembles d'observations.
Pasting Small Samples
Variante du pasting utilisant des sous-ensembles de taille réduite pour accélérer l'entraînement tout en maintenant la diversité des modèles.
Variance du Modèle
Sensibilité du modèle aux variations des données d'entraînement, que les méthodes d'ensemble comme le bagging cherchent spécifiquement à réduire.
Stabilité des Prédictions
Capacité d'un modèle à produire des prédictions cohérentes face à de légères variations des données d'entraînement, améliorée par les méthodes d'ensemble.
Parallel Ensemble Training
Avantage du bagging et du pasting permettant l'entraînement simultané des modèles de base sur différents sous-ensembles de données.
Sample Complexity
Nombre d'échantillons nécessaires pour atteindre une certaine performance, potentiellement réduit par les méthodes d'ensemble efficaces.