AI-woordenlijst
Het complete woordenboek van kunstmatige intelligentie
Classifieur faible
Modèle de classification dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les algorithmes de boosting.
Poids d'entraînement
Valeurs numériques assignées à chaque exemple d'entraînement pour indiquer leur importance relative dans l'itération suivante de l'algorithme.
Taux d'erreur pondéré
Mesure de performance d'un classifieur faible calculée comme la somme des poids des exemples mal classifiés divisée par la somme totale des poids.
Coefficient du classifieur
Poids alpha calculé pour chaque classifieur faible dans AdaBoost, déterminant son influence dans le vote final basé sur sa performance.
Decision Stump
Arbre de décision simplifié avec un seul nœud et deux feuilles, souvent utilisé comme classifieur faible dans AdaBoost.
SAMME
Extension multiclasse d'AdaBoost (Stagewise Additive Modeling using a Multiclass Exponential loss) adaptant l'algorithme original aux problèmes avec plus de deux classes.
Vote majoritaire pondéré
Méthode d'agrégation où chaque classifieur vote proportionnellement à son coefficient de confiance calculé par l'algorithme AdaBoost.
Entraînement itératif
Processus séquentiel où chaque nouveau classifieur est entraîné sur les données repondérées en fonction des performances des classifieurs précédents.
Hypothèse d'apprentissage faible
Principe fondamental du boosting stipulant qu'il est possible de combiner des classifieurs légèrement meilleurs que le hasard pour obtenir un classifieur fort.
Taux d'apprentissage AdaBoost
Paramètre shrinkage qui contrôle la contribution de chaque classifieur faible au modèle final, permettant de régulariser l'algorithme.
Pondération des instances
Mécanisme central d'AdaBoost modifiant la distribution de probabilité sur les exemples d'entraînement pour focaliser sur les cas difficiles.
Stagewise Additive Modeling
Approche de construction de modèle où les classifieurs sont ajoutés séquentiellement sans retoucher les paramètres des classifieurs précédents.
Robustesse aux outliers
Sensibilité d'AdaBoost aux valeurs aberrantes due à la pondération exponentielle croissante des exemples constamment mal classifiés.
Convergence AdaBoost
Propriété théorique garantissant que l'erreur d'entraînement d'AdaBoost diminue exponentiellement avec le nombre d'itérations sous certaines conditions.
Frontière de décision additive
Surface de séparation finale résultant de la combinaison linéaire pondérée des frontières de décision des classifieurs faibles.