KI-Glossar
Das vollständige Wörterbuch der Künstlichen Intelligenz
Arbres de Décision Classiques
Algorithmes fondamentaux comme CART, ID3 et C4.5 qui construisent des structures arborescentes pour prendre des décisions basées sur des règles de partitionnement.
Random Forest
Méthode d'ensemble qui combine multiples arbres de décision entraînés sur des sous-échantillons bootstrap pour réduire la variance et éviter le surapprentissage.
Gradient Boosting Machines
Technique d'ensemble séquentielle qui construit des modèles additifs en optimisant une fonction de perte via descente de gradient.
XGBoost
Implémentation optimisée du gradient boosting avec régularisation L1/L2, traitement parallèle et gestion efficace des valeurs manquantes.
LightGBM
Algorithme de gradient boosting utilisant la croissance par feuille (leaf-wise) et l'échantillonnage basé sur les histogrammes pour une performance accrue.
CatBoost
Méthode de gradient boosting spécialisée dans le traitement automatique des variables catégorielles avec encodage target-wise et boosting ordonné.
AdaBoost
Algorithme de boosting adaptatif qui ajuste les poids des observations difficiles à prédire à travers des itérations successives d'apprenants faibles.
Bagging
Technique d'ensemble parallèle utilisant le bootstrap aggregating pour réduire la variance en combinant des modèles entraînés sur différents échantillons.
Stacking et Blending
Méthodes d'ensemble qui combinent les prédictions de multiples modèles de base via un méta-modèle pour améliorer la performance globale.
Extra Trees
Extremely Randomized Trees, méthode similaire à Random Forest mais avec sélection aléatoire des seuils de division pour une randomisation accrue.
Arbres de Régression vs Classification
Spécialisation des arbres de décision pour les problèmes de régression (prédiction continue) ou de classification (prédiction discrète).
Méthodes d'Ensemble Parallèles
Approches où les modèles sont construits indépendamment et simultanément, comme Random Forest et Bagging, pour réduire la variance.