🏠 Accueil
Benchmarks
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 Glossaire IA 🔗 Liens Utiles

Glossaire IA

Le dictionnaire complet de l'Intelligence Artificielle

242
catégories
3 353
sous-catégories
40 780
termes
📖
termes

Gradient Boosting

Technique d'apprentissage ensembliste qui construit des modèles prédictifs de manière séquentielle, où chaque nouveau modèle corrige les erreurs des modèles précédents en optimisant une fonction de perte via la descente de gradient.

📖
termes

Apprentissage par Additivité

Principe fondamental du Gradient Boosting où le modèle final est la somme pondérée de prédictions de multiples apprenants faibles, chacun ajouté pour améliorer la performance globale.

📖
termes

Taux d'Apprentissage (Learning Rate)

Hyperparamètre qui contrôle l'influence de chaque apprenant faible sur le modèle final, agissant comme un facteur de pondération pour éviter le surapprentissage.

📖
termes

Résidus

Erreurs de prédiction du modèle actuel, calculées comme la différence entre les valeurs observées et les prédictions, sur lesquelles le prochain apprenant faible est entraîné en Gradient Boosting.

📖
termes

Nombre d'Estimateurs

Hyperparamètre définissant le nombre d'apprenants faibles (itérations) à construire dans le modèle de Gradient Boosting, influençant directement la complexité et la performance.

📖
termes

XGBoost (Extreme Gradient Boosting)

Implémentation optimisée et parallélisée du Gradient Boosting qui intègre la régularisation, le traitement des valeurs manquantes et des techniques d'élagage d'arbres pour une efficacité supérieure.

📖
termes

LightGBM

Framework de Gradient Boosting qui utilise une technique de croissance d'arbres par feuilles (leaf-wise) plutôt que par niveau (level-wise), offrant une vitesse d'entraînement accrue et une consommation mémoire réduite.

📖
termes

CatBoost

Algorithme de Gradient Boosting spécialisé dans le traitement efficace des variables catégorielles, utilisant des techniques de codage ordonné et des schémas de boosting asymétriques.

📖
termes

Stochastic Gradient Boosting

Variante du Gradient Boosting où chaque apprenant faible est entraîné sur un sous-ensemble aléatoire des données d'entraînement, réduisant la corrélation entre les arbres et améliorant la généralisation.

📖
termes

Sous-échantillonnage des Caractéristiques

Technique de régularisation dans le Gradient Boosting qui consiste à ne considérer qu'un sous-ensemble aléatoire des variables prédictives pour chaque分割 de nœud d'arbre, limitant le surapprentissage.

📖
termes

Profondeur Max de l'Arbre

Hyperparamètre contrôlant la complexité de chaque apprenant faible en limitant le nombre de分割 de décision, équilibrant le biais et la variance dans les modèles de Gradient Boosting.

📖
termes

Pseudo-Résidus

Généralisation des résidus dans le Gradient Boosting, représentant le gradient négatif de la fonction de perte par rapport aux prédictions actuelles, permettant l'optimisation pour diverses fonctions de perte.

📖
termes

Boosting de Régression

Application du Gradient Boosting aux problèmes de régression où l'objectif est de prédire des valeurs continues, utilisant typiquement une fonction de perte quadratique ou absolue.

📖
termes

Boosting de Classification

Application du Gradient Boosting aux problèmes de classification, utilisant des fonctions de perte spécifiques comme la log-loss (entropie croisée) pour guider l'optimisation des probabilités de classe.

📖
termes

Régularisation L1/L2

Techniques de pénalisation ajoutées à la fonction de perte dans le Gradient Boosting pour contrôler la complexité des poids des feuilles d'arbres, réduisant le surapprentissage et améliorant la robustesse.

🔍

Aucun résultat trouvé