🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Gradient Boosting

Technique d'apprentissage ensembliste qui construit des modèles prédictifs de manière séquentielle, où chaque nouveau modèle corrige les erreurs des modèles précédents en optimisant une fonction de perte via la descente de gradient.

📖
个术语

Apprentissage par Additivité

Principe fondamental du Gradient Boosting où le modèle final est la somme pondérée de prédictions de multiples apprenants faibles, chacun ajouté pour améliorer la performance globale.

📖
个术语

Taux d'Apprentissage (Learning Rate)

Hyperparamètre qui contrôle l'influence de chaque apprenant faible sur le modèle final, agissant comme un facteur de pondération pour éviter le surapprentissage.

📖
个术语

Résidus

Erreurs de prédiction du modèle actuel, calculées comme la différence entre les valeurs observées et les prédictions, sur lesquelles le prochain apprenant faible est entraîné en Gradient Boosting.

📖
个术语

Nombre d'Estimateurs

Hyperparamètre définissant le nombre d'apprenants faibles (itérations) à construire dans le modèle de Gradient Boosting, influençant directement la complexité et la performance.

📖
个术语

XGBoost (Extreme Gradient Boosting)

Implémentation optimisée et parallélisée du Gradient Boosting qui intègre la régularisation, le traitement des valeurs manquantes et des techniques d'élagage d'arbres pour une efficacité supérieure.

📖
个术语

LightGBM

Framework de Gradient Boosting qui utilise une technique de croissance d'arbres par feuilles (leaf-wise) plutôt que par niveau (level-wise), offrant une vitesse d'entraînement accrue et une consommation mémoire réduite.

📖
个术语

CatBoost

Algorithme de Gradient Boosting spécialisé dans le traitement efficace des variables catégorielles, utilisant des techniques de codage ordonné et des schémas de boosting asymétriques.

📖
个术语

Stochastic Gradient Boosting

Variante du Gradient Boosting où chaque apprenant faible est entraîné sur un sous-ensemble aléatoire des données d'entraînement, réduisant la corrélation entre les arbres et améliorant la généralisation.

📖
个术语

Sous-échantillonnage des Caractéristiques

Technique de régularisation dans le Gradient Boosting qui consiste à ne considérer qu'un sous-ensemble aléatoire des variables prédictives pour chaque分割 de nœud d'arbre, limitant le surapprentissage.

📖
个术语

Profondeur Max de l'Arbre

Hyperparamètre contrôlant la complexité de chaque apprenant faible en limitant le nombre de分割 de décision, équilibrant le biais et la variance dans les modèles de Gradient Boosting.

📖
个术语

Pseudo-Résidus

Généralisation des résidus dans le Gradient Boosting, représentant le gradient négatif de la fonction de perte par rapport aux prédictions actuelles, permettant l'optimisation pour diverses fonctions de perte.

📖
个术语

Boosting de Régression

Application du Gradient Boosting aux problèmes de régression où l'objectif est de prédire des valeurs continues, utilisant typiquement une fonction de perte quadratique ou absolue.

📖
个术语

Boosting de Classification

Application du Gradient Boosting aux problèmes de classification, utilisant des fonctions de perte spécifiques comme la log-loss (entropie croisée) pour guider l'optimisation des probabilités de classe.

📖
个术语

Régularisation L1/L2

Techniques de pénalisation ajoutées à la fonction de perte dans le Gradient Boosting pour contrôler la complexité des poids des feuilles d'arbres, réduisant le surapprentissage et améliorant la robustesse.

🔍

未找到结果