🏠 首页
基准测试
📊 所有基准测试 🦖 恐龙 v1 🦖 恐龙 v2 ✅ 待办事项应用 🎨 创意自由页面 🎯 FSACB - 终极展示 🌍 翻译基准测试
模型
🏆 前 10 名模型 🆓 免费模型 📋 所有模型 ⚙️ 🛠️ 千行代码模式
资源
💬 💬 提示库 📖 📖 AI 词汇表 🔗 🔗 有用链接

AI 词汇表

人工智能完整词典

200
个类别
2,608
个子类别
30,011
个术语
📖
个术语

Regularization L1/L2

Mécanismes de pénalité intégrés dans XGBoost pour contrôler la complexité du modèle et prévenir le surapprentissage. L1 (Lasso) favorise la parcimonie tandis que L2 (Ridge) réduit l'amplitude des poids.

📖
个术语

Max Depth

Paramètre contrôlant la profondeur maximale de chaque arbre de décision dans l'ensemble, limitant ainsi la complexité individuelle des apprenants. Profondeur typique entre 3 et 10 pour équilibrer biais-variance.

📖
个术语

Subsample

Fraction des observations d'entraînement échantillonnées aléatoirement pour construire chaque arbre, introduisant de la stochasticité pour réduire le surapprentissage. Valeurs courantes entre 0.5 et 1.0.

📖
个术语

Colsample_bytree

Proportion de features sélectionnées aléatoirement pour chaque arbre, similaire à l'approche Random Forest pour améliorer la robustesse et réduire la corrélation entre arbres. Permet l'feature subsampling horizontal.

📖
个术语

Split Finding Algorithm

Algorithme optimisé de recherche des meilleurs points de division utilisant une approche approximative pondérée par quantiles pour accélérer l'entraînement sur grands datasets. Réduit significativement la complexité computationnelle.

📖
个术语

Sparse-aware Algorithm

Capacité de XGBoost à traiter efficacement les valeurs manquantes et les matrices creuses sans imputation préalable. Apprend automatiquement la direction optimale pour les valeurs manquantes lors des divisions.

📖
个术语

Parallel Processing

Implémentation multithreadée qui parallélise la construction des arbres au niveau des features et des instances pour accélérer l'entraînement. Supporte aussi le traitement distribué via frameworks comme Hadoop ou Spark.

📖
个术语

Cross-validation

Fonctionnalité native de XGBoost permettant l'évaluation robuste du modèle via validation croisée k-fold intégrée avec early stopping automatique. Optimise la sélection d'hyperparamètres et prévient le surapprentissage.

📖
个术语

Objective Function

Fonction mathématique combinant la perte de prédiction et les termes de régularisation que XGBoost optimise lors de l'entraînement. Supporte multiples objectifs: régression, classification binaire/multi-classe, ranking.

📖
个术语

Evaluation Metrics

Ensemble de métriques personnalisables pour surveiller la performance pendant l'entraînement: RMSE, MAE, LogLoss, AUC, Error Rate, etc. Peuvent différer de l'objectif d'optimisation principal.

📖
个术语

DMatrix

Structure de données optimisée spécifique à XGBoost pour stocker efficacement les datasets en mémoire avec support natif du sparse format. Accélère l'accès aux données et réduit l'empreinte mémoire.

🔍

未找到结果