🏠 Accueil
基準測試
📊 Tous les Benchmarks 🦖 Dinosaure v1 🦖 Dinosaure v2 ✅ To-Do List Apps 🎨 Pages Libres 🎯 FSACB - Showcase 🌍 Traduction
Modèles
🏆 Top 10 Modèles 🆓 Modèles Gratuits 📋 Tous les Modèles ⚙️ Modes Kilo Code
Ressources
💬 Prompts IA 📖 人工智能詞彙表 🔗 Liens Utiles

AI 詞彙表

人工智能完整詞典

200
類別
2,608
子類別
30,011
術語
📖
術語

XGBoost

Implémentation optimisée de gradient boosting utilisant des techniques de régularisation avancées, le traitement parallèle et l'optimisation de la mémoire pour améliorer la performance et la vitesse d'entraînement.

📖
術語

AdaBoost

Méthode de boosting adaptatif qui ajuste dynamiquement les poids des observations d'entraînement, se concentrant sur les exemples difficiles à travers des itérations successives de weak learners.

📖
術語

Weak Learner

Modèle prédictif simple (généralement un arbre de décision peu profond) dont la performance est légèrement supérieure au hasard, utilisé comme brique de base dans les méthodes de boosting.

📖
術語

Loss Function

Fonction mathématique qui quantifie l'erreur entre les prédictions du modèle et les valeurs réelles, guidant l'optimisation itérative dans les algorithmes de gradient boosting.

📖
術語

Gradient Descent

Algorithme d'optimisation itératif qui ajuste les paramètres du modèle dans la direction opposée au gradient de la fonction de perte pour minimiser l'erreur globale.

📖
術語

Residual Learning

Technique où chaque modèle successif apprend à prédire les résidus (erreurs) du modèle précédent, permettant une approximation progressive et précise de la fonction cible.

📖
術語

Subsampling

Technique d'échantillonnage aléatoire des données d'entraînement pour chaque itération, introduisant de la stochasticité et réduisant la corrélation entre les arbres pour une meilleure généralisation.

📖
術語

Regularization

Ensemble de techniques (L1, L2, élagage) qui pénalisent la complexité du modèle pour contrôler le surapprentissage et améliorer la capacité de généralisation.

📖
術語

Tree Pruning

Processus d'élagage des branches d'arbre de décision après leur construction complète, éliminant les subdivisions non informatives pour réduire la complexité et améliorer la généralisation.

📖
術語

Histogram-based Algorithm

Optimisation qui discrétise les caractéristiques continues en histogrammes avant la construction des arbres, accélérant considérablement la recherche des meilleurs points de division.

📖
術語

Leaf-wise Growth

Stratégie de construction d'arbres qui divise la feuille présentant la plus grande réduction de perte, plutôt que de développer toutes les feuilles à la même profondeur.

🔍

搵唔到結果