🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Exclusive Feature Bundling (EFB)

Optimisation unique à LightGBM qui regroupe les caractéristiques mutuellement exclusives pour réduire la dimensionnalité et accélérer l'entraînement sans perte d'information.

📖
용어

Gradient-based One-Side Sampling (GOSS)

Méthode d'échantillonnage qui conserve toutes les instances avec grands gradients et échantillonne aléatoirement celles avec petits gradients, accélérant l'entraînement tout en maintenant la précision.

📖
용어

Max leaves

Paramètre contrôlant le nombre maximum de feuilles dans chaque arbre, influençant directement la complexité du modèle et le risque de surapprentissage dans LightGBM.

📖
용어

Learning rate shrinkage

Taux d'apprentissage utilisé pour pondérer la contribution de chaque arbre dans le modèle final, contrôlant la vitesse de convergence et la régularisation du gradient boosting.

📖
용어

Bagging fraction

Proportion d'échantillons d'entraînement utilisés pour construire chaque arbre, implémentant une forme de bagging pour réduire le surapprentissage dans LightGBM.

📖
용어

Feature fraction

Pourcentage de caractéristiques aléatoirement sélectionnées pour chaque itération d'entraînement, introduisant de la stochasticité pour améliorer la généralisation du modèle.

📖
용어

Categorical feature handling

Capacité native de LightGBM à traiter efficacement les variables catégorielles sans encodage préalable, utilisant des algorithmes optimisés pour trouver les meilleurs points de division.

📖
용어

Regularization parameters

Paramètres comme lambda_l1 et lambda_l2 contrôlant la pénalisation L1 et L2 sur les poids des feuilles pour prévenir le surapprentissage dans les modèles LightGBM.

📖
용어

Tree construction parallelism

Capacité de LightGBM à paralléliser la construction des arbres au niveau des caractéristiques (feature parallel) ou des données (data parallel) pour accélérer l'entraînement.

📖
용어

Leaf-wise bias correction

Technique de correction du biais inhérent à la croissance leaf-wise qui tend à favoriser les arbres déséquilibrés, ajustant les prédictions finales pour maintenir l'impartialité.

📖
용어

Gradient statistics

Statistiques de gradient et de hessien accumulées dans chaque nœud pour évaluer la qualité des divisions potentielles selon la théorie du gradient boosting.

📖
용어

Prediction speed

Avantage de LightGBM offrant des prédictions extrêmement rapides grâce à la structure leaf-wise compacte des arbres et aux optimisations d'inférence implémentées.

🔍

결과를 찾을 수 없습니다