🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Parallel Ensemble Learning

Paradigme d'apprentissage où les modèles de base sont construits simultanément et indépendamment les uns des autres, permettant une parallélisation efficace sur architectures distribuées. Contraste avec les méthodes séquentielles comme boosting où les modèles dépendent des précédents.

📖
용어

Decision Tree Ensemble

Collection d'arbres de décision construits en parallèle pour former un modèle prédictif plus robuste et généralisable qu'un arbre unique. Chaque arbre capture différentes patterns des données, et leur combinaison réduit le risque de surapprentissage.

📖
용어

Model Averaging

Technique d'agrégation combinant les prédictions continues de multiples modèles par calcul de leur moyenne arithmétique. Pour la classification, équivaut à la moyenne des probabilités de classe (soft voting) avant décision finale.

📖
용어

Independent Base Learners

Modèles fondamentaux dans les ensembles parallèles construits sans interaction ni dépendance entre eux pendant l'entraînement. Cette indépendance permet une parallélisation efficace et réduit le risque de propagation d'erreurs entre modèles.

📖
용어

Feature Subspace

Sous-ensemble aléatoire de caractéristiques sélectionnées à chaque noeud de division dans Random Forest, typiquement √p pour classification et p/3 pour régression. Introduit une diversité supplémentaire entre les arbres pour améliorer la performance de l'ensemble.

📖
용어

Pasting

Variante de bagging utilisant des échantillons sans remplacement plutôt qu'avec remplacement, garantissant que chaque observation apparaît au plus une fois par échantillon. Utile lorsque la taille du jeu de données est suffisamment grande pour éviter la redondance.

📖
용어

Random Subspaces

Méthode d'ensemble construisant chaque modèle de base sur un sous-ensemble aléatoire de caractéristiques plutôt que d'observations, appliquant l'approche de bagging dans l'espace des features. Particulièrement efficace pour les données haute dimensionnalité avec features redondantes.

🔍

결과를 찾을 수 없습니다