🏠 홈
벤치마크
📊 모든 벤치마크 🦖 공룡 v1 🦖 공룡 v2 ✅ 할 일 목록 앱 🎨 창의적인 자유 페이지 🎯 FSACB - 궁극의 쇼케이스 🌍 번역 벤치마크
모델
🏆 톱 10 모델 🆓 무료 모델 📋 모든 모델 ⚙️ 킬로 코드 모드
리소스
💬 프롬프트 라이브러리 📖 AI 용어 사전 🔗 유용한 링크

AI 용어집

인공지능 완전 사전

162
카테고리
2,032
하위 카테고리
23,060
용어
📖
용어

Random Forest

Méthode d'ensemble qui combine des centaines d'arbres de décision entraînés sur des sous-échantillons bootstrap avec sélection aléatoire de variables, réduisant ainsi la variance et évitant le surapprentissage.

📖
용어

Bootstrap Sampling

Méthode d'échantillonnage avec remise qui génère plusieurs sous-ensembles de données de même taille que l'ensemble original, permettant d'estimer la distribution d'un estimateur et de réduire la variance.

📖
용어

Gini Impurity

Critère de division dans les arbres de décision qui mesure la probabilité qu'un élément choisi au hasard soit mal classifié, calculée comme 1 moins la somme des carrés des probabilités de chaque classe.

📖
용어

Random Subspace Method

Technique qui sélectionne aléatoirement un sous-ensemble de caractéristiques pour chaque split dans l'arbre, augmentant la diversité entre les arbres et réduisant la corrélation dans Random Forest.

📖
용어

Extra Trees

Variante de Random Forest qui utilise des seuils de division aléatoires au lieu de chercher le seuil optimal, augmentant la randomisation et réduisant le temps de calcul tout en maintenant la performance.

📖
용어

Decision Tree

Modèle prédictif qui construit une structure arborescente de décisions basées sur les caractéristiques des données, où chaque nœud interne représente un test sur une caractéristique et chaque feuille une prédiction.

📖
용어

Max Features

Hyperparamètre crucial dans Random Forest qui détermine le nombre maximum de caractéristiques à considérer pour chaque split, contrôlant le compromis entre biais et variance.

📖
용어

Node Purity

Mesure de l'homogénéité d'un nœud dans un arbre de décision, où un nœud pur contient des observations appartenant toutes à la même classe ou ayant des valeurs cibles identiques.

📖
용어

Bootstrap Aggregation

Processus mathématique qui combine les prédictions de plusieurs modèles entraînés sur des échantillons bootstrap pour produire une prédiction finale plus stable avec une variance réduite.

📖
용어

Tree Depth

Hyperparamètre contrôlant le nombre maximum de niveaux dans un arbre de décision, influençant directement la complexité du modèle et son risque de surapprentissage.

📖
용어

Minimum Samples Split

Paramètre qui définit le nombre minimum d'observations requis pour diviser un nœud interne, contrôlant la granularité de l'arbre et prévenant la création de branches spécifiques.

📖
용어

Variance Reduction

Objectif principal des méthodes d'ensemble comme Random Forest, qui diminue la sensibilité du modèle aux fluctuations des données d'entraînement grâce à l'agrégation de prédictions diverses.

🔍

결과를 찾을 수 없습니다